JP2010520552A - Method and system for evaluating media and media events based on physiological data - Google Patents

Method and system for evaluating media and media events based on physiological data Download PDF

Info

Publication number
JP2010520552A
JP2010520552A JP2009552656A JP2009552656A JP2010520552A JP 2010520552 A JP2010520552 A JP 2010520552A JP 2009552656 A JP2009552656 A JP 2009552656A JP 2009552656 A JP2009552656 A JP 2009552656A JP 2010520552 A JP2010520552 A JP 2010520552A
Authority
JP
Japan
Prior art keywords
media
event
event type
instances
physiological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009552656A
Other languages
Japanese (ja)
Other versions
JP5746472B2 (en
JP2010520552A5 (en
Inventor
リー,ハンス
ホング,ティミー
ウィリアムズ,ウィリアム
フェッティプレイス,マイケル
Original Assignee
エムセンス コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エムセンス コーポレイション filed Critical エムセンス コーポレイション
Publication of JP2010520552A publication Critical patent/JP2010520552A/en
Publication of JP2010520552A5 publication Critical patent/JP2010520552A5/ja
Application granted granted Critical
Publication of JP5746472B2 publication Critical patent/JP5746472B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/31Arrangements for monitoring the use made of the broadcast services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/46Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising users' preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Game Theory and Decision Science (AREA)
  • Neurosurgery (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本発明の様々な実施の形態は、メディアの視聴者の測定された生理学的データから生理学的反応を導き出し、生理学的反応に基づいてイベント種別のインスタンスのスコアを計算するボトムアップの分析手法を可能とする。各イベント・インスタンスを評価するのに加え、その後、スコアが集約されて、イベント種別が評価される。本手法は、また、メディア内におけるイベント種別のセットのイベント評価を集約することにより、メディアの全体評価を形成することができる。
【選択図】 図1
Various embodiments of the present invention enable a bottom-up analysis technique that derives physiological responses from measured physiological data of media viewers and calculates event type instance scores based on the physiological responses. And In addition to evaluating each event instance, the scores are then aggregated and the event type is evaluated. The method can also form an overall assessment of the media by aggregating event assessments for a set of event types within the media.
[Selection] Figure 1

Description

本発明は、視聴者からの生理学的反応に基づくメディア及びイベント評価の分野に関する。   The present invention relates to the field of media and event evaluation based on physiological responses from viewers.

メディアに対する視聴者反応を分析する従来の手法は、統計に対する平均化された反応、視聴者の「ノブ」、生理学的データ又は他の評価機構に基づく、トップダウンの観察に焦点をあてる。視聴者は通常、少数の主要イベントしか覚えておらず、他は忘れてしまうため、各個人視聴者の認識の偏りによって、この観察の分析精度は制限される。そのため、視聴者のメディア経験の期間に他の肯定的なイベントがあったとしても、メディアの一つ又は二つの否定的なイベントが、視聴者が後にメディアをどう思うかを支配しかねない。   Traditional approaches to analyzing audience responses to media focus on top-down observations based on averaged responses to statistics, viewer “knobs”, physiological data or other rating mechanisms. Because viewers typically remember only a few major events and forget others, the perceived bias of each individual viewer limits the analysis accuracy of this observation. As such, even if there are other positive events during the viewer's media experience, one or two negative events in the media can dominate what the viewer will think of the media later.

心拍数、脳波、動き、筋肉運動、電気皮膚反応、及びメディア視聴者の他の反応を含むがそれらに限定されない生理学的データは、視聴者がメディアを視聴している期間の感情変化の軌跡を与え得る。しかしながら、そのようなデータ自身は、メディア又はそのイベントがメディア又はイベントの他のインスタンスに対して客観的に調査及び/又は比較されることを可能とするような、メディアの客観的基準を作成しない。   Physiological data, including but not limited to heart rate, electroencephalogram, movement, muscle movement, electrocutaneous response, and other responses of the media viewer, track emotional changes during the time the viewer is watching the media. Can give. However, such data itself does not create an objective criteria for the media that allows the media or its events to be objectively investigated and / or compared against other instances of the media or events. .

本発明の様々な実施の形態は、メディアの視聴者の測定された生理学的データから生理学的反応を導き出し、生理学的反応に基づいてイベント種別のインスタンスのスコアを計算するボトムアップの分析手法を可能とする。その後、各イベントのインスタンスをスコア付けするのに加え、イベント種別を評価するためにスコアが集約される。本手法は、更に、メディア内のイベント種別のセットの評価を集約することにより、メディアの全体評価を形成することができる。   Various embodiments of the present invention enable a bottom-up analysis technique that derives physiological responses from measured physiological data of media viewers and calculates event type instance scores based on the physiological responses. And Then, in addition to scoring each event instance, the scores are aggregated to evaluate the event type. The method can also form an overall assessment of the media by aggregating assessments of the set of event types in the media.

図1は、本発明の一つの実施の形態によるメディア及びイベント評価を支持する例としてのシステムの図である。FIG. 1 is a diagram of an example system that supports media and event evaluation according to one embodiment of the present invention. 図2Aは、本発明の一つの実施の形態によるメディア及びイベント評価を支持する例としてのプロセスを示すフローチャートである。FIG. 2A is a flowchart illustrating an example process for supporting media and event evaluation according to one embodiment of the present invention. 図2Bは、本発明の一つの実施の形態によるメディア及びイベント評価を支持する例としてのプロセスを示すフローチャートである。FIG. 2B is a flowchart illustrating an exemplary process for supporting media and event evaluation according to one embodiment of the invention. 図3は、本発明の一つの実施の形態とともに用いられる例としての統合ヘッドセットを示す。FIG. 3 illustrates an example integrated headset for use with one embodiment of the present invention. 図4(a)−(c)は、本発明の一つの実施の形態による、測定された生理学的反応の例としての追跡と、メディアの例としての分割線とを示す。FIGS. 4 (a)-(c) show exemplary tracking of measured physiological responses and dividing lines as exemplary media, according to one embodiment of the present invention. 図5は、本発明の一つの実施の形態において生成される、広告におけるジョークの例としてのプロフィールを示す。FIG. 5 illustrates an exemplary profile of a joke in an advertisement generated in one embodiment of the present invention. 図6は、本発明の一つの実施の形態に従って計算された、2つの映画における3つの例としてのイベント種別に対する、全体的なイベント評価を示す。FIG. 6 shows the overall event rating for three example event types in two movies, calculated according to one embodiment of the present invention.

本発明は、例として示されるものであり、同様の参照番号が類似の要素を示す添付の図面における特徴に限定されるものではない。本明細書における「一つの」、又は「幾つかの」実施の形態は、必ずしも同一の実施の形態ではなく、そのような表現は、少なくとも一つを意味するものであることに注意するべきである。   The present invention is illustrated by way of example and is not limited to the features in the accompanying drawings in which like reference numbers indicate similar elements. It should be noted that “one” or “several” embodiments in this specification are not necessarily the same embodiment, and such a representation is intended to mean at least one. is there.

聴衆/視聴者とつながる効果的なメディアは、所望の感情的反応を引き出すことができ、また、生理学的反応が視聴者の感情変化の有効な基準であることが確立している。本発明の様々な実施の形態は、メディア視聴者の測定された生理学的データから生理学的反応を導き出し、生理学的反応に基づいてイベント種別のインスタンスのスコアを計算するボトムアップの分析手法を可能とする。その後、イベントの各インスタンスのスコア付けに加えて、スコアが集約され、イベント種別が評価される。該手法は、更に、メディア内のイベント種別のセットの評価を集約することにより、メディアの全体評価を形成することができる。そのような手法は、イベント種別のインスタンスが、当該メディア内の同一イベント種別の先のインスタンスに対して客観的に測定され、現在のメディアが他のメディアに対して客観的に測定されることを可能とする。更に、測定された生理学的データに基づいて、メディアを、それぞれが複数のイベント・インスタンスを有する一つ又はそれ以上の主要且つ繰り返し可能なイベント種別に定義し、全イベント・インスタンス及び全イベント種別のスコアを集約してメディアに対する視聴者の全体的な反応を測定する、断片化及び組み合わせ(slice and combine)手法が採用されてよい。手法の各ステップはコンピュータ装置で処理可能であるため、手法全体を自動化することが可能であり、それにより、人間による入力又は介入をあまり必要としないメディアの客観的測定が可能となる。   Effective media connected with the audience / viewer can elicit the desired emotional response, and it is established that the physiological response is an effective measure of the viewer's emotional changes. Various embodiments of the present invention enable a bottom-up analysis approach that derives physiological responses from measured physiological data of media viewers and calculates event type instance scores based on the physiological responses. To do. Thereafter, in addition to scoring each instance of the event, the scores are aggregated and the event type is evaluated. The technique can also form an overall assessment of the media by aggregating assessments of the set of event types in the media. Such an approach is to ensure that an event type instance is objectively measured relative to previous instances of the same event type in the media, and the current media is objectively measured relative to other media. Make it possible. In addition, based on the measured physiological data, the media is defined into one or more primary and repeatable event types, each having multiple event instances, for all event instances and all event types. Fragmentation and combination techniques that aggregate scores and measure the overall response of the viewer to the media may be employed. Since each step of the technique can be processed by a computer device, the entire technique can be automated, thereby allowing objective measurement of media that requires less human input or intervention.

本発明の背景にある主要原理は、メディアに対する個人の反応を見てメディアに関する判断をすることはできない、というものである。非限定的な例として、複数の主要場面(イベント)を有する映画は、各場面に対する視聴者反応の完全な分析によってのみ、正確に評価することができる。そのような分析は、強烈な場面が本当に強烈であるか否か、ラブ・シーンが視聴者の興味を失わせるか又は関心を引くか、視聴者はジョークを面白いと思ったか否か、等を含み得るがそれらに限定されるものではない。これらの個別の場面種別が集約され、全体として評価された際にのみ、映画が客観的且つ自動的に同一ジャンルの他の映画と比較されることができる。更に、特定の場面(イベント種別)に対して期待される典型的な反応を知ることによってのみ、その場面の新しいインスタンスを客観的に評価することができる。   The main principle behind the present invention is that it is not possible to make judgments about the media by looking at individual responses to the media. As a non-limiting example, a movie with multiple major scenes (events) can only be accurately evaluated by a complete analysis of the audience response for each scene. Such an analysis will determine whether the intense scene is really intense, whether the love scene will distract or attract the viewer's interest, whether the viewer thought the joke was interesting, etc. It can include, but is not limited to. Only when these individual scene types are aggregated and evaluated as a whole, a movie can be objectively and automatically compared to other movies of the same genre. Furthermore, only by knowing the typical response expected for a particular scene (event type), a new instance of that scene can be objectively evaluated.

図1は、本発明の一つの実施の形態による、メディア及びイベントの評価を支持する例としてのシステムの図である。この図では、構成要素が機能的に分離して描かれているが、そのような描写は例示に過ぎない。この図に描かれた構成要素が任意に組み合わされ、又は別個のソフトウェア、ファームウェア、及び/又はハードウェア要素に分離されても良いことは、当業者にとって明らかである。更に、そのような構成要素は、どのように組み合わされ又は分離されるかに関わらず、同一のコンピュータ装置又は複数のコンピュータ装置上で実行されることができ、複数のコンピュータ装置は、一つ又はそれ以上のネットワークで接続され得ることも、当業者にとって明らかである。   FIG. 1 is a diagram of an example system that supports media and event evaluation, according to one embodiment of the present invention. In this figure, the components are depicted functionally separated, but such depiction is merely exemplary. It will be apparent to those skilled in the art that the components depicted in this figure may be combined arbitrarily or separated into separate software, firmware, and / or hardware components. Further, such components may be executed on the same computer device or a plurality of computer devices, regardless of how they are combined or separated, and a plurality of computer devices may be one or It will be apparent to those skilled in the art that they can be connected with more networks.

図1を参照して、一つ又はそれ以上のセンサ103は、メディア101を視聴している複数の視聴者102それぞれからの生理学的データの測定及び記録に利用される。代替として、以下に説明するように、統合センサ・ヘッドセットが適用されてもよい。ここで、メディアは、映画、ビデオ、テレビ番組、テレビ・コマーシャル、広告、ビデオゲーム、インタラクティブなオンライン・メディア、印刷物、及び視聴者が情報を得たり、感情的に影響を受けたりし得る任意の他のメディア、のうちの一つ又はそれ以上であってよい。測定される生理学的データは、心拍数、脳波、脳電図(EEG)信号、瞬き率、呼吸、動作、筋肉の動き、電気皮膚反応、及び感情の変化に相関付けられる任意の他の反応を含むがそれらに限定されるものではない。一つ又はそれ以上のセンサのそれぞれは、脳電図、加速度計、血液酸素センサ、検流計、筋電図、及び任意の他の生理学的センサのうちの一つ又はそれ以上であってよい。身体の生理学的データは、人間の感情変化との相関を示してきた。統計、ノブ、又は他の偏りやすい反応の基準を利用する変わりに、身体の生理学的データの変化そのものを感知することにより、本発明は、記録されるデータと、それらデータの粒度とを改善する。生理学的反応は、毎秒何回も記録することができるためである。   Referring to FIG. 1, one or more sensors 103 are used to measure and record physiological data from each of a plurality of viewers 102 who are viewing media 101. Alternatively, an integrated sensor headset may be applied as described below. Here, media can be movies, videos, TV shows, TV commercials, advertisements, video games, interactive online media, printed materials, and any media where viewers can get information or be emotionally affected. It may be one or more of other media. Physiological data measured includes heart rate, electroencephalogram, electroencephalogram (EEG) signal, blink rate, breathing, movement, muscle movement, electrical skin reaction, and any other response correlated with emotional changes. Including, but not limited to. Each of the one or more sensors may be one or more of an electroencephalogram, accelerometer, blood oxygen sensor, galvanometer, electromyogram, and any other physiological sensor. . Physiological data of the body has been correlated with human emotional changes. Instead of utilizing statistics, knobs, or other biased response criteria, the present invention improves the data recorded and the granularity of those data by sensing the changes in the body's physiological data itself. . This is because the physiological response can be recorded many times per second.

幾つかの実施の形態において、受信モジュール104は、メディアを視聴している複数の視聴者それぞれの生理学的データを受け取り、及び/又は記録するよう動作可能である。生理学的データは、他の方法によって、及び/又は記憶装置から、測定及び/又は取得されてもよい。幾つかの実施の形態において、決定モジュール105は、それぞれがメディア内において発生する複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の、発生及び持続時間を決定及び記録するよう動作可能である。メディアにおける各イベント・インスタンスの持続時間は、時間的に不変、非線形、又は準線形であり得る。幾つかの実施の形態において、そのようなイベントの定義は、視聴者の生理学的データが測定された後に起こり、決定モジュール105は、複数の視聴者から測定された生理学的データに基づいて、メディアを、それぞれがメディア内の複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に定義する。   In some embodiments, the receiving module 104 is operable to receive and / or record physiological data for each of a plurality of viewers viewing the media. Physiological data may be measured and / or obtained by other methods and / or from a storage device. In some embodiments, the determination module 105 is operable to determine and record the occurrence and duration of one or more event types, each having multiple event instances that occur in the media. is there. The duration of each event instance in the media can be time-invariant, non-linear, or quasi-linear. In some embodiments, the definition of such an event occurs after the viewer's physiological data has been measured, and the determination module 105 determines the media based on the physiological data measured from the plurality of viewers. Are defined as one or more event types, each having a plurality of event instances in the media.

幾つかの実施の形態において、評価モジュール106は、複数の視聴者から測定された生理学的データから複数の生理学的反応を導き出し、複数の生理学的反応に基づいて、メディアのイベント種別のうちの一つにおける複数のイベント・インスタンスそれぞれに対するスコアを計算するように動作可能である。ここで、生理学的反応は、思考、嗜好(liking)、関与、没頭、肉体的関与、誘意性(valence)、及び生気のうちの一つ又はそれ以上であってよく、思考及び嗜好は、EEGから計算することができる。評価モジュールは、更に、そのようなスコアが計算された後で、イベント種別のインスタンスのスコアを集約することにより、特定のイベント種別を評価するよう動作可能である。更に、評価モジュールは、オプションとして、メディアのイベント種別の評価を集約することにより、メディアを評価してもよい。   In some embodiments, the evaluation module 106 derives a plurality of physiological responses from physiological data measured from a plurality of viewers, and based on the plurality of physiological responses, one of the media event types. It is operable to calculate a score for each of a plurality of event instances in one. Here, the physiological response may be one or more of thought, liking, engagement, immersion, physical involvement, valence, and vitality, It can be calculated from the EEG. The evaluation module is further operable to evaluate a particular event type by aggregating the event type instance scores after such a score is calculated. Further, the evaluation module may optionally evaluate the media by aggregating evaluations of media event types.

図2A−Bは、本発明の一つの実施の形態による、メディア及びイベントの評価を支持する例としてのプロセスを示すフローチャートである。この図は、例示のために機能的なステップを特定の順序で示しているが、該プロセスは、ステップのいかなる特定の順序又は構成に限定されるものではない。この図に描かれた様々なステップは、様々な方法で省略、再構成、組み合わせ、及び/又は適応されてもよいことが、当業者に理解される。   2A-B are flowcharts illustrating an example process that supports media and event evaluation, according to one embodiment of the present invention. Although this figure shows functional steps in a particular order for purposes of illustration, the process is not limited to any particular order or configuration of steps. Those skilled in the art will appreciate that the various steps depicted in this figure may be omitted, rearranged, combined, and / or adapted in various ways.

図2Aを参照して、ステップ201において、メディアを視聴している複数の視聴者それぞれからの生理学的データが受信又は測定される。次いで、ステップ202において、複数の視聴者から測定された生理学的データに基づいて、メディアが、それぞれがメディア内に複数のイベント・インスタンスを有する複数のイベント種別に定義される。ステップ203において、生理学的データから、複数の生理学的反応が導き出され得る。ステップ204において、複数の生理学的反応に基づいて、特定のイベント種別の複数のイベント・インスタンスそれぞれのスコアが計算され、ステップ205において、特定のイベント種別の複数のイベント・インスタンスのスコアを集約することにより、特定のイベント種別が評価される。ステップ204及び205は、メディアにおける各種別ごとに繰り返されてもよく、メディアそのものが、メディアのイベント種別の集約された評価に基づいて、ステップ206において評価されてもよい。   Referring to FIG. 2A, in step 201, physiological data from each of a plurality of viewers viewing the media is received or measured. Then, in step 202, based on physiological data measured from multiple viewers, the media is defined into multiple event types, each having multiple event instances within the media. In step 203, a plurality of physiological responses can be derived from the physiological data. In step 204, scores for each of a plurality of event instances of a particular event type are calculated based on the plurality of physiological responses, and in step 205, the scores of a plurality of event instances of a particular event type are aggregated. Thus, a specific event type is evaluated. Steps 204 and 205 may be repeated for each type of media, and the media itself may be evaluated in step 206 based on an aggregate assessment of the media event type.

幾つかの実施の形態において、生理学的データは、メディアを、同一ジャンルの他のメディアと比較することができる、主要な、繰り返されるイベントのインスタンス/種別に定義するために利用されてもよい。図2Bを参照して、メディアを視聴している複数の視聴者それぞれからの生理学的データがステップ202において受信又は測定される前に、ステップ201において、それぞれがメディア内に複数のイベント・インスタンスを有する複数のイベント種別の発生及び持続時間が、決定及び/又は記録されることができる。ステップ203〜206は、図2Aに示されたステップと同様である。   In some embodiments, physiological data may be utilized to define the media into key, repeated event instances / types that can be compared to other media in the same genre. Referring to FIG. 2B, before physiological data from each of a plurality of viewers watching the media is received or measured at step 202, at step 201 each includes multiple event instances within the media. The occurrence and duration of multiple event types can be determined and / or recorded. Steps 203-206 are similar to the steps shown in FIG. 2A.

幾つかの実施の形態において、視聴者がメディアのイベントを視聴している間に生理学的データを測定するために、生物学的反応の複数の測定値を感知することができる統合生理学的センサ・ヘッドセットが、視聴者の頭に装着され得る。データはコンピュータのプログラムに記録され、それにより、視聴者がヘッドセットを装着しながらメディアと相互作用することが可能となる。図3は、本発明の一つの実施の形態とともに使用される例としての統合ヘッドセットを示す。処理ユニット301は、生理学的データをデジタル化し、該データを、思考、関与、没頭、肉体的関与、誘意性、生気及びその他を含むがそれらに限定されない生理学的応答に処理するマイクロプロセッサである。三軸加速度計302は、頭部の動きを感知する。シリコン製安定化ストリップ303は、ヘッドセットの固定により動きを最小化し、更にしっかりした感知を可能とする。右EEG電極304及び左EEG電極306は、使用のために準備を必要としない、前額骨の前に置かれるドライ電極である。電極と肌とが接触していることが必要だが、過度な圧力は必要ない。心拍数センサ305は、額の中心付近に置かれる堅牢な血液量脈波(blood volume pulse)センサであり、充電又は交換可能な電池モジュール307が片耳の上に置かれる。裏側の調節可能ストラップ308は、様々なサイズの頭に対してヘッドセットを心地よい圧力設定に調節するために利用される。   In some embodiments, an integrated physiological sensor capable of sensing multiple measurements of a biological response to measure physiological data while a viewer is watching a media event A headset may be worn on the viewer's head. The data is recorded in a computer program, which allows the viewer to interact with the media while wearing the headset. FIG. 3 shows an exemplary integrated headset for use with one embodiment of the present invention. The processing unit 301 is a microprocessor that digitizes physiological data and processes the data into physiological responses including but not limited to thought, engagement, immersion, physical engagement, incentives, vitality and others. . The triaxial accelerometer 302 senses head movement. The silicon stabilization strip 303 minimizes movement by fixing the headset and allows more robust sensing. The right EEG electrode 304 and the left EEG electrode 306 are dry electrodes placed in front of the forehead bone that do not require preparation for use. The electrode needs to be in contact with the skin, but no excessive pressure is required. The heart rate sensor 305 is a robust blood volume pulse sensor placed near the center of the forehead, and a battery module 307 that can be charged or exchanged is placed on one ear. A backside adjustable strap 308 is utilized to adjust the headset to a comfortable pressure setting for various sized heads.

幾つかの実施の形態において、統合ヘッドセットは押しボタンで電源オンされ、視聴者の生理学的データが即時に測定及び記録される。データ転送は、ヘッドセットがリンクされているコンピュータのインターフェースを介して、無線で処理されてもよい。正確な測定値を得るために、視聴者の皮膚の準備又はジェルは必要ではなく、ヘッドセットは視聴者から簡単に取り外され、すぐに他の視聴者によって利用されることができるため、短時間且つ低コストで多くの参加者の測定を行うことができる。使用中にヘッドセットが劣化することはなく、ヘッドセットは数千回再利用することが可能である。   In some embodiments, the integrated headset is powered on with a push button and the viewer's physiological data is immediately measured and recorded. Data transfer may be handled wirelessly via a computer interface to which the headset is linked. No viewer skin preparation or gel is required to obtain accurate measurements, and the headset can be easily removed from the viewer and used immediately by other viewers, so In addition, many participants can be measured at low cost. The headset does not deteriorate during use, and the headset can be reused thousands of times.

幾つかの実施の形態において、視聴者の生理学的データを入力として用いる複数の公式によって、視聴者の生理学的反応を導き出すことが可能である。表情認識、「ノブ」、及び他の感情基準もまた、同様の有効性を有する入力として利用可能である。「関与」、「アドレナリン」、「思考」及び「誘意性」を含んでもよいがそれらに限定されない、導き出された各生理学的反応は、複数のセンサからの生理学的データを組み合わせて、多次元の、わかりやすい、視聴者の感情的反応の表現にする。図4(a)は、Xbox360上でCall of Duty3をするプレイヤーについて、本発明の一つの実施の形態によって測定された、例としての「関与」の追跡を示す。追跡は、時間ベースのグラフであり、セッションの最初が左側であり、終わりが右側になる。二つのセクション(イベント・インスタンス)401及び402は丸を付けて示されるが、左側の401は、退屈なチュートリアル・セクション中に起こるゲーム・プレイ中の低い「関与」を示しており、402は、プレイヤーがゲームの最初の戦闘を経験する際に記録された、高い「関与」のセクションを示す。   In some embodiments, the viewer's physiological response can be derived by a plurality of formulas using the viewer's physiological data as input. Facial expression recognition, “knobs”, and other emotion criteria can also be used as inputs with similar effectiveness. Each derived physiological response, including but not limited to “involvement”, “adrenaline”, “thinking” and “incentive”, combines physiological data from multiple sensors into a multidimensional It ’s easy to understand and expresses the emotional response of the viewer. FIG. 4 (a) shows an exemplary “engagement” tracking as measured by one embodiment of the present invention for a player playing Call of Duty 3 on Xbox 360. Tracking is a time-based graph with the beginning of the session on the left and the end on the right. Two sections (event instances) 401 and 402 are shown circled, but the left hand side 401 shows the low “engagement” during game play that occurs during the boring tutorial section, Shows the high “engaged” section recorded when the player experienced the first battle of the game.

幾つかの実施の形態において、各イベント種別の多数のインスタンスにおける視聴者の生理学的反応(例えば、強烈な、退屈な、面白い、関心を持っている、等)が計算され、分析され、各イベント種別(例えば、ブランドの瞬間、製品紹介、ビデオゲームのカット場面、戦闘、レベルの再開始、等)に対するそのような反応の測定値と相関付けられて、各イベント種別に対する文脈に特化したイベント・プロフィールが作成される。これらのプロフィールは、その後、新しいメディアにおいて発生する各イベント・インスタンスを評価するために利用され得る。場合によっては、何百から何千もの参加視聴者に渡る、メディアの何千から何百万ものボトムアップの各測定値が作成される。この多数の個別のスコアを組み合わせることにより、統計調査の質問をして、1〜10種類の主観的測定値である百個の回答を得るのと比較して、メディア全体の測定精度が非常に高まる。非限定的な例として、1000個の主要イベント・インスタンスを有する映画を視聴している100人の視聴者について、各視聴者について5種類の生理学的反応(例えば、思考、関与、誘意性、没頭、肉体的関与)が計算され、視聴者の生理学的反応に基づいて、各イベント・インスタンスについて6つの数学的順列(例えば、平均値、平均値からの偏差、一次傾向、二次傾向、肯定的反応、否定的反応、等)が計算される。その結果、統計から100〜1000の測定値に対し、映画を評価するために、3,000,000(100×1000×5×6)件のスコアが利用可能となる。その後、これらのスコアが組み合わされて映画の全体評価が作成され、そのような評価は、各イベント(場面)の強さ−プレイヤーがカット場面を好きか、ジョークは面白いか、イベントの全体品質、強い及び弱いイベント種別、強い及び弱い映画イベント−中間のイベントは強い反応をもたらしたが開始のイベントはそうではなかった、といったことを含み得るが、それらに限定されるものではない。   In some embodiments, the viewer's physiological response (eg, intense, boring, interesting, interested, etc.) in multiple instances of each event type is calculated and analyzed for each event. Events specific to the context for each event type, correlated with measures of such responses to the type (eg brand moments, product introductions, video game cuts, battles, level restarts, etc.)・ A profile is created. These profiles can then be used to evaluate each event instance that occurs in the new media. In some cases, thousands to millions of bottom-up measurements of the media are made across hundreds to thousands of participating viewers. By combining this large number of individual scores, the measurement accuracy of the entire media is much higher than when you ask a statistical survey question and get one hundred subjective responses, one hundred responses Rise. As a non-limiting example, for 100 viewers watching a movie with 1000 major event instances, 5 physiological responses for each viewer (e.g. thought, engagement, incentive, 6 mathematical permutations (eg, mean, deviation from mean, primary trend, secondary trend, positive) for each event instance based on the viewer's physiological response Response, negative response, etc.) are calculated. As a result, 3,000,000 (100 × 1000 × 5 × 6) scores are available for evaluating movies against 100-1000 measurements from statistics. These scores are then combined to create an overall rating of the movie, which is based on the strength of each event (scene)-whether the player likes the cut scene, the joke is interesting, the overall quality of the event, Strong and weak event types, strong and weak movie events-may include, but are not limited to, intermediate events have resulted in strong responses but initiating events were not.

幾つかの実施の形態において、イベント・インスタンス又はイベント種別の発生及び持続時間が決定され、記録され得る。非限定的な例として、ビデオゲームのイベント種別は、プレイヤーの画面に「戦闘戦車」が出現する度に発生し、それが画面上に留まる限り持続するものと定義され得る。もう一つの非限定的な例として、映画のイベントは、ジョークが言われる度に発生するものと定義され得る。イベント種別は、当該イベント種別のインスタンスが、各メディアについて一度だけ発生するように定義されてもよい。代替として、イベント種別は、メディア内で当該イベント種別の多くのインスタンスが発生するように定義されてもよい。   In some embodiments, the occurrence and duration of an event instance or event type can be determined and recorded. As a non-limiting example, a video game event type may be defined to occur every time a “battle tank” appears on the player's screen and persist as long as it remains on the screen. As another non-limiting example, a movie event can be defined as occurring every time a joke is told. The event type may be defined so that an instance of the event type occurs only once for each medium. Alternatively, the event type may be defined such that many instances of the event type occur in the media.

幾つかの実施の形態において、イベント・インスタンスは、効果的且つ正確な結論を出すことを可能とするように、記録されたメディアそれぞれに対してタグ付けされてもよい。非限定的な例として、図4(b)は、本発明の一つの実施の形態に従って測定された、ビデオゲーム・プレイヤーの「関与」データ2つの例としての追跡を示す。図中のボックス403、404及び405は、タグ付けされた特定の「武器使用」イベント種別に対応する。イベント・インスタンスが出現する各ポイントにおいて、「関与」は急激に上昇する。図4(b)の図は、一つの種別のイベントがタグ付けされることを示すが、本手法は、多くのイベント・インスタンスが異なるイベント種別にタグ付けされるよう拡張可能であり、メディアが断片化されることを可能とする。もう一つの非限定的な例として、図4(c)は、本発明の一つの実施の形態に従ってメディアをイベント・インスタンスに分割する例としての垂直線を示す。主要なイベント種別は、ビデオゲーム又は他のメディアのプレイヤーが出会う、及び/又は相互作用する重要なものそれぞれを定義する。ここで、生理学的データ/反応は、イベント・インスタンスのタグと重なり合い、両方は、連携してオン及びオフになることができる。   In some embodiments, event instances may be tagged for each recorded media to allow for effective and accurate conclusions. As a non-limiting example, FIG. 4 (b) shows two example trackings of video game player “engagement” data measured according to one embodiment of the present invention. Boxes 403, 404, and 405 in the figure correspond to the specific tagged “weapon use” event type. At each point where an event instance appears, “involvement” rises rapidly. The diagram in FIG. 4 (b) shows that one type of event is tagged, but this technique can be extended to tag many event instances with different event types, Allows to be fragmented. As another non-limiting example, FIG. 4 (c) shows an exemplary vertical line that divides media into event instances in accordance with one embodiment of the present invention. The main event types define each important thing that video game or other media players meet and / or interact with. Here, the physiological data / response overlaps with the tag of the event instance, and both can be turned on and off in concert.

幾つかの実施の形態において、公式又は規則を用いて、イベント・インスタンス期間の視聴者の生理学的データ又は反応に基づいて、各イベント・インスタンスについてスコアが生成され得る。一つの実施の形態において、公式は、該インスタンスのイベント種別の所望の反応の専門知識に基づき得、該公式は、該イベント・インスタンスに渡って導き出された生理学的反応それぞれにおける変化の加重和の形態をとり得る。非限定的な例として、公式は、時間経過(ベクトル)に渡る各生理学的反応からの複数の入力の加重和によって定義されてもよく、各ベクトルは、上昇し、下降し、ピークに達し、高い方に伸び、低い方に伸び、又ははっきりとして特徴を持ち得る。非限定的な例として、多くの広告の分析に基づいてジョークがどれだけ優れているかを相関付ける、ジョークの落ちに対する生理学的反応のプロフィールが存在し得る。プロフィールには2つの側面があり得る。即ち、第一に、生理学的反応の「思考」ベクトルは上昇し、落ちの直前及び落ちの第一部分の間に、何が起こっているかについて視聴者が思考したことを示さなければならず、第二に、落ちが提供されると、視聴者の「誘意性」又は報酬感情が増加して、視聴者が、ジョークの落ちに関する思考に関与させられた後で、その落ちを好んだことを示さなければならない。従って、ジョークのイベント種別について、特定の時点に思考及び誘意性が上昇する数学的プロフィールが作成される。ジョークの落ちの有効性を算定するために、そのようなプロフィールが、ジョークの各インスタンスに適用され得る。この反応プロフィールに当てはまらないジョークの落ちは、視聴者の間に良い経験を作り出さない。   In some embodiments, a formula or rule may be used to generate a score for each event instance based on viewers' physiological data or responses during the event instance period. In one embodiment, a formula may be based on the desired response expertise of the event type of the instance, the formula being a weighted sum of changes in each of the physiological responses derived across the event instance. Can take form. As a non-limiting example, the formula may be defined by a weighted sum of multiple inputs from each physiological response over time (vector), each vector rising, falling, reaching a peak, It can extend higher, extend lower, or have distinct features. As a non-limiting example, there may be a physiological response profile to a joke drop that correlates how good the joke is based on the analysis of many advertisements. A profile can have two aspects. That is, first, the “thinking” vector of the physiological response should rise, indicating that the viewer had thought about what was happening just before the fall and during the first part of the fall, Second, when a fall was provided, the viewer's “incentive” or reward feeling increased, and the viewer liked the fall after being involved in thinking about the fall of the joke. Must show. Therefore, a mathematical profile is created for the joke event type, where the thinking and incentives increase at a specific point in time. Such a profile can be applied to each instance of a joke to calculate the effectiveness of the joke drop. A joke drop that does not fit in this reaction profile does not create a good experience for the viewer.

図5は、本発明の一つの形態によって生成された、広告におけるジョークの落ちの例としてのプロフィールを示す。該プロフィールは、対象に関する専門知識によって、又は、数学的公式によって作成され得る。このイベント種別のインスタンスの生理学的反応がこのプロフィールに合致する場合、当該イベント・インスタンスは成功と考えられる。非限定的な例として、ジョークのインスタンスのスコアを計算するために以下の公式が利用され得る。即ち、
スコア=.25×(ジョークの落ち期間における思考の上昇)+.75×(ジョークの落ちの後の誘意性)
である。ここで、結果としての重み付けは、ジョークの落ち期間における思考の上昇の25%、及び、ジョークの落ちの後の誘意性の上昇の75%である。
FIG. 5 shows an example profile of a joke drop in an advertisement generated according to one aspect of the present invention. The profile can be created by subject-related expertise or by mathematical formulas. If the physiological response of an instance of this event type matches this profile, the event instance is considered successful. As a non-limiting example, the following formula can be used to calculate the score of a joke instance: That is,
Score =. 25 × (thinking rise during joke fall) +. 75 × (Incentive after the fall of a joke)
It is. Here, the resulting weighting is 25% of the increase in thoughts during the joke fall period and 75% of the increase in incentive after the joke fall.

幾つかの実施の形態において、メディアにおけるイベント・インスタンスのスコアは、イベント・インスタンスを改善又は変更する必要があるか、及び/又は、いずれのイベント・インスタンスが改善又は変更されるべきか、及び、いずれのイベント・インスタンスがそのままにされるべきか、を視聴者からの生理学的反応に基づいて指摘するために利用され得る。上記の非限定的な例において、その反応プロフィールに合致せず、視聴者に良い経験を作り出さないジョークの落ちは、改善されるべきである。   In some embodiments, the score of the event instance in the media needs to improve or change the event instance, and / or which event instance should be improved or changed, and This can be used to indicate which event instances should be left based on the physiological response from the viewer. In the above non-limiting example, joke drops that do not match the reaction profile and do not create a good experience for the viewer should be improved.

幾つかの実施の形態において、スコア付け公式に用いられる変数の数は非常に多くてもよく、公式は、また、必要に応じて、非線形のスコア付けを行う更に高次の多項式であっても良い。非限定的な例として、上記に示された公式の更に複雑なバージョンが、ジョーク期間の各ポイントにおいてどれだけの思考及びどれだけの肯定的な誘意性が存在するかに基づいて、スコアを計算する。これは、人々がジョークに強く関心を引かれなかった場合の思考及び誘意性のわずかな増加に対しペナルティを課し、ジョークへの強い関与に対応する、思考及び誘意性の非常に大きな上昇があったジョークの落ちを奨励する。   In some embodiments, the number of variables used in the scoring formula may be very large, and the formula may also be a higher order polynomial that performs non-linear scoring if desired. good. As a non-limiting example, a more complex version of the formula shown above will score based on how much thought and how much positive incentive exists at each point of the joke period. calculate. This penalizes a slight increase in thinking and incentives when people are not very interested in jokes, and is very large in thinking and incentives, corresponding to strong involvement in jokes Encourage falling jokes that have risen.

幾つかの実施の形態において、イベント・インスタンスを、所定の数を超えたスコアを有する「良好」又は「成功」として定義する論理ルールのセットが適応され得、それにより、公式は、イベント・インスタンスがいかに関心を引くかを反映するスコアを出力する。スコアを順序付け又は評価に利用する他の実施の形態も可能である。武器イベント種別がタグ付けされる図4(b)に示された非限定的な例に戻って、このイベント種別に対するプロフィールの簡単な説明としては、関与が強く上昇する場合、この種別のイベント・インスタンスは良好である。この例では、全イベント・インスタンスが良好であり、これは、当該イベント種別に対する高いスコアをもたらす。この計算手法は、複数の主要イベント種別の何百ものインスタンスに渡って実行されてもよい。   In some embodiments, a set of logical rules defining an event instance as “good” or “successful” with a score exceeding a predetermined number may be applied, whereby the formula is Outputs a score that reflects how interesting it is. Other embodiments that utilize the scores for ordering or evaluation are also possible. Returning to the non-limiting example shown in FIG. 4 (b) where the weapon event type is tagged, a brief description of the profile for this event type is as follows: The instance is good. In this example, all event instances are good, which results in a high score for that event type. This calculation technique may be performed over hundreds of instances of multiple major event types.

幾つかの実施の形態において、公式は、インスタンスのスコアを計算するために、現在の及び/又は他のメディアにおける類似するイベント種別の以前のインスタンスを利用することができる。他の類似するイベントに渡る視聴者の生理学的反応を入力として、ルールのセットが作成され得る。非限定的な例として、イベント期間に渡る関与の傾きが、他のメディアにおける類似のイベント種別のイベント・インスタンス期間に渡る関与の傾きの平均を超えている場合、イベント種別のインスタンスに(「良好」又は「成功」を表す)1のスコアが与えられ得る。この手法の実際の実現態様には多くの方法があり、以下のプロセスは、そのような実現態様の非限定的な例である。
1.メディアにおける或るイベント種別のインスタンスの大きなセットを、これらのインスタンスの視聴者からの生理学的反応にタグ付けする。
2.該イベント種別の各インスタンスを評価できるような評価機構を選択する。
3.イベント・インスタンスの期間に渡る視聴者からの生理学的反応の様々な異なる数学的測定値を計算する。そのような測定値には、平均、一次微分、二次微分、多項式近似、平均値からの(標準)偏差、平均値からの微分係数の(標準)偏差、並びに、中間におけるピーク形成、開始時のスパイキング(spiking)、及び平坦等のうちの一つ又はそれ以上を考慮する畳み込み又は他の方法によって実現され得る生理学的反応のプロフィール、が含まれ得るが、それらに限定されるものではない。
4.全ての生理学的反応についてステップ3の計算を繰り返す。
5.多数の測定値を、イベント・インスタンスに対する定義された出力(スコア)に変換する。そのような変換は、畳み込み、加重和、傾きの正負、多項式公式、最小二乗法、サポートベクターマシン、ニューラルネットワーク、及び他のマシン学習手法のうちの一つ又はそれ以上によって実行することができる。
6.当該イベント種別の全インスタンスについてステップ5の変換を繰り返す。
In some embodiments, the formula may utilize previous instances of similar event types in the current and / or other media to calculate an instance score. A set of rules can be created with the viewer's physiological response over other similar events as input. As a non-limiting example, if the slope of involvement over an event period exceeds the average of slope of involvement over event instance periods of similar event types in other media, A score of 1 (representing “or“ success ”) may be given. There are many ways to implement this approach, and the following process is a non-limiting example of such an implementation.
1. Tags a large set of instances of certain event types in the media to physiological responses from viewers of these instances.
2. An evaluation mechanism that can evaluate each instance of the event type is selected.
3. Compute a variety of different mathematical measurements of the physiological response from the viewer over the duration of the event instance. Such measurements include mean, first derivative, second derivative, polynomial approximation, (standard) deviation from mean, (standard) deviation of derivative from mean, as well as peak formation in the middle, at the start Including, but not limited to, spiking and physiological response profiles that can be achieved by convolution or other methods that account for one or more of flatness, etc. .
4). Repeat step 3 for all physiological responses.
5). Convert multiple measurements into a defined output (score) for the event instance. Such a transformation can be performed by one or more of convolution, weighted sum, slope sign, polynomial formula, least squares, support vector machine, neural network, and other machine learning techniques.
6). The conversion in step 5 is repeated for all instances of the event type.

各イベント・インスタンスそれぞれに対する順位、評価又はスコアが、本手法又は任意の他の同様の手法を用いて計算され、イベント種別のインスタンスを客観的に比較することが可能となる。   The ranking, rating, or score for each event instance is calculated using this or any other similar technique, allowing the event type instances to be compared objectively.

幾つかの実施の形態において、視聴者の全体集団のサブセットを集約して、当該サブセットに関する反応を区別することができるが、これは、視聴者を、人種、性別、年齢、購買習慣、人口統計及び収入のうちの一つ又はそれ以上によりグループ化する。イベント種別の平均評価は、視聴者のそのようなグループ化と関連付けられ、及び/又は比較され得る。   In some embodiments, a subset of the entire population of viewers can be aggregated to distinguish reactions related to that subset, which can be attributed to race, gender, age, purchasing habits, population. Group by one or more of statistics and income. An average rating of event types may be associated with and / or compared with such a grouping of viewers.

幾つかの実施の形態において、或るイベント種別のイベント・インスタンスのスコアが、当該イベント種別を評価するために用いられる公式への入力として、集約されても良い。ここで、公式は、数学的なものであっても、論理的なものであってもよく、専門知識によって、又は、類似するイベント種別の以前の評価によって、設計されてもよい。そのような集約は、以下の一つ又はそれ以上によってなされ得る。
・各イベント種別の平均。この手法は、メディア全体を通して、及び、多数の視聴者に渡り、イベント種別の全イベント・インスタンスのスコアを平均化する。
・性能。単純な平均は、メディアの全体性能の正確な見方を常に与えてくれるとは限らない。非限定的な例として、イベント・インスタンスの75%が非常に高く評価され、残りがあまり良くもない場合、当該イベント種別の全体評価は75〜80%程度になり、良好とみなされるかもしれない。しかしながら、現実には、メディアを視聴する視聴者は、メディアの4分の1を好まず、それにより、非常に低いスコアがもたらされる。性能基準は、イベント種別のインスタンスにおけるスコアの分散を考慮に入れる。インスタンスの以前の分散を参考にすることにより、性能基準は、インスタンスの全体的な分散がいかに良好であるか、及び、視聴者がイベント種別/メディアを好むか否かを決定することができる。性能基準の一つの非限定的な実現態様は、イベント種別に合致するヒストグラムによって実現され得る。
・「成功」率。公式は、各イベント種別に対する「成功」率のパーセンテージ、又は他のスコアを出力する。より具体的に、イベント種別の「成功」率は、イベント種別の定義によって特徴付けられる特定の側面におけるイベント種別/メディアの性能の集約された見方によって定義することができ、所定の値を超える「成功」率が、成功するイベント種別として定義される。
In some embodiments, the event instance scores for an event type may be aggregated as an input to a formula used to evaluate the event type. Here, the formula may be mathematical or logical and may be designed by expertise or by previous evaluation of similar event types. Such aggregation may be done by one or more of the following.
・ Average of each event type. This approach averages the scores of all event instances of an event type throughout the media and across a large number of viewers.
-Performance. A simple average does not always give an accurate view of the overall performance of the media. As a non-limiting example, if 75% of event instances are rated very high and the rest are not very good, the overall rating for that event type will be around 75-80% and may be considered good . In reality, however, viewers who view the media do not like a quarter of the media, which results in a very low score. The performance criteria takes into account the distribution of scores in the event type instances. By referring to the previous distribution of instances, the performance criteria can determine how well the overall distribution of instances is and whether the viewer prefers the event type / media. One non-limiting implementation of performance criteria can be realized by a histogram that matches the event type.
·"success rate. The formula outputs a percentage of “success” rates for each event type, or other score. More specifically, the “success” rate of an event type can be defined by an aggregated view of event type / media performance in a particular aspect characterized by the definition of the event type and exceeds a predetermined value. The “success” rate is defined as a successful event type.

幾つかの実施の形態において、上記の評価プロセスが、同一メディア内の異なるイベント種別について繰り返されてもよい。更に、評価公式への入力として用いられる様々なイベント種別の評価によって、メディア自身が評価されてもよい。この評価公式又は規則は、また、上記の通り、専門知識、又は当該メディアに対する以前の生理学的反応に基づいてもよい。非限定的な例として、メディアは、そのイベント種別の大部分が「成功」と評価される場合に、「成功」と評価され得る。代替として、メディアは、そのイベント種別が他の比較可能なメディアよりも多く「成功」と評価される場合に、「成功」と評価されてもよい。他の規則、線形またはその他の評価スケールも利用可能である。図6は、本発明の一つの実施の形態に従って計算された、二つの映画における三つの例としてのイベント種別に対する、全体的なイベント評価を示す。第一の映画はアクション映画であり、「アクションの詰まった」及び「サスペンスに満ちた」イベント種別に対する反応が非常に強く、ジョークのような「こっけいな」イベント種別は強い反応を作り出さない。第二の映画はコメディであり、アクション映画とは反対の反応を作り出す。両方の映画は、イベント種別がそのジャンルにおける成功する映画に対する正しいプロフィールを有するため、高い評価を与えられる。   In some embodiments, the above evaluation process may be repeated for different event types within the same media. Furthermore, the media itself may be evaluated by evaluating various event types used as input to the evaluation formula. This evaluation formula or rule may also be based on expertise or previous physiological response to the media, as described above. As a non-limiting example, a media may be evaluated as “successful” if most of its event types are evaluated as “successful”. Alternatively, a media may be evaluated as “successful” if its event type is evaluated as “successful” more than other comparable media. Other rules, linear or other rating scales are also available. FIG. 6 shows the overall event rating for three example event types in two movies, calculated according to one embodiment of the present invention. The first movie is an action movie, which has a very strong response to “action-packed” and “suspension” event types, and a “geeky” event type such as a joke does not produce a strong response. The second movie is a comedy and produces the opposite reaction to an action movie. Both movies are given high ratings because the event type has the correct profile for a successful movie in that genre.

コンピュータ分野の当業者に明らかになるように、一つの実施の形態は、本明細書の教示に従ってプログラムされた、従来の汎用の又は専用のデジタル・コンピュータ又はマイクロプロセッサを利用して実現され得る。また、ソフトウェア分野の当業者に明らかになるように、本明細書の教示に基づき、経験あるプログラマにより、適切なソフトウェア・コーディングが容易に準備される。本発明は、また、当業者にとって容易に明らかになるように、集積回路を準備すること、又は、従来の部品回路の適切なネットワークを相互接続することによって実現されてもよい。   As will be apparent to those skilled in the computer arts, one embodiment may be implemented utilizing a conventional general purpose or special purpose digital computer or microprocessor programmed according to the teachings herein. Appropriate software coding is readily prepared by experienced programmers based on the teachings herein, as will be apparent to those skilled in the software art. The present invention may also be implemented by preparing an integrated circuit or interconnecting a suitable network of conventional component circuits, as will be readily apparent to those skilled in the art.

一つの実施の形態は、一つ又はそれ以上のコンピュータ装置に本明細書に開示された特徴のうち任意のものを実行させるようプログラムするために利用できる、格納された命令を含む、マシン読み取り可能媒体であるコンピュータ・プログラム製品を含む。マシン読み取り可能媒体は、フロッピー・ディスク(登録商標)、光ディスク、DVD、CD−ROM、マイクロ・ドライブ、及び光磁気ディスクを含む一つ又はそれ以上の種類のディスク、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、フラッシュ・メモリ装置、磁気又は光学カード、ナノシステム(有機メモリICを含む)、又は、命令及び/又はデータの格納に適した任意の種別の媒体又は装置を含み得るが、それらに限定されるものではない。任意のコンピュータ読み取り可能媒体に格納される本発明は、本発明の結果を利用して、汎用/専用コンピュータ又はマイクロプロセッサのハードウェアを制御し、コンピュータ又はマイクロプロセッサが人間の視聴者又は他のメカニズムと相互作用することを可能とするソフトウェアを含む。そのようなソフトウェアは、デバイス・ドライバ、オペレーティング・システム、実行環境/容器、及びアプリケーションを含み得るが、それらに限定されるものではない。   One embodiment is a machine readable including stored instructions that can be used to program one or more computing devices to perform any of the features disclosed herein. Includes computer program products that are media. Machine readable media include one or more types of disks, including ROM, RAM, EPROM, EEPROM, including floppy disks, optical disks, DVDs, CD-ROMs, micro drives, and magneto-optical disks. DRAM, VRAM, flash memory devices, magnetic or optical cards, nanosystems (including organic memory ICs), or any type of medium or device suitable for storing instructions and / or data, including It is not limited. The present invention, stored on any computer readable medium, takes advantage of the results of the present invention to control the hardware of a general purpose / dedicated computer or microprocessor so that the computer or microprocessor can be a human viewer or other mechanism. Includes software that allows you to interact with. Such software may include, but is not limited to, device drivers, operating systems, execution environments / containers, and applications.

上記の本発明の好ましい実施の形態の説明は、例示及び説明のために提供されたものである。これには排他的な意図はなく、本発明を開示された形態だけに限定するものではない。多くの修正及び変更が、当業者に明らかになる。特に、上記のシステム及び方法の実施の形態では、「モジュール」という概念が使われるが、この概念は、クラス、メソッド、タイプ、インターフェース、ビーン、コンポネント、オブジェクト・モデル、及び他の適切な概念のような同等の概念と交換可能に用いられ得ることが明らかである。実施の形態は、本発明の原理及び実際の応用を最もよく説明するために選択され、記載されたものであり、それにより、他の当業者が本発明、様々な実施の形態、及び、企図される特定の用途に適した様々な修正を理解することを可能とする。本発明の範囲は、添付の特許請求の範囲及びその均等物によって決定されることが意図される。   The foregoing description of the preferred embodiment of the present invention has been provided for purposes of illustration and description. It is not intended to be exclusive and is not intended to limit the invention to the precise form disclosed. Many modifications and variations will be apparent to practitioners skilled in this art. In particular, in the system and method embodiments described above, the concept of “module” is used, which is a class, method, type, interface, bean, component, object model, and other suitable concepts. It is clear that it can be used interchangeably with such an equivalent concept. The embodiments have been selected and described in order to best explain the principles and practical applications of the invention, so that others skilled in the art can use the invention, the various embodiments, and the contemplates. It makes it possible to understand various modifications that are suitable for the particular application being made. It is intended that the scope of the invention be determined by the appended claims and their equivalents.

101 メディア、102 視聴者、103 決定モジュール、104 センサ、105 受信モジュール、106 評価モジュール。 101 media, 102 viewers, 103 determination module, 104 sensor, 105 reception module, 106 evaluation module.

Claims (32)

メディア及びイベントの評価を支持するシステムであって、
メディアを視聴している複数の視聴者それぞれからの生理学的データを測定するよう動作可能な一つ又はそれ以上のセンサと、
前記複数の視聴者から測定された前記生理学的データに基づいて、前記メディアを、それぞれが該メディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に決定するよう動作可能な決定モジュールと、
評価モジュールであって、
前記複数の視聴者から測定された前記生理学的データから複数の生理学的反応を導き出し、
前記複数の生理学的反応に基づいて、前記メディアにおける前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算し、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する、
ように動作可能な評価モジュールと、
を備えるシステム。
A system that supports the evaluation of media and events,
One or more sensors operable to measure physiological data from each of a plurality of viewers viewing the media;
Based on the physiological data measured from the plurality of viewers, a decision operable to determine the media into one or more event types each having a plurality of event instances within the media. Module,
An evaluation module,
Deriving a plurality of physiological responses from the physiological data measured from the plurality of viewers;
Calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Evaluating the specific single event type by aggregating the scores of the plurality of event instances of the specific single event type;
An evaluation module operable to
A system comprising:
メディア及びイベントの評価を支持するシステムであって、
それぞれがメディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の発生及び持続時間を決定及び記録するよう動作可能な決定モジュールと、
前記メディアを視聴している複数の視聴者それぞれからの生理学的データを受信するよう動作可能な受信モジュールと、
評価モジュールであって、
前記生理学的データから複数の生理学的反応を導き出し、
前記複数の生理学的反応に基づいて、前記メディアにおける前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算し、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する、
ように動作可能な評価モジュールと、
を備えるシステム。
A system that supports the evaluation of media and events,
A decision module operable to determine and record the occurrence and duration of one or more event types, each having multiple event instances in the media;
A receiving module operable to receive physiological data from each of a plurality of viewers viewing the media;
An evaluation module,
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Evaluating the specific single event type by aggregating the scores of the plurality of event instances of the specific single event type;
An evaluation module operable to
A system comprising:
請求項2記載のシステムであって、
前記受信モジュールが、更に、前記メディアを視聴している前記複数の視聴者それぞれから測定された前記生理学的データを記録するよう動作可能であるシステム。
The system of claim 2, comprising:
The system wherein the receiving module is further operable to record the physiological data measured from each of the plurality of viewers viewing the media.
請求項1記載のシステムであって、
前記メディアが、映画、ビデオ、テレビ番組、テレビ・コマーシャル、広告、ビデオゲーム、インタラクティブなオンライン・メディア、印刷物、及び視聴者が情報を得たり、感情的に影響を受けたりし得る任意の他のメディアのうちの一つであるシステム。
The system of claim 1, comprising:
The media may be movies, videos, television programs, television commercials, advertisements, video games, interactive online media, prints, and any other that viewers may obtain information or affect emotionally. A system that is one of the media.
請求項1記載のシステムであって、
前記メディアにおける前記一つ又はそれ以上のイベント種別それぞれの持続時間が、時間的に不変、非線形又は準線形であるシステム。
The system of claim 1, comprising:
A system in which the duration of each of the one or more event types in the media is time-invariant, non-linear or quasi-linear.
請求項1記載のシステムであって、前記一つ又はそれ以上のセンサのそれぞれが、脳電図、加速度計、血液酸素センサ、検流計、筋電図、及び任意の他の生理学的センサのうちの一つであるシステム。   2. The system of claim 1, wherein each of the one or more sensors is an electroencephalogram, accelerometer, blood oxygen sensor, galvanometer, electromyogram, and any other physiological sensor. A system that is one of them. 請求項1記載のシステムであって、
前記一つ又はそれ以上のセンサが統合センサ・ヘッドセットを含み、該統合センサ・ヘッドセットが、
一つ又はそれ以上の軸加速度計、
一つ又はそれ以上のEEG電極、
一つ又はそれ以上の心拍数センサ、
及び、処理ユニット、
のうちの一つ又はそれ以上を備えるシステム。
The system of claim 1, comprising:
The one or more sensors include an integrated sensor headset, the integrated sensor headset comprising:
One or more axial accelerometers,
One or more EEG electrodes,
One or more heart rate sensors,
And a processing unit,
A system comprising one or more of the following.
請求項1記載のシステムであって、前記生理学的データが、心拍数、脳波、EEG信号、瞬き率、呼吸、動作、筋肉の動き、電気皮膚反応、及び感情変化と相関付けられる任意の他の反応のうちの一つ又はそれ以上であるシステム。   The system of claim 1, wherein the physiological data is correlated with heart rate, brain waves, EEG signals, blink rate, breathing, movement, muscle movement, electrodermal response, and emotional changes. A system that is one or more of the reactions. 請求項1記載のシステムであって、前記生理学的反応が、思考、嗜好、関与、没頭、肉体的関与、誘意性、及び生気のうちの一つ又はそれ以上であるシステム。   The system of claim 1, wherein the physiological response is one or more of thought, preference, involvement, immersion, physical involvement, incentive, and animation. 請求項1記載のシステムであって、前記評価モジュールが、更に、
平均、微分係数、多項式近似、平均値からの偏差、及び平均値からの微分係数の偏差のうちの一つ又はそれ以上である、前記複数の生理学的反応の数学的測定値を計算し、
前記数学的測定値を、畳み込み、加重和、傾きの正負、多項式公式、最小二乗法、サポートベクターマシン、及びニューラルネットワークのうちの一つ又はそれ以上によって、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアに変換する、
ように動作可能であるシステム。
The system of claim 1, wherein the evaluation module further comprises:
Calculating a mathematical measure of the plurality of physiological responses that is one or more of an average, a derivative, a polynomial approximation, a deviation from the mean, and a deviation of the derivative from the mean;
The plurality of the specific event types are obtained by one or more of convolution, weighted sum, slope sign, polynomial formula, least squares method, support vector machine, and neural network. Convert to a score for each event instance in
System that is operable.
請求項1記載のシステムであって、
前記評価モジュールが、更に、公式、規則、このメディア又は同一ジャンルの他のメディアにおける前記特定の一つのイベント種別の以前のインスタンス、又は前記特定の一つのイベント種別に対する前記複数の生理学的反応の一つ又はそれ以上のプロフィールのうちの一つ又はそれ以上を用いて、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算するよう動作可能であるシステム。
The system of claim 1, comprising:
The evaluation module may further include formulas, rules, previous instances of the one particular event type in this media or other media of the same genre, or one of the plurality of physiological responses to the one particular event type. A system operable to calculate a score for each of the plurality of event instances of the particular event type using one or more of one or more profiles.
請求項11記載のシステムであって、
前記評価モジュールが、更に、イベント・インスタンスに対する前記生理学的反応が前記プロフィールに合致する場合に、前記特定の一つのイベント種別の前記イベント・インスタンスに対する良いスコアを計算するように動作可能であるシステム。
12. The system according to claim 11, wherein
The system is further operable to calculate a good score for the event instance of the particular one event type if the physiological response to the event instance matches the profile.
請求項11記載のシステムであって、
前記評価モジュールが、更に、前記特定の一つのイベント種別の前記複数のイベント・インスタンスのうちの改善又は変更が必要である一つ又はそれ以上を、それらのスコアに基づいて指摘するように動作可能であるシステム。
12. The system according to claim 11, wherein
The evaluation module is further operable to indicate one or more of the plurality of event instances of the particular single event type that need improvement or modification based on their scores. System.
請求項11記載のシステムであって、
前記評価モジュールが、更に、専門知識、類似するイベント種別に対する生理学的反応、及び他のメディアからのデータ、の一つ又はそれ以上に基づいて前記プロフィールを決定するよう動作可能であるシステム。
12. The system according to claim 11, wherein
The system is further operable to determine the profile based on one or more of expertise, physiological responses to similar event types, and data from other media.
請求項1記載のシステムであって、
前記評価モジュールが、更に、平均、性能、数学的公式及び論理的公式のうちの一つ又はそれ以上により、前記特定の一つのイベント種別を評価するように動作可能であるシステム。
The system of claim 1, comprising:
The system wherein the evaluation module is further operable to evaluate the particular one event type according to one or more of average, performance, mathematical formula and logical formula.
請求項1記載のシステムであって、
前記評価モジュールが、更に、前記メディアにおける前記一つ又はそれ以上のイベント種別の評価を集約することにより、前記メディアを評価するよう動作可能であるシステム。
The system of claim 1, comprising:
The system wherein the evaluation module is further operable to evaluate the media by aggregating evaluations of the one or more event types in the media.
請求項1記載のシステムであって、
前記評価モジュールが、更に、前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の複数のイベント・インスタンス、のうちの一つ又はそれ以上の前記スコア/評価を表示するよう動作可能であるシステム。
The system of claim 1, comprising:
The evaluation module is further configured to display the score / evaluation of one or more of the media, the specific event type, and a plurality of event instances of the specific event type. A system that is operational.
請求項1記載のシステムであって、
前記評価モジュールが、更に、
人種、性別、年齢、人口統計、収入、習慣及び興味のうちの一つ又はそれ以上によって前記複数の視聴者をグループ化し、
前記複数の視聴者のそのようなグループ化に従って、前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の複数のイベント・インスタンス、のうちの一つ又はそれ以上の前記スコア/評価を関連付け、及び/又は比較する
ように動作可能であるシステム。
The system of claim 1, comprising:
The evaluation module further comprises:
Group the viewers by one or more of race, gender, age, demographics, income, habits and interests;
According to such grouping of the plurality of viewers, the score of one or more of the media, the one particular event type, and a plurality of event instances of the one particular event type / A system that is operable to associate and / or compare ratings.
メディア及びイベントの評価を支持する方法であって、
メディアを視聴する複数の視聴者それぞれからの生理学的データを受信及び/又は測定するステップと、
前記複数の視聴者から測定された前記生理学的データに基づいて、前記メディアを、それぞれが前記メディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に決定するステップと、
前記生理学的データから複数の生理学的反応を導き出すステップと、
前記複数の生理学的反応に基づいて、前記メディア内の前記一つ又はそれ以上のイベント種別のうち特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算するステップと、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価するステップと、
を備える方法。
A method of supporting the evaluation of media and events,
Receiving and / or measuring physiological data from each of a plurality of viewers viewing the media;
Determining the media into one or more event types, each having a plurality of event instances in the media, based on the physiological data measured from the plurality of viewers;
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type among the one or more event types in the media based on the plurality of physiological responses;
Aggregating the scores of the plurality of event instances of the one particular event type to evaluate the one particular event type;
A method comprising:
メディア及びイベントの評価を支持する方法であって、
それぞれがメディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の発生及び持続時間を決定及び記録するステップと、
前記メディアを視聴している複数の視聴者それぞれからの生理学的データを受信及び/又は測定するステップと、
前記生理学的データから複数の生理学的反応を導き出すステップと、
前記複数の生理学的反応に基づいて、前記メディア内の前記一つ又はそれ以上のイベント種別のうち特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算するステップと、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価するステップと、
を備える方法。
A method of supporting the evaluation of media and events,
Determining and recording the occurrence and duration of one or more event types, each having multiple event instances in the media;
Receiving and / or measuring physiological data from each of a plurality of viewers viewing the media;
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type among the one or more event types in the media based on the plurality of physiological responses;
Aggregating the scores of the plurality of event instances of the one particular event type to evaluate the one particular event type;
A method comprising:
請求項19記載の方法であって、更に、
前記生理学的データの数学的測定値である、平均、微分係数、多項式近似、平均値からの偏差、及び平均値からの微分係数の偏差、うちの一つ又はそれ以上を計算するステップと、
畳み込み、加重和、傾きの正負、多項式公式、最小二乗法、サポートベクターマシン、及びニューラルネットワークのうちの一つ又はそれ以上によって、前記数学的測定値を、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアに変換するステップと、
を備える方法。
The method of claim 19, further comprising:
Calculating one or more of the mathematical measurements of the physiological data: mean, derivative, polynomial approximation, deviation from mean, and deviation of derivative from mean;
The mathematical measurement is converted into the plurality of the specific event types by one or more of convolution, weighted sum, slope sign, polynomial formula, least squares method, support vector machine, and neural network. Converting to a score for each event instance of
A method comprising:
請求項19記載の方法であって、更に、
公式、規則、このメディア又は同一ジャンルの他のメディアにおける前記特定の一つのイベント種別の以前のインスタンス、又は、前記特定の一つのイベント種別に対する前記複数の生理学的反応のうちの一つ又はそれ以上のプロフィール、のうちの一つ又はそれ以上を用いて、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対する前記スコアを計算するステップを備える方法。
The method of claim 19, further comprising:
One or more of the plurality of physiological responses to the particular event type, or a previous instance of the particular event type in a formula, rule, this media or other media of the same genre Calculating the score for each of the plurality of event instances of the one particular event type using one or more of the profiles.
請求項22記載の方法であって、更に、
イベント・インスタンスに対する前記生理学的反応が前記プロフィールに合致する場合に、前記特定の一つのイベント種別の前記イベント・インスタンスに対する良いスコアを計算するステップを備える方法。
The method of claim 22, further comprising:
A method comprising calculating a good score for the event instance of the particular one event type if the physiological response to the event instance matches the profile.
請求項22記載の方法であって、更に、
前記複数のイベント・インスタンスのうちで改善又は変更が必要である一つ又はそれ以上を、それらのスコアに基づいて指摘するステップを備える方法。
The method of claim 22, further comprising:
A method comprising the step of indicating one or more of the plurality of event instances in need of improvement or change based on their scores.
請求項22記載の方法であって、更に、
専門知識、類似するイベント種別に対する生理学的反応、及び他のメディアからのデータ、のうちの一つ又はそれ以上に基づいて、前記プロフィールを決定するステップを備える方法。
The method of claim 22, further comprising:
A method comprising determining the profile based on one or more of expertise, physiological responses to similar event types, and data from other media.
請求項19記載の方法であって、更に、
平均、性能、数学的公式、及び論理的公式のうちの一つ又はそれ以上によって、前記特定の一つのイベント種別を評価するステップを備える方法。
The method of claim 19, further comprising:
A method comprising the step of evaluating the particular one event type according to one or more of average, performance, mathematical formula, and logical formula.
請求項19記載の方法であって、更に、
前記メディア内の一つ又はそれ以上のイベント種別の評価を集約することにより、前記メディアを評価するステップを備える方法。
The method of claim 19, further comprising:
A method comprising evaluating the media by aggregating evaluations of one or more event types in the media.
請求項19記載の方法であって、更に、
前記メディアを視聴している前記複数の視聴者それぞれから測定された前記生理学的データを記録するステップを備える方法。
The method of claim 19, further comprising:
Recording the physiological data measured from each of the plurality of viewers viewing the media.
請求項19記載の方法であって、更に、
前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の前記複数のイベント・インスタンス、の一つ又はそれ以上の前記スコア/評価を表示するステップを備える方法。
The method of claim 19, further comprising:
A method comprising displaying one or more of the scores / evaluations of the media, the particular event type, and the plurality of event instances of the particular event type.
請求項19記載の方法であって、更に、
人種、性別、年齢、人口統計、収入、習慣及び興味のうちの一つ又はそれ以上によって前記複数の視聴者をグループ化するステップと、
前記複数の視聴者のそのようなグループ化に従って、前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の前記複数のイベント・インスタンス、のうちの一つ又はそれ以上の前記スコア/評価を関連付け、及び/又は比較するステップと、
を備える方法。
The method of claim 19, further comprising:
Grouping the plurality of viewers by one or more of race, gender, age, demographics, income, habits and interests;
According to such grouping of the plurality of viewers, one or more of the media, the one particular event type, and the plurality of event instances of the one particular event type. Associating and / or comparing scores / ratings;
A method comprising:
マシン読み取り可能媒体であって、実行された際に、システムを
メディアを視聴する複数の視聴者それぞれからの生理学的データを受信及び/又は測定し、
前記複数の視聴者から測定された前記生理学的データに基づいて、前記メディアを、それぞれが前記メディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に決定し、
前記生理学的データから複数の生理学的反応を導き出し、
前記複数の生理学的反応に基づいて、前記メディア内の前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算し、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する、
ように動作させる、格納された命令を有するマシン読み取り可能媒体。
A machine-readable medium that, when executed, receives and / or measures physiological data from each of a plurality of viewers viewing the media;
Based on the physiological data measured from the plurality of viewers, determining the media as one or more event types, each having a plurality of event instances in the media;
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Evaluating the specific single event type by aggregating the scores of the plurality of event instances of the specific single event type;
A machine-readable medium having stored instructions that operate as follows.
メディア及びイベントの評価を支持するシステムであって、
それぞれがメディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の発生及び持続時間を決定及び記録する手段と、
前記メディアを視聴している複数の視聴者それぞれからの生理学的データを受信及び/又は測定する手段と、
前記生理学的データから複数の生理学的反応を導き出す手段と、
前記複数の生理学的反応に基づいて、前記メディアにおける前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算する手段と、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する手段と、
を備えるシステム。
A system that supports the evaluation of media and events,
Means for determining and recording the occurrence and duration of one or more event types, each having multiple event instances in the media;
Means for receiving and / or measuring physiological data from each of a plurality of viewers viewing the media;
Means for deriving a plurality of physiological responses from the physiological data;
Means for calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Means for evaluating the one particular event type by aggregating scores of the plurality of event instances of the one particular event type;
A system comprising:
JP2009552656A 2007-03-08 2007-06-27 Method and system for evaluating media and media events based on physiological data Active JP5746472B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US90561607P 2007-03-08 2007-03-08
US60/905,616 2007-03-08
US11/804,555 2007-05-17
US11/804,555 US8782681B2 (en) 2007-03-08 2007-05-17 Method and system for rating media and events in media based on physiological data
PCT/US2007/014955 WO2008108799A1 (en) 2007-03-08 2007-06-27 A method and system for rating media and events in media based on physiological data

Publications (3)

Publication Number Publication Date
JP2010520552A true JP2010520552A (en) 2010-06-10
JP2010520552A5 JP2010520552A5 (en) 2010-08-26
JP5746472B2 JP5746472B2 (en) 2015-07-08

Family

ID=39742969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009552656A Active JP5746472B2 (en) 2007-03-08 2007-06-27 Method and system for evaluating media and media events based on physiological data

Country Status (5)

Country Link
US (1) US8782681B2 (en)
EP (1) EP2135370A4 (en)
JP (1) JP5746472B2 (en)
CN (1) CN101755406A (en)
WO (1) WO2008108799A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244523A (en) * 2009-03-31 2010-10-28 Internatl Business Mach Corp <Ibm> Method and device for adding and processing tag accompanied by feeling data
JP2014523154A (en) * 2011-06-17 2014-09-08 マイクロソフト コーポレーション Interest-based video stream
JP2018093350A (en) * 2016-12-01 2018-06-14 有限会社曽根地所 Attention degree evaluation system
JP2018533894A (en) * 2015-10-30 2018-11-15 チャイナ、モバイル、コミュニケーションズ、グループ、カンパニー、リミテッドChina Mobile Communications Group Co., Ltd Method and device for triggering interactive application

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5309126B2 (en) 2007-03-29 2013-10-09 ニューロフォーカス・インコーポレーテッド System, method, and apparatus for performing marketing and entertainment efficiency analysis
JP4281819B2 (en) * 2007-04-02 2009-06-17 ソニー株式会社 Captured image data processing device, viewing information generation device, viewing information generation system, captured image data processing method, viewing information generation method
WO2008137579A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-informatics repository system
WO2008137581A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US20090025023A1 (en) * 2007-06-06 2009-01-22 Neurofocus Inc. Multi-market program and commercial response monitoring system using neuro-response measurements
US8494905B2 (en) 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
EP2170161B1 (en) 2007-07-30 2018-12-05 The Nielsen Company (US), LLC. Neuro-response stimulus and stimulus attribute resonance estimator
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8635105B2 (en) 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
CN101795620B (en) 2007-08-28 2013-05-01 神经焦点公司 Consumer experience assessment system
US8392255B2 (en) 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US9191450B2 (en) * 2007-09-20 2015-11-17 Disney Enterprises, Inc. Measuring user engagement during presentation of media content
US20090083129A1 (en) * 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
US8494610B2 (en) 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US8151292B2 (en) 2007-10-02 2012-04-03 Emsense Corporation System for remote access to media, and reaction and survey data from viewers of the media
US8776102B2 (en) * 2007-10-09 2014-07-08 At&T Intellectual Property I, Lp System and method for evaluating audience reaction to a data stream
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US9582805B2 (en) * 2007-10-24 2017-02-28 Invention Science Fund I, Llc Returning a personalized advertisement
JP2011505175A (en) * 2007-10-31 2011-02-24 エムセンス コーポレイション System and method for providing distributed collection and centralized processing of physiological responses from viewers
US8487772B1 (en) 2008-12-14 2013-07-16 Brian William Higgins System and method for communicating information
US8270814B2 (en) * 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US9357240B2 (en) 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8464288B2 (en) 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US8655437B2 (en) 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US8209224B2 (en) 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US20110106750A1 (en) * 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US8335716B2 (en) 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
US8335715B2 (en) 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
WO2011133548A2 (en) 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
JP2013537435A (en) 2010-06-07 2013-10-03 アフェクティヴァ,インコーポレイテッド Psychological state analysis using web services
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
CN101883292A (en) * 2010-06-30 2010-11-10 中山大学 System and method for testing digital television interactive service availability
US9532734B2 (en) * 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
US10572721B2 (en) 2010-08-09 2020-02-25 Nike, Inc. Monitoring fitness using a mobile device
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
CA2815273A1 (en) 2010-10-21 2012-04-26 Holybrain Bvba Method and apparatus for neuropsychological modeling of human experience and purchasing behavior
JP5649425B2 (en) * 2010-12-06 2015-01-07 株式会社東芝 Video search device
US20120222057A1 (en) * 2011-02-27 2012-08-30 Richard Scott Sadowsky Visualization of affect responses to videos
US9141982B2 (en) 2011-04-27 2015-09-22 Right Brain Interface Nv Method and apparatus for collaborative upload of content
CA2837198A1 (en) * 2011-05-24 2012-11-29 Webtuner Corp. System and method to increase efficiency and speed of analytics report generation in audience measurement systems
US8433815B2 (en) 2011-09-28 2013-04-30 Right Brain Interface Nv Method and apparatus for collaborative upload of content
WO2013061497A1 (en) * 2011-10-27 2013-05-02 株式会社シナジードライブ Content evaluation/playback device
US11064257B2 (en) 2011-11-07 2021-07-13 Monet Networks, Inc. System and method for segment relevance detection for digital content
US10638197B2 (en) 2011-11-07 2020-04-28 Monet Networks, Inc. System and method for segment relevance detection for digital content using multimodal correlations
CN102497518A (en) * 2011-11-18 2012-06-13 Tcl王牌电器(惠州)有限公司 Method and device for step control on TV programs
CN102523493A (en) * 2011-12-09 2012-06-27 深圳Tcl新技术有限公司 Method and system for grading television program according to mood
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US20130288212A1 (en) * 2012-03-09 2013-10-31 Anurag Bist System and A Method for Analyzing Non-verbal Cues and Rating a Digital Content
US20140303450A1 (en) * 2013-04-03 2014-10-09 Dylan Caponi System and method for stimulus optimization through closed loop iterative biological sensor feedback
EP2862361A1 (en) * 2012-06-14 2015-04-22 Thomson Licensing Method, apparatus and system for determining viewer reaction to content elements
US10034049B1 (en) 2012-07-18 2018-07-24 Google Llc Audience attendance monitoring through facial recognition
US20140026156A1 (en) * 2012-07-18 2014-01-23 David Deephanphongs Determining User Interest Through Detected Physical Indicia
US20140047316A1 (en) * 2012-08-10 2014-02-13 Vimbli, Inc. Method and system to create a personal priority graph
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9734730B2 (en) * 2013-01-31 2017-08-15 Sri International Multi-modal modeling of temporal interaction sequences
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9100694B1 (en) 2013-03-14 2015-08-04 Google Inc. TV mode change in accordance with number of viewers present
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
CN103268560B (en) * 2013-04-19 2017-02-08 杭州电子科技大学 Before-release advertising effect evaluation method based on electroencephalogram indexes
US11090003B2 (en) * 2013-09-09 2021-08-17 Healthy.Io Ltd. Systems for personal portable wireless vital signs scanner
KR101535432B1 (en) 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 Contents valuation system and contents valuating method using the system
CN103657056A (en) * 2013-12-18 2014-03-26 北京东方之星幼儿教育科技有限公司 Sensory integration evaluation system and method
CN103702146B (en) * 2013-12-27 2017-09-19 中国标准化研究院 Digital television service performance regulation and control method, device and digital TV terminal
US10311095B2 (en) * 2014-01-17 2019-06-04 Renée BUNNELL Method and system for qualitatively and quantitatively analyzing experiences for recommendation profiles
US10182251B2 (en) 2014-03-06 2019-01-15 Cox Communications, Inc. Thematic programming channel
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US11494390B2 (en) 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
US9805381B2 (en) 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
US11269891B2 (en) 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
DE102015113929A1 (en) 2014-08-21 2016-02-25 Affectomatics Ltd. Assessment and notifications based on affective reactions of the crowd
CN104349206A (en) * 2014-11-26 2015-02-11 乐视致新电子科技(天津)有限公司 Method, device and system for processing television information
WO2016098415A1 (en) * 2014-12-18 2016-06-23 ソニー株式会社 Information processing device, information processing method, and program
US11232466B2 (en) 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
DE102016101665A1 (en) 2015-01-29 2016-08-04 Affectomatics Ltd. PRIVACY BASED FILTERING OF MEASURES OF THE AFFECTIVE RESPONSE
US9467718B1 (en) 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
CN104899309B (en) * 2015-06-12 2019-04-30 百度在线网络技术(北京)有限公司 The method and apparatus of displaying event comment viewpoint
CN104994409A (en) * 2015-06-30 2015-10-21 北京奇艺世纪科技有限公司 Media data editing method and device
US10484439B2 (en) * 2015-06-30 2019-11-19 Amazon Technologies, Inc. Spectating data service for a spectating system
CN105159990B (en) * 2015-08-31 2019-02-01 北京奇艺世纪科技有限公司 A kind of method and apparatus of media data grading control
CN105204626B (en) * 2015-08-31 2018-05-04 北京奇艺世纪科技有限公司 A kind of method and apparatus to user's grading control
US9525912B1 (en) 2015-11-20 2016-12-20 Rovi Guides, Inc. Systems and methods for selectively triggering a biometric instrument to take measurements relevant to presently consumed media
US10268689B2 (en) 2016-01-28 2019-04-23 DISH Technologies L.L.C. Providing media content based on user state detection
US10568572B2 (en) 2016-03-14 2020-02-25 The Nielsen Company (Us), Llc Headsets and electrodes for gathering electroencephalographic data
US10187694B2 (en) 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US10984036B2 (en) 2016-05-03 2021-04-20 DISH Technologies L.L.C. Providing media content based on media element preferences
US10045076B2 (en) 2016-11-22 2018-08-07 International Business Machines Corporation Entertainment content ratings system based on physical expressions of a spectator to scenes of the content
CN106778539A (en) * 2016-11-25 2017-05-31 鲁东大学 Teaching effect information acquisition methods and device
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US10764381B2 (en) 2016-12-23 2020-09-01 Echostar Technologies L.L.C. Communications channels in media systems
US11196826B2 (en) 2016-12-23 2021-12-07 DISH Technologies L.L.C. Communications channels in media systems
US10390084B2 (en) 2016-12-23 2019-08-20 DISH Technologies L.L.C. Communications channels in media systems
CN109961303B (en) * 2017-12-22 2021-09-21 新华网股份有限公司 Method and device for comparing audience reaction
CN108416542A (en) * 2018-05-11 2018-08-17 新华网股份有限公司 Experience Degree assessment system and method and computer readable storage medium based on physiology sensing technology
CN110019853A (en) * 2018-06-20 2019-07-16 新华网股份有限公司 Scene of interest recognition methods and system
US11037550B2 (en) 2018-11-30 2021-06-15 Dish Network L.L.C. Audio-based link generation
US11553871B2 (en) 2019-06-04 2023-01-17 Lab NINE, Inc. System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications
DE102020123554A1 (en) * 2020-09-09 2022-03-10 Imagine AG Examination of a preliminary film product
CN112887771A (en) * 2021-01-28 2021-06-01 Oppo广东移动通信有限公司 Video evaluation method and device, computer readable medium and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344904A (en) * 2001-02-06 2002-11-29 Sony Corp Device for reproducing content, device for receiving content, method for controlling content display, method for collecting and analyzing content evaluation, device for collecting and analyzing content evaluation, method for managing collection of content evaluation, and device for managing collection of content evaluation
JP2004021844A (en) * 2002-06-19 2004-01-22 Sony Corp Method for preparing data base, equipment for preparing data base, program for preparing data base, and method for regenerating data base, recording medium, contents, method, device, program reproducing contents
JP2005064839A (en) * 2003-08-12 2005-03-10 Sony Corp Recording device, recording and reproducing device, reproducing device, recording method, recording and reproducing method, and reproducing method
JP2005124909A (en) * 2003-10-24 2005-05-19 Sony Corp Method for presenting emotional information, emotional information display device, and method for retrieving information content
JP2005198828A (en) * 2004-01-15 2005-07-28 Seiko Epson Corp Biological data analyzer, biological data analyzing method, control program and recording medium

Family Cites Families (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4846190A (en) * 1983-08-23 1989-07-11 John Erwin R Electroencephalographic system data display
US4695879A (en) * 1986-02-07 1987-09-22 Weinblatt Lee S Television viewer meter
US4755045A (en) * 1986-04-04 1988-07-05 Applied Science Group, Inc. Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers
US4931934A (en) * 1988-06-27 1990-06-05 Snyder Thomas E Method and system for measuring clarified intensity of emotion
US5243517A (en) 1988-08-03 1993-09-07 Westinghouse Electric Corp. Method and apparatus for physiological evaluation of short films and entertainment materials
DE58908764D1 (en) 1988-08-16 1995-01-26 Siemens Ag Arrangement for measuring local bioelectrical currents in biological tissue complexes.
US5024235A (en) 1990-02-26 1991-06-18 Ayers Margaret A Electroencephalic neurofeedback apparatus and method for bioelectrical frequency inhibition and facilitation
US5724987A (en) * 1991-09-26 1998-03-10 Sam Technology, Inc. Neurocognitive adaptive computer-aided training method and system
WO1995018565A1 (en) 1991-09-26 1995-07-13 Sam Technology, Inc. Non-invasive neurocognitive testing method and system
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5406957A (en) * 1992-02-05 1995-04-18 Tansey; Michael A. Electroencephalic neurofeedback apparatus for training and tracking of cognitive states
US5692906A (en) 1992-04-01 1997-12-02 Corder; Paul R. Method of diagnosing and remediating a deficiency in communications skills
US5450855A (en) 1992-05-13 1995-09-19 Rosenfeld; J. Peter Method and system for modification of condition with neural biofeedback using left-right brain wave asymmetry
US6785568B2 (en) * 1992-05-18 2004-08-31 Non-Invasive Technology Inc. Transcranial examination of the brain
US5405957A (en) 1992-10-30 1995-04-11 The University Of British Columbia Wavelength-specific photosensitive compounds and expanded porphyrin-like compounds and methods of use
CN1127322C (en) 1993-01-07 2003-11-12 精工爱普生株式会社 Pulse wave analyzer, and diagnosis apparatus using the same
US6206829B1 (en) * 1996-07-12 2001-03-27 First Opinion Corporation Computerized medical diagnostic and treatment advice system including network access
US5601090A (en) * 1994-07-12 1997-02-11 Brain Functions Laboratory, Inc. Method and apparatus for automatically determining somatic state
US6349231B1 (en) * 1994-01-12 2002-02-19 Brain Functions Laboratory, Inc. Method and apparatus for will determination and bio-signal control
US5579774A (en) 1994-03-07 1996-12-03 Camino Neurocare, Inc. Method and apparatus for monitoring local cerebral physiology
US5513649A (en) * 1994-03-22 1996-05-07 Sam Technology, Inc. Adaptive interference canceler for EEG movement and eye artifacts
US5649061A (en) * 1995-05-11 1997-07-15 The United States Of America As Represented By The Secretary Of The Army Device and method for estimating a mental decision
US6001065A (en) * 1995-08-02 1999-12-14 Ibva Technologies, Inc. Method and apparatus for measuring and analyzing physiological signals for active or passive control of physical and virtual spaces and the contents therein
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5740812A (en) * 1996-01-25 1998-04-21 Mindwaves, Ltd. Apparatus for and method of providing brainwave biofeedback
US6292688B1 (en) * 1996-02-28 2001-09-18 Advanced Neurotechnologies, Inc. Method and apparatus for analyzing neurological response to emotion-inducing stimuli
US5676138A (en) * 1996-03-15 1997-10-14 Zawilinski; Kenneth Michael Emotional response analyzer system with multimedia display
US5867799A (en) 1996-04-04 1999-02-02 Lang; Andrew K. Information system and method for filtering a massive flow of information entities to meet user information classification needs
US20050097594A1 (en) * 1997-03-24 2005-05-05 O'donnell Frank Systems and methods for awarding affinity points based upon remote control usage
US6402520B1 (en) 1997-04-30 2002-06-11 Unique Logic And Technology, Inc. Electroencephalograph based biofeedback system for improving learning skills
US6425764B1 (en) * 1997-06-09 2002-07-30 Ralph J. Lamson Virtual reality immersion therapy for treating psychological, psychiatric, medical, educational and self-help problems
US6097927A (en) * 1998-01-27 2000-08-01 Symbix, Incorporated Active symbolic self design method and apparatus
US5983129A (en) 1998-02-19 1999-11-09 Cowan; Jonathan D. Method for determining an individual's intensity of focused attention and integrating same into computer program
US6099319A (en) 1998-02-24 2000-08-08 Zaltman; Gerald Neuroimaging as a marketing tool
US6102846A (en) 1998-02-26 2000-08-15 Eastman Kodak Company System and method of managing a psychological state of an individual using images
AUPP354898A0 (en) 1998-05-15 1998-06-11 Swinburne Limited Mass communication assessment system
JP3511029B2 (en) * 1998-06-30 2004-03-29 株式会社博報堂 Notification information display device, notification information display system, and recording medium
US6322368B1 (en) 1998-07-21 2001-11-27 Cy Research, Inc. Training and testing human judgment of advertising materials
US6481013B1 (en) 1998-11-09 2002-11-12 Peracom Networks, Inc. Entertainment and computer coaxial network and method of distributing signals therethrough
KR100291596B1 (en) 1998-11-12 2001-06-01 정선종 Emotional Positive / Negative State Discrimination Method Using Asymmetry of Left / Right Brain Activity
US20020140675A1 (en) 1999-01-25 2002-10-03 Ali Ammar Al System and method for altering a display mode based on a gravity-responsive sensor
US6430539B1 (en) * 1999-05-06 2002-08-06 Hnc Software Predictive modeling of consumer financial behavior
US7006999B1 (en) 1999-05-13 2006-02-28 Xerox Corporation Method for enabling privacy and trust in electronic communities
IL130818A (en) * 1999-07-06 2005-07-25 Intercure Ltd Interventive-diagnostic device
EP1237476A1 (en) * 1999-12-02 2002-09-11 The General Hospital Corporation Method and apparatus for measuring indices of brain activity
US6652283B1 (en) 1999-12-30 2003-11-25 Cerego, Llc System apparatus and method for maximizing effectiveness and efficiency of learning retaining and retrieving knowledge and skills
US7146329B2 (en) * 2000-01-13 2006-12-05 Erinmedia, Llc Privacy compliant multiple dataset correlation and content delivery system and methods
GB0003853D0 (en) 2000-02-19 2000-04-05 Diagnostic Potentials Limited Method for investigating neurological function
JP3350656B2 (en) 2000-02-21 2002-11-25 株式会社博報堂 URL notification device for mobile phones
US7194186B1 (en) 2000-04-21 2007-03-20 Vulcan Patents Llc Flexible marking of recording data by a recording unit
US7050753B2 (en) * 2000-04-24 2006-05-23 Knutson Roger C System and method for providing learning material
US6606102B1 (en) * 2000-06-02 2003-08-12 Gary Odom Optimizing interest potential
US6699188B2 (en) * 2000-06-22 2004-03-02 Guidance Interactive Technologies Interactive reward devices and methods
JP2002000577A (en) 2000-06-23 2002-01-08 Canon Inc Method of analyzing brain wave
US6434419B1 (en) 2000-06-26 2002-08-13 Sam Technology, Inc. Neurocognitive ability EEG measurement method and system
JP3824848B2 (en) 2000-07-24 2006-09-20 シャープ株式会社 Communication apparatus and communication method
JP2002056500A (en) 2000-08-11 2002-02-22 Denso Corp On-vehicle device coping with occupant and recording medium
JP2002112969A (en) 2000-09-02 2002-04-16 Samsung Electronics Co Ltd Device and method for recognizing physical and emotional conditions
US6801803B2 (en) * 2000-10-16 2004-10-05 Instrumentarium Corp. Method and apparatus for determining the cerebral state of a patient with fast response
US6904408B1 (en) 2000-10-19 2005-06-07 Mccarthy John Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
US7150715B2 (en) 2001-02-05 2006-12-19 Collura Thomas F Network enabled biofeedback administration
US20020154833A1 (en) 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
US7593618B2 (en) * 2001-03-29 2009-09-22 British Telecommunications Plc Image processing for analyzing video content
US6978115B2 (en) 2001-03-29 2005-12-20 Pointecast Corporation Method and system for training in an adaptive manner
US20020188216A1 (en) 2001-05-03 2002-12-12 Kayyali Hani Akram Head mounted medical device
US7689272B2 (en) * 2001-06-07 2010-03-30 Lawrence Farwell Method for brain fingerprinting, measurement, assessment and analysis of brain function
JP4537703B2 (en) * 2001-06-13 2010-09-08 コンピュメディクス・リミテッド Device for monitoring consciousness
JP2003016095A (en) 2001-06-28 2003-01-17 Sony Corp Apparatus for information processing, method therefor, network system, recording medium and program
US20030003433A1 (en) * 2001-06-29 2003-01-02 Ignite, Inc. Method and system for constructive, modality focused learning
US7113916B1 (en) * 2001-09-07 2006-09-26 Hill Daniel A Method of facial coding monitoring for the purpose of gauging the impact and appeal of commercially-related stimuli
US6644976B2 (en) * 2001-09-10 2003-11-11 Epoch Innovations Ltd Apparatus, method and computer program product to produce or direct movements in synergic timed correlation with physiological activity
AU2002336598A1 (en) * 2001-09-19 2003-04-01 Ambient Devices Inc. System and method for presentation of remote information in ambient form
JP2003111106A (en) 2001-09-28 2003-04-11 Toshiba Corp Apparatus for acquiring degree of concentration and apparatus and system utilizing degree of concentration
US7308133B2 (en) * 2001-09-28 2007-12-11 Koninklijke Philips Elecyronics N.V. System and method of face recognition using proportions of learned model
US20030066071A1 (en) * 2001-10-03 2003-04-03 Koninklijke Philips Electronics N.V. Program recommendation method and system utilizing a viewing history of commercials
KR100624403B1 (en) * 2001-10-06 2006-09-15 삼성전자주식회사 Human nervous-system-based emotion synthesizing device and method for the same
US6623428B2 (en) 2001-10-11 2003-09-23 Eastman Kodak Company Digital image sequence display system and method
US20030081834A1 (en) * 2001-10-31 2003-05-01 Vasanth Philomin Intelligent TV room
US8561095B2 (en) * 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
JP2003178078A (en) 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd Additional indicator data to image and voice data, and its adding method
US6585521B1 (en) * 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
KR100450758B1 (en) * 2002-01-22 2004-10-01 한국전자통신연구원 Apparatus and method for measuring electroencephalogram
WO2003087767A2 (en) * 2002-04-06 2003-10-23 Barbour Randall L A system and method for quantifying the dynamic response of a target system
US7079888B2 (en) 2002-04-11 2006-07-18 Ansar, Inc. Method and apparatus for monitoring the autonomic nervous system using non-stationary spectral analysis of heart rate and respiratory activity
JP4359810B2 (en) * 2002-10-01 2009-11-11 ソニー株式会社 User terminal, data processing method, program, and data processing system
JP3993069B2 (en) 2002-10-30 2007-10-17 三菱電機株式会社 Control device using EEG signals
US20030126593A1 (en) * 2002-11-04 2003-07-03 Mault James R. Interactive physiological monitoring system
US7931028B2 (en) * 2003-08-26 2011-04-26 Jay Harvey H Skin injury or damage prevention method using optical radiation
US7396330B2 (en) * 2003-01-07 2008-07-08 Triage Data Networks Wireless, internet-based medical-diagnostic system
US20040161730A1 (en) 2003-02-19 2004-08-19 Urman John F. Device and method for designated hemispheric programming
GB2400667B (en) 2003-04-15 2006-05-31 Hewlett Packard Development Co Attention detection
WO2004100765A2 (en) 2003-05-06 2004-11-25 Aspect Medical Systems, Inc. System and method of assessment of the efficacy of treatment of neurological disorders using the electroencephalogram
WO2005113099A2 (en) * 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
WO2005022293A2 (en) * 2003-06-20 2005-03-10 Brain Fingerprinting Laboratories, Inc. Method for a classification guilty knowledge test and integrated system for detection of deception and information
US7367949B2 (en) * 2003-07-07 2008-05-06 Instrumentarium Corp. Method and apparatus based on combination of physiological parameters for assessment of analgesia during anesthesia or sedation
US8200775B2 (en) * 2005-02-01 2012-06-12 Newsilike Media Group, Inc Enhanced syndication
JP3931889B2 (en) 2003-08-19 2007-06-20 ソニー株式会社 Image display system, image display apparatus, and image display method
JP2005084770A (en) 2003-09-05 2005-03-31 Sony Corp Content providing system and method, providing device and method, reproducing device and method, and program
US7305654B2 (en) * 2003-09-19 2007-12-04 Lsi Corporation Test schedule estimator for legacy builds
US20050071865A1 (en) * 2003-09-30 2005-03-31 Martins Fernando C. M. Annotating meta-data with user responses to digital content
US20050096311A1 (en) * 2003-10-30 2005-05-05 Cns Response Compositions and methods for treatment of nervous system disorders
US20080177197A1 (en) 2007-01-22 2008-07-24 Lee Koohyoung Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system
KR20050072965A (en) * 2004-01-08 2005-07-13 림스테크널러지주식회사 Active dry sensor module for measurement of bioelectricity
US8301218B2 (en) * 2004-01-08 2012-10-30 Neurosky, Inc. Contoured electrode
US20050172311A1 (en) 2004-01-31 2005-08-04 Nokia Corporation Terminal and associated method and computer program product for monitoring at least one activity of a user
WO2005084538A1 (en) 2004-02-27 2005-09-15 Axon Sleep Research Laboratories, Inc. Device for and method of predicting a user’s sleep state
EP1582965A1 (en) * 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US7543330B2 (en) 2004-04-08 2009-06-02 International Business Machines Corporation Method and apparatus for governing the transfer of physiological and emotional user data
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
DE102004034266A1 (en) 2004-07-15 2006-02-09 Ge Bayer Silicones Gmbh & Co. Kg Phyllosilicate-containing polysiloxane compositions
WO2006033104A1 (en) * 2004-09-22 2006-03-30 Shalon Ventures Research, Llc Systems and methods for monitoring and modifying behavior
US8224431B2 (en) * 2004-11-02 2012-07-17 Medtronic, Inc. Techniques for selective channel processing and data retention in an implantable medical device
US20060111621A1 (en) * 2004-11-03 2006-05-25 Andreas Coppi Musical personal trainer
US7751878B1 (en) 2004-11-10 2010-07-06 Sandia Corporation Real-time human collaboration monitoring and intervention
US7819812B2 (en) 2004-12-15 2010-10-26 Neuropace, Inc. Modulation and analysis of cerebral perfusion in epilepsy and other neurological disorders
US20070168461A1 (en) * 2005-02-01 2007-07-19 Moore James F Syndicating surgical data in a healthcare environment
US7805009B2 (en) 2005-04-06 2010-09-28 Carl Zeiss Meditec, Inc. Method and apparatus for measuring motion of a subject using a series of partial images from an imaging system
JP2006323547A (en) 2005-05-17 2006-11-30 Fuji Xerox Co Ltd Information processor, information processing method and program
WO2006133229A2 (en) 2005-06-06 2006-12-14 Better, Inc. System and method for generating effective advertisements in electronic commerce
WO2007008930A2 (en) * 2005-07-13 2007-01-18 Ultimate Balance, Inc. Orientation and motion sensing in athletic training systems, physical rehabilitation and evaluation systems, and hand-held devices
US8784109B2 (en) * 2005-08-03 2014-07-22 Bob Gottfried Cognitive enhancement
WO2007019584A2 (en) 2005-08-09 2007-02-15 Icap Technologies, Inc. Device and method relating to the emotional state of a person
JP4697949B2 (en) * 2005-08-10 2011-06-08 親次 佐藤 Mental symptom / psychological state evaluation apparatus and evaluation method
JP5065275B2 (en) * 2005-09-02 2012-10-31 エムセンス コーポレイション Apparatus and method for detecting electrical activity in an organization
US20070055166A1 (en) * 2005-09-02 2007-03-08 Chandrashekhar Patil Method and system for recording and transmitting data from biometric sensors
US20070060830A1 (en) 2005-09-12 2007-03-15 Le Tan Thi T Method and system for detecting and classifying facial muscle movements
EP1924940A2 (en) * 2005-09-12 2008-05-28 Emotiv Systems Pty Ltd. System and method for interaction with a subject based on detection of mental states
US7865235B2 (en) * 2005-09-12 2011-01-04 Tan Thi Thai Le Method and system for detecting and classifying the mental state of a subject
US7716697B2 (en) * 2005-12-08 2010-05-11 Panasonic Corporation Information processing system, information processing apparatus, and method
US9721480B2 (en) 2006-02-08 2017-08-01 Honeywell International Inc. Augmented tutoring
CA2639125A1 (en) 2006-03-13 2007-09-13 Imotions-Emotion Technology A/S Visual attention and emotional response detection and display system
WO2007109745A2 (en) 2006-03-22 2007-09-27 Emotiv Systems, Pty Ltd. Electrode and electrode headset
WO2008030493A2 (en) * 2006-09-05 2008-03-13 Innerscope Research, Llc Method and system for determining audience response to a sensory stimulus
US20080081512A1 (en) * 2006-10-03 2008-04-03 Shawn Chawgo Coaxial Cable Connector With Threaded Post
JP4325875B2 (en) * 2006-11-06 2009-09-02 株式会社日立製作所 Friction stir welding tool and friction stir welding apparatus
USD565735S1 (en) * 2006-12-06 2008-04-01 Emotiv Systems Pty Ltd Electrode headset
US20080211768A1 (en) 2006-12-07 2008-09-04 Randy Breen Inertial Sensor Input Device
US20080144882A1 (en) * 2006-12-19 2008-06-19 Mind Metrics, Llc System and method for determining like-mindedness
US20090222330A1 (en) 2006-12-19 2009-09-03 Mind Metrics Llc System and method for determining like-mindedness
US20080159365A1 (en) 2006-12-22 2008-07-03 Branislav Dubocanin Analog Conditioning of Bioelectric Signals
US8768718B2 (en) 2006-12-27 2014-07-01 Cardiac Pacemakers, Inc. Between-patient comparisons for risk stratification of future heart failure decompensation
US8352980B2 (en) * 2007-02-15 2013-01-08 At&T Intellectual Property I, Lp System and method for single sign on targeted advertising
US20080218472A1 (en) 2007-03-05 2008-09-11 Emotiv Systems Pty., Ltd. Interface to convert mental states and facial expressions to application input
US20090105576A1 (en) * 2007-10-22 2009-04-23 Nam Hoai Do Electrode conductive element
JP5309126B2 (en) * 2007-03-29 2013-10-09 ニューロフォーカス・インコーポレーテッド System, method, and apparatus for performing marketing and entertainment efficiency analysis
WO2008137581A1 (en) * 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
WO2008137579A1 (en) * 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-informatics repository system
US20090024449A1 (en) * 2007-05-16 2009-01-22 Neurofocus Inc. Habituation analyzer device utilizing central nervous system, autonomic nervous system and effector system measurements
US8494905B2 (en) * 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
US20090030287A1 (en) * 2007-06-06 2009-01-29 Neurofocus Inc. Incented response assessment at a point of transaction
US20090025023A1 (en) * 2007-06-06 2009-01-22 Neurofocus Inc. Multi-market program and commercial response monitoring system using neuro-response measurements
US20090024446A1 (en) * 2007-07-20 2009-01-22 Shan Jerry Z Providing a model of a life cycle of an enterprise offering
EP2170161B1 (en) * 2007-07-30 2018-12-05 The Nielsen Company (US), LLC. Neuro-response stimulus and stimulus attribute resonance estimator
US20090036755A1 (en) * 2007-07-30 2009-02-05 Neurofocus, Inc. Entity and relationship assessment and extraction using neuro-response measurements
CN101795620B (en) * 2007-08-28 2013-05-01 神经焦点公司 Consumer experience assessment system
US8635105B2 (en) * 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
US8386313B2 (en) * 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
TW200910875A (en) * 2007-08-29 2009-03-01 Inventec Appliances Corp Method and system for instantly translating text within an image
US8392255B2 (en) * 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US8494610B2 (en) * 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US20090083129A1 (en) * 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
JP5386511B2 (en) 2008-02-13 2014-01-15 ニューロスカイ インコーポレイテッド Audio headset with biosignal sensor
US7742623B1 (en) * 2008-08-04 2010-06-22 Videomining Corporation Method and system for estimating gaze target, gaze sequence, and gaze map from video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344904A (en) * 2001-02-06 2002-11-29 Sony Corp Device for reproducing content, device for receiving content, method for controlling content display, method for collecting and analyzing content evaluation, device for collecting and analyzing content evaluation, method for managing collection of content evaluation, and device for managing collection of content evaluation
JP2004021844A (en) * 2002-06-19 2004-01-22 Sony Corp Method for preparing data base, equipment for preparing data base, program for preparing data base, and method for regenerating data base, recording medium, contents, method, device, program reproducing contents
JP2005064839A (en) * 2003-08-12 2005-03-10 Sony Corp Recording device, recording and reproducing device, reproducing device, recording method, recording and reproducing method, and reproducing method
JP2005124909A (en) * 2003-10-24 2005-05-19 Sony Corp Method for presenting emotional information, emotional information display device, and method for retrieving information content
JP2005198828A (en) * 2004-01-15 2005-07-28 Seiko Epson Corp Biological data analyzer, biological data analyzing method, control program and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244523A (en) * 2009-03-31 2010-10-28 Internatl Business Mach Corp <Ibm> Method and device for adding and processing tag accompanied by feeling data
US8788495B2 (en) 2009-03-31 2014-07-22 International Business Machines Corporation Adding and processing tags with emotion data
JP2014523154A (en) * 2011-06-17 2014-09-08 マイクロソフト コーポレーション Interest-based video stream
JP2018533894A (en) * 2015-10-30 2018-11-15 チャイナ、モバイル、コミュニケーションズ、グループ、カンパニー、リミテッドChina Mobile Communications Group Co., Ltd Method and device for triggering interactive application
US10511396B2 (en) 2015-10-30 2019-12-17 China Mobile Communications Group Co., Ltd. Method and device for triggering interactive application
JP2018093350A (en) * 2016-12-01 2018-06-14 有限会社曽根地所 Attention degree evaluation system

Also Published As

Publication number Publication date
US20080222671A1 (en) 2008-09-11
JP5746472B2 (en) 2015-07-08
CN101755406A (en) 2010-06-23
EP2135370A4 (en) 2012-08-08
EP2135370A1 (en) 2009-12-23
US8782681B2 (en) 2014-07-15
WO2008108799A1 (en) 2008-09-12
WO2008108799A8 (en) 2009-12-23

Similar Documents

Publication Publication Date Title
JP5746472B2 (en) Method and system for evaluating media and media events based on physiological data
US8230457B2 (en) Method and system for using coherence of biological responses as a measure of performance of a media
US11200964B2 (en) Short imagery task (SIT) research method
US20210065117A1 (en) Method and system for predicting audience viewing behavior
CN101755405B (en) A method and system for creating an aggregated view of user response over time-variant media using physiological data
US8347326B2 (en) Identifying key media events and modeling causal relationships between key events and reported feelings
JP5616640B2 (en) Method and system for measuring and evaluating positive or negative responses to audiovisual or interactive media, products or activities using physiological signals
US20100004977A1 (en) Method and System For Measuring User Experience For Interactive Activities
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
US20130102854A1 (en) Mental state evaluation learning for advertising
US20200042090A1 (en) Information processing device, information processing method, and program
US20130238394A1 (en) Sales projections based on mental states
US9501779B2 (en) Automated thumbnail selection for online video

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120330

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120628

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130716

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130718

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141127

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150508

R150 Certificate of patent or registration of utility model

Ref document number: 5746472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250