JP2010520552A - Method and system for evaluating media and media events based on physiological data - Google Patents
Method and system for evaluating media and media events based on physiological data Download PDFInfo
- Publication number
- JP2010520552A JP2010520552A JP2009552656A JP2009552656A JP2010520552A JP 2010520552 A JP2010520552 A JP 2010520552A JP 2009552656 A JP2009552656 A JP 2009552656A JP 2009552656 A JP2009552656 A JP 2009552656A JP 2010520552 A JP2010520552 A JP 2010520552A
- Authority
- JP
- Japan
- Prior art keywords
- media
- event
- event type
- instances
- physiological
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000006461 physiological response Effects 0.000 claims abstract description 53
- 230000004931 aggregating effect Effects 0.000 claims abstract description 13
- 238000011156 evaluation Methods 0.000 claims description 36
- 230000004044 response Effects 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000002996 emotional effect Effects 0.000 claims description 5
- 230000002596 correlated effect Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 239000008280 blood Substances 0.000 claims description 3
- 210000004369 blood Anatomy 0.000 claims description 3
- 238000007654 immersion Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 210000003205 muscle Anatomy 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 2
- 230000008859 change Effects 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 229910052760 oxygen Inorganic materials 0.000 claims description 2
- 239000001301 oxygen Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 2
- 210000004556 brain Anatomy 0.000 claims 1
- 230000008569 process Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- UCTWMZQNUQWSLP-UHFFFAOYSA-N adrenaline Chemical compound CNCC(O)C1=CC=C(O)C(O)=C1 UCTWMZQNUQWSLP-UHFFFAOYSA-N 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006397 emotional response Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010040914 Skin reaction Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008512 biological response Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 235000021251 pulses Nutrition 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000035483 skin reaction Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/29—Arrangements for monitoring broadcast services or broadcast-related services
- H04H60/33—Arrangements for monitoring the users' behaviour or opinions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/29—Arrangements for monitoring broadcast services or broadcast-related services
- H04H60/31—Arrangements for monitoring the use made of the broadcast services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/46—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising users' preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4667—Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4756—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Social Psychology (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Marketing (AREA)
- Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- General Business, Economics & Management (AREA)
- Biophysics (AREA)
- Game Theory and Decision Science (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本発明の様々な実施の形態は、メディアの視聴者の測定された生理学的データから生理学的反応を導き出し、生理学的反応に基づいてイベント種別のインスタンスのスコアを計算するボトムアップの分析手法を可能とする。各イベント・インスタンスを評価するのに加え、その後、スコアが集約されて、イベント種別が評価される。本手法は、また、メディア内におけるイベント種別のセットのイベント評価を集約することにより、メディアの全体評価を形成することができる。
【選択図】 図1Various embodiments of the present invention enable a bottom-up analysis technique that derives physiological responses from measured physiological data of media viewers and calculates event type instance scores based on the physiological responses. And In addition to evaluating each event instance, the scores are then aggregated and the event type is evaluated. The method can also form an overall assessment of the media by aggregating event assessments for a set of event types within the media.
[Selection] Figure 1
Description
本発明は、視聴者からの生理学的反応に基づくメディア及びイベント評価の分野に関する。 The present invention relates to the field of media and event evaluation based on physiological responses from viewers.
メディアに対する視聴者反応を分析する従来の手法は、統計に対する平均化された反応、視聴者の「ノブ」、生理学的データ又は他の評価機構に基づく、トップダウンの観察に焦点をあてる。視聴者は通常、少数の主要イベントしか覚えておらず、他は忘れてしまうため、各個人視聴者の認識の偏りによって、この観察の分析精度は制限される。そのため、視聴者のメディア経験の期間に他の肯定的なイベントがあったとしても、メディアの一つ又は二つの否定的なイベントが、視聴者が後にメディアをどう思うかを支配しかねない。 Traditional approaches to analyzing audience responses to media focus on top-down observations based on averaged responses to statistics, viewer “knobs”, physiological data or other rating mechanisms. Because viewers typically remember only a few major events and forget others, the perceived bias of each individual viewer limits the analysis accuracy of this observation. As such, even if there are other positive events during the viewer's media experience, one or two negative events in the media can dominate what the viewer will think of the media later.
心拍数、脳波、動き、筋肉運動、電気皮膚反応、及びメディア視聴者の他の反応を含むがそれらに限定されない生理学的データは、視聴者がメディアを視聴している期間の感情変化の軌跡を与え得る。しかしながら、そのようなデータ自身は、メディア又はそのイベントがメディア又はイベントの他のインスタンスに対して客観的に調査及び/又は比較されることを可能とするような、メディアの客観的基準を作成しない。 Physiological data, including but not limited to heart rate, electroencephalogram, movement, muscle movement, electrocutaneous response, and other responses of the media viewer, track emotional changes during the time the viewer is watching the media. Can give. However, such data itself does not create an objective criteria for the media that allows the media or its events to be objectively investigated and / or compared against other instances of the media or events. .
本発明の様々な実施の形態は、メディアの視聴者の測定された生理学的データから生理学的反応を導き出し、生理学的反応に基づいてイベント種別のインスタンスのスコアを計算するボトムアップの分析手法を可能とする。その後、各イベントのインスタンスをスコア付けするのに加え、イベント種別を評価するためにスコアが集約される。本手法は、更に、メディア内のイベント種別のセットの評価を集約することにより、メディアの全体評価を形成することができる。 Various embodiments of the present invention enable a bottom-up analysis technique that derives physiological responses from measured physiological data of media viewers and calculates event type instance scores based on the physiological responses. And Then, in addition to scoring each event instance, the scores are aggregated to evaluate the event type. The method can also form an overall assessment of the media by aggregating assessments of the set of event types in the media.
本発明は、例として示されるものであり、同様の参照番号が類似の要素を示す添付の図面における特徴に限定されるものではない。本明細書における「一つの」、又は「幾つかの」実施の形態は、必ずしも同一の実施の形態ではなく、そのような表現は、少なくとも一つを意味するものであることに注意するべきである。 The present invention is illustrated by way of example and is not limited to the features in the accompanying drawings in which like reference numbers indicate similar elements. It should be noted that “one” or “several” embodiments in this specification are not necessarily the same embodiment, and such a representation is intended to mean at least one. is there.
聴衆/視聴者とつながる効果的なメディアは、所望の感情的反応を引き出すことができ、また、生理学的反応が視聴者の感情変化の有効な基準であることが確立している。本発明の様々な実施の形態は、メディア視聴者の測定された生理学的データから生理学的反応を導き出し、生理学的反応に基づいてイベント種別のインスタンスのスコアを計算するボトムアップの分析手法を可能とする。その後、イベントの各インスタンスのスコア付けに加えて、スコアが集約され、イベント種別が評価される。該手法は、更に、メディア内のイベント種別のセットの評価を集約することにより、メディアの全体評価を形成することができる。そのような手法は、イベント種別のインスタンスが、当該メディア内の同一イベント種別の先のインスタンスに対して客観的に測定され、現在のメディアが他のメディアに対して客観的に測定されることを可能とする。更に、測定された生理学的データに基づいて、メディアを、それぞれが複数のイベント・インスタンスを有する一つ又はそれ以上の主要且つ繰り返し可能なイベント種別に定義し、全イベント・インスタンス及び全イベント種別のスコアを集約してメディアに対する視聴者の全体的な反応を測定する、断片化及び組み合わせ(slice and combine)手法が採用されてよい。手法の各ステップはコンピュータ装置で処理可能であるため、手法全体を自動化することが可能であり、それにより、人間による入力又は介入をあまり必要としないメディアの客観的測定が可能となる。 Effective media connected with the audience / viewer can elicit the desired emotional response, and it is established that the physiological response is an effective measure of the viewer's emotional changes. Various embodiments of the present invention enable a bottom-up analysis approach that derives physiological responses from measured physiological data of media viewers and calculates event type instance scores based on the physiological responses. To do. Thereafter, in addition to scoring each instance of the event, the scores are aggregated and the event type is evaluated. The technique can also form an overall assessment of the media by aggregating assessments of the set of event types in the media. Such an approach is to ensure that an event type instance is objectively measured relative to previous instances of the same event type in the media, and the current media is objectively measured relative to other media. Make it possible. In addition, based on the measured physiological data, the media is defined into one or more primary and repeatable event types, each having multiple event instances, for all event instances and all event types. Fragmentation and combination techniques that aggregate scores and measure the overall response of the viewer to the media may be employed. Since each step of the technique can be processed by a computer device, the entire technique can be automated, thereby allowing objective measurement of media that requires less human input or intervention.
本発明の背景にある主要原理は、メディアに対する個人の反応を見てメディアに関する判断をすることはできない、というものである。非限定的な例として、複数の主要場面(イベント)を有する映画は、各場面に対する視聴者反応の完全な分析によってのみ、正確に評価することができる。そのような分析は、強烈な場面が本当に強烈であるか否か、ラブ・シーンが視聴者の興味を失わせるか又は関心を引くか、視聴者はジョークを面白いと思ったか否か、等を含み得るがそれらに限定されるものではない。これらの個別の場面種別が集約され、全体として評価された際にのみ、映画が客観的且つ自動的に同一ジャンルの他の映画と比較されることができる。更に、特定の場面(イベント種別)に対して期待される典型的な反応を知ることによってのみ、その場面の新しいインスタンスを客観的に評価することができる。 The main principle behind the present invention is that it is not possible to make judgments about the media by looking at individual responses to the media. As a non-limiting example, a movie with multiple major scenes (events) can only be accurately evaluated by a complete analysis of the audience response for each scene. Such an analysis will determine whether the intense scene is really intense, whether the love scene will distract or attract the viewer's interest, whether the viewer thought the joke was interesting, etc. It can include, but is not limited to. Only when these individual scene types are aggregated and evaluated as a whole, a movie can be objectively and automatically compared to other movies of the same genre. Furthermore, only by knowing the typical response expected for a particular scene (event type), a new instance of that scene can be objectively evaluated.
図1は、本発明の一つの実施の形態による、メディア及びイベントの評価を支持する例としてのシステムの図である。この図では、構成要素が機能的に分離して描かれているが、そのような描写は例示に過ぎない。この図に描かれた構成要素が任意に組み合わされ、又は別個のソフトウェア、ファームウェア、及び/又はハードウェア要素に分離されても良いことは、当業者にとって明らかである。更に、そのような構成要素は、どのように組み合わされ又は分離されるかに関わらず、同一のコンピュータ装置又は複数のコンピュータ装置上で実行されることができ、複数のコンピュータ装置は、一つ又はそれ以上のネットワークで接続され得ることも、当業者にとって明らかである。 FIG. 1 is a diagram of an example system that supports media and event evaluation, according to one embodiment of the present invention. In this figure, the components are depicted functionally separated, but such depiction is merely exemplary. It will be apparent to those skilled in the art that the components depicted in this figure may be combined arbitrarily or separated into separate software, firmware, and / or hardware components. Further, such components may be executed on the same computer device or a plurality of computer devices, regardless of how they are combined or separated, and a plurality of computer devices may be one or It will be apparent to those skilled in the art that they can be connected with more networks.
図1を参照して、一つ又はそれ以上のセンサ103は、メディア101を視聴している複数の視聴者102それぞれからの生理学的データの測定及び記録に利用される。代替として、以下に説明するように、統合センサ・ヘッドセットが適用されてもよい。ここで、メディアは、映画、ビデオ、テレビ番組、テレビ・コマーシャル、広告、ビデオゲーム、インタラクティブなオンライン・メディア、印刷物、及び視聴者が情報を得たり、感情的に影響を受けたりし得る任意の他のメディア、のうちの一つ又はそれ以上であってよい。測定される生理学的データは、心拍数、脳波、脳電図(EEG)信号、瞬き率、呼吸、動作、筋肉の動き、電気皮膚反応、及び感情の変化に相関付けられる任意の他の反応を含むがそれらに限定されるものではない。一つ又はそれ以上のセンサのそれぞれは、脳電図、加速度計、血液酸素センサ、検流計、筋電図、及び任意の他の生理学的センサのうちの一つ又はそれ以上であってよい。身体の生理学的データは、人間の感情変化との相関を示してきた。統計、ノブ、又は他の偏りやすい反応の基準を利用する変わりに、身体の生理学的データの変化そのものを感知することにより、本発明は、記録されるデータと、それらデータの粒度とを改善する。生理学的反応は、毎秒何回も記録することができるためである。
Referring to FIG. 1, one or
幾つかの実施の形態において、受信モジュール104は、メディアを視聴している複数の視聴者それぞれの生理学的データを受け取り、及び/又は記録するよう動作可能である。生理学的データは、他の方法によって、及び/又は記憶装置から、測定及び/又は取得されてもよい。幾つかの実施の形態において、決定モジュール105は、それぞれがメディア内において発生する複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の、発生及び持続時間を決定及び記録するよう動作可能である。メディアにおける各イベント・インスタンスの持続時間は、時間的に不変、非線形、又は準線形であり得る。幾つかの実施の形態において、そのようなイベントの定義は、視聴者の生理学的データが測定された後に起こり、決定モジュール105は、複数の視聴者から測定された生理学的データに基づいて、メディアを、それぞれがメディア内の複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に定義する。
In some embodiments, the receiving module 104 is operable to receive and / or record physiological data for each of a plurality of viewers viewing the media. Physiological data may be measured and / or obtained by other methods and / or from a storage device. In some embodiments, the
幾つかの実施の形態において、評価モジュール106は、複数の視聴者から測定された生理学的データから複数の生理学的反応を導き出し、複数の生理学的反応に基づいて、メディアのイベント種別のうちの一つにおける複数のイベント・インスタンスそれぞれに対するスコアを計算するように動作可能である。ここで、生理学的反応は、思考、嗜好(liking)、関与、没頭、肉体的関与、誘意性(valence)、及び生気のうちの一つ又はそれ以上であってよく、思考及び嗜好は、EEGから計算することができる。評価モジュールは、更に、そのようなスコアが計算された後で、イベント種別のインスタンスのスコアを集約することにより、特定のイベント種別を評価するよう動作可能である。更に、評価モジュールは、オプションとして、メディアのイベント種別の評価を集約することにより、メディアを評価してもよい。
In some embodiments, the
図2A−Bは、本発明の一つの実施の形態による、メディア及びイベントの評価を支持する例としてのプロセスを示すフローチャートである。この図は、例示のために機能的なステップを特定の順序で示しているが、該プロセスは、ステップのいかなる特定の順序又は構成に限定されるものではない。この図に描かれた様々なステップは、様々な方法で省略、再構成、組み合わせ、及び/又は適応されてもよいことが、当業者に理解される。 2A-B are flowcharts illustrating an example process that supports media and event evaluation, according to one embodiment of the present invention. Although this figure shows functional steps in a particular order for purposes of illustration, the process is not limited to any particular order or configuration of steps. Those skilled in the art will appreciate that the various steps depicted in this figure may be omitted, rearranged, combined, and / or adapted in various ways.
図2Aを参照して、ステップ201において、メディアを視聴している複数の視聴者それぞれからの生理学的データが受信又は測定される。次いで、ステップ202において、複数の視聴者から測定された生理学的データに基づいて、メディアが、それぞれがメディア内に複数のイベント・インスタンスを有する複数のイベント種別に定義される。ステップ203において、生理学的データから、複数の生理学的反応が導き出され得る。ステップ204において、複数の生理学的反応に基づいて、特定のイベント種別の複数のイベント・インスタンスそれぞれのスコアが計算され、ステップ205において、特定のイベント種別の複数のイベント・インスタンスのスコアを集約することにより、特定のイベント種別が評価される。ステップ204及び205は、メディアにおける各種別ごとに繰り返されてもよく、メディアそのものが、メディアのイベント種別の集約された評価に基づいて、ステップ206において評価されてもよい。
Referring to FIG. 2A, in
幾つかの実施の形態において、生理学的データは、メディアを、同一ジャンルの他のメディアと比較することができる、主要な、繰り返されるイベントのインスタンス/種別に定義するために利用されてもよい。図2Bを参照して、メディアを視聴している複数の視聴者それぞれからの生理学的データがステップ202において受信又は測定される前に、ステップ201において、それぞれがメディア内に複数のイベント・インスタンスを有する複数のイベント種別の発生及び持続時間が、決定及び/又は記録されることができる。ステップ203〜206は、図2Aに示されたステップと同様である。
In some embodiments, physiological data may be utilized to define the media into key, repeated event instances / types that can be compared to other media in the same genre. Referring to FIG. 2B, before physiological data from each of a plurality of viewers watching the media is received or measured at
幾つかの実施の形態において、視聴者がメディアのイベントを視聴している間に生理学的データを測定するために、生物学的反応の複数の測定値を感知することができる統合生理学的センサ・ヘッドセットが、視聴者の頭に装着され得る。データはコンピュータのプログラムに記録され、それにより、視聴者がヘッドセットを装着しながらメディアと相互作用することが可能となる。図3は、本発明の一つの実施の形態とともに使用される例としての統合ヘッドセットを示す。処理ユニット301は、生理学的データをデジタル化し、該データを、思考、関与、没頭、肉体的関与、誘意性、生気及びその他を含むがそれらに限定されない生理学的応答に処理するマイクロプロセッサである。三軸加速度計302は、頭部の動きを感知する。シリコン製安定化ストリップ303は、ヘッドセットの固定により動きを最小化し、更にしっかりした感知を可能とする。右EEG電極304及び左EEG電極306は、使用のために準備を必要としない、前額骨の前に置かれるドライ電極である。電極と肌とが接触していることが必要だが、過度な圧力は必要ない。心拍数センサ305は、額の中心付近に置かれる堅牢な血液量脈波(blood volume pulse)センサであり、充電又は交換可能な電池モジュール307が片耳の上に置かれる。裏側の調節可能ストラップ308は、様々なサイズの頭に対してヘッドセットを心地よい圧力設定に調節するために利用される。 In some embodiments, an integrated physiological sensor capable of sensing multiple measurements of a biological response to measure physiological data while a viewer is watching a media event A headset may be worn on the viewer's head. The data is recorded in a computer program, which allows the viewer to interact with the media while wearing the headset. FIG. 3 shows an exemplary integrated headset for use with one embodiment of the present invention. The processing unit 301 is a microprocessor that digitizes physiological data and processes the data into physiological responses including but not limited to thought, engagement, immersion, physical engagement, incentives, vitality and others. . The triaxial accelerometer 302 senses head movement. The silicon stabilization strip 303 minimizes movement by fixing the headset and allows more robust sensing. The right EEG electrode 304 and the left EEG electrode 306 are dry electrodes placed in front of the forehead bone that do not require preparation for use. The electrode needs to be in contact with the skin, but no excessive pressure is required. The heart rate sensor 305 is a robust blood volume pulse sensor placed near the center of the forehead, and a battery module 307 that can be charged or exchanged is placed on one ear. A backside adjustable strap 308 is utilized to adjust the headset to a comfortable pressure setting for various sized heads.
幾つかの実施の形態において、統合ヘッドセットは押しボタンで電源オンされ、視聴者の生理学的データが即時に測定及び記録される。データ転送は、ヘッドセットがリンクされているコンピュータのインターフェースを介して、無線で処理されてもよい。正確な測定値を得るために、視聴者の皮膚の準備又はジェルは必要ではなく、ヘッドセットは視聴者から簡単に取り外され、すぐに他の視聴者によって利用されることができるため、短時間且つ低コストで多くの参加者の測定を行うことができる。使用中にヘッドセットが劣化することはなく、ヘッドセットは数千回再利用することが可能である。 In some embodiments, the integrated headset is powered on with a push button and the viewer's physiological data is immediately measured and recorded. Data transfer may be handled wirelessly via a computer interface to which the headset is linked. No viewer skin preparation or gel is required to obtain accurate measurements, and the headset can be easily removed from the viewer and used immediately by other viewers, so In addition, many participants can be measured at low cost. The headset does not deteriorate during use, and the headset can be reused thousands of times.
幾つかの実施の形態において、視聴者の生理学的データを入力として用いる複数の公式によって、視聴者の生理学的反応を導き出すことが可能である。表情認識、「ノブ」、及び他の感情基準もまた、同様の有効性を有する入力として利用可能である。「関与」、「アドレナリン」、「思考」及び「誘意性」を含んでもよいがそれらに限定されない、導き出された各生理学的反応は、複数のセンサからの生理学的データを組み合わせて、多次元の、わかりやすい、視聴者の感情的反応の表現にする。図4(a)は、Xbox360上でCall of Duty3をするプレイヤーについて、本発明の一つの実施の形態によって測定された、例としての「関与」の追跡を示す。追跡は、時間ベースのグラフであり、セッションの最初が左側であり、終わりが右側になる。二つのセクション(イベント・インスタンス)401及び402は丸を付けて示されるが、左側の401は、退屈なチュートリアル・セクション中に起こるゲーム・プレイ中の低い「関与」を示しており、402は、プレイヤーがゲームの最初の戦闘を経験する際に記録された、高い「関与」のセクションを示す。
In some embodiments, the viewer's physiological response can be derived by a plurality of formulas using the viewer's physiological data as input. Facial expression recognition, “knobs”, and other emotion criteria can also be used as inputs with similar effectiveness. Each derived physiological response, including but not limited to “involvement”, “adrenaline”, “thinking” and “incentive”, combines physiological data from multiple sensors into a multidimensional It ’s easy to understand and expresses the emotional response of the viewer. FIG. 4 (a) shows an exemplary “engagement” tracking as measured by one embodiment of the present invention for a player playing Call of Duty 3 on Xbox 360. Tracking is a time-based graph with the beginning of the session on the left and the end on the right. Two sections (event instances) 401 and 402 are shown circled, but the
幾つかの実施の形態において、各イベント種別の多数のインスタンスにおける視聴者の生理学的反応(例えば、強烈な、退屈な、面白い、関心を持っている、等)が計算され、分析され、各イベント種別(例えば、ブランドの瞬間、製品紹介、ビデオゲームのカット場面、戦闘、レベルの再開始、等)に対するそのような反応の測定値と相関付けられて、各イベント種別に対する文脈に特化したイベント・プロフィールが作成される。これらのプロフィールは、その後、新しいメディアにおいて発生する各イベント・インスタンスを評価するために利用され得る。場合によっては、何百から何千もの参加視聴者に渡る、メディアの何千から何百万ものボトムアップの各測定値が作成される。この多数の個別のスコアを組み合わせることにより、統計調査の質問をして、1〜10種類の主観的測定値である百個の回答を得るのと比較して、メディア全体の測定精度が非常に高まる。非限定的な例として、1000個の主要イベント・インスタンスを有する映画を視聴している100人の視聴者について、各視聴者について5種類の生理学的反応(例えば、思考、関与、誘意性、没頭、肉体的関与)が計算され、視聴者の生理学的反応に基づいて、各イベント・インスタンスについて6つの数学的順列(例えば、平均値、平均値からの偏差、一次傾向、二次傾向、肯定的反応、否定的反応、等)が計算される。その結果、統計から100〜1000の測定値に対し、映画を評価するために、3,000,000(100×1000×5×6)件のスコアが利用可能となる。その後、これらのスコアが組み合わされて映画の全体評価が作成され、そのような評価は、各イベント(場面)の強さ−プレイヤーがカット場面を好きか、ジョークは面白いか、イベントの全体品質、強い及び弱いイベント種別、強い及び弱い映画イベント−中間のイベントは強い反応をもたらしたが開始のイベントはそうではなかった、といったことを含み得るが、それらに限定されるものではない。 In some embodiments, the viewer's physiological response (eg, intense, boring, interesting, interested, etc.) in multiple instances of each event type is calculated and analyzed for each event. Events specific to the context for each event type, correlated with measures of such responses to the type (eg brand moments, product introductions, video game cuts, battles, level restarts, etc.)・ A profile is created. These profiles can then be used to evaluate each event instance that occurs in the new media. In some cases, thousands to millions of bottom-up measurements of the media are made across hundreds to thousands of participating viewers. By combining this large number of individual scores, the measurement accuracy of the entire media is much higher than when you ask a statistical survey question and get one hundred subjective responses, one hundred responses Rise. As a non-limiting example, for 100 viewers watching a movie with 1000 major event instances, 5 physiological responses for each viewer (e.g. thought, engagement, incentive, 6 mathematical permutations (eg, mean, deviation from mean, primary trend, secondary trend, positive) for each event instance based on the viewer's physiological response Response, negative response, etc.) are calculated. As a result, 3,000,000 (100 × 1000 × 5 × 6) scores are available for evaluating movies against 100-1000 measurements from statistics. These scores are then combined to create an overall rating of the movie, which is based on the strength of each event (scene)-whether the player likes the cut scene, the joke is interesting, the overall quality of the event, Strong and weak event types, strong and weak movie events-may include, but are not limited to, intermediate events have resulted in strong responses but initiating events were not.
幾つかの実施の形態において、イベント・インスタンス又はイベント種別の発生及び持続時間が決定され、記録され得る。非限定的な例として、ビデオゲームのイベント種別は、プレイヤーの画面に「戦闘戦車」が出現する度に発生し、それが画面上に留まる限り持続するものと定義され得る。もう一つの非限定的な例として、映画のイベントは、ジョークが言われる度に発生するものと定義され得る。イベント種別は、当該イベント種別のインスタンスが、各メディアについて一度だけ発生するように定義されてもよい。代替として、イベント種別は、メディア内で当該イベント種別の多くのインスタンスが発生するように定義されてもよい。 In some embodiments, the occurrence and duration of an event instance or event type can be determined and recorded. As a non-limiting example, a video game event type may be defined to occur every time a “battle tank” appears on the player's screen and persist as long as it remains on the screen. As another non-limiting example, a movie event can be defined as occurring every time a joke is told. The event type may be defined so that an instance of the event type occurs only once for each medium. Alternatively, the event type may be defined such that many instances of the event type occur in the media.
幾つかの実施の形態において、イベント・インスタンスは、効果的且つ正確な結論を出すことを可能とするように、記録されたメディアそれぞれに対してタグ付けされてもよい。非限定的な例として、図4(b)は、本発明の一つの実施の形態に従って測定された、ビデオゲーム・プレイヤーの「関与」データ2つの例としての追跡を示す。図中のボックス403、404及び405は、タグ付けされた特定の「武器使用」イベント種別に対応する。イベント・インスタンスが出現する各ポイントにおいて、「関与」は急激に上昇する。図4(b)の図は、一つの種別のイベントがタグ付けされることを示すが、本手法は、多くのイベント・インスタンスが異なるイベント種別にタグ付けされるよう拡張可能であり、メディアが断片化されることを可能とする。もう一つの非限定的な例として、図4(c)は、本発明の一つの実施の形態に従ってメディアをイベント・インスタンスに分割する例としての垂直線を示す。主要なイベント種別は、ビデオゲーム又は他のメディアのプレイヤーが出会う、及び/又は相互作用する重要なものそれぞれを定義する。ここで、生理学的データ/反応は、イベント・インスタンスのタグと重なり合い、両方は、連携してオン及びオフになることができる。
In some embodiments, event instances may be tagged for each recorded media to allow for effective and accurate conclusions. As a non-limiting example, FIG. 4 (b) shows two example trackings of video game player “engagement” data measured according to one embodiment of the present invention.
幾つかの実施の形態において、公式又は規則を用いて、イベント・インスタンス期間の視聴者の生理学的データ又は反応に基づいて、各イベント・インスタンスについてスコアが生成され得る。一つの実施の形態において、公式は、該インスタンスのイベント種別の所望の反応の専門知識に基づき得、該公式は、該イベント・インスタンスに渡って導き出された生理学的反応それぞれにおける変化の加重和の形態をとり得る。非限定的な例として、公式は、時間経過(ベクトル)に渡る各生理学的反応からの複数の入力の加重和によって定義されてもよく、各ベクトルは、上昇し、下降し、ピークに達し、高い方に伸び、低い方に伸び、又ははっきりとして特徴を持ち得る。非限定的な例として、多くの広告の分析に基づいてジョークがどれだけ優れているかを相関付ける、ジョークの落ちに対する生理学的反応のプロフィールが存在し得る。プロフィールには2つの側面があり得る。即ち、第一に、生理学的反応の「思考」ベクトルは上昇し、落ちの直前及び落ちの第一部分の間に、何が起こっているかについて視聴者が思考したことを示さなければならず、第二に、落ちが提供されると、視聴者の「誘意性」又は報酬感情が増加して、視聴者が、ジョークの落ちに関する思考に関与させられた後で、その落ちを好んだことを示さなければならない。従って、ジョークのイベント種別について、特定の時点に思考及び誘意性が上昇する数学的プロフィールが作成される。ジョークの落ちの有効性を算定するために、そのようなプロフィールが、ジョークの各インスタンスに適用され得る。この反応プロフィールに当てはまらないジョークの落ちは、視聴者の間に良い経験を作り出さない。 In some embodiments, a formula or rule may be used to generate a score for each event instance based on viewers' physiological data or responses during the event instance period. In one embodiment, a formula may be based on the desired response expertise of the event type of the instance, the formula being a weighted sum of changes in each of the physiological responses derived across the event instance. Can take form. As a non-limiting example, the formula may be defined by a weighted sum of multiple inputs from each physiological response over time (vector), each vector rising, falling, reaching a peak, It can extend higher, extend lower, or have distinct features. As a non-limiting example, there may be a physiological response profile to a joke drop that correlates how good the joke is based on the analysis of many advertisements. A profile can have two aspects. That is, first, the “thinking” vector of the physiological response should rise, indicating that the viewer had thought about what was happening just before the fall and during the first part of the fall, Second, when a fall was provided, the viewer's “incentive” or reward feeling increased, and the viewer liked the fall after being involved in thinking about the fall of the joke. Must show. Therefore, a mathematical profile is created for the joke event type, where the thinking and incentives increase at a specific point in time. Such a profile can be applied to each instance of a joke to calculate the effectiveness of the joke drop. A joke drop that does not fit in this reaction profile does not create a good experience for the viewer.
図5は、本発明の一つの形態によって生成された、広告におけるジョークの落ちの例としてのプロフィールを示す。該プロフィールは、対象に関する専門知識によって、又は、数学的公式によって作成され得る。このイベント種別のインスタンスの生理学的反応がこのプロフィールに合致する場合、当該イベント・インスタンスは成功と考えられる。非限定的な例として、ジョークのインスタンスのスコアを計算するために以下の公式が利用され得る。即ち、
スコア=.25×(ジョークの落ち期間における思考の上昇)+.75×(ジョークの落ちの後の誘意性)
である。ここで、結果としての重み付けは、ジョークの落ち期間における思考の上昇の25%、及び、ジョークの落ちの後の誘意性の上昇の75%である。
FIG. 5 shows an example profile of a joke drop in an advertisement generated according to one aspect of the present invention. The profile can be created by subject-related expertise or by mathematical formulas. If the physiological response of an instance of this event type matches this profile, the event instance is considered successful. As a non-limiting example, the following formula can be used to calculate the score of a joke instance: That is,
Score =. 25 × (thinking rise during joke fall) +. 75 × (Incentive after the fall of a joke)
It is. Here, the resulting weighting is 25% of the increase in thoughts during the joke fall period and 75% of the increase in incentive after the joke fall.
幾つかの実施の形態において、メディアにおけるイベント・インスタンスのスコアは、イベント・インスタンスを改善又は変更する必要があるか、及び/又は、いずれのイベント・インスタンスが改善又は変更されるべきか、及び、いずれのイベント・インスタンスがそのままにされるべきか、を視聴者からの生理学的反応に基づいて指摘するために利用され得る。上記の非限定的な例において、その反応プロフィールに合致せず、視聴者に良い経験を作り出さないジョークの落ちは、改善されるべきである。 In some embodiments, the score of the event instance in the media needs to improve or change the event instance, and / or which event instance should be improved or changed, and This can be used to indicate which event instances should be left based on the physiological response from the viewer. In the above non-limiting example, joke drops that do not match the reaction profile and do not create a good experience for the viewer should be improved.
幾つかの実施の形態において、スコア付け公式に用いられる変数の数は非常に多くてもよく、公式は、また、必要に応じて、非線形のスコア付けを行う更に高次の多項式であっても良い。非限定的な例として、上記に示された公式の更に複雑なバージョンが、ジョーク期間の各ポイントにおいてどれだけの思考及びどれだけの肯定的な誘意性が存在するかに基づいて、スコアを計算する。これは、人々がジョークに強く関心を引かれなかった場合の思考及び誘意性のわずかな増加に対しペナルティを課し、ジョークへの強い関与に対応する、思考及び誘意性の非常に大きな上昇があったジョークの落ちを奨励する。 In some embodiments, the number of variables used in the scoring formula may be very large, and the formula may also be a higher order polynomial that performs non-linear scoring if desired. good. As a non-limiting example, a more complex version of the formula shown above will score based on how much thought and how much positive incentive exists at each point of the joke period. calculate. This penalizes a slight increase in thinking and incentives when people are not very interested in jokes, and is very large in thinking and incentives, corresponding to strong involvement in jokes Encourage falling jokes that have risen.
幾つかの実施の形態において、イベント・インスタンスを、所定の数を超えたスコアを有する「良好」又は「成功」として定義する論理ルールのセットが適応され得、それにより、公式は、イベント・インスタンスがいかに関心を引くかを反映するスコアを出力する。スコアを順序付け又は評価に利用する他の実施の形態も可能である。武器イベント種別がタグ付けされる図4(b)に示された非限定的な例に戻って、このイベント種別に対するプロフィールの簡単な説明としては、関与が強く上昇する場合、この種別のイベント・インスタンスは良好である。この例では、全イベント・インスタンスが良好であり、これは、当該イベント種別に対する高いスコアをもたらす。この計算手法は、複数の主要イベント種別の何百ものインスタンスに渡って実行されてもよい。 In some embodiments, a set of logical rules defining an event instance as “good” or “successful” with a score exceeding a predetermined number may be applied, whereby the formula is Outputs a score that reflects how interesting it is. Other embodiments that utilize the scores for ordering or evaluation are also possible. Returning to the non-limiting example shown in FIG. 4 (b) where the weapon event type is tagged, a brief description of the profile for this event type is as follows: The instance is good. In this example, all event instances are good, which results in a high score for that event type. This calculation technique may be performed over hundreds of instances of multiple major event types.
幾つかの実施の形態において、公式は、インスタンスのスコアを計算するために、現在の及び/又は他のメディアにおける類似するイベント種別の以前のインスタンスを利用することができる。他の類似するイベントに渡る視聴者の生理学的反応を入力として、ルールのセットが作成され得る。非限定的な例として、イベント期間に渡る関与の傾きが、他のメディアにおける類似のイベント種別のイベント・インスタンス期間に渡る関与の傾きの平均を超えている場合、イベント種別のインスタンスに(「良好」又は「成功」を表す)1のスコアが与えられ得る。この手法の実際の実現態様には多くの方法があり、以下のプロセスは、そのような実現態様の非限定的な例である。
1.メディアにおける或るイベント種別のインスタンスの大きなセットを、これらのインスタンスの視聴者からの生理学的反応にタグ付けする。
2.該イベント種別の各インスタンスを評価できるような評価機構を選択する。
3.イベント・インスタンスの期間に渡る視聴者からの生理学的反応の様々な異なる数学的測定値を計算する。そのような測定値には、平均、一次微分、二次微分、多項式近似、平均値からの(標準)偏差、平均値からの微分係数の(標準)偏差、並びに、中間におけるピーク形成、開始時のスパイキング(spiking)、及び平坦等のうちの一つ又はそれ以上を考慮する畳み込み又は他の方法によって実現され得る生理学的反応のプロフィール、が含まれ得るが、それらに限定されるものではない。
4.全ての生理学的反応についてステップ3の計算を繰り返す。
5.多数の測定値を、イベント・インスタンスに対する定義された出力(スコア)に変換する。そのような変換は、畳み込み、加重和、傾きの正負、多項式公式、最小二乗法、サポートベクターマシン、ニューラルネットワーク、及び他のマシン学習手法のうちの一つ又はそれ以上によって実行することができる。
6.当該イベント種別の全インスタンスについてステップ5の変換を繰り返す。
In some embodiments, the formula may utilize previous instances of similar event types in the current and / or other media to calculate an instance score. A set of rules can be created with the viewer's physiological response over other similar events as input. As a non-limiting example, if the slope of involvement over an event period exceeds the average of slope of involvement over event instance periods of similar event types in other media, A score of 1 (representing “or“ success ”) may be given. There are many ways to implement this approach, and the following process is a non-limiting example of such an implementation.
1. Tags a large set of instances of certain event types in the media to physiological responses from viewers of these instances.
2. An evaluation mechanism that can evaluate each instance of the event type is selected.
3. Compute a variety of different mathematical measurements of the physiological response from the viewer over the duration of the event instance. Such measurements include mean, first derivative, second derivative, polynomial approximation, (standard) deviation from mean, (standard) deviation of derivative from mean, as well as peak formation in the middle, at the start Including, but not limited to, spiking and physiological response profiles that can be achieved by convolution or other methods that account for one or more of flatness, etc. .
4). Repeat step 3 for all physiological responses.
5). Convert multiple measurements into a defined output (score) for the event instance. Such a transformation can be performed by one or more of convolution, weighted sum, slope sign, polynomial formula, least squares, support vector machine, neural network, and other machine learning techniques.
6). The conversion in
各イベント・インスタンスそれぞれに対する順位、評価又はスコアが、本手法又は任意の他の同様の手法を用いて計算され、イベント種別のインスタンスを客観的に比較することが可能となる。 The ranking, rating, or score for each event instance is calculated using this or any other similar technique, allowing the event type instances to be compared objectively.
幾つかの実施の形態において、視聴者の全体集団のサブセットを集約して、当該サブセットに関する反応を区別することができるが、これは、視聴者を、人種、性別、年齢、購買習慣、人口統計及び収入のうちの一つ又はそれ以上によりグループ化する。イベント種別の平均評価は、視聴者のそのようなグループ化と関連付けられ、及び/又は比較され得る。 In some embodiments, a subset of the entire population of viewers can be aggregated to distinguish reactions related to that subset, which can be attributed to race, gender, age, purchasing habits, population. Group by one or more of statistics and income. An average rating of event types may be associated with and / or compared with such a grouping of viewers.
幾つかの実施の形態において、或るイベント種別のイベント・インスタンスのスコアが、当該イベント種別を評価するために用いられる公式への入力として、集約されても良い。ここで、公式は、数学的なものであっても、論理的なものであってもよく、専門知識によって、又は、類似するイベント種別の以前の評価によって、設計されてもよい。そのような集約は、以下の一つ又はそれ以上によってなされ得る。
・各イベント種別の平均。この手法は、メディア全体を通して、及び、多数の視聴者に渡り、イベント種別の全イベント・インスタンスのスコアを平均化する。
・性能。単純な平均は、メディアの全体性能の正確な見方を常に与えてくれるとは限らない。非限定的な例として、イベント・インスタンスの75%が非常に高く評価され、残りがあまり良くもない場合、当該イベント種別の全体評価は75〜80%程度になり、良好とみなされるかもしれない。しかしながら、現実には、メディアを視聴する視聴者は、メディアの4分の1を好まず、それにより、非常に低いスコアがもたらされる。性能基準は、イベント種別のインスタンスにおけるスコアの分散を考慮に入れる。インスタンスの以前の分散を参考にすることにより、性能基準は、インスタンスの全体的な分散がいかに良好であるか、及び、視聴者がイベント種別/メディアを好むか否かを決定することができる。性能基準の一つの非限定的な実現態様は、イベント種別に合致するヒストグラムによって実現され得る。
・「成功」率。公式は、各イベント種別に対する「成功」率のパーセンテージ、又は他のスコアを出力する。より具体的に、イベント種別の「成功」率は、イベント種別の定義によって特徴付けられる特定の側面におけるイベント種別/メディアの性能の集約された見方によって定義することができ、所定の値を超える「成功」率が、成功するイベント種別として定義される。
In some embodiments, the event instance scores for an event type may be aggregated as an input to a formula used to evaluate the event type. Here, the formula may be mathematical or logical and may be designed by expertise or by previous evaluation of similar event types. Such aggregation may be done by one or more of the following.
・ Average of each event type. This approach averages the scores of all event instances of an event type throughout the media and across a large number of viewers.
-Performance. A simple average does not always give an accurate view of the overall performance of the media. As a non-limiting example, if 75% of event instances are rated very high and the rest are not very good, the overall rating for that event type will be around 75-80% and may be considered good . In reality, however, viewers who view the media do not like a quarter of the media, which results in a very low score. The performance criteria takes into account the distribution of scores in the event type instances. By referring to the previous distribution of instances, the performance criteria can determine how well the overall distribution of instances is and whether the viewer prefers the event type / media. One non-limiting implementation of performance criteria can be realized by a histogram that matches the event type.
·"success rate. The formula outputs a percentage of “success” rates for each event type, or other score. More specifically, the “success” rate of an event type can be defined by an aggregated view of event type / media performance in a particular aspect characterized by the definition of the event type and exceeds a predetermined value. The “success” rate is defined as a successful event type.
幾つかの実施の形態において、上記の評価プロセスが、同一メディア内の異なるイベント種別について繰り返されてもよい。更に、評価公式への入力として用いられる様々なイベント種別の評価によって、メディア自身が評価されてもよい。この評価公式又は規則は、また、上記の通り、専門知識、又は当該メディアに対する以前の生理学的反応に基づいてもよい。非限定的な例として、メディアは、そのイベント種別の大部分が「成功」と評価される場合に、「成功」と評価され得る。代替として、メディアは、そのイベント種別が他の比較可能なメディアよりも多く「成功」と評価される場合に、「成功」と評価されてもよい。他の規則、線形またはその他の評価スケールも利用可能である。図6は、本発明の一つの実施の形態に従って計算された、二つの映画における三つの例としてのイベント種別に対する、全体的なイベント評価を示す。第一の映画はアクション映画であり、「アクションの詰まった」及び「サスペンスに満ちた」イベント種別に対する反応が非常に強く、ジョークのような「こっけいな」イベント種別は強い反応を作り出さない。第二の映画はコメディであり、アクション映画とは反対の反応を作り出す。両方の映画は、イベント種別がそのジャンルにおける成功する映画に対する正しいプロフィールを有するため、高い評価を与えられる。 In some embodiments, the above evaluation process may be repeated for different event types within the same media. Furthermore, the media itself may be evaluated by evaluating various event types used as input to the evaluation formula. This evaluation formula or rule may also be based on expertise or previous physiological response to the media, as described above. As a non-limiting example, a media may be evaluated as “successful” if most of its event types are evaluated as “successful”. Alternatively, a media may be evaluated as “successful” if its event type is evaluated as “successful” more than other comparable media. Other rules, linear or other rating scales are also available. FIG. 6 shows the overall event rating for three example event types in two movies, calculated according to one embodiment of the present invention. The first movie is an action movie, which has a very strong response to “action-packed” and “suspension” event types, and a “geeky” event type such as a joke does not produce a strong response. The second movie is a comedy and produces the opposite reaction to an action movie. Both movies are given high ratings because the event type has the correct profile for a successful movie in that genre.
コンピュータ分野の当業者に明らかになるように、一つの実施の形態は、本明細書の教示に従ってプログラムされた、従来の汎用の又は専用のデジタル・コンピュータ又はマイクロプロセッサを利用して実現され得る。また、ソフトウェア分野の当業者に明らかになるように、本明細書の教示に基づき、経験あるプログラマにより、適切なソフトウェア・コーディングが容易に準備される。本発明は、また、当業者にとって容易に明らかになるように、集積回路を準備すること、又は、従来の部品回路の適切なネットワークを相互接続することによって実現されてもよい。 As will be apparent to those skilled in the computer arts, one embodiment may be implemented utilizing a conventional general purpose or special purpose digital computer or microprocessor programmed according to the teachings herein. Appropriate software coding is readily prepared by experienced programmers based on the teachings herein, as will be apparent to those skilled in the software art. The present invention may also be implemented by preparing an integrated circuit or interconnecting a suitable network of conventional component circuits, as will be readily apparent to those skilled in the art.
一つの実施の形態は、一つ又はそれ以上のコンピュータ装置に本明細書に開示された特徴のうち任意のものを実行させるようプログラムするために利用できる、格納された命令を含む、マシン読み取り可能媒体であるコンピュータ・プログラム製品を含む。マシン読み取り可能媒体は、フロッピー・ディスク(登録商標)、光ディスク、DVD、CD−ROM、マイクロ・ドライブ、及び光磁気ディスクを含む一つ又はそれ以上の種類のディスク、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、フラッシュ・メモリ装置、磁気又は光学カード、ナノシステム(有機メモリICを含む)、又は、命令及び/又はデータの格納に適した任意の種別の媒体又は装置を含み得るが、それらに限定されるものではない。任意のコンピュータ読み取り可能媒体に格納される本発明は、本発明の結果を利用して、汎用/専用コンピュータ又はマイクロプロセッサのハードウェアを制御し、コンピュータ又はマイクロプロセッサが人間の視聴者又は他のメカニズムと相互作用することを可能とするソフトウェアを含む。そのようなソフトウェアは、デバイス・ドライバ、オペレーティング・システム、実行環境/容器、及びアプリケーションを含み得るが、それらに限定されるものではない。 One embodiment is a machine readable including stored instructions that can be used to program one or more computing devices to perform any of the features disclosed herein. Includes computer program products that are media. Machine readable media include one or more types of disks, including ROM, RAM, EPROM, EEPROM, including floppy disks, optical disks, DVDs, CD-ROMs, micro drives, and magneto-optical disks. DRAM, VRAM, flash memory devices, magnetic or optical cards, nanosystems (including organic memory ICs), or any type of medium or device suitable for storing instructions and / or data, including It is not limited. The present invention, stored on any computer readable medium, takes advantage of the results of the present invention to control the hardware of a general purpose / dedicated computer or microprocessor so that the computer or microprocessor can be a human viewer or other mechanism. Includes software that allows you to interact with. Such software may include, but is not limited to, device drivers, operating systems, execution environments / containers, and applications.
上記の本発明の好ましい実施の形態の説明は、例示及び説明のために提供されたものである。これには排他的な意図はなく、本発明を開示された形態だけに限定するものではない。多くの修正及び変更が、当業者に明らかになる。特に、上記のシステム及び方法の実施の形態では、「モジュール」という概念が使われるが、この概念は、クラス、メソッド、タイプ、インターフェース、ビーン、コンポネント、オブジェクト・モデル、及び他の適切な概念のような同等の概念と交換可能に用いられ得ることが明らかである。実施の形態は、本発明の原理及び実際の応用を最もよく説明するために選択され、記載されたものであり、それにより、他の当業者が本発明、様々な実施の形態、及び、企図される特定の用途に適した様々な修正を理解することを可能とする。本発明の範囲は、添付の特許請求の範囲及びその均等物によって決定されることが意図される。 The foregoing description of the preferred embodiment of the present invention has been provided for purposes of illustration and description. It is not intended to be exclusive and is not intended to limit the invention to the precise form disclosed. Many modifications and variations will be apparent to practitioners skilled in this art. In particular, in the system and method embodiments described above, the concept of “module” is used, which is a class, method, type, interface, bean, component, object model, and other suitable concepts. It is clear that it can be used interchangeably with such an equivalent concept. The embodiments have been selected and described in order to best explain the principles and practical applications of the invention, so that others skilled in the art can use the invention, the various embodiments, and the contemplates. It makes it possible to understand various modifications that are suitable for the particular application being made. It is intended that the scope of the invention be determined by the appended claims and their equivalents.
101 メディア、102 視聴者、103 決定モジュール、104 センサ、105 受信モジュール、106 評価モジュール。 101 media, 102 viewers, 103 determination module, 104 sensor, 105 reception module, 106 evaluation module.
Claims (32)
メディアを視聴している複数の視聴者それぞれからの生理学的データを測定するよう動作可能な一つ又はそれ以上のセンサと、
前記複数の視聴者から測定された前記生理学的データに基づいて、前記メディアを、それぞれが該メディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に決定するよう動作可能な決定モジュールと、
評価モジュールであって、
前記複数の視聴者から測定された前記生理学的データから複数の生理学的反応を導き出し、
前記複数の生理学的反応に基づいて、前記メディアにおける前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算し、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する、
ように動作可能な評価モジュールと、
を備えるシステム。 A system that supports the evaluation of media and events,
One or more sensors operable to measure physiological data from each of a plurality of viewers viewing the media;
Based on the physiological data measured from the plurality of viewers, a decision operable to determine the media into one or more event types each having a plurality of event instances within the media. Module,
An evaluation module,
Deriving a plurality of physiological responses from the physiological data measured from the plurality of viewers;
Calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Evaluating the specific single event type by aggregating the scores of the plurality of event instances of the specific single event type;
An evaluation module operable to
A system comprising:
それぞれがメディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の発生及び持続時間を決定及び記録するよう動作可能な決定モジュールと、
前記メディアを視聴している複数の視聴者それぞれからの生理学的データを受信するよう動作可能な受信モジュールと、
評価モジュールであって、
前記生理学的データから複数の生理学的反応を導き出し、
前記複数の生理学的反応に基づいて、前記メディアにおける前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算し、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する、
ように動作可能な評価モジュールと、
を備えるシステム。 A system that supports the evaluation of media and events,
A decision module operable to determine and record the occurrence and duration of one or more event types, each having multiple event instances in the media;
A receiving module operable to receive physiological data from each of a plurality of viewers viewing the media;
An evaluation module,
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Evaluating the specific single event type by aggregating the scores of the plurality of event instances of the specific single event type;
An evaluation module operable to
A system comprising:
前記受信モジュールが、更に、前記メディアを視聴している前記複数の視聴者それぞれから測定された前記生理学的データを記録するよう動作可能であるシステム。 The system of claim 2, comprising:
The system wherein the receiving module is further operable to record the physiological data measured from each of the plurality of viewers viewing the media.
前記メディアが、映画、ビデオ、テレビ番組、テレビ・コマーシャル、広告、ビデオゲーム、インタラクティブなオンライン・メディア、印刷物、及び視聴者が情報を得たり、感情的に影響を受けたりし得る任意の他のメディアのうちの一つであるシステム。 The system of claim 1, comprising:
The media may be movies, videos, television programs, television commercials, advertisements, video games, interactive online media, prints, and any other that viewers may obtain information or affect emotionally. A system that is one of the media.
前記メディアにおける前記一つ又はそれ以上のイベント種別それぞれの持続時間が、時間的に不変、非線形又は準線形であるシステム。 The system of claim 1, comprising:
A system in which the duration of each of the one or more event types in the media is time-invariant, non-linear or quasi-linear.
前記一つ又はそれ以上のセンサが統合センサ・ヘッドセットを含み、該統合センサ・ヘッドセットが、
一つ又はそれ以上の軸加速度計、
一つ又はそれ以上のEEG電極、
一つ又はそれ以上の心拍数センサ、
及び、処理ユニット、
のうちの一つ又はそれ以上を備えるシステム。 The system of claim 1, comprising:
The one or more sensors include an integrated sensor headset, the integrated sensor headset comprising:
One or more axial accelerometers,
One or more EEG electrodes,
One or more heart rate sensors,
And a processing unit,
A system comprising one or more of the following.
平均、微分係数、多項式近似、平均値からの偏差、及び平均値からの微分係数の偏差のうちの一つ又はそれ以上である、前記複数の生理学的反応の数学的測定値を計算し、
前記数学的測定値を、畳み込み、加重和、傾きの正負、多項式公式、最小二乗法、サポートベクターマシン、及びニューラルネットワークのうちの一つ又はそれ以上によって、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアに変換する、
ように動作可能であるシステム。 The system of claim 1, wherein the evaluation module further comprises:
Calculating a mathematical measure of the plurality of physiological responses that is one or more of an average, a derivative, a polynomial approximation, a deviation from the mean, and a deviation of the derivative from the mean;
The plurality of the specific event types are obtained by one or more of convolution, weighted sum, slope sign, polynomial formula, least squares method, support vector machine, and neural network. Convert to a score for each event instance in
System that is operable.
前記評価モジュールが、更に、公式、規則、このメディア又は同一ジャンルの他のメディアにおける前記特定の一つのイベント種別の以前のインスタンス、又は前記特定の一つのイベント種別に対する前記複数の生理学的反応の一つ又はそれ以上のプロフィールのうちの一つ又はそれ以上を用いて、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算するよう動作可能であるシステム。 The system of claim 1, comprising:
The evaluation module may further include formulas, rules, previous instances of the one particular event type in this media or other media of the same genre, or one of the plurality of physiological responses to the one particular event type. A system operable to calculate a score for each of the plurality of event instances of the particular event type using one or more of one or more profiles.
前記評価モジュールが、更に、イベント・インスタンスに対する前記生理学的反応が前記プロフィールに合致する場合に、前記特定の一つのイベント種別の前記イベント・インスタンスに対する良いスコアを計算するように動作可能であるシステム。 12. The system according to claim 11, wherein
The system is further operable to calculate a good score for the event instance of the particular one event type if the physiological response to the event instance matches the profile.
前記評価モジュールが、更に、前記特定の一つのイベント種別の前記複数のイベント・インスタンスのうちの改善又は変更が必要である一つ又はそれ以上を、それらのスコアに基づいて指摘するように動作可能であるシステム。 12. The system according to claim 11, wherein
The evaluation module is further operable to indicate one or more of the plurality of event instances of the particular single event type that need improvement or modification based on their scores. System.
前記評価モジュールが、更に、専門知識、類似するイベント種別に対する生理学的反応、及び他のメディアからのデータ、の一つ又はそれ以上に基づいて前記プロフィールを決定するよう動作可能であるシステム。 12. The system according to claim 11, wherein
The system is further operable to determine the profile based on one or more of expertise, physiological responses to similar event types, and data from other media.
前記評価モジュールが、更に、平均、性能、数学的公式及び論理的公式のうちの一つ又はそれ以上により、前記特定の一つのイベント種別を評価するように動作可能であるシステム。 The system of claim 1, comprising:
The system wherein the evaluation module is further operable to evaluate the particular one event type according to one or more of average, performance, mathematical formula and logical formula.
前記評価モジュールが、更に、前記メディアにおける前記一つ又はそれ以上のイベント種別の評価を集約することにより、前記メディアを評価するよう動作可能であるシステム。 The system of claim 1, comprising:
The system wherein the evaluation module is further operable to evaluate the media by aggregating evaluations of the one or more event types in the media.
前記評価モジュールが、更に、前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の複数のイベント・インスタンス、のうちの一つ又はそれ以上の前記スコア/評価を表示するよう動作可能であるシステム。 The system of claim 1, comprising:
The evaluation module is further configured to display the score / evaluation of one or more of the media, the specific event type, and a plurality of event instances of the specific event type. A system that is operational.
前記評価モジュールが、更に、
人種、性別、年齢、人口統計、収入、習慣及び興味のうちの一つ又はそれ以上によって前記複数の視聴者をグループ化し、
前記複数の視聴者のそのようなグループ化に従って、前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の複数のイベント・インスタンス、のうちの一つ又はそれ以上の前記スコア/評価を関連付け、及び/又は比較する
ように動作可能であるシステム。 The system of claim 1, comprising:
The evaluation module further comprises:
Group the viewers by one or more of race, gender, age, demographics, income, habits and interests;
According to such grouping of the plurality of viewers, the score of one or more of the media, the one particular event type, and a plurality of event instances of the one particular event type / A system that is operable to associate and / or compare ratings.
メディアを視聴する複数の視聴者それぞれからの生理学的データを受信及び/又は測定するステップと、
前記複数の視聴者から測定された前記生理学的データに基づいて、前記メディアを、それぞれが前記メディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に決定するステップと、
前記生理学的データから複数の生理学的反応を導き出すステップと、
前記複数の生理学的反応に基づいて、前記メディア内の前記一つ又はそれ以上のイベント種別のうち特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算するステップと、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価するステップと、
を備える方法。 A method of supporting the evaluation of media and events,
Receiving and / or measuring physiological data from each of a plurality of viewers viewing the media;
Determining the media into one or more event types, each having a plurality of event instances in the media, based on the physiological data measured from the plurality of viewers;
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type among the one or more event types in the media based on the plurality of physiological responses;
Aggregating the scores of the plurality of event instances of the one particular event type to evaluate the one particular event type;
A method comprising:
それぞれがメディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の発生及び持続時間を決定及び記録するステップと、
前記メディアを視聴している複数の視聴者それぞれからの生理学的データを受信及び/又は測定するステップと、
前記生理学的データから複数の生理学的反応を導き出すステップと、
前記複数の生理学的反応に基づいて、前記メディア内の前記一つ又はそれ以上のイベント種別のうち特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算するステップと、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価するステップと、
を備える方法。 A method of supporting the evaluation of media and events,
Determining and recording the occurrence and duration of one or more event types, each having multiple event instances in the media;
Receiving and / or measuring physiological data from each of a plurality of viewers viewing the media;
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type among the one or more event types in the media based on the plurality of physiological responses;
Aggregating the scores of the plurality of event instances of the one particular event type to evaluate the one particular event type;
A method comprising:
前記生理学的データの数学的測定値である、平均、微分係数、多項式近似、平均値からの偏差、及び平均値からの微分係数の偏差、うちの一つ又はそれ以上を計算するステップと、
畳み込み、加重和、傾きの正負、多項式公式、最小二乗法、サポートベクターマシン、及びニューラルネットワークのうちの一つ又はそれ以上によって、前記数学的測定値を、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアに変換するステップと、
を備える方法。 The method of claim 19, further comprising:
Calculating one or more of the mathematical measurements of the physiological data: mean, derivative, polynomial approximation, deviation from mean, and deviation of derivative from mean;
The mathematical measurement is converted into the plurality of the specific event types by one or more of convolution, weighted sum, slope sign, polynomial formula, least squares method, support vector machine, and neural network. Converting to a score for each event instance of
A method comprising:
公式、規則、このメディア又は同一ジャンルの他のメディアにおける前記特定の一つのイベント種別の以前のインスタンス、又は、前記特定の一つのイベント種別に対する前記複数の生理学的反応のうちの一つ又はそれ以上のプロフィール、のうちの一つ又はそれ以上を用いて、前記特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対する前記スコアを計算するステップを備える方法。 The method of claim 19, further comprising:
One or more of the plurality of physiological responses to the particular event type, or a previous instance of the particular event type in a formula, rule, this media or other media of the same genre Calculating the score for each of the plurality of event instances of the one particular event type using one or more of the profiles.
イベント・インスタンスに対する前記生理学的反応が前記プロフィールに合致する場合に、前記特定の一つのイベント種別の前記イベント・インスタンスに対する良いスコアを計算するステップを備える方法。 The method of claim 22, further comprising:
A method comprising calculating a good score for the event instance of the particular one event type if the physiological response to the event instance matches the profile.
前記複数のイベント・インスタンスのうちで改善又は変更が必要である一つ又はそれ以上を、それらのスコアに基づいて指摘するステップを備える方法。 The method of claim 22, further comprising:
A method comprising the step of indicating one or more of the plurality of event instances in need of improvement or change based on their scores.
専門知識、類似するイベント種別に対する生理学的反応、及び他のメディアからのデータ、のうちの一つ又はそれ以上に基づいて、前記プロフィールを決定するステップを備える方法。 The method of claim 22, further comprising:
A method comprising determining the profile based on one or more of expertise, physiological responses to similar event types, and data from other media.
平均、性能、数学的公式、及び論理的公式のうちの一つ又はそれ以上によって、前記特定の一つのイベント種別を評価するステップを備える方法。 The method of claim 19, further comprising:
A method comprising the step of evaluating the particular one event type according to one or more of average, performance, mathematical formula, and logical formula.
前記メディア内の一つ又はそれ以上のイベント種別の評価を集約することにより、前記メディアを評価するステップを備える方法。 The method of claim 19, further comprising:
A method comprising evaluating the media by aggregating evaluations of one or more event types in the media.
前記メディアを視聴している前記複数の視聴者それぞれから測定された前記生理学的データを記録するステップを備える方法。 The method of claim 19, further comprising:
Recording the physiological data measured from each of the plurality of viewers viewing the media.
前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の前記複数のイベント・インスタンス、の一つ又はそれ以上の前記スコア/評価を表示するステップを備える方法。 The method of claim 19, further comprising:
A method comprising displaying one or more of the scores / evaluations of the media, the particular event type, and the plurality of event instances of the particular event type.
人種、性別、年齢、人口統計、収入、習慣及び興味のうちの一つ又はそれ以上によって前記複数の視聴者をグループ化するステップと、
前記複数の視聴者のそのようなグループ化に従って、前記メディア、前記特定の一つのイベント種別、及び前記特定の一つのイベント種別の前記複数のイベント・インスタンス、のうちの一つ又はそれ以上の前記スコア/評価を関連付け、及び/又は比較するステップと、
を備える方法。 The method of claim 19, further comprising:
Grouping the plurality of viewers by one or more of race, gender, age, demographics, income, habits and interests;
According to such grouping of the plurality of viewers, one or more of the media, the one particular event type, and the plurality of event instances of the one particular event type. Associating and / or comparing scores / ratings;
A method comprising:
メディアを視聴する複数の視聴者それぞれからの生理学的データを受信及び/又は測定し、
前記複数の視聴者から測定された前記生理学的データに基づいて、前記メディアを、それぞれが前記メディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別に決定し、
前記生理学的データから複数の生理学的反応を導き出し、
前記複数の生理学的反応に基づいて、前記メディア内の前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算し、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する、
ように動作させる、格納された命令を有するマシン読み取り可能媒体。 A machine-readable medium that, when executed, receives and / or measures physiological data from each of a plurality of viewers viewing the media;
Based on the physiological data measured from the plurality of viewers, determining the media as one or more event types, each having a plurality of event instances in the media;
Deriving a plurality of physiological responses from the physiological data;
Calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Evaluating the specific single event type by aggregating the scores of the plurality of event instances of the specific single event type;
A machine-readable medium having stored instructions that operate as follows.
それぞれがメディア内に複数のイベント・インスタンスを有する一つ又はそれ以上のイベント種別の発生及び持続時間を決定及び記録する手段と、
前記メディアを視聴している複数の視聴者それぞれからの生理学的データを受信及び/又は測定する手段と、
前記生理学的データから複数の生理学的反応を導き出す手段と、
前記複数の生理学的反応に基づいて、前記メディアにおける前記一つ又はそれ以上のイベント種別のうちの特定の一つのイベント種別の前記複数のイベント・インスタンスそれぞれに対するスコアを計算する手段と、
前記特定の一つのイベント種別の前記複数のイベント・インスタンスのスコアを集約することにより、前記特定の一つのイベント種別を評価する手段と、
を備えるシステム。 A system that supports the evaluation of media and events,
Means for determining and recording the occurrence and duration of one or more event types, each having multiple event instances in the media;
Means for receiving and / or measuring physiological data from each of a plurality of viewers viewing the media;
Means for deriving a plurality of physiological responses from the physiological data;
Means for calculating a score for each of the plurality of event instances of a particular event type of the one or more event types in the media based on the plurality of physiological responses;
Means for evaluating the one particular event type by aggregating scores of the plurality of event instances of the one particular event type;
A system comprising:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US90561607P | 2007-03-08 | 2007-03-08 | |
US60/905,616 | 2007-03-08 | ||
US11/804,555 | 2007-05-17 | ||
US11/804,555 US8782681B2 (en) | 2007-03-08 | 2007-05-17 | Method and system for rating media and events in media based on physiological data |
PCT/US2007/014955 WO2008108799A1 (en) | 2007-03-08 | 2007-06-27 | A method and system for rating media and events in media based on physiological data |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010520552A true JP2010520552A (en) | 2010-06-10 |
JP2010520552A5 JP2010520552A5 (en) | 2010-08-26 |
JP5746472B2 JP5746472B2 (en) | 2015-07-08 |
Family
ID=39742969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009552656A Active JP5746472B2 (en) | 2007-03-08 | 2007-06-27 | Method and system for evaluating media and media events based on physiological data |
Country Status (5)
Country | Link |
---|---|
US (1) | US8782681B2 (en) |
EP (1) | EP2135370A4 (en) |
JP (1) | JP5746472B2 (en) |
CN (1) | CN101755406A (en) |
WO (1) | WO2008108799A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244523A (en) * | 2009-03-31 | 2010-10-28 | Internatl Business Mach Corp <Ibm> | Method and device for adding and processing tag accompanied by feeling data |
JP2014523154A (en) * | 2011-06-17 | 2014-09-08 | マイクロソフト コーポレーション | Interest-based video stream |
JP2018093350A (en) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | Attention degree evaluation system |
JP2018533894A (en) * | 2015-10-30 | 2018-11-15 | チャイナ、モバイル、コミュニケーションズ、グループ、カンパニー、リミテッドChina Mobile Communications Group Co., Ltd | Method and device for triggering interactive application |
Families Citing this family (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5309126B2 (en) | 2007-03-29 | 2013-10-09 | ニューロフォーカス・インコーポレーテッド | System, method, and apparatus for performing marketing and entertainment efficiency analysis |
JP4281819B2 (en) * | 2007-04-02 | 2009-06-17 | ソニー株式会社 | Captured image data processing device, viewing information generation device, viewing information generation system, captured image data processing method, viewing information generation method |
WO2008137579A1 (en) | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-informatics repository system |
WO2008137581A1 (en) | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-feedback based stimulus compression device |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
US20090025023A1 (en) * | 2007-06-06 | 2009-01-22 | Neurofocus Inc. | Multi-market program and commercial response monitoring system using neuro-response measurements |
US8494905B2 (en) | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
EP2170161B1 (en) | 2007-07-30 | 2018-12-05 | The Nielsen Company (US), LLC. | Neuro-response stimulus and stimulus attribute resonance estimator |
US8386313B2 (en) | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8635105B2 (en) | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
CN101795620B (en) | 2007-08-28 | 2013-05-01 | 神经焦点公司 | Consumer experience assessment system |
US8392255B2 (en) | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US9191450B2 (en) * | 2007-09-20 | 2015-11-17 | Disney Enterprises, Inc. | Measuring user engagement during presentation of media content |
US20090083129A1 (en) * | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
US8494610B2 (en) | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
US8151292B2 (en) | 2007-10-02 | 2012-04-03 | Emsense Corporation | System for remote access to media, and reaction and survey data from viewers of the media |
US8776102B2 (en) * | 2007-10-09 | 2014-07-08 | At&T Intellectual Property I, Lp | System and method for evaluating audience reaction to a data stream |
US9513699B2 (en) | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
US9582805B2 (en) * | 2007-10-24 | 2017-02-28 | Invention Science Fund I, Llc | Returning a personalized advertisement |
JP2011505175A (en) * | 2007-10-31 | 2011-02-24 | エムセンス コーポレイション | System and method for providing distributed collection and centralized processing of physiological responses from viewers |
US8487772B1 (en) | 2008-12-14 | 2013-07-16 | Brian William Higgins | System and method for communicating information |
US8270814B2 (en) * | 2009-01-21 | 2012-09-18 | The Nielsen Company (Us), Llc | Methods and apparatus for providing video with embedded media |
US9357240B2 (en) | 2009-01-21 | 2016-05-31 | The Nielsen Company (Us), Llc | Methods and apparatus for providing alternate media for video decoders |
US8464288B2 (en) | 2009-01-21 | 2013-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus for providing personalized media in video |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
US8655437B2 (en) | 2009-08-21 | 2014-02-18 | The Nielsen Company (Us), Llc | Analysis of the mirror neuron system for evaluation of stimulus |
US10987015B2 (en) | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US8209224B2 (en) | 2009-10-29 | 2012-06-26 | The Nielsen Company (Us), Llc | Intracluster content management using neuro-response priming data |
US20110106750A1 (en) * | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US8335716B2 (en) | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Multimedia advertisement exchange |
US8335715B2 (en) | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Advertisement exchange using neuro-response data |
WO2011133548A2 (en) | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
US9247903B2 (en) | 2010-06-07 | 2016-02-02 | Affectiva, Inc. | Using affect within a gaming context |
JP2013537435A (en) | 2010-06-07 | 2013-10-03 | アフェクティヴァ,インコーポレイテッド | Psychological state analysis using web services |
US10289898B2 (en) | 2010-06-07 | 2019-05-14 | Affectiva, Inc. | Video recommendation via affect |
CN101883292A (en) * | 2010-06-30 | 2010-11-10 | 中山大学 | System and method for testing digital television interactive service availability |
US9532734B2 (en) * | 2010-08-09 | 2017-01-03 | Nike, Inc. | Monitoring fitness using a mobile device |
US10572721B2 (en) | 2010-08-09 | 2020-02-25 | Nike, Inc. | Monitoring fitness using a mobile device |
US8392251B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Location aware presentation of stimulus material |
US8392250B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-response evaluated stimulus in virtual reality environments |
US8396744B2 (en) | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
CA2815273A1 (en) | 2010-10-21 | 2012-04-26 | Holybrain Bvba | Method and apparatus for neuropsychological modeling of human experience and purchasing behavior |
JP5649425B2 (en) * | 2010-12-06 | 2015-01-07 | 株式会社東芝 | Video search device |
US20120222057A1 (en) * | 2011-02-27 | 2012-08-30 | Richard Scott Sadowsky | Visualization of affect responses to videos |
US9141982B2 (en) | 2011-04-27 | 2015-09-22 | Right Brain Interface Nv | Method and apparatus for collaborative upload of content |
CA2837198A1 (en) * | 2011-05-24 | 2012-11-29 | Webtuner Corp. | System and method to increase efficiency and speed of analytics report generation in audience measurement systems |
US8433815B2 (en) | 2011-09-28 | 2013-04-30 | Right Brain Interface Nv | Method and apparatus for collaborative upload of content |
WO2013061497A1 (en) * | 2011-10-27 | 2013-05-02 | 株式会社シナジードライブ | Content evaluation/playback device |
US11064257B2 (en) | 2011-11-07 | 2021-07-13 | Monet Networks, Inc. | System and method for segment relevance detection for digital content |
US10638197B2 (en) | 2011-11-07 | 2020-04-28 | Monet Networks, Inc. | System and method for segment relevance detection for digital content using multimodal correlations |
CN102497518A (en) * | 2011-11-18 | 2012-06-13 | Tcl王牌电器(惠州)有限公司 | Method and device for step control on TV programs |
CN102523493A (en) * | 2011-12-09 | 2012-06-27 | 深圳Tcl新技术有限公司 | Method and system for grading television program according to mood |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
US9569986B2 (en) | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US20130288212A1 (en) * | 2012-03-09 | 2013-10-31 | Anurag Bist | System and A Method for Analyzing Non-verbal Cues and Rating a Digital Content |
US20140303450A1 (en) * | 2013-04-03 | 2014-10-09 | Dylan Caponi | System and method for stimulus optimization through closed loop iterative biological sensor feedback |
EP2862361A1 (en) * | 2012-06-14 | 2015-04-22 | Thomson Licensing | Method, apparatus and system for determining viewer reaction to content elements |
US10034049B1 (en) | 2012-07-18 | 2018-07-24 | Google Llc | Audience attendance monitoring through facial recognition |
US20140026156A1 (en) * | 2012-07-18 | 2014-01-23 | David Deephanphongs | Determining User Interest Through Detected Physical Indicia |
US20140047316A1 (en) * | 2012-08-10 | 2014-02-13 | Vimbli, Inc. | Method and system to create a personal priority graph |
US8989835B2 (en) | 2012-08-17 | 2015-03-24 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
US9734730B2 (en) * | 2013-01-31 | 2017-08-15 | Sri International | Multi-modal modeling of temporal interaction sequences |
US8769557B1 (en) | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
US9100694B1 (en) | 2013-03-14 | 2015-08-04 | Google Inc. | TV mode change in accordance with number of viewers present |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
CN103268560B (en) * | 2013-04-19 | 2017-02-08 | 杭州电子科技大学 | Before-release advertising effect evaluation method based on electroencephalogram indexes |
US11090003B2 (en) * | 2013-09-09 | 2021-08-17 | Healthy.Io Ltd. | Systems for personal portable wireless vital signs scanner |
KR101535432B1 (en) | 2013-09-13 | 2015-07-13 | 엔에이치엔엔터테인먼트 주식회사 | Contents valuation system and contents valuating method using the system |
CN103657056A (en) * | 2013-12-18 | 2014-03-26 | 北京东方之星幼儿教育科技有限公司 | Sensory integration evaluation system and method |
CN103702146B (en) * | 2013-12-27 | 2017-09-19 | 中国标准化研究院 | Digital television service performance regulation and control method, device and digital TV terminal |
US10311095B2 (en) * | 2014-01-17 | 2019-06-04 | Renée BUNNELL | Method and system for qualitatively and quantitatively analyzing experiences for recommendation profiles |
US10182251B2 (en) | 2014-03-06 | 2019-01-15 | Cox Communications, Inc. | Thematic programming channel |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US11494390B2 (en) | 2014-08-21 | 2022-11-08 | Affectomatics Ltd. | Crowd-based scores for hotels from measurements of affective response |
US9805381B2 (en) | 2014-08-21 | 2017-10-31 | Affectomatics Ltd. | Crowd-based scores for food from measurements of affective response |
US11269891B2 (en) | 2014-08-21 | 2022-03-08 | Affectomatics Ltd. | Crowd-based scores for experiences from measurements of affective response |
DE102015113929A1 (en) | 2014-08-21 | 2016-02-25 | Affectomatics Ltd. | Assessment and notifications based on affective reactions of the crowd |
CN104349206A (en) * | 2014-11-26 | 2015-02-11 | 乐视致新电子科技(天津)有限公司 | Method, device and system for processing television information |
WO2016098415A1 (en) * | 2014-12-18 | 2016-06-23 | ソニー株式会社 | Information processing device, information processing method, and program |
US11232466B2 (en) | 2015-01-29 | 2022-01-25 | Affectomatics Ltd. | Recommendation for experiences based on measurements of affective response that are backed by assurances |
DE102016101665A1 (en) | 2015-01-29 | 2016-08-04 | Affectomatics Ltd. | PRIVACY BASED FILTERING OF MEASURES OF THE AFFECTIVE RESPONSE |
US9467718B1 (en) | 2015-05-06 | 2016-10-11 | Echostar Broadcasting Corporation | Apparatus, systems and methods for a content commentary community |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
CN104899309B (en) * | 2015-06-12 | 2019-04-30 | 百度在线网络技术(北京)有限公司 | The method and apparatus of displaying event comment viewpoint |
CN104994409A (en) * | 2015-06-30 | 2015-10-21 | 北京奇艺世纪科技有限公司 | Media data editing method and device |
US10484439B2 (en) * | 2015-06-30 | 2019-11-19 | Amazon Technologies, Inc. | Spectating data service for a spectating system |
CN105159990B (en) * | 2015-08-31 | 2019-02-01 | 北京奇艺世纪科技有限公司 | A kind of method and apparatus of media data grading control |
CN105204626B (en) * | 2015-08-31 | 2018-05-04 | 北京奇艺世纪科技有限公司 | A kind of method and apparatus to user's grading control |
US9525912B1 (en) | 2015-11-20 | 2016-12-20 | Rovi Guides, Inc. | Systems and methods for selectively triggering a biometric instrument to take measurements relevant to presently consumed media |
US10268689B2 (en) | 2016-01-28 | 2019-04-23 | DISH Technologies L.L.C. | Providing media content based on user state detection |
US10568572B2 (en) | 2016-03-14 | 2020-02-25 | The Nielsen Company (Us), Llc | Headsets and electrodes for gathering electroencephalographic data |
US10187694B2 (en) | 2016-04-07 | 2019-01-22 | At&T Intellectual Property I, L.P. | Method and apparatus for enhancing audience engagement via a communication network |
US10984036B2 (en) | 2016-05-03 | 2021-04-20 | DISH Technologies L.L.C. | Providing media content based on media element preferences |
US10045076B2 (en) | 2016-11-22 | 2018-08-07 | International Business Machines Corporation | Entertainment content ratings system based on physical expressions of a spectator to scenes of the content |
CN106778539A (en) * | 2016-11-25 | 2017-05-31 | 鲁东大学 | Teaching effect information acquisition methods and device |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
US10764381B2 (en) | 2016-12-23 | 2020-09-01 | Echostar Technologies L.L.C. | Communications channels in media systems |
US11196826B2 (en) | 2016-12-23 | 2021-12-07 | DISH Technologies L.L.C. | Communications channels in media systems |
US10390084B2 (en) | 2016-12-23 | 2019-08-20 | DISH Technologies L.L.C. | Communications channels in media systems |
CN109961303B (en) * | 2017-12-22 | 2021-09-21 | 新华网股份有限公司 | Method and device for comparing audience reaction |
CN108416542A (en) * | 2018-05-11 | 2018-08-17 | 新华网股份有限公司 | Experience Degree assessment system and method and computer readable storage medium based on physiology sensing technology |
CN110019853A (en) * | 2018-06-20 | 2019-07-16 | 新华网股份有限公司 | Scene of interest recognition methods and system |
US11037550B2 (en) | 2018-11-30 | 2021-06-15 | Dish Network L.L.C. | Audio-based link generation |
US11553871B2 (en) | 2019-06-04 | 2023-01-17 | Lab NINE, Inc. | System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications |
DE102020123554A1 (en) * | 2020-09-09 | 2022-03-10 | Imagine AG | Examination of a preliminary film product |
CN112887771A (en) * | 2021-01-28 | 2021-06-01 | Oppo广东移动通信有限公司 | Video evaluation method and device, computer readable medium and electronic equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002344904A (en) * | 2001-02-06 | 2002-11-29 | Sony Corp | Device for reproducing content, device for receiving content, method for controlling content display, method for collecting and analyzing content evaluation, device for collecting and analyzing content evaluation, method for managing collection of content evaluation, and device for managing collection of content evaluation |
JP2004021844A (en) * | 2002-06-19 | 2004-01-22 | Sony Corp | Method for preparing data base, equipment for preparing data base, program for preparing data base, and method for regenerating data base, recording medium, contents, method, device, program reproducing contents |
JP2005064839A (en) * | 2003-08-12 | 2005-03-10 | Sony Corp | Recording device, recording and reproducing device, reproducing device, recording method, recording and reproducing method, and reproducing method |
JP2005124909A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Method for presenting emotional information, emotional information display device, and method for retrieving information content |
JP2005198828A (en) * | 2004-01-15 | 2005-07-28 | Seiko Epson Corp | Biological data analyzer, biological data analyzing method, control program and recording medium |
Family Cites Families (163)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4846190A (en) * | 1983-08-23 | 1989-07-11 | John Erwin R | Electroencephalographic system data display |
US4695879A (en) * | 1986-02-07 | 1987-09-22 | Weinblatt Lee S | Television viewer meter |
US4755045A (en) * | 1986-04-04 | 1988-07-05 | Applied Science Group, Inc. | Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers |
US4931934A (en) * | 1988-06-27 | 1990-06-05 | Snyder Thomas E | Method and system for measuring clarified intensity of emotion |
US5243517A (en) | 1988-08-03 | 1993-09-07 | Westinghouse Electric Corp. | Method and apparatus for physiological evaluation of short films and entertainment materials |
DE58908764D1 (en) | 1988-08-16 | 1995-01-26 | Siemens Ag | Arrangement for measuring local bioelectrical currents in biological tissue complexes. |
US5024235A (en) | 1990-02-26 | 1991-06-18 | Ayers Margaret A | Electroencephalic neurofeedback apparatus and method for bioelectrical frequency inhibition and facilitation |
US5724987A (en) * | 1991-09-26 | 1998-03-10 | Sam Technology, Inc. | Neurocognitive adaptive computer-aided training method and system |
WO1995018565A1 (en) | 1991-09-26 | 1995-07-13 | Sam Technology, Inc. | Non-invasive neurocognitive testing method and system |
US6850252B1 (en) * | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US5406957A (en) * | 1992-02-05 | 1995-04-18 | Tansey; Michael A. | Electroencephalic neurofeedback apparatus for training and tracking of cognitive states |
US5692906A (en) | 1992-04-01 | 1997-12-02 | Corder; Paul R. | Method of diagnosing and remediating a deficiency in communications skills |
US5450855A (en) | 1992-05-13 | 1995-09-19 | Rosenfeld; J. Peter | Method and system for modification of condition with neural biofeedback using left-right brain wave asymmetry |
US6785568B2 (en) * | 1992-05-18 | 2004-08-31 | Non-Invasive Technology Inc. | Transcranial examination of the brain |
US5405957A (en) | 1992-10-30 | 1995-04-11 | The University Of British Columbia | Wavelength-specific photosensitive compounds and expanded porphyrin-like compounds and methods of use |
CN1127322C (en) | 1993-01-07 | 2003-11-12 | 精工爱普生株式会社 | Pulse wave analyzer, and diagnosis apparatus using the same |
US6206829B1 (en) * | 1996-07-12 | 2001-03-27 | First Opinion Corporation | Computerized medical diagnostic and treatment advice system including network access |
US5601090A (en) * | 1994-07-12 | 1997-02-11 | Brain Functions Laboratory, Inc. | Method and apparatus for automatically determining somatic state |
US6349231B1 (en) * | 1994-01-12 | 2002-02-19 | Brain Functions Laboratory, Inc. | Method and apparatus for will determination and bio-signal control |
US5579774A (en) | 1994-03-07 | 1996-12-03 | Camino Neurocare, Inc. | Method and apparatus for monitoring local cerebral physiology |
US5513649A (en) * | 1994-03-22 | 1996-05-07 | Sam Technology, Inc. | Adaptive interference canceler for EEG movement and eye artifacts |
US5649061A (en) * | 1995-05-11 | 1997-07-15 | The United States Of America As Represented By The Secretary Of The Army | Device and method for estimating a mental decision |
US6001065A (en) * | 1995-08-02 | 1999-12-14 | Ibva Technologies, Inc. | Method and apparatus for measuring and analyzing physiological signals for active or passive control of physical and virtual spaces and the contents therein |
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
US5740812A (en) * | 1996-01-25 | 1998-04-21 | Mindwaves, Ltd. | Apparatus for and method of providing brainwave biofeedback |
US6292688B1 (en) * | 1996-02-28 | 2001-09-18 | Advanced Neurotechnologies, Inc. | Method and apparatus for analyzing neurological response to emotion-inducing stimuli |
US5676138A (en) * | 1996-03-15 | 1997-10-14 | Zawilinski; Kenneth Michael | Emotional response analyzer system with multimedia display |
US5867799A (en) | 1996-04-04 | 1999-02-02 | Lang; Andrew K. | Information system and method for filtering a massive flow of information entities to meet user information classification needs |
US20050097594A1 (en) * | 1997-03-24 | 2005-05-05 | O'donnell Frank | Systems and methods for awarding affinity points based upon remote control usage |
US6402520B1 (en) | 1997-04-30 | 2002-06-11 | Unique Logic And Technology, Inc. | Electroencephalograph based biofeedback system for improving learning skills |
US6425764B1 (en) * | 1997-06-09 | 2002-07-30 | Ralph J. Lamson | Virtual reality immersion therapy for treating psychological, psychiatric, medical, educational and self-help problems |
US6097927A (en) * | 1998-01-27 | 2000-08-01 | Symbix, Incorporated | Active symbolic self design method and apparatus |
US5983129A (en) | 1998-02-19 | 1999-11-09 | Cowan; Jonathan D. | Method for determining an individual's intensity of focused attention and integrating same into computer program |
US6099319A (en) | 1998-02-24 | 2000-08-08 | Zaltman; Gerald | Neuroimaging as a marketing tool |
US6102846A (en) | 1998-02-26 | 2000-08-15 | Eastman Kodak Company | System and method of managing a psychological state of an individual using images |
AUPP354898A0 (en) | 1998-05-15 | 1998-06-11 | Swinburne Limited | Mass communication assessment system |
JP3511029B2 (en) * | 1998-06-30 | 2004-03-29 | 株式会社博報堂 | Notification information display device, notification information display system, and recording medium |
US6322368B1 (en) | 1998-07-21 | 2001-11-27 | Cy Research, Inc. | Training and testing human judgment of advertising materials |
US6481013B1 (en) | 1998-11-09 | 2002-11-12 | Peracom Networks, Inc. | Entertainment and computer coaxial network and method of distributing signals therethrough |
KR100291596B1 (en) | 1998-11-12 | 2001-06-01 | 정선종 | Emotional Positive / Negative State Discrimination Method Using Asymmetry of Left / Right Brain Activity |
US20020140675A1 (en) | 1999-01-25 | 2002-10-03 | Ali Ammar Al | System and method for altering a display mode based on a gravity-responsive sensor |
US6430539B1 (en) * | 1999-05-06 | 2002-08-06 | Hnc Software | Predictive modeling of consumer financial behavior |
US7006999B1 (en) | 1999-05-13 | 2006-02-28 | Xerox Corporation | Method for enabling privacy and trust in electronic communities |
IL130818A (en) * | 1999-07-06 | 2005-07-25 | Intercure Ltd | Interventive-diagnostic device |
EP1237476A1 (en) * | 1999-12-02 | 2002-09-11 | The General Hospital Corporation | Method and apparatus for measuring indices of brain activity |
US6652283B1 (en) | 1999-12-30 | 2003-11-25 | Cerego, Llc | System apparatus and method for maximizing effectiveness and efficiency of learning retaining and retrieving knowledge and skills |
US7146329B2 (en) * | 2000-01-13 | 2006-12-05 | Erinmedia, Llc | Privacy compliant multiple dataset correlation and content delivery system and methods |
GB0003853D0 (en) | 2000-02-19 | 2000-04-05 | Diagnostic Potentials Limited | Method for investigating neurological function |
JP3350656B2 (en) | 2000-02-21 | 2002-11-25 | 株式会社博報堂 | URL notification device for mobile phones |
US7194186B1 (en) | 2000-04-21 | 2007-03-20 | Vulcan Patents Llc | Flexible marking of recording data by a recording unit |
US7050753B2 (en) * | 2000-04-24 | 2006-05-23 | Knutson Roger C | System and method for providing learning material |
US6606102B1 (en) * | 2000-06-02 | 2003-08-12 | Gary Odom | Optimizing interest potential |
US6699188B2 (en) * | 2000-06-22 | 2004-03-02 | Guidance Interactive Technologies | Interactive reward devices and methods |
JP2002000577A (en) | 2000-06-23 | 2002-01-08 | Canon Inc | Method of analyzing brain wave |
US6434419B1 (en) | 2000-06-26 | 2002-08-13 | Sam Technology, Inc. | Neurocognitive ability EEG measurement method and system |
JP3824848B2 (en) | 2000-07-24 | 2006-09-20 | シャープ株式会社 | Communication apparatus and communication method |
JP2002056500A (en) | 2000-08-11 | 2002-02-22 | Denso Corp | On-vehicle device coping with occupant and recording medium |
JP2002112969A (en) | 2000-09-02 | 2002-04-16 | Samsung Electronics Co Ltd | Device and method for recognizing physical and emotional conditions |
US6801803B2 (en) * | 2000-10-16 | 2004-10-05 | Instrumentarium Corp. | Method and apparatus for determining the cerebral state of a patient with fast response |
US6904408B1 (en) | 2000-10-19 | 2005-06-07 | Mccarthy John | Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators |
US7150715B2 (en) | 2001-02-05 | 2006-12-19 | Collura Thomas F | Network enabled biofeedback administration |
US20020154833A1 (en) | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
US7593618B2 (en) * | 2001-03-29 | 2009-09-22 | British Telecommunications Plc | Image processing for analyzing video content |
US6978115B2 (en) | 2001-03-29 | 2005-12-20 | Pointecast Corporation | Method and system for training in an adaptive manner |
US20020188216A1 (en) | 2001-05-03 | 2002-12-12 | Kayyali Hani Akram | Head mounted medical device |
US7689272B2 (en) * | 2001-06-07 | 2010-03-30 | Lawrence Farwell | Method for brain fingerprinting, measurement, assessment and analysis of brain function |
JP4537703B2 (en) * | 2001-06-13 | 2010-09-08 | コンピュメディクス・リミテッド | Device for monitoring consciousness |
JP2003016095A (en) | 2001-06-28 | 2003-01-17 | Sony Corp | Apparatus for information processing, method therefor, network system, recording medium and program |
US20030003433A1 (en) * | 2001-06-29 | 2003-01-02 | Ignite, Inc. | Method and system for constructive, modality focused learning |
US7113916B1 (en) * | 2001-09-07 | 2006-09-26 | Hill Daniel A | Method of facial coding monitoring for the purpose of gauging the impact and appeal of commercially-related stimuli |
US6644976B2 (en) * | 2001-09-10 | 2003-11-11 | Epoch Innovations Ltd | Apparatus, method and computer program product to produce or direct movements in synergic timed correlation with physiological activity |
AU2002336598A1 (en) * | 2001-09-19 | 2003-04-01 | Ambient Devices Inc. | System and method for presentation of remote information in ambient form |
JP2003111106A (en) | 2001-09-28 | 2003-04-11 | Toshiba Corp | Apparatus for acquiring degree of concentration and apparatus and system utilizing degree of concentration |
US7308133B2 (en) * | 2001-09-28 | 2007-12-11 | Koninklijke Philips Elecyronics N.V. | System and method of face recognition using proportions of learned model |
US20030066071A1 (en) * | 2001-10-03 | 2003-04-03 | Koninklijke Philips Electronics N.V. | Program recommendation method and system utilizing a viewing history of commercials |
KR100624403B1 (en) * | 2001-10-06 | 2006-09-15 | 삼성전자주식회사 | Human nervous-system-based emotion synthesizing device and method for the same |
US6623428B2 (en) | 2001-10-11 | 2003-09-23 | Eastman Kodak Company | Digital image sequence display system and method |
US20030081834A1 (en) * | 2001-10-31 | 2003-05-01 | Vasanth Philomin | Intelligent TV room |
US8561095B2 (en) * | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
JP2003178078A (en) | 2001-12-12 | 2003-06-27 | Matsushita Electric Ind Co Ltd | Additional indicator data to image and voice data, and its adding method |
US6585521B1 (en) * | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
KR100450758B1 (en) * | 2002-01-22 | 2004-10-01 | 한국전자통신연구원 | Apparatus and method for measuring electroencephalogram |
WO2003087767A2 (en) * | 2002-04-06 | 2003-10-23 | Barbour Randall L | A system and method for quantifying the dynamic response of a target system |
US7079888B2 (en) | 2002-04-11 | 2006-07-18 | Ansar, Inc. | Method and apparatus for monitoring the autonomic nervous system using non-stationary spectral analysis of heart rate and respiratory activity |
JP4359810B2 (en) * | 2002-10-01 | 2009-11-11 | ソニー株式会社 | User terminal, data processing method, program, and data processing system |
JP3993069B2 (en) | 2002-10-30 | 2007-10-17 | 三菱電機株式会社 | Control device using EEG signals |
US20030126593A1 (en) * | 2002-11-04 | 2003-07-03 | Mault James R. | Interactive physiological monitoring system |
US7931028B2 (en) * | 2003-08-26 | 2011-04-26 | Jay Harvey H | Skin injury or damage prevention method using optical radiation |
US7396330B2 (en) * | 2003-01-07 | 2008-07-08 | Triage Data Networks | Wireless, internet-based medical-diagnostic system |
US20040161730A1 (en) | 2003-02-19 | 2004-08-19 | Urman John F. | Device and method for designated hemispheric programming |
GB2400667B (en) | 2003-04-15 | 2006-05-31 | Hewlett Packard Development Co | Attention detection |
WO2004100765A2 (en) | 2003-05-06 | 2004-11-25 | Aspect Medical Systems, Inc. | System and method of assessment of the efficacy of treatment of neurological disorders using the electroencephalogram |
WO2005113099A2 (en) * | 2003-05-30 | 2005-12-01 | America Online, Inc. | Personalizing content |
WO2005022293A2 (en) * | 2003-06-20 | 2005-03-10 | Brain Fingerprinting Laboratories, Inc. | Method for a classification guilty knowledge test and integrated system for detection of deception and information |
US7367949B2 (en) * | 2003-07-07 | 2008-05-06 | Instrumentarium Corp. | Method and apparatus based on combination of physiological parameters for assessment of analgesia during anesthesia or sedation |
US8200775B2 (en) * | 2005-02-01 | 2012-06-12 | Newsilike Media Group, Inc | Enhanced syndication |
JP3931889B2 (en) | 2003-08-19 | 2007-06-20 | ソニー株式会社 | Image display system, image display apparatus, and image display method |
JP2005084770A (en) | 2003-09-05 | 2005-03-31 | Sony Corp | Content providing system and method, providing device and method, reproducing device and method, and program |
US7305654B2 (en) * | 2003-09-19 | 2007-12-04 | Lsi Corporation | Test schedule estimator for legacy builds |
US20050071865A1 (en) * | 2003-09-30 | 2005-03-31 | Martins Fernando C. M. | Annotating meta-data with user responses to digital content |
US20050096311A1 (en) * | 2003-10-30 | 2005-05-05 | Cns Response | Compositions and methods for treatment of nervous system disorders |
US20080177197A1 (en) | 2007-01-22 | 2008-07-24 | Lee Koohyoung | Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system |
KR20050072965A (en) * | 2004-01-08 | 2005-07-13 | 림스테크널러지주식회사 | Active dry sensor module for measurement of bioelectricity |
US8301218B2 (en) * | 2004-01-08 | 2012-10-30 | Neurosky, Inc. | Contoured electrode |
US20050172311A1 (en) | 2004-01-31 | 2005-08-04 | Nokia Corporation | Terminal and associated method and computer program product for monitoring at least one activity of a user |
WO2005084538A1 (en) | 2004-02-27 | 2005-09-15 | Axon Sleep Research Laboratories, Inc. | Device for and method of predicting a user’s sleep state |
EP1582965A1 (en) * | 2004-04-01 | 2005-10-05 | Sony Deutschland Gmbh | Emotion controlled system for processing multimedia data |
US7543330B2 (en) | 2004-04-08 | 2009-06-02 | International Business Machines Corporation | Method and apparatus for governing the transfer of physiological and emotional user data |
US20050289582A1 (en) * | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
DE102004034266A1 (en) | 2004-07-15 | 2006-02-09 | Ge Bayer Silicones Gmbh & Co. Kg | Phyllosilicate-containing polysiloxane compositions |
WO2006033104A1 (en) * | 2004-09-22 | 2006-03-30 | Shalon Ventures Research, Llc | Systems and methods for monitoring and modifying behavior |
US8224431B2 (en) * | 2004-11-02 | 2012-07-17 | Medtronic, Inc. | Techniques for selective channel processing and data retention in an implantable medical device |
US20060111621A1 (en) * | 2004-11-03 | 2006-05-25 | Andreas Coppi | Musical personal trainer |
US7751878B1 (en) | 2004-11-10 | 2010-07-06 | Sandia Corporation | Real-time human collaboration monitoring and intervention |
US7819812B2 (en) | 2004-12-15 | 2010-10-26 | Neuropace, Inc. | Modulation and analysis of cerebral perfusion in epilepsy and other neurological disorders |
US20070168461A1 (en) * | 2005-02-01 | 2007-07-19 | Moore James F | Syndicating surgical data in a healthcare environment |
US7805009B2 (en) | 2005-04-06 | 2010-09-28 | Carl Zeiss Meditec, Inc. | Method and apparatus for measuring motion of a subject using a series of partial images from an imaging system |
JP2006323547A (en) | 2005-05-17 | 2006-11-30 | Fuji Xerox Co Ltd | Information processor, information processing method and program |
WO2006133229A2 (en) | 2005-06-06 | 2006-12-14 | Better, Inc. | System and method for generating effective advertisements in electronic commerce |
WO2007008930A2 (en) * | 2005-07-13 | 2007-01-18 | Ultimate Balance, Inc. | Orientation and motion sensing in athletic training systems, physical rehabilitation and evaluation systems, and hand-held devices |
US8784109B2 (en) * | 2005-08-03 | 2014-07-22 | Bob Gottfried | Cognitive enhancement |
WO2007019584A2 (en) | 2005-08-09 | 2007-02-15 | Icap Technologies, Inc. | Device and method relating to the emotional state of a person |
JP4697949B2 (en) * | 2005-08-10 | 2011-06-08 | 親次 佐藤 | Mental symptom / psychological state evaluation apparatus and evaluation method |
JP5065275B2 (en) * | 2005-09-02 | 2012-10-31 | エムセンス コーポレイション | Apparatus and method for detecting electrical activity in an organization |
US20070055166A1 (en) * | 2005-09-02 | 2007-03-08 | Chandrashekhar Patil | Method and system for recording and transmitting data from biometric sensors |
US20070060830A1 (en) | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
EP1924940A2 (en) * | 2005-09-12 | 2008-05-28 | Emotiv Systems Pty Ltd. | System and method for interaction with a subject based on detection of mental states |
US7865235B2 (en) * | 2005-09-12 | 2011-01-04 | Tan Thi Thai Le | Method and system for detecting and classifying the mental state of a subject |
US7716697B2 (en) * | 2005-12-08 | 2010-05-11 | Panasonic Corporation | Information processing system, information processing apparatus, and method |
US9721480B2 (en) | 2006-02-08 | 2017-08-01 | Honeywell International Inc. | Augmented tutoring |
CA2639125A1 (en) | 2006-03-13 | 2007-09-13 | Imotions-Emotion Technology A/S | Visual attention and emotional response detection and display system |
WO2007109745A2 (en) | 2006-03-22 | 2007-09-27 | Emotiv Systems, Pty Ltd. | Electrode and electrode headset |
WO2008030493A2 (en) * | 2006-09-05 | 2008-03-13 | Innerscope Research, Llc | Method and system for determining audience response to a sensory stimulus |
US20080081512A1 (en) * | 2006-10-03 | 2008-04-03 | Shawn Chawgo | Coaxial Cable Connector With Threaded Post |
JP4325875B2 (en) * | 2006-11-06 | 2009-09-02 | 株式会社日立製作所 | Friction stir welding tool and friction stir welding apparatus |
USD565735S1 (en) * | 2006-12-06 | 2008-04-01 | Emotiv Systems Pty Ltd | Electrode headset |
US20080211768A1 (en) | 2006-12-07 | 2008-09-04 | Randy Breen | Inertial Sensor Input Device |
US20080144882A1 (en) * | 2006-12-19 | 2008-06-19 | Mind Metrics, Llc | System and method for determining like-mindedness |
US20090222330A1 (en) | 2006-12-19 | 2009-09-03 | Mind Metrics Llc | System and method for determining like-mindedness |
US20080159365A1 (en) | 2006-12-22 | 2008-07-03 | Branislav Dubocanin | Analog Conditioning of Bioelectric Signals |
US8768718B2 (en) | 2006-12-27 | 2014-07-01 | Cardiac Pacemakers, Inc. | Between-patient comparisons for risk stratification of future heart failure decompensation |
US8352980B2 (en) * | 2007-02-15 | 2013-01-08 | At&T Intellectual Property I, Lp | System and method for single sign on targeted advertising |
US20080218472A1 (en) | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
US20090105576A1 (en) * | 2007-10-22 | 2009-04-23 | Nam Hoai Do | Electrode conductive element |
JP5309126B2 (en) * | 2007-03-29 | 2013-10-09 | ニューロフォーカス・インコーポレーテッド | System, method, and apparatus for performing marketing and entertainment efficiency analysis |
WO2008137581A1 (en) * | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-feedback based stimulus compression device |
WO2008137579A1 (en) * | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-informatics repository system |
US20090024449A1 (en) * | 2007-05-16 | 2009-01-22 | Neurofocus Inc. | Habituation analyzer device utilizing central nervous system, autonomic nervous system and effector system measurements |
US8494905B2 (en) * | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
US20090030287A1 (en) * | 2007-06-06 | 2009-01-29 | Neurofocus Inc. | Incented response assessment at a point of transaction |
US20090025023A1 (en) * | 2007-06-06 | 2009-01-22 | Neurofocus Inc. | Multi-market program and commercial response monitoring system using neuro-response measurements |
US20090024446A1 (en) * | 2007-07-20 | 2009-01-22 | Shan Jerry Z | Providing a model of a life cycle of an enterprise offering |
EP2170161B1 (en) * | 2007-07-30 | 2018-12-05 | The Nielsen Company (US), LLC. | Neuro-response stimulus and stimulus attribute resonance estimator |
US20090036755A1 (en) * | 2007-07-30 | 2009-02-05 | Neurofocus, Inc. | Entity and relationship assessment and extraction using neuro-response measurements |
CN101795620B (en) * | 2007-08-28 | 2013-05-01 | 神经焦点公司 | Consumer experience assessment system |
US8635105B2 (en) * | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
US8386313B2 (en) * | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
TW200910875A (en) * | 2007-08-29 | 2009-03-01 | Inventec Appliances Corp | Method and system for instantly translating text within an image |
US8392255B2 (en) * | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US8494610B2 (en) * | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
US20090083129A1 (en) * | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
JP5386511B2 (en) | 2008-02-13 | 2014-01-15 | ニューロスカイ インコーポレイテッド | Audio headset with biosignal sensor |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
-
2007
- 2007-05-17 US US11/804,555 patent/US8782681B2/en active Active
- 2007-06-27 WO PCT/US2007/014955 patent/WO2008108799A1/en active Application Filing
- 2007-06-27 EP EP07796518A patent/EP2135370A4/en not_active Ceased
- 2007-06-27 CN CN200780052879A patent/CN101755406A/en active Pending
- 2007-06-27 JP JP2009552656A patent/JP5746472B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002344904A (en) * | 2001-02-06 | 2002-11-29 | Sony Corp | Device for reproducing content, device for receiving content, method for controlling content display, method for collecting and analyzing content evaluation, device for collecting and analyzing content evaluation, method for managing collection of content evaluation, and device for managing collection of content evaluation |
JP2004021844A (en) * | 2002-06-19 | 2004-01-22 | Sony Corp | Method for preparing data base, equipment for preparing data base, program for preparing data base, and method for regenerating data base, recording medium, contents, method, device, program reproducing contents |
JP2005064839A (en) * | 2003-08-12 | 2005-03-10 | Sony Corp | Recording device, recording and reproducing device, reproducing device, recording method, recording and reproducing method, and reproducing method |
JP2005124909A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Method for presenting emotional information, emotional information display device, and method for retrieving information content |
JP2005198828A (en) * | 2004-01-15 | 2005-07-28 | Seiko Epson Corp | Biological data analyzer, biological data analyzing method, control program and recording medium |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244523A (en) * | 2009-03-31 | 2010-10-28 | Internatl Business Mach Corp <Ibm> | Method and device for adding and processing tag accompanied by feeling data |
US8788495B2 (en) | 2009-03-31 | 2014-07-22 | International Business Machines Corporation | Adding and processing tags with emotion data |
JP2014523154A (en) * | 2011-06-17 | 2014-09-08 | マイクロソフト コーポレーション | Interest-based video stream |
JP2018533894A (en) * | 2015-10-30 | 2018-11-15 | チャイナ、モバイル、コミュニケーションズ、グループ、カンパニー、リミテッドChina Mobile Communications Group Co., Ltd | Method and device for triggering interactive application |
US10511396B2 (en) | 2015-10-30 | 2019-12-17 | China Mobile Communications Group Co., Ltd. | Method and device for triggering interactive application |
JP2018093350A (en) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | Attention degree evaluation system |
Also Published As
Publication number | Publication date |
---|---|
US20080222671A1 (en) | 2008-09-11 |
JP5746472B2 (en) | 2015-07-08 |
CN101755406A (en) | 2010-06-23 |
EP2135370A4 (en) | 2012-08-08 |
EP2135370A1 (en) | 2009-12-23 |
US8782681B2 (en) | 2014-07-15 |
WO2008108799A1 (en) | 2008-09-12 |
WO2008108799A8 (en) | 2009-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5746472B2 (en) | Method and system for evaluating media and media events based on physiological data | |
US8230457B2 (en) | Method and system for using coherence of biological responses as a measure of performance of a media | |
US11200964B2 (en) | Short imagery task (SIT) research method | |
US20210065117A1 (en) | Method and system for predicting audience viewing behavior | |
CN101755405B (en) | A method and system for creating an aggregated view of user response over time-variant media using physiological data | |
US8347326B2 (en) | Identifying key media events and modeling causal relationships between key events and reported feelings | |
JP5616640B2 (en) | Method and system for measuring and evaluating positive or negative responses to audiovisual or interactive media, products or activities using physiological signals | |
US20100004977A1 (en) | Method and System For Measuring User Experience For Interactive Activities | |
US20130151333A1 (en) | Affect based evaluation of advertisement effectiveness | |
US20130102854A1 (en) | Mental state evaluation learning for advertising | |
US20200042090A1 (en) | Information processing device, information processing method, and program | |
US20130238394A1 (en) | Sales projections based on mental states | |
US9501779B2 (en) | Automated thumbnail selection for online video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120330 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120628 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121001 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130521 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130716 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130718 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20130913 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20141127 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20141202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5746472 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |