JP7291445B1 - 視聴者関与度を評価するためのシステムおよび方法 - Google Patents

視聴者関与度を評価するためのシステムおよび方法 Download PDF

Info

Publication number
JP7291445B1
JP7291445B1 JP2022184597A JP2022184597A JP7291445B1 JP 7291445 B1 JP7291445 B1 JP 7291445B1 JP 2022184597 A JP2022184597 A JP 2022184597A JP 2022184597 A JP2022184597 A JP 2022184597A JP 7291445 B1 JP7291445 B1 JP 7291445B1
Authority
JP
Japan
Prior art keywords
processor
video
data
packet
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022184597A
Other languages
English (en)
Other versions
JP2023087655A (ja
Inventor
シドゥ インダービル
エム. ブレイ デヴォン
テイラー ロック アール.
アゲラ サミール
レベンサル アーセン エリック
Original Assignee
テレビジョン・インサイツ、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/643,565 external-priority patent/US11540009B2/en
Application filed by テレビジョン・インサイツ、インコーポレイテッド filed Critical テレビジョン・インサイツ、インコーポレイテッド
Priority to JP2023090934A priority Critical patent/JP2023110022A/ja
Application granted granted Critical
Publication of JP7291445B1 publication Critical patent/JP7291445B1/ja
Publication of JP2023087655A publication Critical patent/JP2023087655A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/372Programme
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/45Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/30Network architectures or network communication protocols for network security for supporting lawful interception, monitoring or retaining of communications or communication related information
    • H04L63/306Network architectures or network communication protocols for network security for supporting lawful interception, monitoring or retaining of communications or communication related information intercepting packet switched data communications, e.g. Web, Internet or IMS communications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Technology Law (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Psychiatry (AREA)
  • Game Theory and Decision Science (AREA)
  • Acoustics & Sound (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)

Abstract

【課題】回答者家庭におけるディスプレイに再生されている映像に対する視聴者関与度を定量化するための方法及びシステムを提供する。【解決手段】プロセス200は、映像を表示しているディスプレイ前方の視聴領域の画像を取得202し、視聴領域内の人数204及び映像に関与している人数を推測206する。また、映像サウンドトラックの音声サンプルを取得220し、音声サンプルに基づいて映像を識別222する。処理されたデータを格納232し、リモートサーバに送信236する。【選択図】図2A

Description

[関連出願の相互参照]
本出願は、米国特許出願第15/702,229号の一部継続出願であり、2017年1月6日に出願された、「SYSTEMS AND METHODS FOR ASSESSING VIEWER ENGAGEMENT」と題するPCT出願番号PCT/US2017/012531のバイパス継続であって、参照によりその全体を本明細書に組み込まれ、2016年1月6日に出願された「SYSTEMS AND METHODS FOR ASSESSING VIEWER ENGAGEMENT」と題する米国出願第62/275,699号の優先権を主張し、その全体も参照により本明細書に組み込まれるものとする。
従来のテレビ視聴者測定の方法は、ピープルメータおよびダイアリなどを使用して視聴者からデータを収集することを含む。これらの方法は、テレビが配置された部屋にいる人間(潜在的な視聴メンバ)を認識しようとするのが一般的である。また、この方法は、テレビで再生されている一連の画像(例えば、テレビ番組またはコマーシャル広告)をキャプチャすることも含むことができる。そして、各画像について、特定の画像が表示された時刻に部屋にいる人数を推定することができる。
これらの方法にはいくつかの欠点がある。まず、これらの方法で収集されたデータは、通常、テレビが配置されている部屋の中にいる人数しか含まれていない。このデータは通常、視聴者が実際にテレビを見ている頻度を示すものではない(測定はテレビが点灯しているときに行われる)。第2に、収集されたデータは、人が特定のチャネルにどれくらいの頻度でチューニングしているかを示し得る。しかしながら、番組または広告に対する反応を測定するものではないので、番組または広告の効果を示すものではない。第3に、テレビの視聴率は、家庭またはコミュニティ内の特定人口統計学的集団に対して与えられているわけではない。
当業者は、図面は主に説明のためのものであり、本明細書に記載される発明の主題の範囲を限定することを意図されるものではないことを理解するであろう。複数の図面は必ずしも原寸に比例したものではなく、幾つかの例において、本明細書に記載の発明の主題の様々な態様は、複数の異なる特徴の理解を促すべく、複数の図面において誇張または拡大して示され得る。図面において、同様の参照符号は、概して、同様の特徴(例えば、機能的に類似したおよび/または構造的に類似した要素)を指す。
テレビ視聴者の視聴者関与度を評価するためのシステムの概略図を示す図である。
図1に示すシステムを使用してユーザ関与度を定量化する方法を示す図である。
ユーザ関与度を定量化するためのコンピュータビジョンモデルを訓練する方法を示す図である。
顔並びに眼球のトラッキング、顔認識、およびセンチメンタル分析を含む視聴者関与度の方法を示す図である。
視認性指数および注目度指数の概念を示す図である。
視認性指数の推定を含む視聴者関与度を評価するためのプロセスを示す図である。
注目度指数の推定を含む視聴者関与度を評価するためのプロセスを示す図である。
視聴領域内の各人物の顔の向きを判断することを含む、視聴者関与度を評価するためのプロセスを示す図である。
骨格、顔、識別情報、感情、関与度を検出するプロセスを示す図である。
視聴者関与度評価の例示的な方法におけるデータ取得アーキテクチャの概略図を示す図である。
図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。 図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。 図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。 図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。 図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。 図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。 図7に示すアーキテクチャを使用して取得したコマーシャルメッセージ(CM)曲線を示す図である。
サンプリングしたテレビ局のうちそれぞれのCM曲線の比率を示す図である。
決定木による分類モデルを示す図であり、決定木の判定結果は表5に示す。
CMの長さに対する視認率を示す図である。
番組開始からの経過時間と視認率との間の相関を示す図である。
図1~図12に示した技術を使用して取得した視聴者関与度データの通信を示す図である。
図1~図12に示した技術を使用して取得した視聴者関与度データの普及および使用を示す図である。
図1~図12に示した技術を使用して取得した視聴者関与度データのビッグデータ分析および可視化を示す図である。
図1~図12に示した技術を使用して取得した視聴者関与度データを補完するための追加のデータを取得するためのモデルを示す図である。 パケット検査モジュールを含むシステム図である。 パケット検査モジュールの機能をさらに示すシステム図である。
本明細書に開示されるシステムおよび方法は、映像(例えば、テレビショー、映画、ウェブショー、広告、または他のコンテンツ)を再生しているディスプレイ(例えば、テレビ、コンピュータ、またはタブレット)前方の視聴領域の画像データを取得する。例示的なシステムは、画像データから、視聴領域に何人いるのか、そのうちどの人が実際に映像を見ているのかを判断する。また、このシステムは、映像のサウンドトラックをマイクロフォンでサンプリングし、サウンドトラックのサンプルを使用して映像を識別する。システムは、映像に関する情報、視聴領域内の人数、および映像を視聴している人数をローカルメモリに格納(および/または存続)し、インターネットまたは他のネットワーク接続を介してリモートサーバに情報を送信する。
本発明の実施形態は、テレビ視聴者の視聴者関与度を評価する装置、システム、および方法を含む。1つの例において、ディスプレイに再生されている映像に対する視聴者関与度を定量化するためのシステムは、ディスプレイ前方の視聴領域を撮像するように配置され、視聴領域の画像データを取得する少なくとも1つのカメラを含む。マイクロフォンは、ディスプレイに近接して配置されて、ディスプレイに結合されたスピーカによって発せられる音声データを取得する。また、システムは、プロセッサ実行可能命令を格納するために、カメラおよびマイクロフォンに動作可能に結合されたメモリと、カメラ、マイクロフォン、およびメモリに動作可能に結合されたプロセッサと、をさらに含む。プロセッサ実行可能命令が実行されると、プロセッサは、カメラから画像データを受信し、マイクロフォンから音声データを受信し、音声データの少なくとも一部に基づいて、ディスプレイに表示される映像の識別情報を判断する。また、プロセッサは、画像データに少なくとも部分的に基づいて、視聴領域に存在する第1の人数と、視聴領域で映像に関与している第2の人数とを推定する。プロセッサは、さらに、第1の人数と第2の人数とに少なくとも部分的に基づいて、映像の視聴者関与度を定量化する。
別の例において、ディスプレイに表示される映像に対する視聴者関与度を定量化する方法は、ディスプレイに映像が表示されている間に、ディスプレイ前方の視聴領域の画像を少なくとも1つのカメラで取得する段階を含む。また、方法は、ディスプレイに結合されたスピーカによって発せられる映像のサウンドトラックを表す音声データをマイクロフォンで取得する段階を含む。方法は、カメラから画像データを受信し、マイクロフォンから音声データを受信し、音声データの少なくとも一部に基づいて、ディスプレイに表示される映像の識別情報をカメラおよびマイクロフォンに動作可能に結合されたプロセッサで判断する段階と、画像データに少なくとも部分的に基づいて、映像がディスプレイに表示されている間に視聴領域に存在する第1の人数と、視聴領域で映像に関与している第2の人数とをプロセッサで推定する段階とをさらに含む。また、方法は、映像の識別情報、第1の人数および第2の人数をプロセッサでリモートサーバに送信する段階を含む。
さらなる別の例において、ディスプレイに再生されている映像に対する視聴者関与度を評価するためのシステムは開示される。ディスプレイは、映像のサウンドトラックを発するスピーカに結合される。システムは、ディスプレイに映像が再生されている間に、ディスプレイ前方の視聴領域の可視画像を第1のサンプル速度で取得する可視カメラを含む。赤外線カメラは、ディスプレイに映像が再生されている間に、ディスプレイ前方の視聴領域の赤外線画像を第1のサンプル速度で取得するように、システムに含まれている。マイクロフォンは、ディスプレイに映像が再生されている間に、スピーカによって発せられるサウンドトラックのサンプルを、第1のサンプル速度より低い第2のサンプル速度で取得するように、ディスプレイに近接して配置される。また、システムは、可視カメラ、赤外線カメラおよびマイクロフォンに動作可能に結合された、(i)サウンドトラックのサンプルに基づいて映像を識別し、(ii)可視画像と赤外線画像とに基づいて、ディスプレイに映像が再生されている間に視聴領域内の人数と映像に関与している人数とを推定し、(iii)サウンドトラック、可視画像および赤外線画像のサンプルを上書き、消去および/または破棄するプロセッサを含む。また、システムは、プロセッサに動作可能に結合された、映像の識別情報、ディスプレイに映像が再生されている間に視聴領域内の人数、および映像に関与している人数の表現を格納するメモリを含む。システムは、プロセッサに動作可能に結合された、表現をサーバに送信するネットワークインタフェースをさらに含む。
さらなる別の例において、複数の映像における一意の映像に対する視聴者関与度を定量化する方法は、複数の家庭の中のそれぞれの家庭で、ディスプレイ前方の視聴領域の画像データを取得する段階と、ディスプレイが複数の映像における映像を表示しているかどうかを判断する段階とを含む。また、方法は、複数の映像の中のそれぞれの一意の映像に対して、画像データと複数の家庭の中のそれぞれの家庭に関する人口統計学的情報とに基づく(i)視聴率および(ii)観視率を推定する段階を含む。視聴率は、映像を表示するディスプレイの総数に対する視聴領域の総人数の比率を表し、観視率は、複数の家庭の総人数に対する映像を表示するディスプレイを有する家庭の総人数の比率を表している。また、方法は複数の映像の中のそれぞれの一意の映像に対して、視聴率および観視率に基づいて、視認性指数を判断する段階を含む。
前述の概念および以下でより詳細に議論される追加の概念の全ての組み合わせ(ただし、そのような概念は相互に矛盾しない)は、本明細書に開示される発明の主題の一部として企図されることを理解されるべきである。とりわけ、本開示の最後に出てくる特許請求されている主題の全ての組み合わせが、本明細書に記載の発明の主題の一部であると考えられる。本明細書で明示的に用いられ、また、参照により任意の開示に組み込まれ得る用語は、本明細書に開示される複数の特定のコンセプトと最も一致する意味が与えられるべきであることも理解されたい。
映像に対する視聴者関与度を測定する従来のシステムが、映像自体に埋め込まれたデジタル透かしに基づいて映像を識別するのとは異なり、本発明のシステムの例は、映像のサウンドトラックに基づいて映像を識別する。その結果、本発明のシステムは、視聴者宅のディスプレイ、セットトップボックス、またはケーブル接続に接続される必要がない。これにより、設置および撤去がより容易になる(したがって、採用されやすい)。また、これにより、誤動作、または、ディスプレイの電源がオフにする間にセットトップボックスをオンのままにすることによる「誤検出」の印象を記録する可能性が小さくなる。
また、本発明のシステムは、ローカルに、すなわち、視聴者宅内で画像データを処理して、視聴領域内の人数および映像に関与している人数を判断する。また、音声データをローカルに処理することで、視聴領域に人がいるときに表示されている映像を識別することも可能である。このデータをローカルに、すなわち、視聴者宅内にあるローカルデバイスのメモリに、またはそれに結合されたメモリに格納する。処理された画像および音声データは、生の画像および音声データに比べてはるかに少ないメモリしか消費しないため、このローカルメモリには、より長い期間にわたる情報を格納することができる。換言すれば、本発明の装置は、生データの代わりに、処理されたデータを格納するため、より効率的にメモリを使用する。
ローカルデバイスは、視聴者関与度を評価するために視聴領域から取得された視覚および深度情報の両方を含み得る生の画像データを処理する。ローカルデバイスは、人工知能(AI)技術および機械学習技法を使用して、視聴者の身振り、動きおよび顔向きを分析することができる。また、ローカルデバイスは、映像視聴者の個々の顔を認識し、画像データから各視聴者の感情を判断することができる。この処理において、個人の画像が個人宅の外部に送信されない。宅内のローカルデバイスで認識を実行することができる。家庭内の各個人は、その家庭のオンボーディングプロセスで一意の識別子を受信することができる。認識処理で一致した場合、この識別子を一致に割り当て、そして、この識別子をリモートサーバに送信することができる。さらに、処理はストリーミング映像または音声データ(画像を含む)上で実行される。換言すれば、映像または音声データはローカルメモリに保持されない。
ローカルデバイスは、生音声データを音声データベースの中のサンプルと照合または比較して、視聴中の特定の映像(例えば、テレビチャネル、番組、または広告)を識別することによって、生音声データを処理する。代替的または追加的に、ローカルデバイスは、音声データに基づくクエリを、音声が属するコンテンツの識別情報を識別して返す第三者アプリケーションプログラミングインタフェース(API)に提出返することができる。いくつかの場合において、データベースまたはAPIは複数の可能な一致を返すことがあり、リモートサーバは、テレビのスケジュールに関する情報、後続の音声サンプル、またはセットトップボックス、ケーブル/インターネット接続、若しくはコンテンツプロバイダ自体を含むがこれらに限定されない他のソースから収集したデータを使用して最適な一致を選択することができる。
いくつかの実装例においては、ローカルデバイスは、後で検索するために生の画像または音声データを格納しない。代わりに、ローカルデバイスは、生の画像および音声データを格納する1つまたは複数のバッファに生の画像および音声データを書き込んで処理し、その後、生の画像および音声データが処理された後にバッファを上書きまたは消去する。換言すれば、ローカルデバイスは、生の画像および音声データを処理中に単に一時的に保持する。本明細書において使用されるように、ローカルデバイスにおける生の画像および音声データの「保持」とは、これらのデータを短い時間(例えば、100ミリ秒未満、80ミリ秒未満、60ミリ秒未満、50ミリ秒未満、または40ミリ秒未満、その間の任意の値および部分範囲を含む)、一時的に格納することを意味する。生の画像および音声データを上書きまたは消去することで、ローカルデバイスが必要とするメモリ量を削減できるなど、様々な利点は提供される。また、視聴領域またはマイクロフォンの届く範囲にいる子供を含む個人を識別することに使用できる画像または音声データを排除することで、個人情報保護法への準拠も容易になり得る。
画像および音声データをローカルに処理および格納することで、ローカルデバイスからリモートサーバに視聴習慣に関する情報を転送するのに必要な帯域幅を削減できるという別の技術的な利点も提供される。生の画像および音声データに比べて、処理された画像および音声データはメモリ消費量が少ないため、送信のためにより狭い帯域幅が要求される。また、処理された画像および音声データは、生の画像および音声データよりもゆっくりと所与のメモリを埋めるため、リモートサーバへの送信頻度を少なくすることができる。ローカルデバイスは、深夜または早朝など、ネットワーク帯域幅の使用量が比較的少ない時間帯にバースト送信をスケジュールすることで、この柔軟性を利用することができる。また、視聴領域またはマイクロフォンの届く範囲にいる子供を含む個人を識別する情報が必ずしも含まれないように処理された画像および音声データを送信することで、個人情報保護法への準拠を保証または容易にすることができる。
リモートサーバは、異なる家庭のローカルデバイスから処理された画像および音声データを収集する。このデータを処理し、コミュニティ内の異なる家庭から収集された視聴者関与度情報を統計的に分析することで、コミュニティ全体にわたる視聴者関与度を評価する。例えば、サーバは、各家庭から収集した粒度の高いデータから、検出された番組の全長に対する視聴者関与度の割合を定量化することができる。一実施形態において、音声フィンガープリントはローカルデバイス上で作成されるが、その後、ローカルデバイスに常駐していないデータベースと照合される。音声フィンガープリントは、6秒間の音声セグメントからローカルデバイス上で生成される。そして、このフィンガープリントは、リモートデータベースに送信され、照合される。リモートデータベースは、1または100の一致を返すことができる。(例えば、シンプソンズのエピソードは、1つまたは複数のリニアTVチャネル、hulu.comなどの複数のストリーミングサービスで再生されることができ、またはパネリストがDVRデバイスから再生することができる)。返された一致は全てローカルデバイスに保存される。一実施形態において、8秒ごとに新しい音声フィンガープリントを作成し、一致のためにリモートサーバに送信して、一致を受信して格納する処理を繰り返す。1つの実施形態において、約1時間ごとに、格納された一致がリモートデータ処理インフラにアップロードされる。ここで、ローカルデバイスによってアップロードされた一致の時系列に対して、予測アルゴリズムを適用している。このアルゴリズムは、以下を含む。
1.フィンガープリントの一致については、前後の一致を使用して最も可能性の高い一致を予測する(音声フィンガープリントは複数のエピソード(同じテーマ音楽)、複数のチャネル、複数のストリーミングサービスに一致する可能性があることが上記から思い出される)。目標は、どのチャネルまたはサービスがどのコンテンツを視聴者に提示したかを可能な限り厳密に判断することである。
2.データは秒単位で報告されることが可能であるが、音声フィンガープリントは8秒ごとに採取され、各フィンガープリントは6秒の長さの期間にわたっているので、このアルゴリズムもインターリーブ秒の最も可能性の高い一致を判断し、それらの秒数にわたって発信する。
統計解析では、さらに、映像を視聴している人および/または家庭の人の人口統計学的情報(例えば、年齢、性別、家計収入、民族性など)を考慮することができる。この全ての情報に基づいて、サーバは、視認性指数および注目度指数(両方とも以下で定義される)など、様々な指数を計算し、視聴者関与度を定量化することができる。これらの視聴者関与度指数は、視聴者の身振り、動き、視聴者の顔向きについての情報、および映像情報を含むローカルデバイスにより提供された任意のおよび全ての情報に基づくことができる。これらの量的指標は、とりわけ、(i)誰がディスプレイを実際に見ているか、(ii)視聴者メンバがどれくらいの頻度でディスプレイを見るか、ならびに(iii)ディスプレイ上の番組および広告に対する視聴者の反応を示すことができる。
その後、量的指標は、リモートサーバによって、テレビ広告代理およびテレビネットワークを含むがこれらに限定されない第三者が、指数、およびいくつかの場合において他のデータにアクセスすることができる中央ストレージ(例えば、クラウドベースのデータベース)に転送されることができる。代替的に、センサによって収集された生データは、本明細書に記載した方法で分析され、関心のある第三者にとって利用可能になる、クラウド上の中央ストレージに転送され得る。第三者は、システムを介して任意選択的に生データにアクセスすることができる。この例における生データは、(映像および音声ストリーム自体の代わりに)映像および音声ストリームの処理後に収集されたデータを含む。一般的に言えば、生データは、サブ秒基準(例えば、半秒以下ごと)で、視聴者の一意の識別子、視聴者の注意力、および視聴者によって視聴されている番組を含むことができる。この生データを使用して、より多くの量的指標(さらなる詳細は以下で参照)がリモートサーバで計算され得る。
この取得および分析されたデータにより、コンテンツプロバイダまたは広告代理などの収集エンティティは、広告主にとって価値のあり得る個人のデモグラフィックに関する今までにない測定値など、映像の影響を正確に評価することができる。例えば、広告代理は、このデータを使用して、ターゲットとする視聴者に最適なコマーシャルスロットを判断することができる。人口統計学的情報でデータは視聴者のタイプに一致され得、効果的に購買行為につなげることができるため、番組への投資対効果(ROI)を高めることができる。また、テレビネットワークも、それらのテレビ番組のより正確な評価、視聴者のタイプ、反応、広告スロットの予測値などを把握できるため、データから利益を受けることができる。これにより、特定のターゲットである人口統計学的層にとって最も価値の高い広告スロットを判断することに加えて、視聴者のタイプにより良く合わせた番組の改善、および人気のないショーの排除をさらに可能にすることができる。
また、取得および分析されたデータは、様々なビジネスモデルを可能にする。例えば、収集エンティティは、国および/または地域の人口動態を表す選択されたユーザ家庭に設置された運動感知デバイスから収集したパフォーマンスベースのテレビ視聴率データおよび分析用生データを、テレビネットワーク、広告代理、およびその他の関心のある第三者に提供し、広告代理からデータを取得する広告主にも間接的に提供することができる。
視聴者関与度を評価のシステム
図1は、家庭、スポーツバー、またはディスプレイがある他の空間における、視聴者関与度を評価するためのシステム100の概略図を示す図である。システム100は、視聴者関与度データを収集するために各家庭に配置されたローカルデバイス105と、データを格納するメモリとデータを分析するプロセッサ(リモートプロセッサとも呼ばれる)とを含むクラウドストレージおよびコンピューティングデバイスなどのリモートサーバ170を含む。ローカルデバイス105は、インターネット接続などのネットワーク接続172を介して、リモートサーバ170に通信可能に結合される。例えば、ローカルデバイス105は、家庭ローカルエリアネットワーク(LAN:local area network)に接続するための、WiFiアンテナまたはイーサネット(登録商標)ポートなどのネットワークインタフェース165を含み得る。このLANはさらに、インターネットサービスプロバイダ(ISP)が提供するケーブルまたは光ファイバ接続などを介して、ワイドエリアネットワーク(WAN:wide area network)に接続される。
図1におけるローカルデバイス105は、テレビ(TV)、コンピュータスクリーン、タブレットまたは他のデバイスなどのディスプレイ11前方の視聴領域101を赤外(IR:infrared)光で照明するために、IR放射器110を含む。このIR光は、視聴領域101内の物体(人間の視聴者を含む)に対して散乱または反射させる照明パターンを生成するように構造化または変調され得る。また、ローカルデバイス105は、これらの物体によって反射または散乱されたIR光を検出するIRセンサ120を含む。IR放射器110およびIRセンサ120に結合されたプロセッサ150(ローカルプロセッサ150とも呼ばれる)は、照明パターンおよび検出されたIR光に関する情報を使用して、視聴領域101の1つまたは複数のIR深度画像またはIR深度マップを生成する。より具体的には、プロセッサ150は、反射ビームから導出された情報を、視聴者とセンサ120との間の距離を測定する深度情報に変換する。プロセッサ150は、これらのIR深度画像を使用して、視聴領域に何人いるか、それらの人のうち誰がディスプレイを見ているかを判断する。また、プロセッサ150は、ディスプレイを見ている人の識別情報に関するIR深度画像から情報を、場合によって、それらの顔若しくは姿勢を認識すること、またはそれらの人口統計学的情報(例えば、年齢、性別など)を判断することによって導出し得る。
ローカルデバイス105は、視聴領域101のカラー画像をキャプチャするRGBセンサ130(可視カメラとも呼ばれる)をさらに含む。また、プロセッサ150はRGBセンサに結合され、カラー画像を単独で、またはIR深度画像と組み合わせて使用して、視聴領域内の人数、ディスプレイに関与している人数、および視聴領域内の人に関する情報を推定し得る。また、カラー画像は顔認識に使用され得る。いくつかの場合において、プロセッサ150はカラー画像およびIR深度画像の両方を使用して、視聴領域内の人数および映像に関与している人数の推定の忠実度を向上させる。
また、ローカルデバイス105は、ディスプレイ11に結合されたスピーカ13によって発せられる音を検出するように位置された1つまたは複数のマイク140を含む。動作中、スピーカ13はディスプレイ11に示された映像のサウンドトラックを再生する。また、マイクロフォン140は、スピーカ13によって再生されたサウンドトラックの音声サンプルをキャプチャする。マイクロフォン140に結合されたプロセッサ150は、これらの音声サンプルを使用して、映像の音声フィンガープリント(サウンドトラック)を作成し、それを、専用のまたは第三者のデータベースにおける他の音声フィンガープリントと比較してディスプレイ11に示されている映像を識別する。一実施形態において、ローカルデバイスは、以下でさらなる詳細が記載されるパケット検査モジュール1702を格納し、実行する。
システム100は、ブルートゥース(登録商標)送信器185に一致したブルートゥース(登録商標)受信器180をさらに含み得る。いくつかの場合において、ブルートゥース(登録商標)送信器185は、視聴者によって着用されたリストバンドまたは腕時計に含まれ得る。動作中、ブルートゥース(登録商標)送信器185は、ブルートゥース(登録商標)受信器180によって受信される低消費電力型ブルートゥース(登録商標)ビーコンを送信する。その後、プロセッサ150は、受信されたブルートゥース(登録商標)ビーコンに基づいて、視聴者の、ディスプレイ11からの距離を測定し得る。また、各ブルートゥース(登録商標)送信器185は、プロセッサ150により認識され得る固有IDを有することができる。送信器IDはさらに、一意の視聴者(例えば、家庭内の各視聴者が自身の送信器を有する)に関連付けられ得る。このように、視聴者の識別情報も判断され得る。
いくつかの場合において、システム100は、1つよりも多いブルートゥース(登録商標)受信器を含み得る。各受信器が送信器185から異なるブルートゥース(登録商標)信号強度を受信し得るように、これらの受信器は異なる位置に配置され得る。この構成により、プロセッサ150は視聴者からディスプレイ11までの距離だけでなく、視聴者の相対的位置(例えば、ディスプレイ11に対して左側または右側)も推定することができる。
システム100は、位置および運動を検出する3軸加速度計などの他の運動検知デバイスを含んでよい。運動感知デバイスは、例えば、USBケーブルを介して、デスクトップマシンなどのデータ分析処理デバイスに接続され得る。
図1は、データ収集コンポーネント、ここでは、IR放射器110、IRセンサ120、RGBセンサ130およびマイクロフォン140をローカルデバイス105の一部(例えば、同じハウジング内)として示す。他の実施形態において、これらのコンポーネントのうちの1つまたは複数は、USB接続、RS232接続、イーサネット(登録商標)接続、ファイバ接続、またはWiFi接続、ブルートゥース(登録商標)接続、他のRF接続若しくは赤外接続などの1つまたは複数の無線接続などの1つまたは複数の有線接続によってプロセッサ150に結合された別個のデバイスとして実装され得る。例えば、IR放射器110およびIRセンサ120は、プロセッサ150に接続される、マイクロソフト・キネクトなどの市販デバイスである(またはその中にある)ことができる。同様に、マイクロフォン140は、視聴領域の周囲に、またはスピーカ13の近くに配置されるマイクロフォンのアレイとして実装され得る。マイクロフォンアレイは、周囲ノイズから音声入力を抽出することができることがより好ましいであり得る。ローカルデバイス105はまた、他のセンサを含む、またはそれに結合されることができる。
システム100におけるプロセッサ150は、IR放射器110、IRセンサ120、RGBセンサ130、およびマイクロフォン140を含むセンサによって取得された生データを処理することに採用される。処理は、プロセッサ150に結合されたメモリ160に格納されたプロセッサ実行可能命令が実行される際に行われることができる。1つの例において、ユーザは、リモートサーバ170からの命令をダウンロードすることによってメモリ160に命令を手動で格納することができる。別の例において、ローカルデバイス105は、リモートサーバ170からダウンロード可能である更新された命令があるかどうかを(定期的に)チェックするように構成され得る。ある場合、ローカルデバイス105は、ネットワーク接続172およびネットワークインタフェース165を介して更新を自動的にダウンロードすることができる。さらなる別の例において、更新または新しい命令のセットをダウンロードするための準備ができると、リモートサーバ170は、通知をローカルデバイス105に送信するように構成され得る。通知を受信すると、ユーザは、更新をダウンロードおよび/またはインストールするかどうかを決定することができる。さらなる別の例において、リモートサーバ170は、更新通知を、スマートフォンなどの別のユーザデバイスに送信するように構成され得る。通知を受信すると、ユーザは、更新をダウンロードおよび/またはインストールするかどうかを決定することができる。
また、ローカルデバイス105におけるメモリ160は、処理されたデータ(例えば、視聴領域内の人数の推定、ディスプレイに関与している人数の推定、映像の識別、並びに生の画像および音声データから導出された人口統計学的情報または指数)を格納する。いったんメモリ160が十分な処理されたデータを蓄積すると、プロセッサ150は、処理されたデータを、アグリゲーション、さらなる処理および報告のために、ネットワークインタフェース165およびネットワーク接続172を介してリモートサーバ170に送信する。また、ローカルメモリ160は、ローカル処理中、画像および音声データを一時的に保持する。いくつかの場合において、この処理は1/4秒より短い時間で完了される。
ローカルデバイスでの画像および音声データの収集および処理
図2Aは、図1に示すシステム100と同様のシステムで取得された画像および音声データを収集および処理するためのプロセス200を示す。上述したように、システムは、可視センサ、IRセンサ、または両方を含んで、ディスプレイ前方の視聴領域を撮像する(202)ことができる。1つの例において、RGBセンサ130およびIRセンサ120は、互いに独立で動作し、センサは非同期方式で画像を取得する。別の例において、RGBセンサ130およびIRセンサ120による画像取得は実質的に同期される。RGBセンサ130が可視画像を取得するたびに、IRセンサ120が、例えば、同時に、またはインターリーブ方式でIR画像を取得する。
ローカルプロセッサ(例えば、プロセッサ150)は、視聴領域の画像における人数を検出し(204)、また、それらの人のうちの誰がディスプレイに関与しているかを判断する(206)。例えば、ローカルプロセッサは、コンピュータビジョン/画像処理の技術分野において知られている、骨格検出技術、顔認識技術、および視線追跡技術を含む、以下に説明する技術を使用してよい。いくつかの場合において、ローカルプロセッサ150は、視聴領域に各視聴者がいる継続時間、各視聴者がディスプレイに対する関与の継続時間、表示されている映像の識別情報に関する、以下に説明するような音声データから導出され得る(222)さらなる指数を判断する(208)ことができる。
ローカルプロセッサは、視聴領域101にいるように検出された各人物を、人口統計学的レベル(例えば、25歳~30歳の男性、12歳~15歳の女の子)で、さらに識別する(210)ことができる。ローカルプロセッサ150は、ローカルデバイス105がローカルメモリ160またはリモートサーバ170などを介して配置されている家庭についての情報へのアクセスを有する場合、それはこの人口統計学的情報を使用して、視聴領域101に検出された各人物の信頼性がより高い人口統計学的情報の推定を提供することができる。さらに、ローカルプロセッサは、家庭内の、視聴領域内の特定の人を識別することができる。
また、ローカルプロセッサ150は、視聴領域101に検出された各人物の気分または感情を推定する(212)ことができる。プロセッサ150によって判断され得る感情は、例えば、楽しい、悲しいまたは中立を含むことができる。ディスプレイ11上の映像を見ている場合、視聴者の感情の分類は、映像への視聴者の反応を測定することに使用され得るため、ターゲットを絞った広告配信を容易にする。
各人物の気分または感情を推定するために、ローカルプロセッサ150は、RGBおよびIRチャネルの両方からリアルタイムで(例えば、視聴領域101の画像からの)視覚情報をキャプチャすることができる。視覚情報は、異なる気分または感情の状態のシグネチャであり得るパターンおよび特徴を抽出するようにさらに処理され得る。両方のチャネルから抽出された特徴は、統一された特徴として融合することができる。分類子は、そのような特徴を入力として扱うように訓練され得る。その後、感情/気分の推定は、各時刻での特定のパターンに対する分類子/応答に基づいて行われ得る。
いくつかの場合において、気分または感情の推定は、以下の方法で達成され得る。方法は、とりわけ、笑顔および顔をしかめることなど、様々な感情を示す人の訓練用画像を収集する段階を含む。各感情を表す特徴は、これらの訓練用画像から(例えば、プロセッサによって)抽出される。その後、特徴および画像は、各特徴を対応する感情に相関させるように分類子を訓練することに使用される。このように、分類子は、これらの特徴を様々な感情に割り当てることができる。また、方法は、視聴者の感情をリアルタイムで認識するように、分類子をローカルデバイスに展開する段階を含む。
システムが可視画像およびIR画像を同期方式で収集する場合、可視カメラおよびIRカメラは、プロセッサによって使用されるコンピュータビジョンモデルを訓練するために画像を収集して人を検出し(204)、関与している視聴者を計数し(206)、人口統計学的に視聴者を識別し(210)、気分を推定する(212)ことができる。この訓練は、「グランドトゥルース」を確立するために採用することができる。IRおよびRGBセンサの両方からほぼ並行して画像データを収集したことで、人間が各画像で検出された人物に注釈を付けることができる。この手動データは訓練用アルゴリズムに供給されることができ、それにより2つの個別のモデルが生じ、1つは可視RGBスペクトルで訓練され、もう1つはIRスペクトルで訓練される。その後、「グランドトゥルース」に対する各モデルの検出レートを比較してより良く実行されるモデルを選択する。この訓練のさらなる詳細は以下に図2Bを参照して説明される。
また、2つのカメラ(例えば、図1におけるセンサ120および130)の同期により、ローカルプロセッサが画像処理をダブルチェックすることができる。例えば、プロセッサ150は、各画像で識別された人数を比較し、または、1つの画像において可視であり、他の画像において見えにくいまたは不可視である誤差を除去することができる。結果が互いに一致する場合、プロセッサ150は結果を記録することができる。そうでない場合、プロセッサ150は、画像のうちの少なくとも1つにおける可能性がある誤差を検出することができる。代替的に、プロセッサ150は、人間が介入するための警告を生成することができる。また、プロセッサ150は、これらの2つの画像から推定されたデータに関連付けられた、このデータの信頼性がより低い可能性があることを示すフラグを生成することができる。後続の分析において、この問題となっている画像のペアの直前または直後に撮像された画像が信頼性の高い人物認識を提供できる場合は、このデータを全く使用しないことがある。
1つの例において、ローカルデバイス105は常に可視センサおよびIRセンサ120および130を使用して画像データを取得する。別の例において、ローカルデバイス105は、センサ120または130のうちの1つのみを使用して画像データを取得し得る。さらなる別の例において、ローカルデバイス105は、1つのセンサをデフォルトのセンサとして使用し、他のセンサをバックアップセンサとして使用することができる。例えば、ローカルデバイス105は、撮像するために、RGBセンサ130をほとんどの場合に使用することができる。しかしながら、プロセッサ150が可視画像を満足に分析できない場合(例えば、分析が所望のように信頼できない場合)、プロセッサ150はバックアップとしてIRセンサ120をオンにすることができる(またはその逆も可能である)。これは、例えば、視聴領域の周辺光レベルが低い場合に発生することがある。
また、ローカルプロセッサは、視聴領域内の人数、視聴領域内の位置、およびディスプレイ上の映像の識別情報に基づいて、可視センサ、IRセンサ、またはその両方の画像取得率を調整してよい(214)。一般に、いずれかまたは両方のセンサの画像取得は、約15フレーム/秒(fps)と実質的に等しいまたはそれより大きくなり得る(例えば、約15fps、約20fps、約30fps、約50fpsまたはさらに大きく、その間の任意の値および部分範囲を含む)。この画像取得率で、センサは、ローカルプロセッサが視聴者関与度を評価するために十分に良く目の動きを検出する(206)ことができる。
ローカルプロセッサは、視聴領域101内の人数に基づいて画像取得率を増加または減少させ得る。例えば、プロセッサは、視聴領域101内に人がいないと判断する場合、それは画像取得率を低減して電力およびメモリの消費を削減し得る。同様に、プロセッサは、視聴者が映像に関与していない(例えば、視聴者が寝ているように見えるため)と判断する場合、それは画像取得率を低減して、電力、メモリまたはその両方を節約し得る。反対に、プロセッサは、視聴者が急速に注意を移しているように見える場合、速いペースの映像(例えば、サッカーの試合またはアクション映画)を見ている場合、チャネルを急速に変えている場合(例えば、チャネルサーフィン)、またはコンテンツが比較的急速に変わっている場合(例えば、一連の広告の間)、画像取得率を(例えば、15fpsより大きく)増加させ得る。
システムがIRセンサおよび可視画像センサの両方を含む場合、ローカルプロセッサは、照明条件または相対的な画質に基づいて画像取得を変化させることもできる。例えば、低照度状態において、ローカルプロセッサは可視画像より高速でIR画像を取得することができる。同様に、ローカルプロセッサがIR画像より、可視画像を処理するとより良い結果を取得する場合、それはIR画像より高速で可視画像を取得することができる(または、その逆もその通りである場合、その逆も可能である)。
また、システムはマイクロフォン140で映像のサウンドトラックのサンプルを記録する(220)。一般に、音声データ取得率または音声サンプリング率は画像取得率より低い。例えば、マイクロフォンは、30秒ごとに一回の速度で音声サンプルを取得する。毎回の取得において、マイクロフォン140は、音声サンプルに関連付けられた映像の識別を可能にするように、有限の継続時間を有する音声サンプルを記録する。音声サンプルの継続時間は、実質的に5秒に等しい、またはそれより長い(例えば、約5秒、約6秒、約8秒、約10秒、約20秒、または約30秒、その間の任意の値および部分範囲を含む)であり得る。
ローカルプロセッサは、マイクロフォン140によって記録された音声サンプルを使用して、ディスプレイに再生されている映像を識別する(222)。例えば、プロセッサ150は、音声データのフィンガープリントを作成し、フィンガープリントを使用して、第三者アプリケーションプログラミングインタフェース(API)に問い合わせることができ、ここで、APIは音声データに関連付けられた映像の識別情報でクエリに応答する。別の例において、プロセッサ150は、フィンガープリントをローカルテーブルまたはメモリに対して比較して、映像の識別情報を判断することができる。
上述したように、映像サウンドトラックのサンプルを使用して映像を識別することは、従来のテレビサーベイデバイスにより映像を識別するために使用されるデジタル透かしと比べると、いくつかの利点を提供する。それは、映像にデジタル透かしを挿入することは必要とせず、コンテンツ生成者およびプロバイダに連携する必要を排除する。これにより、コンテンツの製作および配信が簡略化され、デジタル透かしを提供できない、または提供しようとしない製作者および配信者を含む、映像コンテンツのより広い範囲の識別および評価が可能になる。そして、ローカルデバイスをケーブルまたはセットトップボックスに接続する必要を排除する。
さらに、デジタル透かしの代わりに音声データを使用することは、「誤検出」、または、システムが、視聴領域内の人を検出し、テレビがオフになっている場合にも実際に見られていない映像を識別するインスタンスのリスクを低減させる。これは、セットトップボックスに接続された従来のシステムで、それらのテレビがオフになっていても家庭成員がそれらのセットトップボックスの電源をオンのままにしている場合に発生し得ることである。
いくつかの例において、ローカルプロセッサは、例えば、映像の識別情報、視聴領域内の人数、映像に関与している人数などに基づいて、音声サンプリング率を調整する(224)。例えば、(例えば、映像サウンドトラックが多くの異なる映像サウンドトラックに出現する人気の歌を含むために)ローカルプロセッサが単一のフィンガープリントから映像を識別できない場合、ローカルプロセッサおよびマイクロフォンは、より高速で、またはより長期間でサンプルを取得して映像の任意の曖昧さを解決するように改善してよい。また、プロセッサは、視聴領域101に人がいない、または視聴者は映像に関与していない(例えば、視聴者は寝ているように見えるため)場合に音声サンプリング率を減少させて、電力、メモリまたはその両方を節約してよい。反対に、プロセッサは、視聴者がチャネルを急速に変えている場合(例えば、チャネルサーフィン)、またはコンテンツが比較的急速に変わっている場合(例えば、一連の広告の間)、音声サンプリング率を増加させてよい。
実装によって、マイクロフォンは、一定間隔で(すなわち、周期的に)、または不規則間隔で(例えば、非周期的にまたは時間的に変化する周期で)、音声サンプルを記録することができる。例えば、マイクロフォンは一日中、一定の速度(例えば、1分間に約2サンプル)で音声データを取得することができる。他の場合において、テレビがオンであるときまたはオンである可能性が高いとき(例えば、夕方)、マイクロフォンはあるサンプリング速度で、テレビがオフであるときまたはオフである可能性が高いとき(例えば、早朝、真昼)は別のより低いサンプリング速度で動作することができる。ローカルプロセッサは、音声サンプルからテレビがオン(オフ)になったことを検出した場合、それに応じてサンプル速度を増加(減少)させることができる。また、ローカルプロセッサは、音声サンプルからテレビがオン(オフ)になったことを検出したことに応答して、画像センサが視聴領域の撮像の開始(停止)をトリガしてよい。
生の画像および音声データが処理されている間にまたは処理されると、ローカルプロセッサは生の画像および音声データを上書きする、またはメモリから生の画像および音声データを消去する(230)。換言すれば、各画像はメモリ150に保持される一方、プロセッサ150は人間を検出および識別し、それらの関与および表情を測定する。検出、識別および関与データはフレームごとに収集され、この情報は存続され、最終的にはバックエンドサーバ170にアップロードされる。また、同様に、音声データはメモリ160に保持される一方、第三者APIは音声フィンガープリントを処理しており、関連付けられた映像の識別情報を返している。識別情報は、以下に説明するように、格納される、および/またはバックエンドサーバ170にアップロードされる。
生の画像および音声データを上書きするまたは消去(または、別の方法で破棄)することで、ローカルプロセッサは、メモリへの要求を低減し、視聴領域内の個人を識別する能力を低減または排除する。これにより、システムへ不正侵入しようとする潜在的な対象となる情報の公開が少なくなり、個人のプライバシが保たれる。また、これにより、個人の画像が第三者に送信される可能性も排除される。特に、これは、「子供のオンラインプライバシ保護法」に係る視聴領域内の子供のプライバシを保護するために有益である。
いくつかの場合において、ローカルプロセッサは、メモリから生の画像および音声データを能動的に消去する。他の場合において、ローカルプロセッサは、所定量(例えば、1つの画像または1つの音声サンプル)よりも多くの生の画像および音声データを格納しない大きさのメモリ内の1つまたは複数のバッファにその生の画像およびデータを格納する。ローカルプロセッサは、次の画像または音声サンプルがバッファを上書きするように、サンプル間の期間において生の画像およびデータを分析する。
また、ローカルプロセッサ150は、処理されたデータをメモリ160に格納する。処理されたデータは、必要なメモリを減らすために、カンマ区切り変数(CSV)形式など、比較的コンパクトな形式で格納されることがある。CSVまたは他のファイルに含まれるデータは、例えば、各画像に人がいるかどうか、各画像の視聴領域101内の人数、視聴領域101内で実際にディスプレイ11を見ている人数、各視聴者の感情の分類、各視聴者の識別情報などを示すことができる。処理されたデータは、IR画像取得率、可視画像取得率、音声サンプリング率、現在のソフトウェア/ファームウェア更新などを含むローカルデバイスの動作状態に関する指標を含むこともできる。
ローカルプロセッサは、格納またはさらなる処理のために、処理されたデータを(例えば、ネットワークインタフェースを介して)リモートサーバに送信する(236)。処理されたデータは比較的コンパクトな形式であるため、生の画像および音声データをアップロードする場合と比較して、アップロード帯域が大幅に削減される。また、伝送データは視聴領域の画像または視聴者の音声を含み得る音声サンプルを含まないため、視聴者のプライバシを侵害するリスクはより低い。さらに、生の画像および音声画像がリモートサーバに送信され、処理される場合よりも、それらがローカルで処理されるため、処理されたデータの音声および画像部分が同期され、その状態を維持する可能性がより高い。
いくつかの場合において、ローカルプロセッサは、処理されたデータが処理される間に、それをリモートに送信し得る。他の場合において、ローカルプロセッサは、例えば、利用可能なアップストリーム帯域幅、データ量などに基づいて、送信ウィンドウを識別し得る(234)。これらの送信ウィンドウは、予め定められてよく(例えば、東部標準時の午前2時)、ローカルデバイスの設置時に家庭成員により設定されてよく、リモートサーバにより設定されてよく(例えば、ソフトウェア若しくはファームウェアの更新を介して)、または帯域幅の測定に基づいてローカルプロセッサにより判断されてよい。
図2Bは、視聴者関与度を定量化するためのコンピュータビジョンモデルを訓練する方法を示す。241において、RGBおよびIRセンサの両方は、2つのタイプの処理を受ける映像データを取得する。242aにおいて、映像データに手動で注釈を付けて、各フレームにある顔を識別する。242bにおいて、現在のモデル(例えば、デフォルトのモデルまたは以前に使用したモデル)を使用して各フレームの顔を自動的に検出する。243bにおいて、プロセッサを使用して、242aで取得した注釈付き映像に対する242bでの自動検出の精度を計算する。244において、精度が許容できる場合、方法240は245に進み、現在のモデルは、(例えば、方法200において使用される)顔認識のための製作モデルとして設定される。精度が許容できない場合、方法200は243aに進み、映像は、映像の訓練セット(246a)と映像のテストセット(246b)とに分割される。例えば、RGB映像を訓練映像246aとして選択することができ、IR映像をテスト映像246bとして選択することができる(または、その逆も可能である)。
訓練映像246aは、247aで新しいモデルを訓練するために送信され、一方、テスト映像(246b)は、新しいモデルをテストするために段階247bに送信される。247bにおいて、247cにおいて新しいモデルの精度を計算するために、訓練映像246aおよびテスト映像246bは共に収集される。249において、プロセッサは新しいモデルの精度を再度計算する。精度が許容できる場合、新しいモデルは製作モデルとして設定される(245)。そうでない場合、方法240は248に進み、新しいモデルのパラメータはチューニングされる。代替的に、別の新しいモデルは248で構築され得る。任意の場合において、新しいモデルのパラメータは247aに返って送信され、訓練映像246aは新しいモデルの訓練に使用される。このように、新しいモデルは許容精度を有するように反復して構築され得る。
リモートサーバの動作
動作中、リモートサーバ170は、異なる家庭に配置された異なるローカルデバイス105から送信されたデータを収集する。リモートサーバ170は定期的に入力データを読み取り得る。また、リモートサーバ170は受信されたデータを解析し、それぞれが保存されたときのタイムスタンプを使用して、映像認識データと音声認識データとを結合することができる。
また、リモートサーバ170は、誤ってラベリングされたデータを修正し得る。例えば、リモートサーバ170は、前後のタイムスタンプからのデータを使用して、視聴者が識別されない場合または誤認識がある場合のブリップを修正することができる。問題となっている画像に先行する画像で人が識別され、問題となっている画像に後続する画像でも人が識別される場合、リモートサーバ170は、この人が問題となっている画像にも出現すると判断することができる。
また、リモートサーバ170はローカルデバイス105から受信されたデータおよび/またはリモートサーバ170によって処理されたデータをクエリ可能なデータベースにロードすることができる。1つの例において、リモートサーバ170はまた、分析のために格納されたデータを次に使用し得るユーザにアクセスを提供することもできる。別の例において、クエリ可能なデータベースにおける格納されたデータはまた、リモートサーバ170によって実行されるさらなる分析を容易にし得る。例えば、リモートサーバ170はデータベースを使用して注目度指数および視聴者指数を計算することができる。
視聴者関与度の評価
図3A~図6は、視認性指数および注目度指数などの測定値を使用して映像に対する視聴者関与度を定量化する方法を示す。次の定義は、映像に対する視聴者関与度を定量化するための本発明の方法および装置を理解することに役立ち得る。
番組継続時間は、一意の番組の、例えば、秒、分または時間単位での全継続時間として定義される。異なるプログラムの継続時間が比較され得る限り、使用される実際の単位(秒、分または時間)は重要でない。
コマーシャル継続時間とは、一意のコマーシャルの(例えば、秒または分単位での)全継続時間として定義される。
視聴継続時間(秒)は、家庭毎で一意の番組またはコマーシャルの視聴された全継続時間(秒数)として定義される。代替的に、視聴秒数は、番組の秒単位での全継続時間から、どの家庭も番組を視聴していない合計時間(秒単位)を差し引いたものとして定義され得る。
集計視聴継続時間(秒)は、全家庭にわたる、一意の番組またはコマーシャルの全家庭で視聴された全継続時間(秒数)として定義される。
ポジティブ継続時間比は、番組またはコマーシャル広告が視聴された割合(%)として定義される。より具体的には、番組または広告のポジティブ継続時間比は、番組または広告の全継続時間に対する集計視聴継続時間の比率に家庭数をかけたものとして計算され得る。
視聴者カウント(VC)は、所与の番組またはコマーシャル広告に対する視聴秒数がポジティブであった全家庭にわたる、視聴領域内の視聴者の総数として定義される。
観視率(WR)は、テレビがオンである全家庭の総人数の、全家庭にわたる総人数に対する比率として定義される。例えば、方法は総数300人がいる100個の家庭を考慮する場合である。100人がいる30の家庭がそれらのテレビセットをオンにすると、観視率は33.3%(すなわち、100/300)である。しかしながら、同じの30の家庭に150人がいる場合、観視率は50%(すなわち、150/300)である。
視聴率(VR)は、全家庭の視聴領域内の総人数の、オンであるテレビの総数に対する比率として定義される。例えば、40台の異なるテレビで定義される視聴領域(1台のテレビが1つの視聴領域を定義する)に100人がいる場合、視聴率は2.5(すなわち、100/40)である。
注目率(AR)は、全家庭でテレビに注目している人の総数の、全家庭にわたる視聴領域内の総人数に対する比率として定義される。例えば、方法で考慮した全ての個人で100人が視聴領域にいるが、実際にテレビを見ているのは60人(残りの40人はテレビをオンにしたまま他のことをしている可能性がある)のみである場合、注目率は0.6または60%である。
視認性指数(VI)は、各番組およびコマーシャルに対する視聴率(VR)の平均値として定義される。
注目度指数は、各番組およびコマーシャルに対する注目率(AR)の平均値として定義される。
図3Aは、顔および眼球のトラッキング310と、顔認識320と、センチメンタル分析330とを含む視聴者関与度を評価(例えば、図2Aの方法200におけるボックス206)の方法300を示す。プロセッサ(例えば、図1に示すローカルプロセッサ150)は方法300の実装に使用され得る。方法300における入力データは、視聴領域の画像データ、音声データまたは深度データなど、図1に示すローカルデバイス105によって取得されたデータであり得る。顔および眼球のトラッキング310は、顔が移動している間に特徴データポイントを識別して追跡し、ユーザが画面を見ているかどうかを判断することに採用されている。顔認識320は、例えば、人工知能を使用して視聴者の識別情報を判断することに採用されている。センチメンタル分析330は、例えば、とりわけ、顔の特徴、姿勢および心拍数を分析するための人工知能を使用して視聴者の感情を判断することに採用されている。
視聴者が実際に画面を見ているかどうかの情報、視聴者の識別情報および視聴者の感情を含む取得された情報は、様々な映像評価340を判断することに使用される。1つの例において、取得された情報は、家庭ごとの個別の映像評価の推定に使用される。別の例において、取得された情報は、人口統計学的領域ごとの個別の映像評価の推定に使用される。さらなる別の例において、取得された情報は、一群の映像に対する全体映像評価の推定に使用される。さらなる別の例において、取得された情報は、特定の映像(例えば、番組および広告)の視聴者の反応の推定に使用される。また、取得された情報は、以下に説明するように、視認性指数および注目度指数などの視聴者関与度の定量的測定の判断に使用され得る。
方法300における段階310、320および330は、パターン認識技術を使用して達成され得る。これらの技術は、例えば、1つまたは複数の人間の顔を認識することで、任意の視聴者が視聴領域にいるかどうかを判断することができる。認識された顔が確かにある場合、これらの技術はさらに、例えば、認識された顔を、映像が再生されている家庭の顔データを含むデータベースと比較することで、その視聴者が誰であるかを判断することができる。代替的に、これらの技術は、視聴者がその家庭の人ではない場合、拡張されたデータベースを使用してより多くの人(例えば、可能であればコミュニティ全体)の顔データを含み得る。また、これらの技術は、顔の動きを追跡し、顔の向きを分析することで、例えば視聴者が映像を見ているかどうかを判断することができる。
また、人工知能、機械学習および訓練されたニューラルネットワーク学習技術は、視聴者の感情の分析に使用され得る。そのために、これらの技術は、とりわけ、身振り(一定時間で静止した姿勢)、身体運動(姿勢の変化)、顔向き、顔の方向/動き/位置、心拍数などを分析する。
別の例において、方法300は、まず、例えば、図1に示すRGBセンサ140およびIRセンサ120によって取得された画像データから顔を認識することができる。また、方法200は、面の位置を検出し、顔上の特徴点(例えば、図2Aに示すように、眼および口の境界点)を識別し、顔が移動している間に追跡することができる。方法300は、眼球追跡技術を使用して、視聴者が実際に映像を見ているかどうか(または、代わりに、視聴領域内に座っているだけであるが別のことをやっているかどうか)を判断することができる。そして、方法300は、訓練されたニューラルネットワーク学習の技術を使用して、類似部位に対してデータベースからの顔の特徴を比較することによって、視聴者を家庭内の既知の人と一致させることができる。視聴者が識別されたと、方法300は、注目すべき顔の構成について視聴者を継続的に追跡し、ユーザの気分および/または感情を判断することができる。
また、方法300は、(例えば、図1に示すマイクロフォン140によって取得された)音声データと映像(例えば、テレビショー)の音声データベースおよび他の音声とを比較し、これにより、どの映像が特定の時点で再生されているかを確認することができる。1つの例において、映像マッチングは、方法300によって識別された視聴者によってどのテレビ局が視聴されているかを判断することができる。別の例において、映像マッチングは、どのテレビ番組が視聴者によって視聴されているかを判断することができる。さらなる別の例において、映像マッチングは、どのコマーシャル広告が視聴されているかを判断することができる。代替的または追加的に、視聴されているテレビチャネル、番組または広告は、ケーブルまたは衛星セットトップボックスまたは他の番組プロバイダのハードウェアまたは放送信号を含むが、これらに限定されない他のソースから収集したデータから判断されることができる。
図3Bは、視聴者関与度を定量化するための、本明細書に記載される技術を介して推定され得る視認性指数および注目度指数の概念を示す図である。一般的に、視認性指数は、画面に表示されているものが人を部屋に呼び込む傾向を定量化する。注目度指数は、画面に表示されているものが視聴者の関心を引く傾向を定量化する。換言すれば、視認性指数は、映像(または他の表示コンテンツ)が最初に視聴者を引きつける確率とみなすことができ、注目度指数は、視聴者が既に視聴領域にいる後、映像がディスプレイ前方に視聴者を留める確率とみなすことができる。図3Bに示すように、視認性指数は視聴領域にいる人の数に依存し、注目度指数は実際にディスプレイを見ている人の数に依存する。
視認性指数および注目度指数で視聴者関与度を評価する
図4Aは、視認性指数を使用して視聴者関与度を定量化する方法401を示す図である。方法401は、プロセッサによって実装され得る。方法401は段階411で開始し、画像データは、例えば、図1に示すシステム内のローカルデバイス105を設置または使用することを介して方法に参加する複数の家庭における各家庭でのプロセッサによって取得される。画像データは、映像(例えば、テレビ番組、広告、ユーザ要求映像または他の任意の映像)を再生し得るディスプレイ前方の視聴領域の画像を含む。さらに、プロセッサはまた、段階411でディスプレイが映像を表示しているかどうかを判断する。段階421において、プロセッサは、ディスプレイによって再生されている各映像に対する視聴率および観視率を推定する。視聴率は、上記で定義したように、映像を表示するディスプレイの総数に対する、視聴領域内の総人数の比率を表す。同様に、観視率は、上記で定義したように、複数の家庭内の総人数に対する、映像を表示するディスプレイを有する家庭内の総人数の比率を表す。
視聴率および観視率の推定は、段階411で取得っされた画像データおよび複数のの家庭における各家庭に関する人口統計学的情報に基づく。人口統計学的情報は、プロセッサが容易に人口統計学的情報を取得し得るように、プロセッサに動作可能に結合されたメモリに格納され得る。別の例において、プロセッサは、別のサーバから人口統計学的情報を取得し得る。段階330において、プロセッサは、複数の映像における各一意の映像に対する、視聴率および観視率に基づいて視認性指数を判断する。視認性指数は、番組およびコマーシャルなどの各映像に対する視聴率の平均値として上記で定義される。
方法401は、ディスプレイによって再生されている各映像の視聴者カウントおよびポジティブ継続時間比を推定する段階をさらに含み得る。推定は、画像データおよび複数の家庭における各家庭に関する人口統計学的情報に基づく。上記で定義したように、視聴者カウントは、各一意の映像に関与している総人数を表し、ポジティブ継続時間比は、一意の映像の継続時間に対する、一意の映像を見ている複数の家庭内の人によって消費された合計時間の比率を表す。
視聴者カウントおよび位置継続時間比率に基づいて、バランスの取れた視認性指数は判断され得る。1つの例において、バランスの取れた視認性指数は、所与の各番組およびコマーシャルの視聴者カウントおよびポジティブ継続時間比を加味して、視認性指数(VI)の加重平均として計算され得る。別の例において、バランスの取れた視認性指数は、複数の映像における一意の映像にわたって視認性指数を正規化することによって計算され得る。
方法401は、平均視認性指数を生成するために、有限の期間に対する全ての番組およびコマーシャルにわたる視認性指数を平均化する段階をさらに含み得る。各番組およびコマーシャルの視認性指数は、広告代理、テレビ局または他のコンテンツプロバイダなどのユーザのための最終視認性指数(無次元量)を生成するために、(例えば、日、週、または月単位で計算された)平均視認性指数で除算され得る。1つの例において、有限の期間は約2週間である。別の例において、有限の期間は約1ヶ月間である。さらなる別の例において、有限の期間は約3ヶ月間である。
画像データは、様々な取得速度で取得され得る。1つの例において、画像データは毎秒50回(50Hz)取得され得る。1つの例において、画像データは毎秒30回(30Hz)取得され得る。さらなる別の例において、画像データは1秒ごとに(1Hz)取得され得る。さらなる別の例において、画像データは2秒ごとに(0.5Hz)取得され得る。さらなる別の例において、画像データは5秒ごとに(0.2Hz)取得され得る。さらに、方法300は、家庭の人口統計学的情報を考慮して視聴者関与度情報を導出するために、視聴領域内の各視聴者に対する画像データを取得および分類し得る。
図4Bは、注目度指数を使用して、映像に対するユーザ関与度を定量化する方法402を示す図である。方法402は段階412を含み、ここで、視聴者関与度評価に参加する各家庭に対してディスプレイ前方の視聴領域の画像データが取得される。段階412において、プロセッサは、(例えば、図1に示したローカルデバイス105内のマイクロフォン140によって取得された音声データを介して)画像データが取得される際に任意の映像がディスプレイに表示されているかどうかを判断する。段階422において、ディスプレイによって再生されている各映像に対して、プロセッサは、画像データおよび家庭に関する人口統計学的情報に基づいて注目率を推定する。上記で定義したように、注目率は、映像に関与している人の総数と視聴領域内の総人数との比率を表す。映像の注目率に基づいて、段階432において、注目度指数は、映像の効果を示すように判断される。
方法402は、ディスプレイによって再生されている映像の視聴者カウントおよびポジティブ継続時間比を推定する段階をさらに含む。方法401と同様に、方法402は、画像データおよび各家庭に関する人口統計学的情報に基づいて、視聴者カウントおよびポジティブ継続時間比率を判断することができる。プロセッサは、視聴者カウントおよびポジティブ継続時間比率を使用すると、バランスのある注目度指数を判断することができる。方法402は、所与の期間(例えば、1週間または1ヶ月間)にわたって複数の映像における一意の映像に対する注目度指数を正規化することによって正規化された注目度指数を生成する段階を含み得る。
方法402は、平均注目度指数を生成するために、有限の期間に対する全ての番組およびコマーシャルにわたって注目度指数を平均化する段階をさらに含み得る。広告代理、テレビ局または他のコンテンツプロバイダなどの顧客のために最終注目度指数(無次元量)を生成するように、各番組およびコマーシャルの注目度指数は、平均注目度指数で除算され得る。
顔認識技術を使用して視聴者関与度を評価する
図5は、顔認識技術および他の人工知能技術を使用して映像に対する視聴者関与度を評価する方法を示す図である。方法500は段階510で開始し、ここで、ディスプレイ前方の視聴領域の画像は(例えば、図1に示したシステムを使用して)キャプチャされる。各取得された画像に対して、視聴領域内の人数は段階520で推定される。1つの例において、例えば、顔認識技術を使用して推定を実行し得る。別の例において、身体骨格検出に基づいて推定を実行し得る。
段階530において、視聴領域内の各人物の顔のディスプレイに対する向きは判断される。例えば、顔の向きはディスプレイに向けることがあり、視聴者が実際にディスプレイ上の映像を見ていることを示す。代替的に、顔の向きはディスプレイから離れることがあり、視聴者自身がディスプレイの視聴領域内にいるが、映像を見ていないことを示す。したがって、視聴者の顔の向きに基づいて、プロセッサは、段階540において、視聴領域内の各人物が実際に映像に関与しているかどうかを評価し得る。実際に映像を見ている人を見ていない人から区別することによって、プロセッサは、映像の効果の判断を正確に下すことができる。映像の効果は、例えば、視聴者が映像に関与している状態はどのぐらい保持され得るかによって定量化され得る。
骨格、顔、識別情報、感情および関与度を検出する
図6は、骨格、顔、識別情報、感情および関与度を検出するための方法600を示すフローチャートであり、方法600はさらに上述した視聴者関与度評価のために使用され得る。方法600は、プロセッサ(例えば、プロセッサ150またはリモートサーバ170内のプロセッサ)によって実装され得る。方法600は段階610で開始し、ここで、ディスプレイ前方の視聴領域の画像データは(例えば、メモリによって、または直接に図1に示したRGBセンサ130などの撮像デバイスから)提供される。段階620において、プロセッサは、画像データから骨格フレーム(すなわち、例えば、図2Aにおける230などを参照して、少なくとも一人の潜在的な視聴者の画像を含む画像フレーム)を取得する。段階630において、処理ループが開始され、こkどえ、プロセッサは、顔認識、感情分析および関与度判断を含むさらなる処理のための各骨格フレームに対する6つの個人骨格データポイント/セットを使用する。骨格データが処理されたと、方法600はリフレッシュ段階625を介して、段階620における骨格フレーム取得に戻る。
方法600における段階635は決定段階であり、ここで、プロセッサは、任意の骨格が骨格フレーム内の選択された骨格データにあると検出されるかどうかを判断する。そうでない場合、方法600は段階630に戻り、ここで、新しい骨格データが処理のためにピックアップされる。少なくとも1つの骨格が検出された場合、方法600は段階640に進み、ここで、画像データにおける視聴者の頭領域を識別するためにバウンディングボックスが生成される。バウンディングボックスは、例えば、骨格情報に基づいて、骨格全体から頭を識別することなどによって生成され得る。
段階645は再び決定段階であり、ここで、プロセッサは、バウンディングボックスが生成されたかどうか(すなわち、頭領域が検出されたかどうか)を判断する。画像が視聴者の骨格全体を含むが、視聴者の頭部が遮られるため画像には表示されていないことが可能である。この場合、方法600は再度、プロセッサが新しい骨格データをピックアップする段階630に戻る。バウンディングボックスが検出された場合、方法600は段階650に進み、ここで、プロセッサが第2レベルの顔認識(顔検出とも呼ばれる)を実行する。この段階において、プロセッサは、段階640で生成されたバウンディングボックス内の人の顔を検出しようとする。顔検出は、例えば、OpenCVにおけるHaar特徴ベースのカスケード分類器を使用して実行され得る。より多くの情報は、米国特許第8,447,139 B2号に記載されており、この特許は参照によりその全体が本明細書に組み込まれる。
段階655において、プロセッサは、顔が段階650で検出されたかどうかを判断する。そうでない場合、第1レベルの顔認識は段階660で実行される。この第1レベルの顔認識段階は、段階650で実行された第2レベルの顔認識と実質的に同様であり得る。もう一回顔検出を実行することで、顔認識技術の偶発的な失敗の可能性を減らすことができる。段階665は、段階655と同様である決定段階であり、ここで、プロセッサは、顔が検出されたかどうかを判断する。
顔が第1レベルの顔認識または第2レベルの顔認識のいずれで検出された場合、方法600は、段階670に進んで、顔の特徴検出または顔のキーポイント検出とも呼ばれる顔の目印検出を実行する。段階670は、顔の異なる特徴(例えば、目尻、眉、口、鼻先など)の位置の判断に採用される。顔の目印検出のより多くの情報は、米国特許公開第2014/0050358 A1号および米国特許第7,751,599 B2号から見つけられ、これらはその全体が本明細書に組み込まれる。
段階672において、プロセッサは、任意の顔の目印が段階670で検出されたかどうかを判断する。そうでない場合、方法600は段階630に返ってさらなる処理のための別の骨格データを選択する。少なくとも1つの顔の目印が検出された場合、プロセッサは、決定段階674において、任意の顔が段階650での第2レベルの顔認識で検出されたかどうかをさらに判断する。そうである場合、方法600は段階690に進み、ここで、検出された顔は識別され(すなわち、視聴者が誰であるかが判断され)、その後、方法は段階680に進み、ここで、顔の目印に基づいた顔の感情は予測される。段階674において、プロセッサは、段階650で顔が検出されなかったことを発見した場合、方法600は、プロセッサが視聴者の感情を推定するために、直接に段階680に進む。感情分析は、例えば、Open CVにおけるサポートベクトルマシン(SVM:Support Vector Machine)を使用して実行され得る。より多くの情報は、米国特許第8,488,023号から見つけられ、この特許はその全体が本明細書に組み込まれる。
1つの例において、図3Aから図6に示す方法は、映像の継続時間または映像の視聴者カウントに関わらず、(テレビ番組および広告を含む)全ての利用可能な映像を分析する。別の例において、図3Aから図6に示す方法は、視聴者関与度の定量分析を実行する前に、短すぎるか、視聴者カウントが少なすぎる映像を除外する予備フィルタリングを実行する。このように、定量分析は、統計的により信頼できる結果をもたらし得る。例えば、視聴時間が有限時間未満(例えば、30秒未満、20秒未満、または10秒未満)の映像は除外され得る。また、有限期間(例えば、1ヶ月間、2週間、または1週間など)の視聴者が一定人数未満(例えば、20人未満、15人未満または10人未満)の映像も除外され得る。
1つの例において、図3Aから図6に示す方法は、生放送のテレビ番組上で実行される。別の例において、図3Aから図6に示す方法は、録画されたテレビ番組上で実行される。番組のタイミングが本来の「指作成タイムスタンプ」(例えば、テレビ局のデータベース)から10分間より長くずれていると認識されている場合、その番組は録画視聴と判断される。そうでなければ、その番組はライブ視聴と判断される。
コマーシャルメッセージ(CM)効果の実験的評価
このセクションは、コマーシャルメッセージ(CM)効果管理を検証するための正確な視聴データ収集と分析について説明する。「視認性」という指数は、人が「テレビの前方」にいることを示す。視認性指数は、データを生成するこの説明および調査のために作成される。調査は2週間、30個の家庭からの84人をサンプルに実行した。CM曲線は、2つのシーンの間の視認率の時系列曲線を示すパターンとして定義される。シーン間のCMの個人視聴率は一定であり得るが、視認率は変化することがある。その結果、CM曲線には7つのパターンがあることがわかった。CMの長さおよび視認率の変数がCM曲線の形状に大きく寄与し得る。また、多項ロジットモデルはCM曲線の判断に有用であり得る。
この実験は、コマーシャルメッセージ(CM)、番組、人間の視聴態度の間の関係を調査した。また、実験は、上述したシステムおよび方法に特徴を付けた。放送タイミングおよびテレビ局などの番組情報と、統計的方法による視聴態度の相関は分析された。現在、日本で行われている個人視聴率調査では、テレビリモートコントロールにある色のついたボタンで人を登録し、テレビ視聴の開始時および終了時にその色のついたボタンが押される際に記録する。さらに、ピープルメータ(PM:People Meter)という指標は、テレビ視聴者が何を見たか、誰がその番組を見たかを記録するものである(Video Research Ltd.(2014):"TV rating handbook"、VIDEOR.COMウェブサイトでPDF形式で入手可能、参照することにより本明細書に組み込まれる)。しかしながら、この視聴率調査では、たとえ視聴率を正確に捕えても、集中視聴とカジュアル視聴とを区別することはできないのが通常である。
HirakiとIto(Hiraki,A.&Ito,K.(2000):Cognitive attitudes to television commercials based on eye tracking analysis combined with scenario, Japanese Journal of Human Engineering,Vol.36,pp.239-253,incorporated herein by reference)は、眼球運動分析に基づく視覚情報を使用してCMが画像認識に与える影響を分析する方法を提案した。彼らは、視聴状況を再現した環境において、実際のCMを用いたCM視聴実験を実行した。その結果、聴覚および視覚情報が商品理解の妨げになる可能性があることがわかった。
この実験では、個人視聴率以外に、システムにより捕えた身体的な存在感は指標として、視聴態度を測定に使用された。例えば、人は、CM中、テレビの前方に座らずとも、席を立ち、互いに意識を向け合うことがある。そうして、CM中、視聴態度は、個人視聴率および身体的な存在感の2つの指数を使用して統計的に分析された。後者の指数は、本明細書において「視認性」と呼ばれる。
2014年11月中旬から11月末日にかけて、30個の家庭からの84人を対象に視聴態度調査実験を実施した。14日間にわたって、1日24時間データを取得した。
図7は、TV702または他のディスプレイに表示された番組または広告に対する、視聴領域内701の視聴者関与度を測定するデータ獲得システム700の概略図を示す図である。システム700は、TV702がオンである間に、視聴領域701の画像をキャプチャする画像センサ710を含む。また、システム700は、画像センサ710からの画像データを格納および処理し、通信ネットワークを介してサーバ(図示せず)との間に生の画像データおよび/または処理された画像データを通信するコンピューティングデバイス750を含む。
いくつかの場合において、コンピューティングデバイス750および/またはサーバは、個人視聴率の他に、視認性を測定する。視認性は「テレビの前方にいる」を示し、この用語は、テレビから約0.5m~約4mの範囲内の距離にいて、顔がテレビの前面に向かって左右70°の間にある視聴者について定義される。1つの例において、視認性は1秒単位で取得され、1秒間のサンプル数を全サンプル数(この場合は84)で除算した値で示される。
図8A、図8B、図8C、図8D、図8E,図8F、図8Gは、視認性を個人視聴率で除算した値の遷移を示すCM曲線の7つの異なる形状を示す図である。この値は、実際にテレビを見ている人の割合を示すことができる。
CM曲線の形状にある相違点を説明するために、データの分類およびモデリングは実行され得る。この実験で採用された分析の方法は以下で議論される。まず、多項ロジットモデル(例えば、Agresti,A.Categorical data analysis.John Wiley&Sons (2013)は参照により本明細書に組み込まれる)をデータモデリングに採用することができる。その後、少なくともサンプルサイズ(1,065)が大きいため、非階層的なクラスタリングがK-means法を使用して実行され得る。次に、決定木は構築され得る。説明変数は使用され、全てのサンプルはステップワイズ・グループ化を使用して分類されている。一般に、決定木は、複数の分類ルールを木構造で表現した分類モデルである。非純度関数としてジニ係数は使用された。
これらの方法を使用してjしてCM曲線の形状を判断する場合、CM曲線の形状判断に密接に関係する手法または変数も考慮して分析する。そうして、CM放送と実質的に同時に観測される変数も含まれ得る。
その日の視聴率の高い時間帯からのデータは使用される。本実験において、視聴率の高い時間帯は18:00~24:00の6時間である。5つのテレビ局のCMに対する視聴態度は分析される。各テレビ局のCM曲線の比率を図9に示す。
分析において、CM曲線の形状は従属変数であり、図8Aから図8Gに示すように、AからGに分類される。説明変数は、CMの長さ、テレビ放送局、ジャンル、番組開始からの経過時間、CMの平均個人視聴率、CMの平均視認率、前のシーンの平均個人視聴率、前のシーンの平均視認性、個人視聴率で除算した現在のシーンの視認率、個人視聴率で除算した前のシーンの視認率、日付および曜日である。前のシーンは、CMと前のCMとの間のシーンを指す。
多項ロジットモデルに基づいた判別結果を表1に示す。多項ロジットモデルでの判別率は、ランダムでの判別率より20%高い。特にCM曲線の形状がBまたはGの場合に判別率が高くなる。
このモデルでは、CMの長さ、テレビ局、番組開始からの経過時間、CMの平均個人視聴率、視認率、個人視聴率で除算したCMの視認率、個人視聴率で除算した前のシーンの視認率の7つの説明変数を使用している。7つの変数のうち、CMの長さおよびテレビ局が最も判別率に寄与している。
Figure 0007291445000002
7つの形状の被説明変数を階層化することも可能である。階層には複数の異なる種類が考えられるが、効率的な検討のため、以下の2種類の階層を比較した。
階層1:単調形状タイプ(C/D/E)および非単調形状タイプ(A/B/F/G)。まず、極値を持たない単調形状タイプと極値を持つ非単調形状タイプとを階層化した。各グループに対して多項ロジットモデルを適用し、各グループの判別率を計算することができる。階層1の判別結果を表2に示す。単調形状タイプの判別率は59.34%であるが、単調形状タイプの判別率は51.72%であり、全体の判別率は53.62%であった。
単調形状タイプと非単調形状タイプとを階層化した後、階層がない多項ロジットモデルと比較して、全体の判別率が15%高くなった。階層がない多項ロジットモデルと比較して、CM曲線の形状による判別率の違いを正しく判断できた場合(D/E/G)と正しく判断できなかった場合(C)とがある。
選択された説明変数は以下のとおりである。単調形状タイプでは、6つの変数、すなわち、テレビ局、番組開始からの経過時間、CMの平均個人視聴率、CMの視認性、前のシーンの視認性、個人視聴率で除算した前のシーンの視認性、が選択される。非単調形状タイプでは、6つの変数、すなわち、CMの長さ、テレビ局、番組開始からの経過時間、CMの平均個人視聴率、CMの視認率、前のシーンの視認率、が選択される。階層がない多項ロジットモデルに寄与するCMの長さは、単調形状タイプでは選択されない。
Figure 0007291445000003
階層2:単純形状タイプ(A/B/C/D/E)、複雑形状タイプ(F/G)。第2に、極値を最大1つ持つ単純形状タイプと、極値を1より多く持つ複雑形状タイプを階層化することができる。階層2の判別結果を表3に示す。単純形状タイプの判別率は46.50%であるが、複雑形状タイプの判別率は77.55%であり、全体の判別率は52.21%であった。
単純形状タイプについて、CMの長さ、テレビ局、番組開始からの経過時間、CMに対する平均個人視聴率、CMの視認率、前のシーンの平均個人視聴率、視認率をCMの個人視聴率で除算したもの、前のシーンの視認性を平均個人視聴率で除算したもの、日付の9つの変数が選択される。さらに、複雑形状タイプについて、テレビ局の1つのみの変数が選択される。このモデルは1つの変数のみを持っているので、全てのサンプルはFに従って分類される。単純形状タイプについて、選択された変数は、階層がない多項ロジットモデルのものと同様である。
Figure 0007291445000004
説明変数を使用するクラスタ解析は実行され得る。クラスタ解析の判別結果は表4に示す。判別率は15.77%であり、クラスタ解析とランダム選択との判別率には違いがない。換言すれば、非階層的クラスタ解析において、CM曲線は分類され得ない。
Figure 0007291445000005
図10は、決定木を介して分類モデルを示す図である。決定木の判定結果は表5に示される。決定木の判別率は40%である。表5から、Gの判別率は0%であるが、Dの判別率は73%と他のCM曲線より高いことがわかることができる。決定木の判別率は階層がない多項ロジットモデルの判別率よりもわずかに高い。
図10から、CM曲線の各形状の特性は識別され得る。形状Aは、視認率が高い場合に発生する。形状Bは、視認率が低く、CMの長さが長い場合に発生する。形状Cは、シーンの視認率が前のシーンの視認率とあまり変わらない場合に発生する。形状Dは、視認率が低く、CMの長さが短い場合に発生する。形状Eは、前のシーンの視認率が低く、CMの長さが短い場合に発生する。形状Fは、シーンの視認率が低いが、前のシーンの視認率が高い場合に発生する。
Figure 0007291445000006
比較および考慮
判別率は、各方法によって表6に要約されている。階層化1の方法は、全ての方法の中で最も高い割合となっている。しかしながら、被説明変数が階層化されたため、接続全体を証明するのは不可能である。
Figure 0007291445000007
階層がない多項ロジットモデルの判別率は決定木の率とほぼ同じである。決定木は、視認率が固定値より高いかどうかによって判断されるため、直感的に理解されるのは困難であり、固定値は再現されない。したがって、CM曲線を判断する最も適切な方法は階層がない多項ロジットモデルである。
全ての方法において、CMの長さの変数および視認率はCM曲線を判断することに最も多く寄与している。したがって、テレビ視聴態度は、番組のジャンルおよび放送時間に依存しないが、CMの長さおよび現在および前のシーンの視認率に依存する。
これらの5つの方法において、CMの長さの変数および視認率は、CM曲線の判断に大きく寄与している。そこで、1)CMの長さと視認率との関係、2)どのような状況で視認率が高くなるのか、の2点に関して考慮する。
CMの長さと視認率との関係は図11に示す。一般に、CMの長さが短いほど、視認率が高くなる。人は興味がなくなるとテレビを見ることを停止するため、CMが長いほど、視認率が低くなる。
さらに、どのような状況が高い視認率につなげるかは調査された。番組が開始後(ジャンルに依存する)わずかな時間が経過する場合、視認率が高い。表7に示すように、各ジャンルの平均視認率の間には顕著な差があることがわかる。新しい番組の視認率が低いが、映画および音楽の視認率が高い。図12は、番組開始からの経過時間と視認率との間の相関を示す図である。図12から、番組が開始してからの経過時間がより短い場合、視認率がより高いことがわかることができる。
Figure 0007291445000008
本実験研究は、本発明のハードウェアおよびソフトウェアコンポーネントの例示的な実施形態を使用し、CM、番組、および人間の視聴態度の間の関係を解明するものである。CM曲線を判断するための最も適切な方法は多項ロジットモデルである。
CM中に観測できる変数は分析され、CM曲線とこれらの変数との関係は検証される。採用された全ての方法において、CMの長さの変数および視認率はCM曲線を判断することに最も多く寄与している。単調形状タイプの判別率が高いため、変化なしでも変化ありでも識別がより容易である。換言すれば、CM曲線の形状はジャンルおよび日付などの番組特徴に関連しない。これは、CM放送時間が長いほど、視聴者が見飽きることを示めす。また、番組の前のシーンが視聴者にとって面白くないであると、視聴者は次のCMを見ない。
視聴者関与度データのアプリケーション
図13は、本明細書に記載の方法およびシステムを使用して取得されたデータの通信のシステムを示す図である。システム1300は、運動感知デバイスを通じてテレビ視聴者パネルから取得された生データ1310を格納し、処理し、これは、限定はしないが、デスクトップマシンなどのコンピューティングデバイス1320に転送される。その後、視聴者関与度を評価の方法は、例えば、データを分析および処理するデスクトップマシン上に実行され得る。方法は、分析後のデータを、(1)誰が本当にテレビを見ているのか(誰が視聴者であるか)、(2)視聴者メンバがテレビを見る頻度、(3)テレビ番組および広告に対する視聴者の反応を判断することに使用され得るパフォーマンスベースのテレビ視聴率データに変換する。この処理されたおよび/または要約されたデータは、次に、テレビ広告代理店1340、テレビネットワーク1350、およびデータが有用であると考えられる任意の他の潜在的クライアント1360を含むがこれに限定されない第三者が、収集エンティティのクライアント用に特に開発された、収集エンティティのソフトウェア、アプリケーション・プログラミング・インタフェース、またはウェブポータルを通じて、いつでもデータに便利にアクセスできる、サーバなどの中央ストレージ位置1330に、クラウド上で転送される。代替的に、ハードウェアコンポーネントのセンサによって収集された生データ1310は、インターネット接続を介して直接または間接的にクラウド上の中央ストレージ1330に転送され、そこでソフトウェアコンポーネントによって分析され、関心のある第三者1340~1360が利用できるようにされる。第三者は、システムを介して任意選択的に生データにアクセスすることができる。
図14は、本明細書に記載のシステムおよび方法によって取得および分析されたデータを利用することができる例示的なシステム1400の基本要素を示す図である。収集エンティティ1430(例えば、TVision Insights)は、補償またはボランティアと引き換えに、図1に描かれたハードウェアコンポーネントの配置をテレビ視聴率データ収集の目的で彼らの家庭内のテレビの上に配置するようにすることを許可するパネルメンバ1410(例えば、家庭成員)に補償を与えてもよい。パネルメンバは、クレジットカード取引データ、人口統計学的および社会経済学的情報、ソーシャルメディアアカウントのログイン、タブレット、スマートフォン、およびその他のデバイスからのデータなどを含むが、これらに限定されない追加の情報1420の提供を求められることがある。このデータは収集され、映像およびIR画像は図1に描かれたシステムにより記録され、映像は図2Aから図6に記載の方法によって分析され得る。分析されると、映像を説明するデータは、次にデータを広告主1440、テレビ局1460、テレビ代理1450および他の関心のある第三者に販売、またはそうでなければ、提供し得る収集エンティティ1430に送信され得る。収集エンティティ1430は任意選択的に、個別の分析のために生の収集されたデータへのアクセスを提供してよい。開示されたビジネスモデルの一部として、収集エンティティ1430は、広告主1440がそれらのテレビ代理1450にこのデータを購入するように促す動機付けを行うことができる。
図15は、視聴者関与度を評価の方法において取得されたデータに基づいたビッグデータ分析および可視化を示す図である。これらのモデリング1500において、図15に示す収集エンティティ1520(例えば、TVision INSIGHTS)は、テレビを有する家庭1510からデータを収集することができる。その見戻りとして、参加家庭1510は、収集エンティティ1520から金銭的補償(または他の利益)を受けることができる。その後、収集エンティティ1520は、ビッグデータ分析1530aおよび可視化技術1530bを使用して参加家庭から収集されたデータを分析して、あるテレビ番組または広告の効果などの情報を導出する。その後、このデータは、広告主、広告代理、テレビ局または他のコンテンツプロバイダ若しくはプロモータ(集合的に顧客1540と呼ばれる)に提供されて、それらに番組の効果を改善するように指示し得る。1つの例において、顧客1540は、このデータサービスを月額使用料で収集エンティティ1520をサブスクライブすることができる。別の例において、顧客1540は、特定の映像(例えば、キャンペーン映像、スポーツイベントでの特別広告など)に関するデータを収集エンティティ1520から購入し得る。
図16は、視聴者関与度データ収集に参加する個人および家庭(テレビ視聴者)からの追加の情報1600の集合の例を示す図である。テレビ視聴者は、関心のある第三者に有用である国および/または地域の人口動態を表し得る。収集エンティティは、映像データ1610および人口統計学的情報を収集し、システムによって集められたデータでパッケージ化され、テレビ視聴率に関する方法によって分析され、この情報を顧客に提供して補償を得ることができる。テレビ視聴者から収集され得る情報の例は、とりわけ、Twitter(登録商標)、Instagram、フェイスブック(登録商標)などの、これらに限定されないソーシャルメディアプロフィール1620を通じて取得され得る任意のまたは全ての情報を含む。情報はさらに、システムから取得された映像データおよび音声データ1640(テレビの音声および家庭内の個人から発される会話などの音声の両方を含む)、スマートフォンおよびタブレットの検索習慣、インターネットの検索履歴、電子メールアカウント情報、およびクレジットカード取引データ1650を含むマルチスクリーンデータ1630をさらに含むことができる。このリストは全てを網羅するものではなく、限定的に解釈されるべきものではない。
収集された情報およびデータにより、これまでにない広告主にとって価値のある個人のデモグラフィックの測定を含む、収集エンティティはテレビ広告の影響を正確に評価することが可能になる。広告主は、データを使用してどの広告スロットがそれらのターゲットとする視聴者にとって最適であるかを判断することができる。また、視聴者のタイプに合ったメッセージを発信することで、効果的に購買行為につなげることができ、広告主の投資収益率(ROI)を向上させることができる。
また、テレビネットワークは、それらのテレビ番組の評価、視聴者のタイプ、反応、広告スロットの予測値などをより正確に得ることができるようになるため、開示の発明の利益を受けることができる。これにより、特定のターゲット人口統計学的層にとって最も価値の高い広告スロットを判断することに加え、視聴者のタイプに合わせた番組の改善および不人気の番組の排除が可能になる。また、データは、番組および広告の比較評価のための、同じまたは異なる時間帯に複数のチャネルで番組を比較することに使用され得る。同様に、テレビの視聴者データおよび行動を収集し、任意の所与の番組時間帯のストリーミングコンテンツと比較することができる。また、テレビパイロット番組は、本システムを使用して評価した上で、エピソードを発注することができる。図17および図18を参照した別の実施形態において、本発明の別の態様は、視聴された特定の番組または広告、およびそれが視聴されたプラットフォームまたはサービスを識別する能力を含む。この態様から、コンテンツを再生しているストリーミングサービス(例えば、Netflix(登録商標)、Hulu(登録商標)、Paramount+など)を特定することができる。この態様では、サービスが実行されているプラットフォーム(例えば、Amazon Firestick、SamsungスマートTV、Apple TVなど)、およびストリーミングセッションの開始、終了、一時停止、または再開の時刻も特定される。これは、測定装置105上で動作するソフトウェアモジュール1702によって部分的に達成される。モジュール1702は、映像ストリームの品質への影響を最小限に抑えながら、ストリーミングサービスからアウトバンドされるネットワークパケットを収集および観測する。モデルは、収集された実データのうちの大部分に対して訓練されている。これらのデータは、ストリーミングアプリからアウトバンドされたイーサネット(登録商標)パケットで、回答者が行った行為、また、ストリーミングアプリの様々な状態を回答者がログに記録している。回答者が行う行為には、以下のようなものが含まれる。
a.ストリーミングデバイスをオンにする
b.デバイス上のストリーミングアプリケーションを開始する
c.アプリケーション内のいくつかのコンテンツを選択する
d.再生ボタンを押す
e.コンテンツが再生されている間に一時停止ボタンを押す
f.再生を再開する
g.ホーム画面にナビゲートし戻る
回答者が記録したアプリケーション状態は、次のとおりである。
h.ディスプレイ上のホーム画面
i.アプリケーションのロゴが表示されている
j.アプリケーションが開始された
k.コンテンツ導入
l.コンテンツが再生されている
m.広告が再生されている
回答者がストリーミングアプリケーションでコンテンツを視聴しているときに取得したパケットと、回答者が記録した行為およびアプリケーション状態のログを使用して、アクティブなストリーミングアプリケーションを予測することができるモデルをもたらす。また、ストリーミングアプリケーションが再生、一時停止、再開などの間の状態遷移を行う時刻も利用可能である。モジュール1702はさらに、パネリストの家庭から収集したネットワークパケットデータに上記のモデルを適用し、任意の時点でアクティブだったストリーミングアプリケーション、ストリーミングアプリケーションが実行されていたデバイス、およびストリーミングアプリケーションがその時点で有していた状態(停止、再生、一時停止)を予測する。この分析により、任意のストリーミングコンテンツを視聴した各パネル家庭に対して、経時的昇順に並べた時系列を得る。この時系列データは、次に、モジュール1702によって判断されたように、全く同時にパネリストのテレビで再生されていることが検出されたコンテンツ、および視聴者の識別情報とテレビ上のコンテンツに払っていた注意のレベルと結合し、どの人口統計学的層がどのストリーミングアプリケーションをどのストリーミング対応デバイスでどのストリーミングコンテンツを視聴していたかを定義する説明を秒単位で得るために利用される。図17はローカルデバイス105上のデータ収集を示す図である。ローカルデバイス105はまず、家庭において、様々なストリーミング対応デバイス1706がアクティブであることを発見する。この後:
1.一実施形態において、パケット検査モジュール1702は、ARPポイズニングを使用して、家庭内のインターネットゲートウェイとしてその自体を偽装する。ARPポイズニングは、促進する方法の一例であるが、他にも多くの方法が可能である。この時点で、ローカルデバイス105は、その位置のインターネットゲートウェイとして見られるが、そこからデータを収集する必要があるストリーミングデバイスに対してのみである。
2.ARPポイズニングの結果として、ゲートウェイに送信されると仮定されたストリーミングデバイスからの任意のパケットは、代わりにローカルデバイス105に送信される。
3.パケット検査モジュール1702は、これらのパケットに含まれるコンテンツを解析し、アウトバンド情報を記録する。通常、これらのパケットは暗号化されるが、利用可能な情報は以下を含む:
a.IPヘッダ
b.TCPヘッダ
c.ルックアップ要求
d.TLSハンドシェイクパケット
上記のアウトバンド情報は、ローカルデバイス105で利用可能であり、パケットを観測した時刻と共に記録される。
4.ネットワークパケットで利用可能な情報を記録した後、ローカルデバイス105は、その情報を「実」ゲートウェイ1708に転送する。
5.ゲートウェイ1708は、パケットをインターネット1710を介してその送信先(図示せず)に転送する。
6.その後、応答はゲートウェイ1708(「6」に示すように)によって受信される。
7.応答パケットは、遅延のためにストリーム品質がバッファリングされないことを保証するために、ゲートウェイを介してルーティングされていない。それは直接ストリーミングデバイス1706(「7」に示すように)に進む。ほとんどの場合、このパケットは、ディスプレイデバイス1704に表示されるべきストリーミングコンテンツを含む。
パケットの取得および転送
パケットの取得プロセスにおける第1の段階は、パネリスト家庭にあるストリーミング対応デバイスを発見する段階である。このプロセスは、モジュール1702が、ストリーミング対応デバイス1706によってブロードキャストされるmDNSパケットをリッスンする際に実行される。また、この発見プロセスは、ストリーミングデバイスのIPを得る。一実施形態において、ストリーミングデバイスのIPが取得されると、そのストリーミングデバイスのMACアドレスはARPテーブルにおけるルックアップを通じて取得される。一実施形態において、パケットの取得または方向転換処理は、ARP偽装を使用して開始される。これは、イーサネット(登録商標)プロトコルの特徴を活用し、それに従って、ネットワーク上の各ホストが他のホストと通信するために、他のホストのMACアドレスを知っていなければならない。これらのホストが他のホストのMACアドレスを発見する唯一の方法は、他のホストにMACアドレスを尋ね、他のホストが返信したものが正確であることを信じることである。本明細書で説明したようなパケット方向転換処理を使用して、パケット検査部1706は、ローカルデバイス105のMACアドレスがインターネットゲートウェイ1708のものであると対象ストリーミングに確信させる。ここで、対象ストリーミングデバイス1706は、ローカルデバイス105のMACが実際にはインターネットゲートウェイ1708のMACアドレスであると確信しているので、インターネットゲートウェイ1708に向けられた全てのパケットを代わりにローカルデバイス105に送信する。このように、ローカルデバイス105上で実行しているモジュール1702は、ストリーミングデバイス1706から出ていく全てのパケットを検査し得る。モジュール1702はパケットを検査したと、それを家庭内のインターネットゲートウェイ1708に転送する。特に、1秒間に複数の映像フレームに対してコンピュータビジョンアルゴリズムを実行し、パケットヘッダを検査し、いくつかの場合において、コンテンツも検査するような高度な計算集約型のタスクを常に実行しているローカルデバイス105を介して、発信パケットに余分のホップを導入することにより、ストリーミングデバイス1706からのアウトバンドパケットの遅延が増加する可能性がある。この遅延は、パケット再送を引き起こし得、さらに最終的にはストリーミングデバイス1706がストリームの再生を継続するのに十分なデータを持たないという結果をもたらす。図18を参照して、カーネル1804は図示されている。カーネル1804はデバイスソフトウェア105の一部である。このような上述の遅延シナリオの発生を防止するために、1804に示すカーネルソフトウェアを含むデバイス105ソフトウェアは、(一実施形態においては)XDP(Extended Data Path)技術を活用する。これにより、モジュール1702を含むデバイス105のソフトウェアは、パケットがTCPスタックを横断する前に、受信パケットを解析し、カーネル1804内で必要なデータを正しく収集することができる。TCPスタックを横断する代わりに、パケットは、カーネル1804から直接インターネットゲートウェイに転送される。その結果、これらのパケットは、ユーザ空間1802のコードによって処理される必要がない。パケットを検査する手段としてXDPを使用することで、TCPスタックを横断し、またはデータをユーザアドレス空間に渡したりするオーバーヘッドを回避する。このパケット検査の手法は非常に効果的で、デバイス105のソフトウェアは、ストリームの品質に有害な影響を引き起こすことなく、複数のストリーミングデバイス1706からのパケットを同時に監視することができる。パケットデータの高速観測のための重要な改善点は、カーネルデータ構造内に集約されたデータを保持し、ユーザ空間プログラムが所与の頻度、通常1秒でカーネルをポーリングし、それらのデータポイントの最新値を収集することである。ユーザ空間1802プログラムは、各データポイントについて収集した前値と、カーネルから読み取った新しい値とを使用して、前回カーネルをポーリングしたときからそのデータポイントについての値のデルタを判断することができる。この方法は、ユーザ空間プログラムが全ての受信パケットからのデータを観測する必要を回避する。集約されたデータの一例は、ストリーミングデバイスから特定のIPおよびポートへのアウトバンドであるパケットのカウントである。再び図18を参照すると、カーネル1804のXDPフックが、段階(1)で受信パケットデータを読み取る。パケットヘッダを見ることによって、XDPフックは、パケットがゲートウェイ1708のためのものであるか、またはローカルデバイス105が確かにパケットの意図された受信先であるかどうかを判断する。ローカルデバイス105が意図された受信先である場合、XDPフックはデータを通常のTCPスタック上に設置し、最終的には意図されたユーザプロセスへパケットを配信する。しかしながら、パケットが代わりにゲートウェイ1708向けである場合、XDPプログラムはまずそのカーネルデータ構造内のデータを更新し、次にアウトバンドMACアドレスをインターネットゲートウェイ1708のMACアドレスに変更し、パケットをTX(送信)キューに乗せる。
データ収集
ほとんどのパケットコンテンツは暗号化されているため、モジュール1702は以下のデータポイントに着目し、各パケットから抽出する。
パケットがTCPパケットであるが、TLSハンドシェイクパケットでない場合、抽出される情報は
送信先IP
ソースポート
送信先ポート
を含み、
パケットがTCPパケットであり、「client hello」TLSハンドシェイクパケットであると、ソフトウェアは、
送信先IP
ソースポート
送信先ポート
サーバ拡張からのサーバ名
を抽出し、
パケットがUDPパケットであり、送信先が標準DNSポートであると、ソフトウェアは、パケットがDNSの名前問い合わせを含み、
検索中のサーバ名
を抽出すると仮定する。上述したデータは、モジュール1702による参加でローカルデバイス105によって収集される。このデータはその後にローカルデバイス105によってリモートデータ処理サーバ170にアップロードされる。一実施形態において、アップロードされたデータの処理は、逆DNSの検索を実行することによって各IPをその自体の組織にマッピングする段階を含む。例えば、逆DNSの検索は、当該IPがhulu.comなどのストリーミングサービス、またはAkamaiなどのCDNサービスに属していることを示してよい。IPが、IPを所有する組織名に置き換えられたと、
様々なサービスへの全てのアウトバンドパケットの秒数
DNS検索の秒数
TLS接続が確立されたサーバ名
を含むデータは事前に訓練された予測モデルに供給される。そして、このモデルは、特定の家庭でデバイス1706を使用してコンテンツがストリーミングされた1秒ごとに、ストリーミングデバイス、ストリーミングサービス、およびストリーミングアプリの状態(前述のとおり)を判断する。
本明細書では様々な発明的実施形態が説明および図示されたが、当業者であれば、本明細書に記載の機能を実行、および/または結果並びに/若しくは利点のうちの1つまたは複数を得るための様々な他の手段および/または構造を容易に想到し、このような変形および/または修正のうちの各々は、本明細書に記載の発明的実施形態の範囲内にあるとみなされるであろう。より一般的には、当業者は、本明細書に記載された全てのパラメータ、寸法、材料、および構成が例示的なものであることを意味し、実際のパラメータ、寸法、材料、および/または構成は、本発明の教示が用いられる/用いられる特定の用途またはアプリケーションに依存するであろうことを容易に理解するであろう。当業者は、わずかな通常の実験を使用して、本明細書に記載の複数の特定の発明の実施形態と同等の多くのことを認識し、または解明できるようになるだろう。したがって、前述の実施形態は例示としてのみ提示されており、添付の特許請求の範囲およびその均等物の範囲内で、発明的実施形態は、具体的に説明および主張されたものとは別に実施され得ることを理解されたい。本開示の複数の発明の実施形態は、本明細書に記載の個々の特徴、システム、物品、材料、キット、および/または方法を対象とする。また、このような特徴、システム、物品、材料、キット、および/または方法が相互に矛盾しないのであれば、2つ以上のこのような特徴、システム、物品、材料、キット、および/または方法の任意の組み合わせが、本開示の発明範囲内に含まれる。
上記の実施形態は、多数の方法のうちのいずれに実装され得る。例えば、本明細書に開示された技術の設計および製造の実施形態は、ハードウェア、ソフトウェア、またはそれらの組み合わせを使用して実装することができる。ソフトウェアで実装された場合、ソフトウェアコードは、単一のコンピュータに提供されているか、または複数のコンピュータに分散されているかに関わらず、任意の適切なプロセッサまたはプロセッサの集合体で実行することができる。
さらに、コンピュータは、ラックマウントコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、またはタブレットコンピュータなど、多数の形態のいずれかで具現化され得ることを理解されたい。さらに、コンピュータは、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)、スマートフォン、またはその他の適切な携帯型若しくは固定型の電子デバイスなど、一般にコンピュータとみなされないが適切な処理能力を有するデバイスに組み込まれてもよい。
また、コンピュータは1つまたは複数の入力デバイスおよび出力デバイスを持つことがある。これらのデバイスは、とりわけ、本発明のユーザインタフェースに使用され得る。ユーザインタフェースを提供することに使用できる出力デバイスの例としては、出力の視覚的表現のためのプリンタまたはディスプレイスクリーン、出力の聴覚的表現のためのスピーカまたは他のサウンド生成デバイスが挙げられる。ユーザインタフェースに使用できる入力デバイスの例としては、キーボード、およびマウス、タッチパッド、デジタル化タブレットなどのポインティングデバイスが挙げられる。別の例として、コンピュータは、スピーチ認識または他の可聴形式によって入力情報を受け取ることができる。
このようなコンピュータは、企業ネットワーク、インテリジェントネットワーク(IN:intelligent network)またはインターネットなどのローカルエリアネットワークまたはワイドエリアネットワークを含む任意の適切な形態の1つまたは複数のネットワークによって相互接続されてもよい。このようなネットワークは、任意の適切な技術に基づくことができ、任意の適切なプロトコルに従って動作することができ、無線ネットワーク、有線ネットワークまたは光ファイバーネットワークを含むことができる。
本明細書で概説した様々な方法またはプロセスは、様々なオペレーティングシステムまたはプラットフォームのうちの任意の1つを採用する1つまたは複数のプロセッサ上で実行可能なソフトウェアとしてコード化することができる。さらに、このようなソフトウェアは、多数の適切なプログラミング言語および/または番組若しくはスクリプトツールのいずれかを使用して書き込まれてもよく、また、フレームワークまたは仮想マシン上で実行される実行可能な機械語コードまたは中間コードとしてコンパイルされてもよい。
この点、様々な発明概念は、1つまたは複数のコンピュータまたは他のプロセッサ上で実行されると、上述した本発明の様々な実施形態を実施する方法を実行する1つまたは複数のプログラムを符号化したコンピュータ可読記憶媒体(または複数のコンピュータ可読記憶媒体)(例えば、コンピュータメモリ、1つまたは複数のフロッピーディスク、コンパクトディスク、光ディスク、磁気テープ、フラッシュメモリ、フィールドプログラマブルゲートアレイまたは他の半導体デバイスにおける回路構成、または他の非一時的媒体または有形コンピュータ記憶媒体)として具現化することもできる。コンピュータ可読媒体または媒体は、その上に格納されたプログラムまたはプログラムを1つまたは複数の異なるコンピュータまたは他のプロセッサにロードして、上述した本発明の様々な態様を実施できるように、移動可能であることができる。
「プログラム」または「ソフトウェア」という用語は、本明細書では、上述したような実施形態の様々な態様を実装するためにコンピュータまたは他のプロセッサをプログラムするために採用することができる任意のタイプのコンピュータコードまたはコンピュータ実行可能な命令のセットを指す一般的な意味で使用されている。さらに、一態様によれば、実行されたときに本発明の方法を実行する1つまたは複数のコンピュータプログラムは、単一のコンピュータまたはプロセッサ上に存在する必要はなく、本発明の様々な態様を実施するために多数の異なるコンピュータまたはプロセッサの間でモジュール方式で分散されてもよいことを理解されたい。
コンピュータ実行可能な命令は、1つまたは複数のコンピュータまたは他のデバイスによって実行されるプログラムモジュールなど、多くの形態であってもよい。概して、プログラムモジュールには、特定のタスクを実行するか、または特定の抽象データ型を実施する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。典型的には、プログラムモジュールの機能は、様々な実施形態において所望に応じて組み合わせ、または分散させることができる。
また、データ構造は、任意の適切な形態でコンピュータ可読媒体に格納することができる。図示を簡単にするために、データ構造は、データ構造内の位置によって関連するフィールドを持つように示されていることがある。このような関係は、フィールド間の関係を示すコンピュータ可読媒体上の位置をフィールドに対するストレージに割り当てることによっても同様に達成され得る。しかしながら、データ構造のフィールドの情報間の関係を確立するために、ポインタ、タグ、またはデータ要素間の関係を確立する他のメカニズムの使用など、任意の適切なメカニズムを使用することができる。
また、様々な発明概念は、1つまたは複数の方法として具現化することができ、その例が提供されている。方法の一部として実行される複数の処理は、任意の適切な方法において順序づけられ得る。したがって、複数の実施形態は、複数の処理が図示されたのと異なる順序で実行され、また、複数の例示の実施形態において、複数の続いて起こる処理として示されていても、同時にいくつかの処理を実行することも含み得る。
本明細書で定義され使用される全ての定義は、辞書の定義、参照により組み込まれる文書における定義、および/または定義された用語の通常の意味を支配すると理解されるべきである。
本明細書において使用されるように、本明細書および特許請求の範囲で使用される不定冠詞「a」および「an」は、明確に反対の指示がない限り、「少なくとも1つ」を意味すると理解されるべきである。
本明細書において使用されるように、本明細書および特許請求の範囲で使用される「および/または」という語句は、そのように結合された要素の「いずれかまたは両方」、すなわち、ある場合には接続的に存在し、他の場合には接続的に存在する要素を意味すると理解されるべきである。「および/または(and/or)」で列挙される複数の要素は、同じ方法で、すなわち結合される複数の要素の「1つまたは複数(one or more)」と解釈されるべきである。具体的に識別された複数の要素に関連しまたは関連しなくても、「および/または(and/or)」の表現により具体的に識別された複数の要素の他に、複数の他の要素が任意選択的に存在し得る。従って、非限定的な例として、「Aおよび/またはB(A and/or B)」の言及は、「備える(comprising)」等のオープンエンド(非制限的)な文言と共に用いられる場合、ある実施形態においては、Aのみを指し(B以外の複数の要素を任意選択的に含む)、別の実施形態においては、Bのみを指し(A以外の複数の要素を任意選択的に含む)、また別の実施形態においては、AとBの両方を指す(他の要素を任意選択的に含む)等を指す。
本明細書において使用されるように、本明細書および特許請求の範囲で使用される場合、「または」は、上記で定義される「および/または」と同じ意味を有すると理解されるべきである。例えば、複数の物品をリストに分離している場合、「または(or)」または「および/または(and/or)」は、含まれるものと解釈すべきである、すなわち、多数のまたは列挙された要素および任意選択的には、列挙されていない追加の物品のうち、少なくとも1つを含むが、1つまたは複数をも含む。「only one of」若しくは「exactly one of」、または特許請求の範囲で使用される場合は「consisting of」など、明確に反対を示す用語のみが、要素の数またはリストのうち正確に1つの要素を含むことを指す。一般に、本明細書において使用されるように、用語「または(or)」は、「either」、「one of」、「only one of」、または「exactly one of」のような排他性の用語が先行する場合にのみ、排他的代替(すなわち、「one or the other but not both」)を示すものとして解釈されるものとする。特許請求の範囲において使用される場合、「Consisting essentially of」は、特許法の分野で使用される通常の意味を有するものとする。
本明細書において使用されるように、本明細書および特許請求の範囲で使用される場合、1つまたは複数の要素のリストに言及する「少なくとも1つ」という語句は、要素のリスト内の任意の要素のうちの1つまたは複数から選択される少なくとも1つの要素を意味すると理解されるべきであるが、必ずしも要素のリスト内に具体的にリストされた各々および全ての要素のうちの少なくとも1つを含む必要はなく、要素のリスト内の要素の任意の組み合わせを除外しないものとする。また、この定義により、「少なくとも1つ(at least one)」の表現が指す、複数の要素のリスト内に具体的に特定された複数の要素の他に、具体的に識別された複数の要素に関連しまたは関連しなかろうが、複数の要素が任意選択的に存在することが可能となる。従って、非限定的な例として、「AとBのうち少なくとも1つ(at least one of A and B)」(または、「AまたはBのうち少なくとも1つ(at least one of A or B)」と同じく、または「Aおよび/またはBのうち少なくとも1つ(at least one of A and/or B)」と同じく)は、ある実施形態においては少なくとも1つ、任意選択的には1よりも多くの、Aがあるが、Bが存在しない(および任意選択的に、B以外の複数の要素を含む)、別の実施形態においては、少なくとも1つ、任意選択的には1よりも多くの、Bがあるが、Aが存在しない(および任意選択的に、A以外の複数の要素を含む)、また別の実施形態では、少なくとも1つ、任意選択的には1つよりも多くの、A、1よりも多くの、B(任意選択的に複数の他の要素を含む)等を指し得る。
特許請求の範囲において、上記明細書と同様に、「comprising」、「including」、「carrying」、「having」、「containing」、「involving」、「holding」、「composed of」などの全ての経過的表現は、オープンエンドであること、すなわち、含むがこれに限定されないことを意味すると理解されるものである。ただし、 United States Patent Office Manual of Patent Examining Procedures、Section 2111.03にあるとおり、「成る(consisting of)」および「から本質的に成る(consisting essentially of)」という移行句のみが、それぞれクローズドまたはセミクローズドな移行句である。
[他の可能な項目]
[項目1]
ディスプレイに表示されている映像に対する視聴者関与度を定量化する方法であって、前記方法は、
回答者家庭における前記ディスプレイに前記映像が表示されている間に、前記ディスプレイ前方の視聴領域の画像を少なくとも1つのカメラで取得する段階であって、回答者家庭は、前記回答者家庭における1人または複数の回答者が対話することを選択した測定装置の位置である、段階と、
前記ディスプレイに結合されたスピーカによって発せられる前記映像のサウンドトラックを表す音声データをマイクロフォンで取得する段階と、
前記音声データに少なくとも部分的に基づいて、前記映像の識別情報を、前記少なくとも1つのカメラおよび前記マイクロフォンに動作可能に結合されたプロセッサで判断する段階と、
ストリーミングされたコンテンツを再生している前記家庭内のストリーミングサービスの識別をプロセッサで判断する段階と
を備える方法。
[項目2]
前記ストリーミングサービスが実行されているプラットフォームを前記プロセッサで判断する段階をさらに備える、項目1に記載の方法。
[項目3]
ストリーミングセッションが開始、終了、一時停止、および再開する時間を前記プロセッサで判断する段階をさらに備える、項目1に記載の方法。
[項目4]
前記プロセッサで、ストリーミングコンテンツを再生している家庭内のストリーミングサービスの識別を判断する段階は、前記プロセッサのパケット検査モジュールによって実行されるデータパケットリダイレクションを含む、項目1に記載の方法。
[項目5]
パケットリダイレクションは、その自体を家庭内のインターネットゲートウェイとして偽装するパケット検査モジュールを含む、項目4に記載の方法。
[項目6]
前記パケット検査モジュールは、パケットを傍受し、パケット内のコンテンツを解析する、項目5に記載の方法。
[項目7]
前記パケット内のコンテンツを解析することは、アウトバンドパケット情報を記録することと、前記パケットが傍受された時間を記録することとを含む、項目5に記載の方法。
[項目8]
前記アウトバンドパケット情報を記録した後、前記パケットをその元の宛先に転送する、項目7に記載の方法。
[項目9]
前記インターネットゲートウェイで応答パケットを受信する段階をさらに備え、前記応答パケットは前記インターネットゲートウェイを介してルーティングされず、むしろ適切なストリーミングデバイスに直接ルーティングされている、段階をさらに有する、項目8に記載の方法。
[項目10]
ディスプレイに表示した映像に対する視聴者関与度を定量化するためのシステムであって、前記システムは、
回答者家庭に常駐するローカルデバイスであって、前記ローカルデバイスは、パケット検査モジュールを含む、複数のプロセスを実行するプロセッサを有し、前記ローカルデバイスは、
回答者家庭における前記ディスプレイに前記映像が表示されている間に、前記ディスプレイ前方の視聴領域の画像を少なくとも1つのカメラで取得することであって、回答者家庭は、前記回答者家庭における1人または複数の回答者が対話することを選択した測定装置の位置である、取得することと、
前記ディスプレイに結合されたスピーカによって発せられる前記映像のサウンドトラックを表す音声データをマイクロフォンで取得することと、
前記音声データに少なくとも部分的に基づく前記映像の識別情報を、前記少なくとも1つのカメラおよび前記マイクロフォンに動作可能に結合されたプロセッサで判断することと、
ストリーミングされたコンテンツを再生している家庭内のストリーミングサービスの識別を前記プロセッサで判断する、ことと
を少なくとも含む命令を実行する、ローカルデバイスを備えるシステム。
[項目11]
実行される前記命令は、ストリーミングサービスが実行されているプラットフォームをプロセッサで判断することをさらに含む、項目10に記載のシステム。
[項目12]
前記実行される命令は、ストリーミングセッションが開始、終了、一時停止、および再開する時間を前記プロセッサで判断することをさらに含む、項目10に記載のシステム。
[項目13]
実行される前記命令は、前記プロセッサで、ストリーミングコンテンツを再生している家庭内のストリーミングサービスの識別を判断する段階をさらに含み、前記判断する段階は、前記プロセッサのパケット検査モジュールによって実行されるデータパケットリダイレクションを含む、項目10に記載のシステム。
[項目14]
パケットリダイレクションは、その自体を家庭内のインターネットゲートウェイとして偽装するパケット検査モジュールを含む、項目13に記載のシステム。
[項目15]
前記パケット検査モジュールは、パケットを傍受し、パケット内のコンテンツを解析する、項目14に記載のシステム。
[項目16]
前記パケット内のコンテンツを解析することは、アウトバンドパケット情報を記録することと、前記パケットが傍受された時間を記録することとを含む、項目15に記載のシステム。
[項目17]
前記アウトバンドパケット情報を記録した後、前記パケットをその元の宛先に転送する、項目16に記載のシステム。
[項目18]
前記インターネットゲートウェイで応答パケットを受信する段階をさらに有し、前記応答パケットは前記インターネットゲートウェイを介してルーティングされず、むしろ適切なストリーミングデバイスに直接ルーティングされている、段階をさらに有する、項目17に記載のシステム。
[項目19]
命令をその中に格納した非一時的なコンピュータ媒体であって、前記命令はプロセッサによって実行されると方法を実行し、前記方法は、
回答者家庭における前記ディスプレイに前記映像が表示されている間に、前記ディスプレイ前方の視聴領域の画像を少なくとも1つのカメラで取得する段階であって、回答者家庭は、前記回答者家庭における1人または複数の回答者が対話することを選択した測定装置の位置である、段階と、
前記ディスプレイに結合されたスピーカによって発せられる前記映像のサウンドトラックを表す音声データをマイクロフォンで取得する段階と、
前記音声データに少なくとも部分的に基づいて、前記映像の識別情報を、前記少なくとも1つのカメラおよび前記マイクロフォンに動作可能に結合されたプロセッサで判断する段階と、
前記プロセッサのパケット検査モジュールによって実行されるデータパケットリダイレクションを含む、ストリーミングされたコンテンツを再生している前記家庭内のストリーミングサービスの識別を前記プロセッサで判断する段階と
を有する、非一時的なコンピュータ媒体。
[項目20]
前記ストリーミングサービスが実行されているプラットフォームを前記プロセッサで判断する段階をさらに備える、項目19に記載の媒体。
[項目21]
ストリーミングセッションが開始、終了、一時停止、および再開する時間を前記プロセッサで判断する段階をさらに備える、項目19に記載の媒体。
[項目22]
前記プロセッサで、ストリーミングコンテンツを再生している家庭内のストリーミングサービスの識別を判断する段階は、前記プロセッサのパケット検査モジュールによって実行されるデータパケットリダイレクションを含む、項目21に記載の媒体。
[項目23]
パケットリダイレクションは、その自体を家庭内のインターネットゲートウェイとして偽装するパケット検査モジュールを含む、項目22に記載の媒体。
[項目24]
前記パケット検査モジュールは、パケットを傍受し、パケット内のコンテンツを解析する、項目23に記載の媒体。
[項目25]
前記パケット内のコンテンツを解析することは、アウトバンドパケット情報を記録することと、前記パケットが傍受された時間を記録することとを含む、項目23に記載の媒体。
[項目26]
前記アウトバンドパケット情報を記録した後、前記パケットをその元の宛先に転送する、項目25に記載の媒体。
[項目27]
前記インターネットゲートウェイで応答パケットを受信する段階をさらに有し、前記応答パケットは前記インターネットゲートウェイを介してルーティングされず、むしろ適切なストリーミングデバイスに直接ルーティングされている、段階をさらに有する、項目26に記載の媒体。

Claims (15)

  1. ディスプレイに表示されている映像に対する視聴者関与度を定量化する方法であって、前記方法は、
    回答者家庭における前記ディスプレイに前記映像が表示されている間に、前記ディスプレイの前方の視聴領域の画像を少なくとも1つのカメラで取得する段階であって、回答者家庭は、前記回答者家庭における1人または複数の回答者が対話することを選択した測定装置の位置である、段階と、
    前記ディスプレイに結合されたスピーカによって発せられる前記映像のサウンドトラックを表す音声データをマイクロフォンで取得する段階と、
    前記音声データに少なくとも部分的に基づいて、前記映像の識別情報を、前記少なくとも1つのカメラおよび前記マイクロフォンに動作可能に結合されたプロセッサで判断する段階と、
    前記プロセッサのパケット検査モジュールによって実行されるデータパケットリダイレクションを含む、ストリーミングされたコンテンツを再生している前記回答者家庭内のストリーミングサービスの識別を前記プロセッサで判断する段階であって、前記パケット検査モジュールが、それ自体を前記回答者家庭内のインターネットゲートウェイとして偽装し、前記データパケットリダイレクションが、パケットをキャプチャすることと、前記パケット内のコンテンツを解析することとを含み、前記解析することが、ストリーミングセッションが状態を遷移する時間を含むアウトバンドパケット情報を記録することを含む、段階と
    を備える方法。
  2. 前記ストリーミングサービスによって提供されるストリーミングアプリケーションを前記プロセッサで判断する段階をさらに備える、請求項1に記載の方法。
  3. ストリーミングセッションが開始、終了、一時停止、および再開する時間を前記プロセッサで判断する段階をさらに備える、請求項1に記載の方法。
  4. 前記アウトバンドパケット情報を記録した後、前記パケットをその元の宛先に転送する、請求項1に記載の方法。
  5. 前記インターネットゲートウェイで応答パケットを受信する段階をさらに備え、前記応答パケットは前記インターネットゲートウェイを介してルーティングされず、むしろ適切なストリーミングデバイスに直接ルーティングされている、段階をさらに備える、請求項1から4のいずれか一項に記載の方法。
  6. ディスプレイに表示した映像に対する視聴者関与度を定量化するためのシステムであって、前記システムは、
    回答者家庭に常駐するローカルデバイスであって、前記ローカルデバイスは、パケット検査モジュールを含む、複数のプロセスを実行するプロセッサを有し、前記ローカルデバイスは、
    回答者家庭における前記ディスプレイに前記映像が表示されている間に、前記ディスプレイの前方の視聴領域の画像を少なくとも1つのカメラで取得することであって、回答者家庭は、前記回答者家庭における1人または複数の回答者が対話することを選択した測定装置の位置である、取得することと、
    前記ディスプレイに結合されたスピーカによって発せられる前記映像のサウンドトラックを表す音声データをマイクロフォンで取得することと、
    前記音声データに少なくとも部分的に基づく前記映像の識別情報を、前記少なくとも1つのカメラおよび前記マイクロフォンに動作可能に結合されたプロセッサで判断することと、
    前記プロセッサの前記パケット検査モジュールによって実行されるデータパケットリダイレクションを含む、ストリーミングされたコンテンツを再生している家庭内のストリーミングサービスの識別を前記プロセッサで判断することであって、前記パケット検査モジュールが、それ自体を前記家庭内のインターネットゲートウェイとして偽装し、前記データパケットリダイレクションが、パケットをキャプチャすることと、前記パケット内のコンテンツを解析することとを含み、前記解析することが、ストリーミングセッションが状態を遷移する時間を含むアウトバンドパケット情報を記録することを含む、ことと
    を少なくとも含む命令を実行する、ローカルデバイスを備えるシステム。
  7. 実行される前記命令は、前記ストリーミングサービスによって提供されるストリーミングアプリケーションを前記プロセッサで判断することをさらに含む、請求項6に記載のシステム。
  8. 実行される前記命令は、ストリーミングセッションが開始、終了、一時停止、および再開する時間を前記プロセッサで判断することをさらに含む、請求項6に記載のシステム。
  9. 前記アウトバンドパケット情報を記録した後、前記パケットをその元の宛先に転送する、請求項6に記載のシステム。
  10. 応答パケットを受信するゲートウェイをさらに備え、前記応答パケットは前記インターネットゲートウェイを介してルーティングされず、むしろ適切なストリーミングデバイスに直接ルーティングされている、請求項6から9のいずれか一項に記載のシステム。
  11. 命令を備えるコンピュータプログラムであって、前記命令はプロセッサによって実行されると方法を実行し、前記方法は、
    回答者家庭におけるディスプレイに映像が表示されている間に、前記ディスプレイの前方の視聴領域の画像を少なくとも1つのカメラで取得する段階であって、回答者家庭は、前記回答者家庭における1人または複数の回答者が対話することを選択した測定装置の位置である、段階と、
    前記ディスプレイに結合されたスピーカによって発せられる前記映像のサウンドトラックを表す音声データをマイクロフォンで取得する段階と、
    前記音声データに少なくとも部分的に基づいて、前記映像の識別情報を、前記少なくとも1つのカメラおよび前記マイクロフォンに動作可能に結合されたプロセッサで判断する段階と、
    前記プロセッサのパケット検査モジュールによって実行されるデータパケットリダイレクションを含む、ストリーミングされたコンテンツを再生している前記回答者家庭内のストリーミングサービスの識別を前記プロセッサで判断する段階であって、前記パケット検査モジュールが、それ自体を前記回答者家庭内のインターネットゲートウェイとして偽装し、前記データパケットリダイレクションが、パケットをキャプチャすることと、前記パケット内のコンテンツを解析することとを含み、前記解析することが、ストリーミングセッションが状態を遷移する時間を含むアウトバンドパケット情報を記録することを含む、段階と
    を有する、コンピュータプログラム。
  12. 前記ストリーミングサービスによって提供されるストリーミングアプリケーションを前記プロセッサで判断する段階をさらに有する、請求項11に記載のコンピュータプログラム。
  13. ストリーミングセッションが開始、終了、一時停止、および再開する時間を前記プロセッサで判断する段階をさらに有する、請求項11に記載のコンピュータプログラム。
  14. 前記アウトバンドパケット情報を記録した後、前記パケットをその元の宛先に転送する、請求項11に記載のコンピュータプログラム。
  15. 前記インターネットゲートウェイで応答パケットを受信する段階をさらに有し、前記応答パケットは前記インターネットゲートウェイを介してルーティングされず、むしろ適切なストリーミングデバイスに直接ルーティングされている、段階をさらに有する、請求項11から14のいずれか一項に記載のコンピュータプログラム。
JP2022184597A 2021-12-09 2022-11-18 視聴者関与度を評価するためのシステムおよび方法 Active JP7291445B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023090934A JP2023110022A (ja) 2021-12-09 2023-06-01 視聴者関与度を評価するためのシステムおよび方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/643,565 2021-12-09
US17/643,565 US11540009B2 (en) 2016-01-06 2021-12-09 Systems and methods for assessing viewer engagement

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023090934A Division JP2023110022A (ja) 2021-12-09 2023-06-01 視聴者関与度を評価するためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP7291445B1 true JP7291445B1 (ja) 2023-06-15
JP2023087655A JP2023087655A (ja) 2023-06-23

Family

ID=84439867

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022184597A Active JP7291445B1 (ja) 2021-12-09 2022-11-18 視聴者関与度を評価するためのシステムおよび方法
JP2023090934A Pending JP2023110022A (ja) 2021-12-09 2023-06-01 視聴者関与度を評価するためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023090934A Pending JP2023110022A (ja) 2021-12-09 2023-06-01 視聴者関与度を評価するためのシステムおよび方法

Country Status (3)

Country Link
US (1) US20230319348A1 (ja)
EP (1) EP4195671A1 (ja)
JP (2) JP7291445B1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002065705A2 (en) 2001-02-09 2002-08-22 Quadriga Technology Limited Method and apparatus for distributing data
JP2007181070A (ja) 2005-12-28 2007-07-12 Shunkosha:Kk コンテンツ注目評価装置及びコンテンツ注目評価方法
JP2009268036A (ja) 2008-03-31 2009-11-12 Yamaha Corp 視聴確認システム
JP2010191723A (ja) 2009-02-18 2010-09-02 Seiko Epson Corp 位置検出方法、携帯端末及びプログラム
JP2011233119A (ja) 2010-04-30 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> 広告効果測定装置、広告効果測定方法およびプログラム
JP2012123727A (ja) 2010-12-10 2012-06-28 Hitachi Solutions Ltd 広告効果測定サーバ、広告効果測定装置、プログラム、広告効果測定システム
US20140317646A1 (en) 2013-04-18 2014-10-23 Microsoft Corporation Linked advertisements
US20150281774A1 (en) 2014-03-27 2015-10-01 Xcinex Corporation Techniques for Viewing Movies
WO2015180652A1 (en) 2014-05-29 2015-12-03 Tencent Technology (Shenzhen) Company Limited Method for acquiring interactive information, terminal, server and system
JP2019507533A (ja) 2016-01-06 2019-03-14 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7751599B2 (en) 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
US8509526B2 (en) 2010-04-13 2013-08-13 International Business Machines Corporation Detection of objects in digital images
US8528034B2 (en) * 2010-04-28 2013-09-03 Comcast Cable Communications, Llc Multi-mode modem
US9471829B2 (en) 2011-03-31 2016-10-18 Intel Corporation Method of facial landmark detection
US9872055B1 (en) * 2015-09-30 2018-01-16 The Directv Group, Inc. Method and system for preventing congestion of communication signals in a gateway device
US20190220669A1 (en) * 2018-01-12 2019-07-18 International Business Machines Corporation Content presentation based on video interaction
GB201809388D0 (en) * 2018-06-07 2018-07-25 Realeyes Oue Computer-Implemented System And Method For Determining Attentiveness of User
US11316861B2 (en) * 2019-06-27 2022-04-26 AVAST Software s.r.o. Automatic device selection for private network security

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002065705A2 (en) 2001-02-09 2002-08-22 Quadriga Technology Limited Method and apparatus for distributing data
JP2007181070A (ja) 2005-12-28 2007-07-12 Shunkosha:Kk コンテンツ注目評価装置及びコンテンツ注目評価方法
JP2009268036A (ja) 2008-03-31 2009-11-12 Yamaha Corp 視聴確認システム
JP2010191723A (ja) 2009-02-18 2010-09-02 Seiko Epson Corp 位置検出方法、携帯端末及びプログラム
JP2011233119A (ja) 2010-04-30 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> 広告効果測定装置、広告効果測定方法およびプログラム
JP2012123727A (ja) 2010-12-10 2012-06-28 Hitachi Solutions Ltd 広告効果測定サーバ、広告効果測定装置、プログラム、広告効果測定システム
US20140317646A1 (en) 2013-04-18 2014-10-23 Microsoft Corporation Linked advertisements
US20150281774A1 (en) 2014-03-27 2015-10-01 Xcinex Corporation Techniques for Viewing Movies
WO2015180652A1 (en) 2014-05-29 2015-12-03 Tencent Technology (Shenzhen) Company Limited Method for acquiring interactive information, terminal, server and system
JP2019507533A (ja) 2016-01-06 2019-03-14 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法

Also Published As

Publication number Publication date
JP2023110022A (ja) 2023-08-08
EP4195671A1 (en) 2023-06-14
JP2023087655A (ja) 2023-06-23
US20230319348A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
JP7451673B2 (ja) 視聴者エンゲージメントを評価するためのシステムおよび方法
US10346860B2 (en) Audience attendance monitoring through facial recognition
US10321173B2 (en) Determining user engagement with media content based on separate device usage
US11540009B2 (en) Systems and methods for assessing viewer engagement
US11574321B2 (en) Generating audience response metrics and ratings from social interest in time-based media
CN105229629B (zh) 用于估计对媒体内容的用户兴趣的方法、电子设备和介质
US20150020086A1 (en) Systems and methods for obtaining user feedback to media content
US11533536B2 (en) Audience attendance monitoring through facial recognition
US20090195392A1 (en) Laugh detector and system and method for tracking an emotional response to a media presentation
JP2013529408A (ja) ソーシャルネットワーク用メディアフィンガープリント
JP2019532378A (ja) シングルソースクロスプラットフォームメディア測定装置、デバイス、及び関連方法
JP7291445B1 (ja) 視聴者関与度を評価するためのシステムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230601

R150 Certificate of patent or registration of utility model

Ref document number: 7291445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150