JP6282769B2 - エンゲージメント値処理システム及びエンゲージメント値処理装置 - Google Patents
エンゲージメント値処理システム及びエンゲージメント値処理装置 Download PDFInfo
- Publication number
- JP6282769B2 JP6282769B2 JP2017091691A JP2017091691A JP6282769B2 JP 6282769 B2 JP6282769 B2 JP 6282769B2 JP 2017091691 A JP2017091691 A JP 2017091691A JP 2017091691 A JP2017091691 A JP 2017091691A JP 6282769 B2 JP6282769 B2 JP 6282769B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- face
- unit
- engagement
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 138
- 238000004364 calculation method Methods 0.000 claims description 49
- 238000000605 extraction Methods 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 44
- 230000008451 emotion Effects 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 28
- 238000004458 analytical method Methods 0.000 claims description 22
- 238000009499 grossing Methods 0.000 claims description 22
- 238000005070 sampling Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 6
- 210000000216 zygoma Anatomy 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000004209 hair Anatomy 0.000 description 4
- 230000037303 wrinkles Effects 0.000 description 4
- 102000001554 Hemoglobins Human genes 0.000 description 3
- 108010054147 Hemoglobins Proteins 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44222—Analytics of user selections, e.g. selection of programs or purchase activity
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/29—Arrangements for monitoring broadcast services or broadcast-related services
- H04H60/33—Arrangements for monitoring the users' behaviour or opinions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30076—Plethysmography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Neurosurgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Computer Graphics (AREA)
- Ophthalmology & Optometry (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
例えば、視聴者がTV番組に対し、画面を注視せずラジオのように聞き流すような視聴形態である場合には、当該番組は視聴者にとって集中した状態で視聴されていないこととなる。このような視聴形態では、TV番組に挟まれるコマーシャル(以下「CM」)の宣伝効果はあまり期待できない。
特許文献1には、TV番組に対し、視聴者がどの程度集中しているのかを「集中度」と定義し、その集中度を習得して利用する技術が開示されている。
特許文献2には、カメラで撮影したユーザの顔の画像データから短時間フーリエ変換(short-time Fourier transform、short-term Fourier transform、STFT)を用いて脈拍を検出する技術が開示されている。
特許文献3には、離散ウェーブレット変換(Discrete wavelet transform, DWT)を用いて脈拍を検出する技術が開示されている。
例えば、人がある課題に直面して、その課題を解決するために集中するという行為は、能動的な要因である。つまり、当該行為は「当該事象に集中しなければならない」という意識に起因する。これに対し、人が面白いことや楽しいこと等の事象を見て、興味を惹かれるという行為は、ある意味で受動的な要因である。つまり、当該行為は「当該事象に思わず惹かれてしまう」という感情に起因する。
また、ユーザが閲覧するコンテンツは必ずしも娯楽を対象とする内容とは限らない。学習塾等で利用される、教育や学習等に用いられるコンテンツも存在する。教育や学習等の用途に用いられるコンテンツにおいて、エンゲージメント値は重要なコンテンツの評価指標となる。ユーザが注目しないコンテンツでは、効果的な学習が期待できない。
更に、ユーザを一意に識別するユーザIDと、ユーザがコンテンツを視聴した視聴日時と、コンテンツを一意に識別するコンテンツIDと、コンテンツの再生位置を示す再生位置情報と、エンゲージメント算出部が出力するユーザのコンテンツに対するエンゲージメント値とを蓄積するデータベースとを具備する。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
一般に、エンゲージメント値処理システムは、ユーザの顔をカメラで撮影し、ユーザの顔と視線の向きを検出し、それらの向きがコンテンツを表示するディスプレイにどの程度向いているかを測定することで、ユーザのコンテンツに対するエンゲージメント値を算出する。
一方、特許文献2に示されるように、カメラで撮影したユーザの顔の画像データから、脈拍を検出する技術が知られている。しかし、顔の画像データから脈拍を検出するためには、その前提として顔の画像データのうち、脈拍を検出するために適切な領域を抽出することが必要である。本発明の実施形態に係るエンゲージメント値処理システムでは、エンゲージメント値を測定するために取得する、ユーザの顔の輪郭を示すベクトルデータを基に、脈拍を検出するために適切な領域を抽出している。
なお、本発明の実施形態におけるエンゲージメント値処理システムでは、視覚を利用するコンテンツを対象とする。したがって、音声のみのコンテンツは、本発明の実施形態に係るエンゲージメント値処理システムにおけるエンゲージメント値の測定及び利用の対象外である。
図1は、本発明の実施形態に係るエンゲージメント値処理システム101の全体像を示す概略図である。
ユーザ102はコンテンツ再生機能を有するクライアント103の表示部104に表示されているコンテンツ105を視聴する。液晶ディスプレイ等よりなる表示部104の上部には、いわゆるwebカメラと呼ばれる撮像装置106が設けられている。撮像装置106はユーザ102の顔を撮影し、画像データストリームを出力する。
クライアント103は、その内部にエンゲージメント値処理機能を有している。そして、ユーザ102のコンテンツ105に対するエンゲージメント値を含む様々な情報が、クライアント103のエンゲージメント値処理機能によって算出され、インターネット107を通じてサーバ108にアップロードされる。
図2A及び図2Bは、本発明の実施形態に係るエンゲージメント値処理システム101における、ユーザ102のエンゲージメント値の仕組みを説明する概略図である。
図2Aにおいて、ユーザ102はコンテンツ105が表示されている表示部104を注視している。表示部104のすぐ上には撮像装置106が装着されている。撮像装置106は表示部104の前に存在するユーザ102の顔を撮影可能な方向に向けられている。撮像装置106には、図示しない情報処理装置であるクライアント103(図1参照)が接続されている。クライアント103は、撮像装置106から得られる画像データから、ユーザ102の顔の向き及び/又は視線が表示部104の方向に向いているか否かを検出し、ユーザ102がコンテンツ105に注視しているか否かを、0から1まで、あるいは0から255まで、または0から1023まで等、所定の範囲を有する値のデータとして出力する。このクライアント103から出力される値がエンゲージメント値である。
このように、本実施形態に係るエンゲージメント値処理システム101は、ユーザ102の顔の向き及び/又は視線がコンテンツ105を表示している表示部104に向かっているか否かを、撮像装置106から得られる画像データから算出することができるようになっている。
図4A及び図4Bは、表示部104の種類と撮像装置106が装着される配置関係を示す図である。
図3Aは、据え置き型のLCDディスプレイ301に、外付けのUSBタイプwebカメラ302が装着されている例である。
図3Bは、ノートパソコン303のLCDディスプレイ304の枠に、webカメラ305が埋設されている例である。
図3Cは、スマートフォン等の携帯型無線端末306のLCDディスプレイ307の枠に、自分撮り用インカメラ308が埋設されている例である。
これら図3A、図3B及び図3Cに共通する点は、撮像装置106が表示部104の中心線近傍に設けられている点である。
図4Bは、図3Cに対応する、縦型の表示部104bにおける、撮像装置106の最適な配置位置の領域を示す図である。
図4Aの表示部104a、及び図4Bの表示部104b、すなわちディスプレイが横型、縦型の何れの場合でも、表示部104a及び104bの上下の辺の、中心線L402及びL404を通過する領域401a、401b、403a及び403bに撮像装置106が配置されていれば、撮像装置106は、ユーザ102の顔と視線を無調整で正しく捕捉することが可能である。
図5は、エンゲージメント値処理システム101のハードウェア構成を示すブロック図である。
クライアント103は一般的なコンピュータであり、CPU501、ROM502、RAM503、不揮発性ストレージ504、現在日時情報を出力するリアルタイムクロック(以下「RTC」)505、操作部506がバス507に接続されている。そして、エンゲージメント値処理システム101において重要な役割を持つ表示部104と撮像装置106もバス507に接続されている。
クライアント103はバス507に接続されたNIC(Network Interface Card)508を通じて、インターネット107を介してサーバ108と通信を行う。
サーバ108もまた一般的なコンピュータであり、CPU511、ROM512、RAM513、不揮発性ストレージ514、NIC515がバス516に接続されている。
次に、エンゲージメント値処理システム101のソフトウェア機能について説明する。エンゲージメント値処理システム101は、その機能の大半がソフトウェアの機能で構成されている。ソフトウェアの機能の一部には、高い負荷の演算処理を必要とするものが含まれているため、ソフトウェアを実行するハードウェアの演算処理能力によって、クライアント103で処理できる機能が異なる場合がある。
これより説明する第一の実施形態では、主にパソコン等の、比較的演算処理能力(リソース)が潤沢であるハードウェアを想定した、エンゲージメント値処理システム101のソフトウェア機能が想定されている。これに対し、後述する第二の実施形態のエンゲージメント値処理システム101では、携帯型無線端末や組み込み用途のマイコン等、低資源装置とも呼ばれる、演算処理能力が乏しいハードウェアを想定したソフトウェア機能について説明される。
撮像装置106がコンテンツ105を視聴するユーザ102の顔を撮影した画像データストリームは、顔検出処理部601に供給される。この画像データストリームを一時的に不揮発性ストレージ504等に蓄え、以降の処理をコンテンツ105の再生後に行ってもよい。
顔検出処理部601は、撮像装置106から出力される画像データストリームを時間軸上で連続する静止画として捉え、この時間軸上で連続する静止画の各画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、ユーザ102の顔の存在を検出する。そして、ユーザ102の顔だけを抽出した顔抽出画像データを出力する。
顔検出処理部601が出力する顔抽出画像データは、特徴点抽出部602に供給される。
特徴点抽出部602は、顔抽出画像データに含まれるユーザ102の顔の画像に、ポリゴン解析等の処理を施す。そして、ユーザ102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。特徴点データの詳細については図9で後述する。
特徴点抽出部602が出力する特徴点データは、クライアント103のCPU501の演算処理能力に応じて、例えば100msec等の、所定の時間間隔(サンプリングレート)で出力される。
ベクトル解析部603は、連続する2枚の顔抽出画像データに基づく特徴点データから、ユーザ102の顔の向きを示すベクトル(以下「顔方向ベクトル」)を、特徴点抽出部602と同様に、所定のサンプリングレートにて生成する。
また、ベクトル解析部603は、連続する2枚の顔抽出画像データに基づく特徴点データと、顔抽出画像データから特徴点データによって切り出した、ユーザ102の目の部分の画像データを用いて、ユーザ102の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を、特徴点抽出部602と同様に、所定のサンプリングレートにて生成する。
図7は、エンゲージメント算出部604の機能ブロック図である。
ベクトル解析部603が出力する顔方向ベクトルと視線方向ベクトルは、ベクトル加算部701に入力される。ベクトル加算部701は、顔方向ベクトルと視線方向ベクトルを加算して、注視方向ベクトルを算出する。この注視方向ベクトルは、ユーザ102がコンテンツを表示する表示部104と撮像装置106を含む3次元空間内の何処を注視しているのかを示すベクトルである。
なお、撮像装置106が表示部104の近傍から離れた場所に設置されている場合は、不揮発性ストレージ504に記憶されている初期補正値703によって、注視方向判定部702の判定処理に補正が加えられる。初期補正値703には、ユーザ102の顔と視線が表示部104に正しく向かっているか否かを検出するために、予めユーザ102の顔と視線が表示部104に正しく向かっている時の、撮像装置106から見たユーザ102の顔と視線の向きの情報が、不揮発性ストレージ504に記憶されている。
第一平滑化処理部704は、例えば現在の注視方向判定結果を含む数サンプルの移動平均を算出し、ライブエンゲージメント値を出力する。
第二平滑化処理部705が出力するエンゲージメント基礎値は、エンゲージメント演算処理部707に入力される。
また、方向別に第一のカウンタを複数持つ事で、アプリケーションに応じて、例えば手元でノートを取ることはよそ見と判定しないとする事もできる。
図9Cで後述するが、視線方向ベクトルはユーザ102の目が開いている状態で検出することができる。つまり、ユーザ102が目を瞑っていると、視線方向ベクトルは検出できなくなる。そこで、目瞑り判定部709は、ユーザ102が目を瞑っているか否かを示す、2値の目瞑り判定結果を生成する。そして、この目瞑り判定結果を、ベクトル解析部603が出力する顔方向ベクトルと視線方向ベクトルのサンプリングレートにしたがって、内蔵する2個のカウンタで計数する。
エンゲージメント演算処理部707は、エンゲージメント基礎値と、よそ見判定結果と、目瞑り判定結果に対し、アプリケーションに応じた重み付け係数710を乗算した上で加算して、最終的なエンゲージメント値を出力する。
特に、第二平滑化処理部705は、サンプル数706の設定によって無効化することもでき得る。そこで、第一平滑化処理部704と第二平滑化処理部705は、単一の平滑化処理部として上位概念でみなすことができる。
顔検出処理部601が出力する顔抽出画像データと、特徴点抽出部602が出力する特徴点データは、脈拍検出領域抽出部605にも供給される。
脈拍検出領域抽出部605は、顔検出処理部601から出力される顔抽出画像データと、特徴点抽出部602が出力する特徴点データに基づいて、ユーザ102の顔の一部に相当する画像データの切り出しを実行し、得られた部分画像データを脈拍算出部606へ出力する。詳細は図10にて後述するが、脈拍検出領域抽出部605は、ユーザ102の顔のうち、目の直下、頬骨に該当する領域を、脈拍を検出するための領域として画像データの切り出しを行う。脈拍を検出するための領域としては、唇、眉間の少し上、頬骨付近などが考えられるが、本実施形態では髭や髪の毛に隠れて皮膚が見えない可能性の低い頬骨付近の場合を用いて説明する。なお、脈拍の検出領域を決定する手法は、様々な応用が考えられる。例えば、唇や、眉間の少し上でも構わない。更に、唇・眉間直上・頬骨付近等の複数の候補領域を解析できるようにして、唇が髭に隠れているようであれば次の候補(例えば眉間直上)、次の候補も隠れているようであればその次の候補(頬骨付近)のようにして、順次候補を絞り込んで、適切な切出し領域を決めるという方法でも構わない。
血液に含まれるヘモグロビンは、緑色の光を吸収する特性を有することが知られている。周知のパルスオキシメータは、このヘモグロビンの特性を利用して、皮膚に緑色の光を照射して、反射光を検出し、その強度変化を基に脈拍を検出する。脈拍算出部606もこのヘモグロビンの特性を利用する点については同じである。但し、検出する根拠となるデータが画像データである点が、パルスオキシメータと異なる。
感情推定部607は、特徴点抽出部602が生成する特徴点データを、特徴量616を参照して、例えばベイズ推定やサポートベクタマシン等の教師あり学習アルゴリズムを用いて、ユーザ102が平常時の表情からどの様に表情が変化したか否か、すなわちユーザ102の感情を推定する。
一方、ユーザ102は表示部104に表示される所定のコンテンツ105を視聴している。コンテンツ105は、ネットワークストレージ609からインターネット107を通じて、あるいはローカルストレージ610から、コンテンツ再生処理部611に供給される。コンテンツ再生処理部611は、操作部506の操作情報にしたがってコンテンツ105を再生して表示部104に表示する。また、コンテンツ再生処理部611は、コンテンツ105を一意に識別するコンテンツIDと、コンテンツ105の再生位置を示す再生位置情報を入出力制御部608に出力する。
ここで、コンテンツ105の再生位置情報は、コンテンツ105の種類によってその内容が異なる。例えば、コンテンツ105が動画データであれば、再生時間情報に相当する。また、コンテンツ105がプレゼンテーション資料やゲーム等のデータやプログラムであれば、「ページ」、「シーン番号」、「章」、「節」等の、コンテンツ105を区分けする情報に相当する。
図8は、本発明の第二の実施形態に係るエンゲージメント値処理システム801のソフトウェア機能を示すブロック図である。
図8に示す、本発明の第二の実施形態に係るエンゲージメント値処理システム801において、図6に示した本発明の第一の実施形態に係るエンゲージメント値処理システム101との相違点は、以下の4点である。
(2)脈拍算出部606が、脈拍検出領域抽出部605が生成する部分画像データから、緑色の成分を抜粋し、ピクセル毎の輝度の平均値を算出する輝度平均値算出部803に置換されていること。
(3)上記(1)及び(2)によって、入出力制御部804が生成する送信データ805として、脈拍データの代わりに輝度平均値が送信され、エンゲージメント値及び感情データの代わりに特徴点データが送信されること。
(4)上記(3)によって、サーバ802のデータベース806には、ユーザIDフィールド、視聴日時フィールド、コンテンツIDフィールド、再生位置情報フィールド、輝度平均値フィールド及び特徴点フィールドを有する図示しないテーブルが作成され、送信データ805が蓄積されること。
そして、第二の実施形態のサーバ802のデータベース806も、最終的には第一の実施形態のデータベース614と同様に、ユーザID612、視聴日時、コンテンツID、再生位置情報、脈拍データ、エンゲージメント値、感情データが蓄積される。
また、エンゲージメント算出部604が演算処理の際に参照する、クライアント103の表示部104の大きさと、撮像装置106の設置位置等の情報は、ユーザID612に紐付けて、予めクライアント103からサーバ802へ送信し、サーバ802のデータベース806に保持する必要がある。
顔検出処理部601、特徴点抽出部602、そしてベクトル解析部603の動作について、以下に説明する。
図9Aは、撮像装置106から出力される画像データストリームの一例を示す概略図である。図9Bは、顔検出処理部601が出力する顔抽出画像データの一例を示す概略図である。図9Cは、特徴点抽出部602が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置106からユーザ102を含む画像データストリームがリアルタイムで出力される。これが図9Aの画像データP901である。
次に、顔検出処理部601は、撮像装置106から出力される画像データP901から、例えばViola−Jones法等の周知のアルゴリズムを用いて、ユーザ102の顔の存在を検出する。そして、ユーザ102の顔だけを抽出した顔抽出画像データを出力する。これが図9Bの顔抽出画像データP902である。
そして、特徴点抽出部602は、顔抽出画像データP902に含まれるユーザ102の顔の画像に、ポリゴン解析等の処理を施す。そして、ユーザ102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図9Cの特徴点データP903である。この特徴点データP903は、二次元空間内における座標情報を有する特徴点の集合体で構成される。
また、目の輪郭に対する瞳の配置は、ユーザ102の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部603は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。次に、ベクトル解析部603はこれら顔方向ベクトルと視線方向ベクトルを加算する。つまり、ユーザ102が顔をどちらに向け、更に視線をどちらに向けているのかを知るために顔方向ベクトルと視線方向ベクトルを加算して、最終的にユーザ102が表示部104と撮像装置106を含む3次元空間内の何処を注視しているのかを示す、注視方向ベクトルを算出する。更に、ベクトル解析部603は注視方向ベクトルの、時間軸上の変動量であるベクトル変動量も算出する。
目瞑りの判定処理は、上述の他、目の画像を直接認識する等の方法もあり、アプリケーションが求める必要な精度に応じて適宜変更可能である。
図10は、脈拍検出領域抽出部605が、ユーザ102の顔の画像データから部分画像データとして切り出す領域を模式的に示す図である。
特許文献2にも記載されているが、顔の肌の色から脈拍を正しく検出するためには、顔の画像データのうち、目、鼻の穴、唇、頭髪や髭等の、肌の色とは無関係な要素をできる限り排除する必要がある。特に、目は動きが激しく、また瞼を閉じたり開いたりすることで、画像データ中に瞳が存在したり存在しなかったりという、短時間に急激な輝度の変化が起きるので、輝度の平均値を算出する際に悪影響を及ぼす。また、個人差があるものの、頭髪と髭の存在は肌の色の検出を大きく阻害する。
以上のことを考慮すると、図10に示すように、目の下の領域1001a及び1001bが、目、頭髪、髭の存在によって影響を受け難い、比較的安定して肌の色を検出可能な領域の一例である。
本発明の実施形態に係るエンゲージメント値処理システム101では、ユーザ102の顔をベクトル化し、ユーザ102の顔を認識する機能を有しているので、脈拍検出領域抽出部605は、顔特徴点から目の下の領域の座標情報を算出することが実現できる。
図11は、感情推定部607が実施する、感情の分類を説明する概略図である。
ポール・エクマン(Paul Ekman)によれば、人間はどのような言語圏や文化圏に属していても、普遍的な感情を有しているとされる。またエクマンによる感情の分類は、「エクマンの基本6情動」とも呼ばれる。平常時の無表情(F1101)に対し、驚き(F1102)、恐怖(F1103)、嫌悪(F1104)、怒り(F1105)、喜び(F1106)、悲しみ(F1107)の6感情において、人間の表情は変化する。表情の変化は、顔特徴点の変化となって現れる。感情推定部607は、時間軸上における、顔特徴点の相対的な変動を検出し、これをエクマンの基本6情動にしたがって、コンテンツ105の再生位置情報または視聴日時におけるユーザ102の表情が、どの感情に属するのかを推定する。
エンゲージメント値は、コンテンツの再生状態を制御する情報としても有用である。
図12は、本発明の第三の実施形態に係るエンゲージメント値処理装置1201のハードウェア構成を示すブロック図である。
図12に示すエンゲージメント値処理装置1201のハードウェア構成は、図5に示す本発明の第一の実施形態に係るエンゲージメント値処理システム101のクライアント103と同一である。このため、同一の構成要素には同一の符号を付して、その説明を省略する。
エンゲージメント値処理装置1201は、本発明の第一の実施形態に係るエンゲージメント値処理システム101とは異なり、スタンドアロンの構成である。しかし、必ずしもスタンドアロンの構成でなければならない訳ではなく、必要に応じて第一の実施形態と同様に、算出したエンゲージメント値等をサーバ108へアップロードしてもよい。
図13は、本発明の第三の実施形態に係るエンゲージメント値処理装置1201のソフトウェア機能を示すブロック図である。図13に示すエンゲージメント値処理装置1201のうち、図6に示す第一の実施形態に係るエンゲージメント値処理システム101と同じ機能ブロックには、同一の符号を付して説明を省略する。なお、図13のエンゲージメント算出部604は、第一の実施形態に係るエンゲージメント値処理システム101のエンゲージメント算出部604と同一の機能を有するので、図7に示すエンゲージメント算出部604と同じ機能ブロックにて構成される。
図13に示すエンゲージメント値処理装置1201の、図6に示す第一の実施形態に係るエンゲージメント値処理システム101との相違点は、入出力制御部1301に再生制御部1302が含まれていることと、コンテンツ再生処理部1303が再生制御部1302の制御情報に基づいて、コンテンツの再生/停止/再生速度の変更を実行する点である。
すなわち、ユーザ102のコンテンツに対する集中の度合いを、コンテンツの再生速度及び再生状態に反映している。
ユーザ102がコンテンツに対して集中していない(エンゲージメント値が低い)状態では再生を一時停止することで、ユーザ102がコンテンツを確実に閲覧できるようにする。逆に、ユーザ102がコンテンツに対して集中している(エンゲージメント値が高い)状態では、再生速度を高めることで、ユーザ102がより早くコンテンツを閲覧できるようにする。
この再生速度変更機能は、特に学習コンテンツに対して有用である。
再生制御部1302は、エンゲージメント算出部604から出力されるエンゲージメント値を、複数の所定の閾値と比較して、コンテンツ再生処理部1303に対し、コンテンツの再生または一時停止、そしてコンテンツを再生するときにはその再生速度を指示する。
図14では一例として、
・ユーザ102のエンゲージメント値が30%未満になったらコンテンツの再生を一時停止し、
・ユーザ102のエンゲージメント値が30%以上40%未満になったらコンテンツを0.8倍速で再生し、
・ユーザ102のエンゲージメント値が40%以上50%未満になったらコンテンツを0.9倍速で再生し、
・ユーザ102のエンゲージメント値が50%以上60%未満になったらコンテンツを1.0倍速で再生し、
・ユーザ102のエンゲージメント値が60%以上70%未満になったらコンテンツを1.2倍速で再生し、
・ユーザ102のエンゲージメント値が70%以上80%未満になったらコンテンツを1.3倍速で再生し、
・ユーザ102のエンゲージメント値が80%以上90%未満になったらコンテンツを1.4倍速で再生し、
・ユーザ102のエンゲージメント値が90%以上になったらコンテンツを1.5倍速で再生する
ように、コンテンツ再生処理部1303の制御が行われる。
なお、再生制御部1302にて設定される閾値や再生速度は、所定のGUI(Graphical User Interface)を用いて、ユーザ102の任意で変更できることが好ましい。
表示部104近傍に設置される撮像装置106は、コンテンツ105を視聴するユーザ102の顔を撮影し、画像データストリームを出力する。この画像データストリームから、特徴点抽出部602によって顔の特徴点の集合体である特徴点データが生成される。そして、この特徴点データから、注視方向ベクトルとベクトル変動量が算出される。エンゲージメント算出部604は、これらのデータからユーザ102のコンテンツ105に対するエンゲージメント値を算出する。
一方、特徴点データは、脈拍を検出する際の、部分画像データの切り出しにも利用することができる。更に特徴点データは、ユーザ102の感情の推定にも利用できる。したがって、撮像装置106でユーザ102を撮影するだけで、コンテンツ105を視聴するユーザ102の、コンテンツ105に対するエンゲージメント値と、脈拍と、感情を同時に取得することができ、ユーザ102がどの程度注意を向けていたかのみではなく、どの程度興味をもったか等を含めて総合的にユーザ102の行動や感情を把握することができる。
例えば、上記した実施形態は本発明をわかりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、更にはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Claims (8)
- コンテンツを表示する表示部と、
前記表示部を見るユーザの顔を撮影可能な方向に設置される撮像装置と、
前記撮像装置から出力される画像データストリームから前記ユーザの顔の存在を検出し、前記ユーザの顔を抽出した顔抽出画像データを出力する顔検出処理部と、
前記顔抽出画像データから、前記ユーザの顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
前記特徴点データから、前記ユーザの顔の向きを示す顔方向ベクトルと、前記ユーザの顔における視線の向きを示す視線方向ベクトルを所定のサンプリングレートにて生成するベクトル解析部と、
前記顔方向ベクトルと前記視線方向ベクトルから、前記ユーザの前記コンテンツに対するエンゲージメント値を算出するエンゲージメント算出部と、
前記ユーザを一意に識別するユーザIDと、前記ユーザが前記コンテンツを視聴した視聴日時と、前記コンテンツを一意に識別するコンテンツIDと、前記コンテンツの再生位置を示す再生位置情報と、前記エンゲージメント算出部が出力する前記ユーザの前記コンテンツに対する前記エンゲージメント値とを蓄積するデータベースと
を具備する、エンゲージメント値処理システム。 - 前記エンゲージメント算出部は、
前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記ユーザがコンテンツを表示する前記表示部と前記撮像装置を含む3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出するベクトル加算部と、
前記注視方向ベクトルが前記表示部に向いているか否かを判定する、注視方向判定結果を出力する注視方向判定部と、
前記注視方向判定結果に対し、所定のサンプル数にて平滑化を行う、平滑化処理部と
を具備する、請求項1に記載のエンゲージメント値処理システム。 - 前記エンゲージメント算出部は更に、
前記顔方向ベクトルが前記表示部に向いているか否かを判定する、よそ見判定部と、
前記ユーザが目を瞑っているか否かを判定する、目瞑り判定部と、
前記平滑化処理部が出力するエンゲージメント基礎値と、前記よそ見判定部が出力するよそ見判定結果と、前記目瞑り判定部が出力する目瞑り判定結果とを、所定の重み付け係数にて乗算した上で加算する、エンゲージメント演算処理部と
を具備する、請求項2に記載のエンゲージメント値処理システム。 - 更に、
前記特徴点データに基づいて、前記顔抽出画像データに含まれる、前記ユーザの顔の一部に相当する画像データの切り出しを実行して、得られた部分画像データを出力する脈拍検出領域抽出部と、
前記部分画像データの、特定の色成分の輝度の時間軸上の変動量から前記ユーザの脈拍を算出する脈拍算出部と
を具備し、
前記データベースは前記脈拍算出部が出力する前記ユーザの脈拍データも蓄積する、
請求項3に記載のエンゲージメント値処理システム。 - 更に、
前記特徴点データを基に、ユーザの感情を推定する感情推定部と
を具備し、
前記データベースは、前記感情推定部が推定する前記ユーザの感情を示す感情データを蓄積する、
請求項4に記載のエンゲージメント値処理システム。 - コンテンツを再生するコンテンツ再生処理部と、
前記コンテンツを表示する表示部と、
前記表示部を見るユーザの顔を撮影可能な方向に設置される撮像装置と、
前記撮像装置から出力される画像データストリームから前記ユーザの顔の存在を検出し、前記ユーザの顔を抽出した顔抽出画像データを出力する顔検出処理部と、
前記顔抽出画像データから、前記ユーザの顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
前記特徴点データから、前記ユーザの顔の向きを示す顔方向ベクトルと、前記ユーザの顔における視線の向きを示す視線方向ベクトルを所定のサンプリングレートにて生成するベクトル解析部と、
前記顔方向ベクトルと前記視線方向ベクトルから、前記ユーザの前記コンテンツに対するエンゲージメント値を算出するエンゲージメント算出部と、
前記エンゲージメント値が所定の値の範囲にあるときには前記コンテンツを第一の再生速度で再生し、前記エンゲージメント値が前記所定の値の範囲より大きいときには前記コンテンツを前記第一の再生速度より早い第二の再生速度で再生し、前記エンゲージメント値が前記所定の値の範囲より小さいときには前記コンテンツの再生を一時停止するべく前記コンテンツの再生を制御する再生制御部と
を具備する、エンゲージメント値処理装置。 - 前記エンゲージメント算出部は、
前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記ユーザがコンテンツを表示する前記表示部と前記撮像装置を含む3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出するベクトル加算部と、
前記注視方向ベクトルが前記表示部に向いているか否かを判定する、注視方向判定結果を出力する注視方向判定部と、
前記注視方向判定結果に対し、所定のサンプル数にて平滑化を行う、平滑化処理部と
を具備する、請求項6に記載のエンゲージメント値処理装置。 - 前記エンゲージメント算出部は更に、
前記顔方向ベクトルが前記表示部に向いているか否かを判定する、よそ見判定部と、
前記ユーザが目を瞑っているか否かを判定する、目瞑り判定部と、
前記平滑化処理部が出力するエンゲージメント基礎値と、前記よそ見判定部が出力するよそ見判定結果と、前記目瞑り判定部が出力する目瞑り判定結果とを、所定の重み付け係数にて乗算した上で加算する、エンゲージメント演算処理部と
を具備する、請求項7に記載のエンゲージメント値処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106120932A TW201810128A (zh) | 2016-06-23 | 2017-06-22 | 吸引程度值處理系統及吸引程度值處理裝置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124611 | 2016-06-23 | ||
JP2016124611 | 2016-06-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005892A JP2018005892A (ja) | 2018-01-11 |
JP6282769B2 true JP6282769B2 (ja) | 2018-02-21 |
Family
ID=60783447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017091691A Expired - Fee Related JP6282769B2 (ja) | 2016-06-23 | 2017-05-02 | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190340780A1 (ja) |
JP (1) | JP6282769B2 (ja) |
KR (1) | KR20190020779A (ja) |
CN (1) | CN109416834A (ja) |
TW (1) | TW201810128A (ja) |
WO (1) | WO2017221555A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6872742B2 (ja) * | 2016-06-30 | 2021-05-19 | 学校法人明治大学 | 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム |
JP7075237B2 (ja) * | 2018-02-23 | 2022-05-25 | ラピスセミコンダクタ株式会社 | 操作判定装置及び操作判定方法 |
KR102479049B1 (ko) * | 2018-05-10 | 2022-12-20 | 한국전자통신연구원 | 주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법 |
KR102073940B1 (ko) * | 2018-10-31 | 2020-02-05 | 가천대학교 산학협력단 | 스마트 단말을 이용한 ar hmd의 통합 인터페이스를 구축하는 장치 및 방법 |
JP2020086921A (ja) * | 2018-11-26 | 2020-06-04 | アルパイン株式会社 | 画像処理装置 |
US11933974B2 (en) * | 2019-02-22 | 2024-03-19 | Semiconductor Energy Laboratory Co., Ltd. | Glasses-type electronic device |
KR102333976B1 (ko) * | 2019-05-24 | 2021-12-02 | 연세대학교 산학협력단 | 사용자 인식 기반의 영상 제어 장치 및 그 동작방법 |
KR102204743B1 (ko) * | 2019-07-24 | 2021-01-19 | 전남대학교산학협력단 | 시선 움직임 분석에 의한 감정 인식 장치 및 방법 |
JP6945693B2 (ja) * | 2019-08-31 | 2021-10-06 | グリー株式会社 | 動画再生装置、動画再生方法、及び動画配信システム |
CN111597916A (zh) * | 2020-04-24 | 2020-08-28 | 深圳奥比中光科技有限公司 | 一种专注度检测方法、终端设备及系统 |
US11381730B2 (en) * | 2020-06-25 | 2022-07-05 | Qualcomm Incorporated | Feature-based image autofocus |
CN111726689B (zh) * | 2020-06-30 | 2023-03-24 | 北京奇艺世纪科技有限公司 | 一种视频播放控制方法及装置 |
JP7503308B2 (ja) | 2020-12-15 | 2024-06-20 | 株式会社Fact4 | コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム |
WO2023032057A1 (ja) * | 2021-08-31 | 2023-03-09 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
KR102621990B1 (ko) * | 2021-11-12 | 2024-01-10 | 한국전자기술연구원 | 영상 기반의 생체 및 행태 데이터 통합 검출 방법 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10216096A (ja) | 1997-02-04 | 1998-08-18 | Matsushita Electric Ind Co Ltd | 生体信号解析装置 |
JP2003111106A (ja) | 2001-09-28 | 2003-04-11 | Toshiba Corp | 集中度取得装置並びに集中度を利用した装置及びシステム |
US6937745B2 (en) * | 2001-12-31 | 2005-08-30 | Microsoft Corporation | Machine vision system and method for estimating and tracking facial pose |
JP3797253B2 (ja) * | 2002-03-14 | 2006-07-12 | 日産自動車株式会社 | 視線方向検出装置 |
JP2006277192A (ja) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | 映像表示システム |
JP2007036846A (ja) * | 2005-07-28 | 2007-02-08 | Nippon Telegr & Teleph Corp <Ntt> | 動画再生装置およびその制御方法 |
US20110267374A1 (en) * | 2009-02-05 | 2011-11-03 | Kotaro Sakata | Information display apparatus and information display method |
CN102301316B (zh) * | 2009-12-14 | 2015-07-22 | 松下电器(美国)知识产权公司 | 用户界面装置以及输入方法 |
JP5755483B2 (ja) * | 2011-04-05 | 2015-07-29 | 日立マクセル株式会社 | 自動録画機能を有する映像表示装置および録画装置並びに自動録画方法 |
JP2013070155A (ja) * | 2011-09-21 | 2013-04-18 | Nec Casio Mobile Communications Ltd | 動画スコアリングシステム、サーバ装置、動画スコアリング方法、動画スコアリングプログラム |
JP5771127B2 (ja) * | 2011-11-15 | 2015-08-26 | 日本放送協会 | 注目度推定装置およびそのプログラム |
US9100685B2 (en) * | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US20140078039A1 (en) * | 2012-09-19 | 2014-03-20 | United Video Properties, Inc. | Systems and methods for recapturing attention of the user when content meeting a criterion is being presented |
US20140258268A1 (en) * | 2013-03-11 | 2014-09-11 | United Video Properties, Inc. | Systems and methods for browsing content stored in the viewer's video library |
JP6236875B2 (ja) * | 2013-05-24 | 2017-11-29 | 富士通株式会社 | コンテンツ提供プログラム,コンテンツ提供方法及びコンテンツ提供装置 |
KR20150062647A (ko) * | 2013-11-29 | 2015-06-08 | 삼성전자주식회사 | 영상처리장치 및 그 제어방법 |
JP6393984B2 (ja) | 2013-12-19 | 2018-09-26 | 富士通株式会社 | 脈拍計測装置、脈拍計測方法及び脈拍計測プログラム |
JP2016063525A (ja) * | 2014-09-22 | 2016-04-25 | シャープ株式会社 | 映像表示装置及び視聴制御装置 |
KR20170136160A (ko) * | 2016-06-01 | 2017-12-11 | 주식회사 아이브이티 | 시청자 몰입도 평가 시스템 |
-
2017
- 2017-05-02 KR KR1020197001899A patent/KR20190020779A/ko unknown
- 2017-05-02 WO PCT/JP2017/017260 patent/WO2017221555A1/ja active Application Filing
- 2017-05-02 JP JP2017091691A patent/JP6282769B2/ja not_active Expired - Fee Related
- 2017-05-02 US US16/311,025 patent/US20190340780A1/en not_active Abandoned
- 2017-05-02 CN CN201780038108.1A patent/CN109416834A/zh active Pending
- 2017-06-22 TW TW106120932A patent/TW201810128A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
KR20190020779A (ko) | 2019-03-04 |
TW201810128A (zh) | 2018-03-16 |
CN109416834A (zh) | 2019-03-01 |
US20190340780A1 (en) | 2019-11-07 |
WO2017221555A1 (ja) | 2017-12-28 |
JP2018005892A (ja) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6282769B2 (ja) | エンゲージメント値処理システム及びエンゲージメント値処理装置 | |
US11056225B2 (en) | Analytics for livestreaming based on image analysis within a shared digital environment | |
US11430260B2 (en) | Electronic display viewing verification | |
US20200023157A1 (en) | Dynamic digital content delivery in a virtual environment | |
US10423512B2 (en) | Method of collecting and processing computer user data during interaction with web-based content | |
David-John et al. | A privacy-preserving approach to streaming eye-tracking data | |
KR101741352B1 (ko) | 데이터 및 오디오/비디오 콘텐츠의 전달을 제어하는 관심도 평가 | |
US20190034706A1 (en) | Facial tracking with classifiers for query evaluation | |
US10108852B2 (en) | Facial analysis to detect asymmetric expressions | |
US9329677B2 (en) | Social system and method used for bringing virtual social network into real life | |
US20160191995A1 (en) | Image analysis for attendance query evaluation | |
US20160144278A1 (en) | Affect usage within a gaming context | |
US20130151333A1 (en) | Affect based evaluation of advertisement effectiveness | |
US9013591B2 (en) | Method and system of determing user engagement and sentiment with learned models and user-facing camera images | |
JP2003189219A (ja) | デジタル画像系列の表示システム及び表示方法 | |
US20150186912A1 (en) | Analysis in response to mental state expression requests | |
US20150339539A1 (en) | Method and system for determining concentration level of a viewer of displayed content | |
Sundstedt et al. | Visual attention and gaze behavior in games: An object-based approach | |
Nakano et al. | Blink synchronization is an indicator of interest while viewing videos | |
Hu | Gaze analysis and prediction in virtual reality | |
JP6583996B2 (ja) | 映像評価装置、及びプログラム | |
Leroy et al. | Second screen interaction: an approach to infer tv watcher's interest using 3d head pose estimation | |
Zhu et al. | Eyeqoe: A novel qoe assessment model for 360-degree videos using ocular behaviors | |
Zhang et al. | Correlating speaker gestures in political debates with audience engagement measured via EEG | |
Weber et al. | A survey on databases of facial macro-expression and micro-expression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171122 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171122 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20171122 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6282769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |