JP6282769B2 - エンゲージメント値処理システム及びエンゲージメント値処理装置 - Google Patents

エンゲージメント値処理システム及びエンゲージメント値処理装置 Download PDF

Info

Publication number
JP6282769B2
JP6282769B2 JP2017091691A JP2017091691A JP6282769B2 JP 6282769 B2 JP6282769 B2 JP 6282769B2 JP 2017091691 A JP2017091691 A JP 2017091691A JP 2017091691 A JP2017091691 A JP 2017091691A JP 6282769 B2 JP6282769 B2 JP 6282769B2
Authority
JP
Japan
Prior art keywords
user
face
unit
engagement
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017091691A
Other languages
English (en)
Other versions
JP2018005892A (ja
Inventor
▲隆▼一 平出
▲隆▼一 平出
村山 正美
正美 村山
祥一 八谷
祥一 八谷
誠一 西尾
誠一 西尾
幹夫 岡崎
幹夫 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GAIA SYSTEM SOLUTIONS Inc
Original Assignee
GAIA SYSTEM SOLUTIONS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAIA SYSTEM SOLUTIONS Inc filed Critical GAIA SYSTEM SOLUTIONS Inc
Priority to TW106120932A priority Critical patent/TW201810128A/zh
Publication of JP2018005892A publication Critical patent/JP2018005892A/ja
Application granted granted Critical
Publication of JP6282769B2 publication Critical patent/JP6282769B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurosurgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Computer Graphics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータや電子機器等が利用者に提供するコンテンツに対し、利用者がコンテンツに示すエンゲージメント値に関する情報を検出して利用する、エンゲージメント値処理システム及びエンゲージメント値処理装置に関する。
テレビジョン放送(以下「TV放送」)において放送される映像コンテンツが、どれだけ視聴者に視聴されているのかを示す指標として、従来から「世帯視聴率」が用いられている。TV放送における世帯視聴率の計測は、サンプルとなる家庭に視聴率を測定するための機器を設置し、その機器が、テレビジョン受像機(以下「TV」)がオン状態で表示しているチャンネルに関する情報をほぼリアルタイムで集計拠点へ送信する。すなわち世帯視聴率とは、視聴時間と視聴チャンネルに関する情報を集計した結果であり、世帯視聴率という情報から視聴者がどのような状態で番組(映像コンテンツ)を視聴したのかはわからない。
例えば、視聴者がTV番組に対し、画面を注視せずラジオのように聞き流すような視聴形態である場合には、当該番組は視聴者にとって集中した状態で視聴されていないこととなる。このような視聴形態では、TV番組に挟まれるコマーシャル(以下「CM」)の宣伝効果はあまり期待できない。
視聴者がTV番組をどの程度集中して視聴しているのかを知るための技術が、幾つか検討されている。
特許文献1には、TV番組に対し、視聴者がどの程度集中しているのかを「集中度」と定義し、その集中度を習得して利用する技術が開示されている。
特許文献2には、カメラで撮影したユーザの顔の画像データから短時間フーリエ変換(short-time Fourier transform、short-term Fourier transform、STFT)を用いて脈拍を検出する技術が開示されている。
特許文献3には、離散ウェーブレット変換(Discrete wavelet transform, DWT)を用いて脈拍を検出する技術が開示されている。
特開2003−111106号公報 特開2015−116368号公報 特開平10−216096号公報
前述の特許文献3に示されるように、視聴者の集中度に関連して、対象となるコンテンツ(contents)は必ずしもTV番組に限らない。あらゆるコンテンツが対象となる。ここで、コンテンツとは、オンライン若しくはオフラインにて、コンピュータや電子機器を介して提供される文字列、音声、静止画像、映像(動画)、またこれらが組み合わされたプレゼンテーションやゲーム等の、対象者が理解可能な内容にて享受する情報を総称したものをいう。またこれ以降、本明細書では、コンテンツを享受及び/または利用する者を、視聴者ではなくユーザと総称する。
発明者らはこれまで集中度を測定する機器を開発してきた。そして、機器の開発の過程において、発明者らは、人がある事象に対して集中するという状態は、能動的な要因のみではなく、受動的な要因もあるということに気付いた。
例えば、人がある課題に直面して、その課題を解決するために集中するという行為は、能動的な要因である。つまり、当該行為は「当該事象に集中しなければならない」という意識に起因する。これに対し、人が面白いことや楽しいこと等の事象を見て、興味を惹かれるという行為は、ある意味で受動的な要因である。つまり、当該行為は「当該事象に思わず惹かれてしまう」という感情に起因する。
発明者らは、このように相反する意識や感情に起因する行動を「集中度」という言葉で表現することが必ずしも適切ではないと考えた。そこで発明者らは、ある対象者が、ある事象に対し、能動的または受動的な要因の如何に関わらず、注目している状態を、「エンゲージメント(Engagement)」という言葉で定義することとした。そして、発明者らは、これまで開発してきた機器を、集中度を測定する機器ではなく、エンゲージメントを測定する機器と定義付けた。
特に娯楽性の高い映像コンテンツは、ユーザに様々な感情を想起させる効果を有するものが多い。エンゲージメント値に加え、ユーザの感情を検出する生体情報を同時に取得することができれば、コンテンツの評価や改良にも利用できる、有用な情報となる。
また、ユーザが閲覧するコンテンツは必ずしも娯楽を対象とする内容とは限らない。学習塾等で利用される、教育や学習等に用いられるコンテンツも存在する。教育や学習等の用途に用いられるコンテンツにおいて、エンゲージメント値は重要なコンテンツの評価指標となる。ユーザが注目しないコンテンツでは、効果的な学習が期待できない。
本発明はかかる課題に鑑みてなされたものであり、撮像装置から得られる映像データのみを用いて、エンゲージメント値に加え、脈拍等の生体情報を同時に取得することができるエンゲージメント値処理システム及びエンゲージメント値処理装置を提供することを目的とする。
上記課題を解決するために、本発明のエンゲージメント値処理システムは、コンテンツを表示する表示部と、表示部を見るユーザの顔を撮影可能な方向に設置される撮像装置と、撮像装置から出力される画像データストリームからユーザの顔の存在を検出し、ユーザの顔を抽出した顔抽出画像データを出力する顔検出処理部と、顔抽出画像データから、ユーザの顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、特徴点データから、ユーザの顔の向きを示す顔方向ベクトルと、ユーザの顔における視線の向きを示す視線方向ベクトルを所定のサンプリングレートにて生成するベクトル解析部と、顔方向ベクトルと視線方向ベクトルから、ユーザのコンテンツに対するエンゲージメント値を算出するエンゲージメント算出部とを具備する。
更に、ユーザを一意に識別するユーザIDと、ユーザがコンテンツを視聴した視聴日時と、コンテンツを一意に識別するコンテンツIDと、コンテンツの再生位置を示す再生位置情報と、エンゲージメント算出部が出力するユーザのコンテンツに対するエンゲージメント値とを蓄積するデータベースとを具備する。
本発明により、撮像装置から得られる映像データのみを用いて、エンゲージメント値に加え、脈拍等の生体情報を同時に取得することが可能になる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施形態に係るエンゲージメント値処理システムの全体像を示す概略図である。 本発明の実施形態に係るエンゲージメント値処理システムにおける、ユーザのエンゲージメント値の仕組みを説明する概略図である。 ディスプレイの種類とカメラのバリエーションを示す図である。 横型と縦型のディスプレイにおける、カメラの最適な配置位置の領域を示す図である。 エンゲージメント値処理システムのハードウェア構成を示すブロック図である。 本発明の第一の実施形態に係るエンゲージメント値処理システムのソフトウェア機能を示すブロック図である。 エンゲージメント算出部の機能ブロック図である。 本発明の第二の実施形態に係るエンゲージメント値処理システムのソフトウェア機能を示すブロック図である。 撮像装置から出力される画像データストリームの一例を示す概略図と、顔検出処理部が出力する顔抽出画像データの一例を示す概略図と、特徴点抽出部が出力する特徴点データの一例を示す概略図である。 脈拍検出領域抽出部が、ユーザの顔の画像データから部分画像データとして切り出す領域を模式的に示す図である。 感情推定部が実施する、感情の分類を説明する概略図である。 本発明の第三の実施形態に係るエンゲージメント値処理装置のハードウェア構成を示すブロック図である。 本発明の第三の実施形態に係るエンゲージメント値処理装置のソフトウェア機能を示すブロック図である。 再生制御部がコンテンツ再生処理部に与える制御情報によって生じる、エンゲージメント値とコンテンツの再生速度の対応関係の一例を示すグラフである。
本発明の実施形態に係るエンゲージメント値処理システムは、ユーザのコンテンツに対するエンゲージメント値を測定し、これをサーバにアップロードして、様々な解析等に利用する。
一般に、エンゲージメント値処理システムは、ユーザの顔をカメラで撮影し、ユーザの顔と視線の向きを検出し、それらの向きがコンテンツを表示するディスプレイにどの程度向いているかを測定することで、ユーザのコンテンツに対するエンゲージメント値を算出する。
一方、特許文献2に示されるように、カメラで撮影したユーザの顔の画像データから、脈拍を検出する技術が知られている。しかし、顔の画像データから脈拍を検出するためには、その前提として顔の画像データのうち、脈拍を検出するために適切な領域を抽出することが必要である。本発明の実施形態に係るエンゲージメント値処理システムでは、エンゲージメント値を測定するために取得する、ユーザの顔の輪郭を示すベクトルデータを基に、脈拍を検出するために適切な領域を抽出している。
なお、本発明の実施形態におけるエンゲージメント値処理システムでは、視覚を利用するコンテンツを対象とする。したがって、音声のみのコンテンツは、本発明の実施形態に係るエンゲージメント値処理システムにおけるエンゲージメント値の測定及び利用の対象外である。
[全体構成]
図1は、本発明の実施形態に係るエンゲージメント値処理システム101の全体像を示す概略図である。
ユーザ102はコンテンツ再生機能を有するクライアント103の表示部104に表示されているコンテンツ105を視聴する。液晶ディスプレイ等よりなる表示部104の上部には、いわゆるwebカメラと呼ばれる撮像装置106が設けられている。撮像装置106はユーザ102の顔を撮影し、画像データストリームを出力する。
クライアント103は、その内部にエンゲージメント値処理機能を有している。そして、ユーザ102のコンテンツ105に対するエンゲージメント値を含む様々な情報が、クライアント103のエンゲージメント値処理機能によって算出され、インターネット107を通じてサーバ108にアップロードされる。
[エンゲージメント値について]
図2A及び図2Bは、本発明の実施形態に係るエンゲージメント値処理システム101における、ユーザ102のエンゲージメント値の仕組みを説明する概略図である。
図2Aにおいて、ユーザ102はコンテンツ105が表示されている表示部104を注視している。表示部104のすぐ上には撮像装置106が装着されている。撮像装置106は表示部104の前に存在するユーザ102の顔を撮影可能な方向に向けられている。撮像装置106には、図示しない情報処理装置であるクライアント103(図1参照)が接続されている。クライアント103は、撮像装置106から得られる画像データから、ユーザ102の顔の向き及び/又は視線が表示部104の方向に向いているか否かを検出し、ユーザ102がコンテンツ105に注視しているか否かを、0から1まで、あるいは0から255まで、または0から1023まで等、所定の範囲を有する値のデータとして出力する。このクライアント103から出力される値がエンゲージメント値である。
図2Bにおいては、ユーザ102はコンテンツ105を表示している表示部104を注視していない。撮像装置106に接続されているクライアント103は、撮像装置106から得られる画像データから、図2Aにおけるエンゲージメント値よりも低い値のエンゲージメント値を出力する。
このように、本実施形態に係るエンゲージメント値処理システム101は、ユーザ102の顔の向き及び/又は視線がコンテンツ105を表示している表示部104に向かっているか否かを、撮像装置106から得られる画像データから算出することができるようになっている。
図3A、図3B及び図3Cは、表示部104の種類と撮像装置106のバリエーションを示す図である。
図4A及び図4Bは、表示部104の種類と撮像装置106が装着される配置関係を示す図である。
図3Aは、据え置き型のLCDディスプレイ301に、外付けのUSBタイプwebカメラ302が装着されている例である。
図3Bは、ノートパソコン303のLCDディスプレイ304の枠に、webカメラ305が埋設されている例である。
図3Cは、スマートフォン等の携帯型無線端末306のLCDディスプレイ307の枠に、自分撮り用インカメラ308が埋設されている例である。
これら図3A、図3B及び図3Cに共通する点は、撮像装置106が表示部104の中心線近傍に設けられている点である。
図4Aは、図3A及び図3Bに対応する、横型の表示部104aにおける、撮像装置106の最適な配置位置の領域を示す図である。
図4Bは、図3Cに対応する、縦型の表示部104bにおける、撮像装置106の最適な配置位置の領域を示す図である。
図4Aの表示部104a、及び図4Bの表示部104b、すなわちディスプレイが横型、縦型の何れの場合でも、表示部104a及び104bの上下の辺の、中心線L402及びL404を通過する領域401a、401b、403a及び403bに撮像装置106が配置されていれば、撮像装置106は、ユーザ102の顔と視線を無調整で正しく捕捉することが可能である。
なお、撮像装置106がこれらの領域から外れる位置に設置される場合は、ユーザ102の顔と視線が表示部104に正しく向かっているか否かを検出するために、予めユーザ102の顔と視線が表示部104に正しく向かっている時の、撮像装置106から見たユーザ102の顔と視線の向きの情報を検出して、不揮発性ストレージ504(図5参照)等に記憶しておくことが好ましい。
[エンゲージメント値処理システム101:ハードウェア構成]
図5は、エンゲージメント値処理システム101のハードウェア構成を示すブロック図である。
クライアント103は一般的なコンピュータであり、CPU501、ROM502、RAM503、不揮発性ストレージ504、現在日時情報を出力するリアルタイムクロック(以下「RTC」)505、操作部506がバス507に接続されている。そして、エンゲージメント値処理システム101において重要な役割を持つ表示部104と撮像装置106もバス507に接続されている。
クライアント103はバス507に接続されたNIC(Network Interface Card)508を通じて、インターネット107を介してサーバ108と通信を行う。
サーバ108もまた一般的なコンピュータであり、CPU511、ROM512、RAM513、不揮発性ストレージ514、NIC515がバス516に接続されている。
[第一の実施形態:エンゲージメント値処理システム101のソフトウェア機能]
次に、エンゲージメント値処理システム101のソフトウェア機能について説明する。エンゲージメント値処理システム101は、その機能の大半がソフトウェアの機能で構成されている。ソフトウェアの機能の一部には、高い負荷の演算処理を必要とするものが含まれているため、ソフトウェアを実行するハードウェアの演算処理能力によって、クライアント103で処理できる機能が異なる場合がある。
これより説明する第一の実施形態では、主にパソコン等の、比較的演算処理能力(リソース)が潤沢であるハードウェアを想定した、エンゲージメント値処理システム101のソフトウェア機能が想定されている。これに対し、後述する第二の実施形態のエンゲージメント値処理システム101では、携帯型無線端末や組み込み用途のマイコン等、低資源装置とも呼ばれる、演算処理能力が乏しいハードウェアを想定したソフトウェア機能について説明される。
図6は、本発明の第一の実施形態に係るエンゲージメント値処理システム101のソフトウェア機能を示すブロック図である。
撮像装置106がコンテンツ105を視聴するユーザ102の顔を撮影した画像データストリームは、顔検出処理部601に供給される。この画像データストリームを一時的に不揮発性ストレージ504等に蓄え、以降の処理をコンテンツ105の再生後に行ってもよい。
顔検出処理部601は、撮像装置106から出力される画像データストリームを時間軸上で連続する静止画として捉え、この時間軸上で連続する静止画の各画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、ユーザ102の顔の存在を検出する。そして、ユーザ102の顔だけを抽出した顔抽出画像データを出力する。
顔検出処理部601が出力する顔抽出画像データは、特徴点抽出部602に供給される。
特徴点抽出部602は、顔抽出画像データに含まれるユーザ102の顔の画像に、ポリゴン解析等の処理を施す。そして、ユーザ102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。特徴点データの詳細については図9で後述する。
特徴点抽出部602が出力する特徴点データは、クライアント103のCPU501の演算処理能力に応じて、例えば100msec等の、所定の時間間隔(サンプリングレート)で出力される。
特徴点抽出部602が出力する特徴点データと、顔検出処理部601が出力する顔抽出画像データは、ベクトル解析部603に供給される。
ベクトル解析部603は、連続する2枚の顔抽出画像データに基づく特徴点データから、ユーザ102の顔の向きを示すベクトル(以下「顔方向ベクトル」)を、特徴点抽出部602と同様に、所定のサンプリングレートにて生成する。
また、ベクトル解析部603は、連続する2枚の顔抽出画像データに基づく特徴点データと、顔抽出画像データから特徴点データによって切り出した、ユーザ102の目の部分の画像データを用いて、ユーザ102の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を、特徴点抽出部602と同様に、所定のサンプリングレートにて生成する。
ベクトル解析部603が出力する顔方向ベクトルと視線方向ベクトルは、エンゲージメント算出部604に供給される。エンゲージメント算出部604は、顔方向ベクトルと視線方向ベクトルから、エンゲージメント値を算出する。
図7は、エンゲージメント算出部604の機能ブロック図である。
ベクトル解析部603が出力する顔方向ベクトルと視線方向ベクトルは、ベクトル加算部701に入力される。ベクトル加算部701は、顔方向ベクトルと視線方向ベクトルを加算して、注視方向ベクトルを算出する。この注視方向ベクトルは、ユーザ102がコンテンツを表示する表示部104と撮像装置106を含む3次元空間内の何処を注視しているのかを示すベクトルである。
ベクトル加算部701が算出した注視方向ベクトルは、注視方向判定部702に入力される。注視方向判定部702は、ユーザ102が注視する対象を指し示す注視方向ベクトルが表示部104に向いているか否かを判定する、2値の注視方向判定結果を出力する。
なお、撮像装置106が表示部104の近傍から離れた場所に設置されている場合は、不揮発性ストレージ504に記憶されている初期補正値703によって、注視方向判定部702の判定処理に補正が加えられる。初期補正値703には、ユーザ102の顔と視線が表示部104に正しく向かっているか否かを検出するために、予めユーザ102の顔と視線が表示部104に正しく向かっている時の、撮像装置106から見たユーザ102の顔と視線の向きの情報が、不揮発性ストレージ504に記憶されている。
注視方向判定部702が出力する2値の注視方向判定結果は、第一平滑化処理部704に入力される。注視方向判定部702が出力する注視方向判定結果には、特徴点抽出部602が生成する特徴点データに含まれるノイズに由来する外乱がしばしば発生する。このため、第一平滑化処理部704によってノイズの影響を抑え、ユーザ102の挙動に極めて近い状態を示す「ライブエンゲージメント値」を得る。
第一平滑化処理部704は、例えば現在の注視方向判定結果を含む数サンプルの移動平均を算出し、ライブエンゲージメント値を出力する。
第一平滑化処理部704が出力するライブエンゲージメント値は、第二平滑化処理部705に入力される。第二平滑化処理部705は、入力されたライブエンゲージメント値に対し、予め指定されたサンプル数706の数に基づく平滑化処理を行い、「エンゲージメント基礎値」を出力する。例えば、サンプル数706に「5」と記述されていれば、5個のライブエンゲージメント値に対して移動平均を算出する。また、平滑化処理では、加重移動平均、指数加重移動平均等の別のアルゴリズムを使用してもよい。このサンプル数706及び平滑化処理のアルゴリズムは、本発明の実施形態に係るエンゲージメント値処理システム101が適用されるアプリケーションに応じて、適切に設定される。
第二平滑化処理部705が出力するエンゲージメント基礎値は、エンゲージメント演算処理部707に入力される。
一方、顔方向ベクトルはよそ見判定部708にも入力される。よそ見判定部708は、ユーザ102の顔の向きを示す顔方向ベクトルが表示部104に向いているか否かを判定する、2値のよそ見判定結果を生成する。そして、このよそ見判定結果を、ベクトル解析部603が出力する顔方向ベクトルと視線方向ベクトルのサンプリングレートにしたがって、内蔵する2個のカウンタで計数する。
第一のカウンタは、ユーザ102がよそ見をしている判定結果を計数し、第二のカウンタは、ユーザ102がよそ見をしていない判定結果を計数する。第一のカウンタは、第二のカウンタが所定の計数値に至るとリセットされる。第二のカウンタは、第一のカウンタが所定の計数値に至るとリセットされる。第一のカウンタと第二のカウンタの論理値が、ユーザ102がよそ見をしているか否かを示す判定結果として出力される。
また、方向別に第一のカウンタを複数持つ事で、アプリケーションに応じて、例えば手元でノートを取ることはよそ見と判定しないとする事もできる。
また、視線方向ベクトルは目瞑り判定部709にも入力される。目瞑り判定部709は、ユーザ102の視線の向きを示す視線方向ベクトルが検出できているか否かを判定する、2値の目瞑り判定結果を生成する。
図9Cで後述するが、視線方向ベクトルはユーザ102の目が開いている状態で検出することができる。つまり、ユーザ102が目を瞑っていると、視線方向ベクトルは検出できなくなる。そこで、目瞑り判定部709は、ユーザ102が目を瞑っているか否かを示す、2値の目瞑り判定結果を生成する。そして、この目瞑り判定結果を、ベクトル解析部603が出力する顔方向ベクトルと視線方向ベクトルのサンプリングレートにしたがって、内蔵する2個のカウンタで計数する。
第一のカウンタは、ユーザ102が目を瞑っている判定結果を計数し、第二のカウンタは、ユーザ102が目を開いている(目を瞑っていない)判定結果を計数する。第一のカウンタは、第二のカウンタが所定の計数値に至るとリセットされる。第二のカウンタは、第一のカウンタが所定の計数値に至るとリセットされる。第一のカウンタと第二のカウンタの論理値が、ユーザ102が目を瞑っているか否かを示す判定結果として出力される。
第二平滑化処理部705が出力するエンゲージメント基礎値と、よそ見判定部708が出力するよそ見判定結果と、目瞑り判定部709が出力する目瞑り判定結果は、エンゲージメント演算処理部707に入力される。
エンゲージメント演算処理部707は、エンゲージメント基礎値と、よそ見判定結果と、目瞑り判定結果に対し、アプリケーションに応じた重み付け係数710を乗算した上で加算して、最終的なエンゲージメント値を出力する。
サンプル数706及び重み付け係数710を調整することで、エンゲージメント値処理システム101を様々なアプリケーションに対応することができる。例えば、サンプル数706を「0」に設定し、よそ見判定部708及び目瞑り判定部709に対する重み付け係数710もそれぞれ「0」に設定すれば、第一平滑化処理部704が出力するライブエンゲージメントそのものがそのままエンゲージメント値としてエンゲージメント演算処理部707から出力される。
特に、第二平滑化処理部705は、サンプル数706の設定によって無効化することもでき得る。そこで、第一平滑化処理部704と第二平滑化処理部705は、単一の平滑化処理部として上位概念でみなすことができる。
図6に戻って、エンゲージメント値処理システム101のソフトウェア機能の説明を続ける。
顔検出処理部601が出力する顔抽出画像データと、特徴点抽出部602が出力する特徴点データは、脈拍検出領域抽出部605にも供給される。
脈拍検出領域抽出部605は、顔検出処理部601から出力される顔抽出画像データと、特徴点抽出部602が出力する特徴点データに基づいて、ユーザ102の顔の一部に相当する画像データの切り出しを実行し、得られた部分画像データを脈拍算出部606へ出力する。詳細は図10にて後述するが、脈拍検出領域抽出部605は、ユーザ102の顔のうち、目の直下、頬骨に該当する領域を、脈拍を検出するための領域として画像データの切り出しを行う。脈拍を検出するための領域としては、唇、眉間の少し上、頬骨付近などが考えられるが、本実施形態では髭や髪の毛に隠れて皮膚が見えない可能性の低い頬骨付近の場合を用いて説明する。なお、脈拍の検出領域を決定する手法は、様々な応用が考えられる。例えば、唇や、眉間の少し上でも構わない。更に、唇・眉間直上・頬骨付近等の複数の候補領域を解析できるようにして、唇が髭に隠れているようであれば次の候補(例えば眉間直上)、次の候補も隠れているようであればその次の候補(頬骨付近)のようにして、順次候補を絞り込んで、適切な切出し領域を決めるという方法でも構わない。
脈拍算出部606は、脈拍検出領域抽出部605が生成する部分画像データから、緑色の成分を抜粋し、ピクセル毎の輝度の平均値を得る。そして、この平均値の変動を、例えば特許文献2等に記載されている短時間フーリエ変換、あるいは特許文献3等に記載されている離散ウェーブレット変換等を用いて、ユーザ102の脈拍を検出する。なお、本実施形態の脈拍算出部606は、ピクセル毎の輝度の平均値を得るとしているが、平均値以外にも最頻値や中央値を採用してもよい。
血液に含まれるヘモグロビンは、緑色の光を吸収する特性を有することが知られている。周知のパルスオキシメータは、このヘモグロビンの特性を利用して、皮膚に緑色の光を照射して、反射光を検出し、その強度変化を基に脈拍を検出する。脈拍算出部606もこのヘモグロビンの特性を利用する点については同じである。但し、検出する根拠となるデータが画像データである点が、パルスオキシメータと異なる。
特徴点抽出部602が出力する特徴点データは、感情推定部607にも供給される。
感情推定部607は、特徴点抽出部602が生成する特徴点データを、特徴量616を参照して、例えばベイズ推定やサポートベクタマシン等の教師あり学習アルゴリズムを用いて、ユーザ102が平常時の表情からどの様に表情が変化したか否か、すなわちユーザ102の感情を推定する。
図6に示すように、入出力制御部608には、撮像装置106から得られる画像データストリームから得られる、ユーザ102のエンゲージメント値、ユーザ102の感情を示す感情データ、ユーザ102の脈拍を示す脈拍データが供給される。
一方、ユーザ102は表示部104に表示される所定のコンテンツ105を視聴している。コンテンツ105は、ネットワークストレージ609からインターネット107を通じて、あるいはローカルストレージ610から、コンテンツ再生処理部611に供給される。コンテンツ再生処理部611は、操作部506の操作情報にしたがってコンテンツ105を再生して表示部104に表示する。また、コンテンツ再生処理部611は、コンテンツ105を一意に識別するコンテンツIDと、コンテンツ105の再生位置を示す再生位置情報を入出力制御部608に出力する。
ここで、コンテンツ105の再生位置情報は、コンテンツ105の種類によってその内容が異なる。例えば、コンテンツ105が動画データであれば、再生時間情報に相当する。また、コンテンツ105がプレゼンテーション資料やゲーム等のデータやプログラムであれば、「ページ」、「シーン番号」、「章」、「節」等の、コンテンツ105を区分けする情報に相当する。
入出力制御部608には、コンテンツ再生処理部611から、コンテンツIDと再生位置情報が供給される。更に、これらの情報に加え、入出力制御部608には、RTC505から出力される、コンテンツ視聴時点における現在日時情報、すなわち視聴日時情報と、不揮発性ストレージ504等に記憶されているユーザID612が供給される。ここで、ユーザID612とは、ユーザ102を一意に識別する情報であるが、このユーザID612はユーザ102の個人情報を保護する観点から、周知のバナー広告等に用いられる、乱数等を基に作られる匿名IDであることが好ましい。
入出力制御部608は、ユーザID612、視聴日時、コンテンツID、再生位置情報、脈拍データ、エンゲージメント値、感情データを受け取り、送信データ613を構成する。この送信データ613は、ユーザID612で一意に識別され、サーバ108のデータベース614に蓄積される。その際、データベース614にはユーザIDフィールド、視聴日時フィールド、コンテンツIDフィールド、再生位置情報フィールド、脈拍データフィールド、エンゲージメント値フィールド、感情データフィールドを有する図示しないテーブルが設けられ、送信データ613がこのテーブルに蓄積される。
なお、入出力制御部608が出力する送信データ613を、一旦RAM503または不揮発性ストレージ504に記憶して、可逆的データ圧縮処理を施してから、サーバ108へ送信してもよい。サーバ108におけるクラスタ分析処理部615等のデータ処理機能は、殆どの場合、コンテンツ105の再生と同時である必要がない。したがって、例えば、ユーザ102がコンテンツ105の視聴を終えた後から、送信データ613を圧縮したデータをサーバ108へアップロードしてもよい。
サーバ108は、多数の匿名のユーザ102がコンテンツ105を視聴した際の、再生位置情報におけるエンゲージメント値に加え、脈拍と、感情までも取得して、データベース614に蓄積することができる。ユーザ102の数が増えれば増えるほど、またコンテンツ105の数が増えれば増えるほど、データベース614のデータはクラスタ分析処理部615等の統計的解析処理に好適なビッグデータとしての利用価値が高まる。
[第二の実施形態:エンゲージメント値処理システム801のソフトウェア機能]
図8は、本発明の第二の実施形態に係るエンゲージメント値処理システム801のソフトウェア機能を示すブロック図である。
図8に示す、本発明の第二の実施形態に係るエンゲージメント値処理システム801において、図6に示した本発明の第一の実施形態に係るエンゲージメント値処理システム101との相違点は、以下の4点である。
(1)クライアント103にあったベクトル解析部603、エンゲージメント算出部604、感情推定部607及び脈拍算出部606が、サーバ802に存在すること。
(2)脈拍算出部606が、脈拍検出領域抽出部605が生成する部分画像データから、緑色の成分を抜粋し、ピクセル毎の輝度の平均値を算出する輝度平均値算出部803に置換されていること。
(3)上記(1)及び(2)によって、入出力制御部804が生成する送信データ805として、脈拍データの代わりに輝度平均値が送信され、エンゲージメント値及び感情データの代わりに特徴点データが送信されること。
(4)上記(3)によって、サーバ802のデータベース806には、ユーザIDフィールド、視聴日時フィールド、コンテンツIDフィールド、再生位置情報フィールド、輝度平均値フィールド及び特徴点フィールドを有する図示しないテーブルが作成され、送信データ805が蓄積されること。
すなわち、第二の実施形態のエンゲージメント値処理システム801は、第一の実施形態において、クライアント103に存在する機能ブロックのうち、負荷が高い演算処理の、エンゲージメント算出部604、感情推定部607及び脈拍算出部606を、サーバ802に移設している。
エンゲージメント算出部604は多数の行列演算処理を、感情推定部607は学習アルゴリズムの演算処理を、脈拍算出部606は短時間フーリエ変換あるいは離散ウェーブレット変換等を必要とするため、演算処理の負荷が高い。そこで、これらの機能ブロック(ソフトウェア機能)を、演算リソースが潤沢なサーバ802に持たせて、サーバ802上でこれらの演算処理を実行することで、クライアント103が低資源装置でもエンゲージメント値処理システム801を実現することができる。
なお、輝度平均値算出部803は、ネットワークに通すデータ量を削減するために、クライアント103の側に設けた。
そして、第二の実施形態のサーバ802のデータベース806も、最終的には第一の実施形態のデータベース614と同様に、ユーザID612、視聴日時、コンテンツID、再生位置情報、脈拍データ、エンゲージメント値、感情データが蓄積される。
また、エンゲージメント算出部604が演算処理の際に参照する、クライアント103の表示部104の大きさと、撮像装置106の設置位置等の情報は、ユーザID612に紐付けて、予めクライアント103からサーバ802へ送信し、サーバ802のデータベース806に保持する必要がある。
以上説明したように、本発明の第二の実施形態に係るエンゲージメント値処理システム801では、本発明の第一の実施形態に係るエンゲージメント値処理システム101において、クライアント103にあったエンゲージメント算出部604、感情推定部607及び脈拍算出部606をサーバ802に移設した。このため、図8に示すように、入出力制御部804から出力される送信データ805は、ユーザID612、視聴日時、コンテンツID、再生位置情報、輝度平均値、特徴点データで構成される。特徴点データは、エンゲージメント算出部604と感情推定部607が参照するデータである。輝度平均値は、脈拍算出部606が参照するデータである。
[特徴点データについて]
顔検出処理部601、特徴点抽出部602、そしてベクトル解析部603の動作について、以下に説明する。
図9Aは、撮像装置106から出力される画像データストリームの一例を示す概略図である。図9Bは、顔検出処理部601が出力する顔抽出画像データの一例を示す概略図である。図9Cは、特徴点抽出部602が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置106からユーザ102を含む画像データストリームがリアルタイムで出力される。これが図9Aの画像データP901である。
次に、顔検出処理部601は、撮像装置106から出力される画像データP901から、例えばViola−Jones法等の周知のアルゴリズムを用いて、ユーザ102の顔の存在を検出する。そして、ユーザ102の顔だけを抽出した顔抽出画像データを出力する。これが図9Bの顔抽出画像データP902である。
そして、特徴点抽出部602は、顔抽出画像データP902に含まれるユーザ102の顔の画像に、ポリゴン解析等の処理を施す。そして、ユーザ102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図9Cの特徴点データP903である。この特徴点データP903は、二次元空間内における座標情報を有する特徴点の集合体で構成される。
二次元の特徴点データを、時間軸上で異なるタイミングにて2セット取得すると、ユーザ102の顔が僅かに動くことにより、各々の特徴点データにずれが生じる。このずれを基に、ユーザ102の顔の方向を算出することができる。これが顔方向ベクトルである。
また、目の輪郭に対する瞳の配置は、ユーザ102の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部603は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。次に、ベクトル解析部603はこれら顔方向ベクトルと視線方向ベクトルを加算する。つまり、ユーザ102が顔をどちらに向け、更に視線をどちらに向けているのかを知るために顔方向ベクトルと視線方向ベクトルを加算して、最終的にユーザ102が表示部104と撮像装置106を含む3次元空間内の何処を注視しているのかを示す、注視方向ベクトルを算出する。更に、ベクトル解析部603は注視方向ベクトルの、時間軸上の変動量であるベクトル変動量も算出する。
図9Cに示すように、ユーザ102の目に該当する箇所は、目の輪郭部分と瞳の中心を示す点が存在する。ベクトル解析部603は、輪郭の中に瞳の中心を示す点があることで、視線方向ベクトルを検出することができる。逆に、輪郭の中に瞳の中心を示す点がないと、ベクトル解析部603は視線方向ベクトルを検出することができない。すなわち、ユーザ102が目を瞑っていると、特徴点抽出部602が目の輪郭部分の中に瞳の中心を示す点が検出できなくなるので、ベクトル解析部603は視線方向ベクトルを検出することができなくなる。図7の目瞑り判定部709は、この視線方向ベクトルの有無を基に、ユーザ102の目瞑り状態を検出する。
目瞑りの判定処理は、上述の他、目の画像を直接認識する等の方法もあり、アプリケーションが求める必要な精度に応じて適宜変更可能である。
[脈拍の検出領域について]
図10は、脈拍検出領域抽出部605が、ユーザ102の顔の画像データから部分画像データとして切り出す領域を模式的に示す図である。
特許文献2にも記載されているが、顔の肌の色から脈拍を正しく検出するためには、顔の画像データのうち、目、鼻の穴、唇、頭髪や髭等の、肌の色とは無関係な要素をできる限り排除する必要がある。特に、目は動きが激しく、また瞼を閉じたり開いたりすることで、画像データ中に瞳が存在したり存在しなかったりという、短時間に急激な輝度の変化が起きるので、輝度の平均値を算出する際に悪影響を及ぼす。また、個人差があるものの、頭髪と髭の存在は肌の色の検出を大きく阻害する。
以上のことを考慮すると、図10に示すように、目の下の領域1001a及び1001bが、目、頭髪、髭の存在によって影響を受け難い、比較的安定して肌の色を検出可能な領域の一例である。
本発明の実施形態に係るエンゲージメント値処理システム101では、ユーザ102の顔をベクトル化し、ユーザ102の顔を認識する機能を有しているので、脈拍検出領域抽出部605は、顔特徴点から目の下の領域の座標情報を算出することが実現できる。
[感情の推定について]
図11は、感情推定部607が実施する、感情の分類を説明する概略図である。
ポール・エクマン(Paul Ekman)によれば、人間はどのような言語圏や文化圏に属していても、普遍的な感情を有しているとされる。またエクマンによる感情の分類は、「エクマンの基本6情動」とも呼ばれる。平常時の無表情(F1101)に対し、驚き(F1102)、恐怖(F1103)、嫌悪(F1104)、怒り(F1105)、喜び(F1106)、悲しみ(F1107)の6感情において、人間の表情は変化する。表情の変化は、顔特徴点の変化となって現れる。感情推定部607は、時間軸上における、顔特徴点の相対的な変動を検出し、これをエクマンの基本6情動にしたがって、コンテンツ105の再生位置情報または視聴日時におけるユーザ102の表情が、どの感情に属するのかを推定する。
[第三の実施形態:エンゲージメント値処理装置1201のハードウェア構成]
エンゲージメント値は、コンテンツの再生状態を制御する情報としても有用である。
図12は、本発明の第三の実施形態に係るエンゲージメント値処理装置1201のハードウェア構成を示すブロック図である。
図12に示すエンゲージメント値処理装置1201のハードウェア構成は、図5に示す本発明の第一の実施形態に係るエンゲージメント値処理システム101のクライアント103と同一である。このため、同一の構成要素には同一の符号を付して、その説明を省略する。
エンゲージメント値処理装置1201は、本発明の第一の実施形態に係るエンゲージメント値処理システム101とは異なり、スタンドアロンの構成である。しかし、必ずしもスタンドアロンの構成でなければならない訳ではなく、必要に応じて第一の実施形態と同様に、算出したエンゲージメント値等をサーバ108へアップロードしてもよい。
[第三の実施形態:エンゲージメント値処理装置1201のソフトウェア機能]
図13は、本発明の第三の実施形態に係るエンゲージメント値処理装置1201のソフトウェア機能を示すブロック図である。図13に示すエンゲージメント値処理装置1201のうち、図6に示す第一の実施形態に係るエンゲージメント値処理システム101と同じ機能ブロックには、同一の符号を付して説明を省略する。なお、図13のエンゲージメント算出部604は、第一の実施形態に係るエンゲージメント値処理システム101のエンゲージメント算出部604と同一の機能を有するので、図7に示すエンゲージメント算出部604と同じ機能ブロックにて構成される。
図13に示すエンゲージメント値処理装置1201の、図6に示す第一の実施形態に係るエンゲージメント値処理システム101との相違点は、入出力制御部1301に再生制御部1302が含まれていることと、コンテンツ再生処理部1303が再生制御部1302の制御情報に基づいて、コンテンツの再生/停止/再生速度の変更を実行する点である。
すなわち、ユーザ102のコンテンツに対する集中の度合いを、コンテンツの再生速度及び再生状態に反映している。
ユーザ102がコンテンツに対して集中していない(エンゲージメント値が低い)状態では再生を一時停止することで、ユーザ102がコンテンツを確実に閲覧できるようにする。逆に、ユーザ102がコンテンツに対して集中している(エンゲージメント値が高い)状態では、再生速度を高めることで、ユーザ102がより早くコンテンツを閲覧できるようにする。
この再生速度変更機能は、特に学習コンテンツに対して有用である。
図14は、再生制御部1302がコンテンツ再生処理部1303に与える制御情報によって生じる、エンゲージメント値とコンテンツの再生速度の対応関係の一例を示すグラフである。横軸はエンゲージメント値であり、縦軸はコンテンツ再生速度である。
再生制御部1302は、エンゲージメント算出部604から出力されるエンゲージメント値を、複数の所定の閾値と比較して、コンテンツ再生処理部1303に対し、コンテンツの再生または一時停止、そしてコンテンツを再生するときにはその再生速度を指示する。
図14では一例として、
・ユーザ102のエンゲージメント値が30%未満になったらコンテンツの再生を一時停止し、
・ユーザ102のエンゲージメント値が30%以上40%未満になったらコンテンツを0.8倍速で再生し、
・ユーザ102のエンゲージメント値が40%以上50%未満になったらコンテンツを0.9倍速で再生し、
・ユーザ102のエンゲージメント値が50%以上60%未満になったらコンテンツを1.0倍速で再生し、
・ユーザ102のエンゲージメント値が60%以上70%未満になったらコンテンツを1.2倍速で再生し、
・ユーザ102のエンゲージメント値が70%以上80%未満になったらコンテンツを1.3倍速で再生し、
・ユーザ102のエンゲージメント値が80%以上90%未満になったらコンテンツを1.4倍速で再生し、
・ユーザ102のエンゲージメント値が90%以上になったらコンテンツを1.5倍速で再生する
ように、コンテンツ再生処理部1303の制御が行われる。
なお、再生制御部1302にて設定される閾値や再生速度は、所定のGUI(Graphical User Interface)を用いて、ユーザ102の任意で変更できることが好ましい。
本発明の実施形態においては、エンゲージメント値処理システム101、エンゲージメント値処理システム801及びエンゲージメント値処理装置1201を開示した。
表示部104近傍に設置される撮像装置106は、コンテンツ105を視聴するユーザ102の顔を撮影し、画像データストリームを出力する。この画像データストリームから、特徴点抽出部602によって顔の特徴点の集合体である特徴点データが生成される。そして、この特徴点データから、注視方向ベクトルとベクトル変動量が算出される。エンゲージメント算出部604は、これらのデータからユーザ102のコンテンツ105に対するエンゲージメント値を算出する。
一方、特徴点データは、脈拍を検出する際の、部分画像データの切り出しにも利用することができる。更に特徴点データは、ユーザ102の感情の推定にも利用できる。したがって、撮像装置106でユーザ102を撮影するだけで、コンテンツ105を視聴するユーザ102の、コンテンツ105に対するエンゲージメント値と、脈拍と、感情を同時に取得することができ、ユーザ102がどの程度注意を向けていたかのみではなく、どの程度興味をもったか等を含めて総合的にユーザ102の行動や感情を把握することができる。
また、エンゲージメント値をコンテンツの再生と一時停止、そして再生速度の制御に利用することで、ユーザ102に対する学習効果を向上させることが期待できる。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。
例えば、上記した実施形態は本発明をわかりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、更にはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するためのソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の揮発性あるいは不揮発性のストレージ、または、ICカード、光ディスク等の記録媒体に保持することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
101…エンゲージメント値処理システム、102…ユーザ、103…クライアント、104…表示部、105…コンテンツ、106…撮像装置、107…インターネット、108…サーバ、301…LCDディスプレイ、302…USBタイプwebカメラ、303…ノートパソコン、304…LCDディスプレイ、305…webカメラ、306…携帯型無線端末、307…LCDディスプレイ、308…自分撮り用インカメラ、501…CPU、502…ROM、503…RAM、504…不揮発性ストレージ、505…RTC、506…操作部、507…バス、508…NIC、511…CPU、512…ROM、513…RAM、514…不揮発性ストレージ、515…NIC、516…バス、601…顔検出処理部、602…特徴点抽出部、603…ベクトル解析部、604…エンゲージメント算出部、605…脈拍検出領域抽出部、606…脈拍算出部、607…感情推定部、608…入出力制御部、609…ネットワークストレージ、610…ローカルストレージ、611…コンテンツ再生処理部、612…ユーザID、613…送信データ、614…データベース、615…クラスタ分析処理部、616…特徴量、701…ベクトル加算部、702…注視方向判定部、703…初期補正値、704…第一平滑化処理部、705…第二平滑化処理部、706…サンプル数、707…エンゲージメント演算処理部、708…よそ見判定部、709…目瞑り判定部、710…重み付け係数、801…エンゲージメント値処理システム、802…サーバ、803…輝度平均値算出部、804…入出力制御部、805…送信データ、806…データベース、1201…エンゲージメント値処理装置、1301…入出力制御部、1302…再生制御部、1303…コンテンツ再生処理部

Claims (8)

  1. コンテンツを表示する表示部と、
    前記表示部を見るユーザの顔を撮影可能な方向に設置される撮像装置と、
    前記撮像装置から出力される画像データストリームから前記ユーザの顔の存在を検出し、前記ユーザの顔を抽出した顔抽出画像データを出力する顔検出処理部と、
    前記顔抽出画像データから、前記ユーザの顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
    前記特徴点データから、前記ユーザの顔の向きを示す顔方向ベクトルと、前記ユーザの顔における視線の向きを示す視線方向ベクトルを所定のサンプリングレートにて生成するベクトル解析部と、
    前記顔方向ベクトルと前記視線方向ベクトルから、前記ユーザの前記コンテンツに対するエンゲージメント値を算出するエンゲージメント算出部と、
    前記ユーザを一意に識別するユーザIDと、前記ユーザが前記コンテンツを視聴した視聴日時と、前記コンテンツを一意に識別するコンテンツIDと、前記コンテンツの再生位置を示す再生位置情報と、前記エンゲージメント算出部が出力する前記ユーザの前記コンテンツに対する前記エンゲージメント値とを蓄積するデータベースと
    を具備する、エンゲージメント値処理システム。
  2. 前記エンゲージメント算出部は、
    前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記ユーザがコンテンツを表示する前記表示部と前記撮像装置を含む3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出するベクトル加算部と、
    前記注視方向ベクトルが前記表示部に向いているか否かを判定する、注視方向判定結果を出力する注視方向判定部と、
    前記注視方向判定結果に対し、所定のサンプル数にて平滑化を行う、平滑化処理部と
    を具備する、請求項1に記載のエンゲージメント値処理システム。
  3. 前記エンゲージメント算出部は更に、
    前記顔方向ベクトルが前記表示部に向いているか否かを判定する、よそ見判定部と、
    前記ユーザが目を瞑っているか否かを判定する、目瞑り判定部と、
    前記平滑化処理部が出力するエンゲージメント基礎値と、前記よそ見判定部が出力するよそ見判定結果と、前記目瞑り判定部が出力する目瞑り判定結果とを、所定の重み付け係数にて乗算した上で加算する、エンゲージメント演算処理部と
    を具備する、請求項2に記載のエンゲージメント値処理システム。
  4. 更に、
    前記特徴点データに基づいて、前記顔抽出画像データに含まれる、前記ユーザの顔の一部に相当する画像データの切り出しを実行して、得られた部分画像データを出力する脈拍検出領域抽出部と、
    前記部分画像データの、特定の色成分の輝度の時間軸上の変動量から前記ユーザの脈拍を算出する脈拍算出部と
    を具備し、
    前記データベースは前記脈拍算出部が出力する前記ユーザの脈拍データも蓄積する、
    請求項3に記載のエンゲージメント値処理システム。
  5. 更に、
    前記特徴点データを基に、ユーザの感情を推定する感情推定部と
    を具備し、
    前記データベースは、前記感情推定部が推定する前記ユーザの感情を示す感情データを蓄積する、
    請求項4に記載のエンゲージメント値処理システム。
  6. コンテンツを再生するコンテンツ再生処理部と、
    前記コンテンツを表示する表示部と、
    前記表示部を見るユーザの顔を撮影可能な方向に設置される撮像装置と、
    前記撮像装置から出力される画像データストリームから前記ユーザの顔の存在を検出し、前記ユーザの顔を抽出した顔抽出画像データを出力する顔検出処理部と、
    前記顔抽出画像データから、前記ユーザの顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
    前記特徴点データから、前記ユーザの顔の向きを示す顔方向ベクトルと、前記ユーザの顔における視線の向きを示す視線方向ベクトルを所定のサンプリングレートにて生成するベクトル解析部と、
    前記顔方向ベクトルと前記視線方向ベクトルから、前記ユーザの前記コンテンツに対するエンゲージメント値を算出するエンゲージメント算出部と、
    前記エンゲージメント値が所定の値の範囲にあるときには前記コンテンツを第一の再生速度で再生し、前記エンゲージメント値が前記所定の値の範囲より大きいときには前記コンテンツを前記第一の再生速度より早い第二の再生速度で再生し、前記エンゲージメント値が前記所定の値の範囲より小さいときには前記コンテンツの再生を一時停止するべく前記コンテンツの再生を制御する再生制御部と
    を具備する、エンゲージメント値処理装置。
  7. 前記エンゲージメント算出部は、
    前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記ユーザがコンテンツを表示する前記表示部と前記撮像装置を含む3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出するベクトル加算部と、
    前記注視方向ベクトルが前記表示部に向いているか否かを判定する、注視方向判定結果を出力する注視方向判定部と、
    前記注視方向判定結果に対し、所定のサンプル数にて平滑化を行う、平滑化処理部と
    を具備する、請求項6に記載のエンゲージメント値処理装置。
  8. 前記エンゲージメント算出部は更に、
    前記顔方向ベクトルが前記表示部に向いているか否かを判定する、よそ見判定部と、
    前記ユーザが目を瞑っているか否かを判定する、目瞑り判定部と、
    前記平滑化処理部が出力するエンゲージメント基礎値と、前記よそ見判定部が出力するよそ見判定結果と、前記目瞑り判定部が出力する目瞑り判定結果とを、所定の重み付け係数にて乗算した上で加算する、エンゲージメント演算処理部と
    を具備する、請求項7に記載のエンゲージメント値処理装置。
JP2017091691A 2016-06-23 2017-05-02 エンゲージメント値処理システム及びエンゲージメント値処理装置 Expired - Fee Related JP6282769B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW106120932A TW201810128A (zh) 2016-06-23 2017-06-22 吸引程度值處理系統及吸引程度值處理裝置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016124611 2016-06-23
JP2016124611 2016-06-23

Publications (2)

Publication Number Publication Date
JP2018005892A JP2018005892A (ja) 2018-01-11
JP6282769B2 true JP6282769B2 (ja) 2018-02-21

Family

ID=60783447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017091691A Expired - Fee Related JP6282769B2 (ja) 2016-06-23 2017-05-02 エンゲージメント値処理システム及びエンゲージメント値処理装置

Country Status (6)

Country Link
US (1) US20190340780A1 (ja)
JP (1) JP6282769B2 (ja)
KR (1) KR20190020779A (ja)
CN (1) CN109416834A (ja)
TW (1) TW201810128A (ja)
WO (1) WO2017221555A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP7075237B2 (ja) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
KR102479049B1 (ko) * 2018-05-10 2022-12-20 한국전자통신연구원 주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법
KR102073940B1 (ko) * 2018-10-31 2020-02-05 가천대학교 산학협력단 스마트 단말을 이용한 ar hmd의 통합 인터페이스를 구축하는 장치 및 방법
JP2020086921A (ja) * 2018-11-26 2020-06-04 アルパイン株式会社 画像処理装置
US11933974B2 (en) * 2019-02-22 2024-03-19 Semiconductor Energy Laboratory Co., Ltd. Glasses-type electronic device
KR102333976B1 (ko) * 2019-05-24 2021-12-02 연세대학교 산학협력단 사용자 인식 기반의 영상 제어 장치 및 그 동작방법
KR102204743B1 (ko) * 2019-07-24 2021-01-19 전남대학교산학협력단 시선 움직임 분석에 의한 감정 인식 장치 및 방법
JP6945693B2 (ja) * 2019-08-31 2021-10-06 グリー株式会社 動画再生装置、動画再生方法、及び動画配信システム
CN111597916A (zh) * 2020-04-24 2020-08-28 深圳奥比中光科技有限公司 一种专注度检测方法、终端设备及系统
US11381730B2 (en) * 2020-06-25 2022-07-05 Qualcomm Incorporated Feature-based image autofocus
CN111726689B (zh) * 2020-06-30 2023-03-24 北京奇艺世纪科技有限公司 一种视频播放控制方法及装置
JP7503308B2 (ja) 2020-12-15 2024-06-20 株式会社Fact4 コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム
JP7138998B1 (ja) * 2021-08-31 2022-09-20 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
KR102621990B1 (ko) * 2021-11-12 2024-01-10 한국전자기술연구원 영상 기반의 생체 및 행태 데이터 통합 검출 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10216096A (ja) 1997-02-04 1998-08-18 Matsushita Electric Ind Co Ltd 生体信号解析装置
JP2003111106A (ja) 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
US6937745B2 (en) * 2001-12-31 2005-08-30 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
JP3797253B2 (ja) * 2002-03-14 2006-07-12 日産自動車株式会社 視線方向検出装置
JP2006277192A (ja) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International 映像表示システム
JP2007036846A (ja) * 2005-07-28 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 動画再生装置およびその制御方法
WO2010089989A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 情報表示装置及び情報表示方法
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP5755483B2 (ja) * 2011-04-05 2015-07-29 日立マクセル株式会社 自動録画機能を有する映像表示装置および録画装置並びに自動録画方法
JP2013070155A (ja) * 2011-09-21 2013-04-18 Nec Casio Mobile Communications Ltd 動画スコアリングシステム、サーバ装置、動画スコアリング方法、動画スコアリングプログラム
JP5771127B2 (ja) * 2011-11-15 2015-08-26 日本放送協会 注目度推定装置およびそのプログラム
US9100685B2 (en) * 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20140078039A1 (en) * 2012-09-19 2014-03-20 United Video Properties, Inc. Systems and methods for recapturing attention of the user when content meeting a criterion is being presented
US20140258268A1 (en) * 2013-03-11 2014-09-11 United Video Properties, Inc. Systems and methods for browsing content stored in the viewer's video library
JP6236875B2 (ja) * 2013-05-24 2017-11-29 富士通株式会社 コンテンツ提供プログラム,コンテンツ提供方法及びコンテンツ提供装置
KR20150062647A (ko) * 2013-11-29 2015-06-08 삼성전자주식회사 영상처리장치 및 그 제어방법
JP6393984B2 (ja) * 2013-12-19 2018-09-26 富士通株式会社 脈拍計測装置、脈拍計測方法及び脈拍計測プログラム
JP2016063525A (ja) * 2014-09-22 2016-04-25 シャープ株式会社 映像表示装置及び視聴制御装置
KR20170136160A (ko) * 2016-06-01 2017-12-11 주식회사 아이브이티 시청자 몰입도 평가 시스템

Also Published As

Publication number Publication date
CN109416834A (zh) 2019-03-01
US20190340780A1 (en) 2019-11-07
WO2017221555A1 (ja) 2017-12-28
TW201810128A (zh) 2018-03-16
KR20190020779A (ko) 2019-03-04
JP2018005892A (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6282769B2 (ja) エンゲージメント値処理システム及びエンゲージメント値処理装置
US11056225B2 (en) Analytics for livestreaming based on image analysis within a shared digital environment
US11430260B2 (en) Electronic display viewing verification
US20200023157A1 (en) Dynamic digital content delivery in a virtual environment
US10423512B2 (en) Method of collecting and processing computer user data during interaction with web-based content
David-John et al. A privacy-preserving approach to streaming eye-tracking data
KR101741352B1 (ko) 데이터 및 오디오/비디오 콘텐츠의 전달을 제어하는 관심도 평가
US20190034706A1 (en) Facial tracking with classifiers for query evaluation
US10108852B2 (en) Facial analysis to detect asymmetric expressions
US20160191995A1 (en) Image analysis for attendance query evaluation
US20160144278A1 (en) Affect usage within a gaming context
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
JP2003189219A (ja) デジタル画像系列の表示システム及び表示方法
US20150186912A1 (en) Analysis in response to mental state expression requests
US20150339539A1 (en) Method and system for determining concentration level of a viewer of displayed content
Sundstedt et al. Visual attention and gaze behavior in games: An object-based approach
Nakano et al. Blink synchronization is an indicator of interest while viewing videos
Hu Gaze analysis and prediction in virtual reality
JP6583996B2 (ja) 映像評価装置、及びプログラム
Celiktutan et al. Continuous prediction of perceived traits and social dimensions in space and time
Leroy et al. Second screen interaction: an approach to infer tv watcher's interest using 3d head pose estimation
Zhu et al. Eyeqoe: A novel qoe assessment model for 360-degree videos using ocular behaviors
Zhang et al. Correlating speaker gestures in political debates with audience engagement measured via EEG
Weber et al. A survey on databases of facial macro-expression and micro-expression

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171122

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180124

R150 Certificate of patent or registration of utility model

Ref document number: 6282769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees