JP2016111612A - コンテンツ表示装置 - Google Patents
コンテンツ表示装置 Download PDFInfo
- Publication number
- JP2016111612A JP2016111612A JP2014249178A JP2014249178A JP2016111612A JP 2016111612 A JP2016111612 A JP 2016111612A JP 2014249178 A JP2014249178 A JP 2014249178A JP 2014249178 A JP2014249178 A JP 2014249178A JP 2016111612 A JP2016111612 A JP 2016111612A
- Authority
- JP
- Japan
- Prior art keywords
- user
- concentration
- unit
- degree
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】コンテンツ表示装置において、事前のキャリブレーションを行うことなく、集中度の精度を高める。【解決手段】CCDカメラ3により撮像されたユーザ像Vから、ユーザUの視線Sに係る視線方向としての顔向きθfに加えてさらに、表示面21からユーザUまでのユーザ距離Dも推定するようにした。そして、ユーザUの視線Sが表示面21上にあるか否かを判定する第1判定角度範囲R1を設定するときに、ユーザ距離Dが増大するに従って、当該第1判定角度範囲R1をより狭く設定するようにした。【選択図】図4
Description
ここに開示する技術は、コンテンツ表示装置に係る。
特許文献1には、注目度推定装置及びそのプログラムについて記載されている。この注目度推定装置は、TVなどの映像コンテンツを視聴しているユーザ(人物)の骨格位置情報を計測するモーションキャプチャと、当該ユーザの人物画像を取得するカメラと、を備えており、モーションキャプチャにより計測された身体動作量と、人物画像より計測された視線変動量とに基づいて、ユーザの映像コンテンツに対する集中度合い(注目度合い)を示す集中度(注目度)を推定する。この装置により推定された集中度は、前記映像コンテンツにおいて予め定めた映像区間毎に対応付けて記憶され、各映像区間に対する集中度として特定される。
また、特許文献2には、省電力制御方法、及びこの省電力制御方法を用いた装置について記載されている。この特許文献2に記載の制御方法では、ディスプレイ等の表示部(表示領域、表示画面)に取り付けたカメラによって、当該表示部を見るユーザの顔を撮像すると共に、撮像されたユーザ像から当該ユーザの瞳孔の向き(視線方向)又は顔向き(顔向き方向)を推定するように構成されている。この制御方法は、事前にキャリブレーションを行うことで、推定された瞳孔の向き又は顔向きと、ユーザが表示部を見ているか否かとを対応付けるよう構成されており、ユーザが表示部を見ていないと判定したときには、当該表示部に対して省電力制御を行うことができる。
しかしながら、特許文献1に記載の注目度推定装置は、撮像されたユーザの視線がどれだけ安定しているかを計測することはできるものの、そのユーザが映像コンテンツを見ているか否かを判定することはできない。したがって、当該特許文献1の構成により推定される集中度は、撮像されたユーザが実際に映像コンテンツを見ているか否かを反映していないという点で、精度を高めるには不都合である。
また、特許文献1に記載の構成では、ユーザの身体動作を計測するのにモーションキャプチャを設ける必要があるため、当該モーションキャプチャ、及び、その制御系の分だけ、製造コストを抑止するにも不都合である。
そこで、モーションキャプチャを備えた構成に代えて、特許文献2に記載の制御方法を用いることによって、推定された集中度に、ユーザが表示部を見ているか否かの判定を反映させるように構成することが考えられる。
しかし、特許文献2に記載の制御方法は、カメラにより撮像されたユーザが表示部を見ているか否かの判定は行うものの、事前のキャリブレーションを必要とするため、ユーザの負担を増大させるという点で不都合である。
また、特許文献2に係るキャリブレーションは、特定のユーザに対して事前作業を行う必要があるという点で、不特定多数の人物を対象とした用途には適さない。しかも、こうしたキャリブレーションは、ユーザが位置を変更する度に行う必要があるから、設置スペース内を移動する等して、ユーザと表示部との間の相対位置関係が随時変化し得るような用途にも適さない。
特に、前記特許文献1に記載の注目度推定装置のように、算出された集中度を映像コンテンツに対応付けて記録する場合、そうした記録作業を所定の期間にわたって継続的に行うことが考えられるが、その場合、前述の構成のように、視聴の度に事前作業を必要として且つ、そうした事前作業後はユーザの移動を許容しない構成を適用するのは、現実的ではなく、実用性という点で不都合である。
前述の問題は、家屋等に設置されるTV(テレビジョン受信装置)や、屋外に取り付けられるデジタルサイネージ(電子看板)のように、設置スペース内の各所からの視聴、又は、不特定多数の人物による視聴を前提としたコンテンツ表示装置に共通している。
ここに開示する技術は、かかる点に鑑みてなされたものであり、その目的とするところは、コンテンツ表示装置において、事前のキャリブレーションを行うことなく、集中度の精度を高めることにある。
ここに開示する技術は、ユーザに対してコンテンツを表示可能な表示面を有する表示手段と、ユーザ像を撮像可能な撮像手段と、前記撮像手段により撮像された前記ユーザ像を解析するユーザ像解析手段と、前記ユーザ像解析手段による解析結果に基づいて、前記ユーザの前記コンテンツに対する集中の度合いを示す集中度を算出する集中度算出手段と、前記集中度算出手段による算出結果を、時系列に沿って継続的に記録可能な集中度記録手段と、を備えたコンテンツ表示装置に係る。
前記ユーザ像解析手段は、前記ユーザ像から前記ユーザの顔領域を抽出すると共に、該ユーザ像内における顔領域のサイズを検出する顔領域分析部と、前記顔領域分析部により抽出された顔領域の形態に基づいて、前記ユーザの視線方向が、前記表示面上の基準位置から面直に延びる直線に対して成す視線角度を推定するユーザ視線推定部と、前記顔領域分析部により検出された顔領域のサイズに基づいて、前記基準位置から前記ユーザまでの距離を推定するユーザ距離推定部と、を有し、前記ユーザ距離推定部は、前記ユーザ像内における顔領域のサイズが大きくなるにしたがって、前記基準位置から前記ユーザまでの距離がより小さくなるように推定し、前記集中度算出手段は、前記ユーザ距離推定部による推定結果に基づいて、前記ユーザの視線が前記表示面上にあるか否かを判定する第1判定角度範囲を設定すると共に、前記視線角度が前記第1判定角度範囲内にあるときには、前記ユーザの視線が前記表示面上にあるものとして、当該第1判定角度範囲外にあるときよりも、前記集中度を高く算出するように構成される。
そして、前記第1判定角度範囲は、前記基準位置から前記ユーザまでの距離が大きくなるにしたがって狭くなるように設定される。
ここでいう「コンテンツ表示装置」は、所定のユーザに対してコンテンツを表示可能な装置であればよく、TV、デジタルサイネージ、及びパーソナルコンピュータを含む。
ここでいう「ユーザの視線方向」は、ユーザの瞳孔が向かう方向、ユーザの顔が向かう方向、又は、これらの組み合わせを含む。
また、ここでいう「ユーザ像内における顔領域のサイズ」とは、ユーザ像の大きさに対する顔領域の相対的なサイズを意味するものである。
通常、ユーザと表示面とが離れていくにしたがって、そのユーザの視界内に占める表示面のサイズは単調に減少していくから、減少した分だけ、ユーザの視線が表示面上にあるとみなすことができる立体角、ひいては視線角度の範囲は狭まっていく。ゆえに、ユーザの視線方向だけでは、ユーザが表示面を見ているか否かを判定することはできない。一方で、そうして離れていくにしたがって、撮像されたユーザ像内におけるユーザのサイズも単調に減少していくことになる。
そこで、本願発明者等は、前述の構成に示すように、ユーザ像内における顔領域のサイズに基づいて、表示面からユーザまでの距離を推定すると共に、その推定結果に基づいて、表示面からユーザまでの距離が大きくなるにしたがって、前記第1判定角度範囲をより狭く設定するようにした。
この構成によると、前記コンテンツ表示装置は、集中度を算出する上で、ユーザの視線角度に加えてさらに、ユーザ像内における顔領域のサイズから推定された表示面からユーザまでの距離も参照するようにした。そうすることで、事前のキャリブレーションを行うことなく、撮像されたユーザが表示面を見ているか否かを集中度に反映させることができるから、集中度をより正確に算出することができる。
さらに、前記コンテンツ表示装置は、視線角度及び距離を推定する上で、撮像手段により撮像されたユーザ像のみを用いるように構成されているから、モーションキャプチャ等の部材を新設したり、その部材に係る制御系を設けたりする必要がない分だけ、より簡素に構成することができるようになると共に、簡素に構成した分だけ、製造コストを抑止する上でも有利になる。
前記コンテンツ表示装置は、従来構成とは異なり、事前のキャリブレーションを必要としないから、ユーザの負担を軽減させるという点で、当該従来構成よりも利便性を高めることができる。また、撮像の度にユーザと表示面との間の距離を推定可能に構成されているから、ユーザが移動する等して距離が変化した場合であっても、第1判定角度範囲を再設定することで、集中度を安定して算出することができる。
前述のように、特定のユーザ毎に事前作業を行う必要がなく、しかも、ユーザと表示面との間の距離の変化を許容するような構成は、コンテンツ表示装置のように、ユーザが不特定多数であったり、各ユーザが設置スペース内の各所から視聴するような用途に適用したりする上で有利になる。
特に、前記コンテンツ表示装置のように、集中度の算出及び記録作業を継続的に行う場合、視聴の度に事前作業を行うことなく、ユーザの移動に伴う距離の変化を許容するような構成は、日常的に使用する上で、実用性を高めることができるという点で、取り分け有効となる。
こうして、前記コンテンツ表示装置は、事前のキャリブレーションをせずとも、撮像されたユーザが表示面を見ているか否かを集中度に反映させることができるから、簡素な構成でありながらも、集中度をより正確に算出することが可能となり、しかも、そうした算出を所定の期間にわたって継続的に行う上でも有利になる。
また、前記集中度算出手段は、前記第1判定角度範囲内に、第2判定角度範囲を設定すると共に、前記視線角度が前記第2判定角度範囲内にあるときには、前記ユーザが前記コンテンツに注視しているものとして、前記集中度を一定にするように構成される、としてもよい。
通常、ユーザの視線が表示面に向けられていて、その表示面上のコンテンツに注視している場合であっても、その視線は常時一定ではなく、コンテンツの変化に応じて変動したり、揺れ動いたりする。そうした変動や揺れ動きの影響を集中度に反映させてしまうのは、その算出を安定させる上で不都合である。
そこで、この構成によると、ユーザの視線角度が所定の第2判定角度範囲内にあるときには、コンテンツに注視しているものとして、集中度を一定にする。そうすることで、集中度の算出を安定させる上で有利になる。
また、前記ユーザ距離推定部は、前記ユーザ視線推定部により推定された視線角度に基づいて、前記ユーザの視線が前記表示面から離れる方向に向かうにつれて、前記基準位置から前記ユーザまでの距離がより小さくなるように推定する、としてもよい。
この構成によると、ユーザ像内における顔領域のサイズに加えてさらに、前記視線角度の推定結果も参照することで、表示面からユーザまでの距離を推定する上で、正確性を高めることができるという点で、有利になる。
また、前記ユーザ像解析手段は、前記顔領域分析部により抽出された顔領域の形態に基づいて、前記ユーザのまぶたの開度を検出するまぶた開閉判定部を有し、前記集中度算出手段は、前記まぶた開閉判定部により検出されたまぶたの開度に基づいて、前記ユーザのまぶたが閉じた状態にあると判定されたときには、開いた状態にあると判定されたときよりも、前記集中度を低く算出するよう構成される、としてもよい。
通常、コンテンツに対する集中度合いが高まるにしたがって、ユーザがまぶたを閉じる頻度は減少するものと考えられる。また、睡眠状態にあったり、眠気が高まった状態にあったりすると、まぶたが所定時間にわたって閉じたり、まぶたを閉じる頻度が増大したりする。
したがって、この構成によると、前記のような状況を集中度に反映させることができるから、集中度の精度を高める上で有利になる。
また、前記ユーザ像解析手段は、前記ユーザ像の時間推移に基づいて、前記ユーザの身体動作を検出するユーザ動作検出部を有し、前記集中度算出手段は、前記ユーザ動作検出部による検出結果に基づいて、前記ユーザの身体動作が検出されたときには、当該ユーザの身体動作が検出されなかったときよりも、前記集中度を低く算出するように構成される、としてもよい。
ここでいう「身体動作」は、ユーザ像に基づいて検出可能なものであればよく、顔の動き、又は、首の動きであってもよい。
通常、ユーザが身体動作をするとき、コンテンツに対する集中度合いは比較的低いものと考えられる。
したがって、この構成によると、そうした身体動作を集中度に反映させることができるから、集中度の精度を高める上で有利になる。
また、前記集中度算出手段は、前記集中度を所定の時間毎に平均し、前記集中度記録手段は、前記平均値を算出結果として記録するように構成される、としてもよい。
通常、集中度算出手段により算出される集中度は、視線のふらつきや、顔領域の抽出エラー等の影響を反映して、比較的大きく変動することになるため、記録された集中度を活用する際に不都合が生じる虞がある。
したがって、この構成によると、算出された集中度を所定の時間毎に平均した上で、そうした平均値を記録させるようにしたから、前記のような変動を低減する上で有利になる。これにより、記録された集中度を活用する上で有利になると共に、集中度記録部に記録させるデータ量を削減する上でも有利になる。
また、前記集中度記録手段は、前記集中度算出手段による算出結果を、当該算出の際に前記表示面に表示されていたコンテンツに関連付けて記録するように構成される、としてもよい。
この構成によると、算出結果を記録する際に、コンテンツに関連付けて記録するようにしたから、集中度の活用性を高める上で有利になる。
また、前記ユーザ像解析手段は、前記顔領域分析部により抽出された顔領域の形態に基づいて、撮像されたユーザの属性を推定するユーザ属性推定部を有し、前記集中度記録手段は、前記集中度算出手段による算出結果を、前記ユーザの属性に関連付けて記録するように構成される、としてもよい。
ここでいう「属性」は、ユーザ像から抽出された顔領域の形態に基づいて検出可能なものであればよく、性別、年齢及び表情を含む。
この構成によると、集中度を記録するときに、撮像されたユーザの属性に関連付けて記録するようにしたから、集中度の活用性を高める上で有利になる。
以上説明したように、前記コンテンツ表示装置は、事前のキャリブレーションをせずとも、撮像されたユーザが表示面を見ているか否かを集中度の算出に反映させることができるから、簡素な構成でありながらも、集中度をより正確に算出することが可能となり、しかも、そうした算出結果を継続的に記録する上でも有利になる。
以下、コンテンツ表示装置の実施形態を図面に基づいて説明する。以下の好ましい実施形態の説明は、本質的に例示にすぎない。以下の実施形態は、請求項1から請求項7に係る。
この実施形態に係るコンテンツ表示装置としてのTV1は、ユーザUに対して所定のコンテンツCを表示可能な表示面21を有する表示手段としてのディスプレイ2と、ユーザ像Vを撮像可能な撮像手段としてのCCDカメラ3と、撮像されたユーザ像Vを解析するユーザ像解析手段4と、ユーザ像解析手段4による解析結果に基づいて、ユーザUのコンテンツCに対する集中の度合いを示す集中度を算出する集中度算出手段5と、集中度算出手段5による算出結果を、時系列に沿って継続的に記録可能な集中度記録手段としての記録媒体6と、を備えている。
TV1は、放送事業者及びコンテンツ配信会社等から提供されたテレビ番組及び広告等のコンテンツCを提示するように構成されている。このTV1は、ユーザUによる操作、並びに、過去の視聴履歴に基づいて算出された番組推薦情報及び広告情報等に基づいて、ユーザUに提示するコンテンツCを選択する。この実施形態に係るTV1は、家庭用テレビジョン受信装置として構成されており、家屋内の所定のスペースに配置されている。
ディスプレイ2は、図1(a)及び図1(b)に示すように、紙面左右方向に延びる略矩形平面状の表示面21を有しており、ユーザUに提示するよう選択されたコンテンツCを映像として表示する。
CCDカメラ3は、図1(a)に示すように、その撮像光学系31を表示面21の正面側に向けた姿勢で、ディスプレイ2の上縁部付近に取り付けられている。この撮像光学系31の光軸は、表示面上の左右略中央部から、当該表示面21に対して面直な方向に沿って延びている。
CCDカメラ3は、TV1がコンテンツCを表示しているとき、表示面21の正面側の場景を、この実施形態に係るユーザ像Vとして撮像すると共に、撮像されたユーザ像Vを、所定の時間間隔t毎にユーザ像解析手段4に入力する。以下では、この“所定の時間間隔”tを“撮像間隔”tと記載する。
撮像間隔tは、TV1及びCCDカメラ3の構成等に応じて適宜設定されるものであり、この実施形態では、その一例として1秒に設定されている。
以下、ユーザ像解析手段4の構成及び作動について説明する。
ユーザ像解析手段4は、図7に示すように、顔領域分析部41と、ユーザ視線推定部42と、ユーザ距離推定部43と、まぶた開閉判定部46と、ユーザ動作検出部44と、を有している。
ユーザ像解析手段4は、CCDカメラ3により撮像されたユーザ像Vを、顔領域分析部41に入力する。そして、顔領域分析部41は、入力されたユーザ像Vを解析することにより、ユーザUの顔領域Fを抽出すると共に、ユーザ像V内に占める顔領域Fの相対サイズFsを検出するように構成されている。
この実施形態に係る顔領域分析部41は、ユーザ像Vから顔領域Fを抽出するために、P.ViolaとM.Jonesとにより提案された機械学習方式(「Rapid ObjectDection Using a Boosted Cascadeof Simple Features(ACCEPTED CONFERENCE ON COMPUTER VISIONAND PATTERN RECOGNITION 2001)」を参照)を用いている。すなわち、顔領域分析部41は、図7に示すように、学習データベース7を介して、複数の顔画像データと複数の非顔画像データとを事前に学習することによって、ユーザ像V内の輝度値の差で表された特徴量(Haar−like特徴量)を用いて、顔領域Fを抽出するように構成されている。この顔領域分析部41は、抽出された顔領域Fの形態に係る情報を、図7に示すように、ユーザ視線推定部42とまぶた開閉判定部46とユーザ動作検出部44とに入力する。
また、顔領域分析部41は、抽出された顔領域Fの相対サイズFsを計測すると共に、図7に示すように、その計測結果をユーザ距離推定部43とユーザ動作検出部44とに入力する。以下では、この“顔領域Fの相対サイズ”Fsを、“顔サイズFs”と記載する。この顔サイズFsは、図3(a)に示すように、ユーザ像Vの全面積に対する相対的なサイズとして計測される。
ユーザ視線推定部42は、顔領域分析部41から入力された顔領域Fの形態に基づいて、ユーザUの視線Sに係る視線方向と、前記表示面中央部21cから面直に延びる直線Aとが成す視線角度θsを推定する。この実施形態では、ユーザ視線推定部42は、ユーザUの視線方向として、当該ユーザUの顔が向かう方向を用いるように構成されており、図1(a)、図1(b)及び図2等に示すように、前記視線角度として、前記直線AとユーザUの顔が向かう方向とが成す顔向きθsを用いる。
なお、図1(a)、図1(b)及び図2に示すように、以下の説明におけるz方向は、前記直線Aに平行で且つ、ユーザUから表示面21に向かって延びる方向を意味し、x方向及びy方向は、双方とも、前記z方向に垂直な方向(表示面21に平行な方向)を意味するものとする。また、x方向は、表示面21の長手方向一側(図1(b)の紙面右手方向)に向かって延びる方向を意味し、y方向は、表示面21の短手方向一側(図1(a)の紙面上方向)に向かって延びる方向を意味するものとする。他の図におけるx方向、y方向及びz方向も、これらと同一の方向、又は、これらに対応する方向である。以下の説明におけるx軸(x成分)、y軸(y成分)及びz軸(成分)についても、前述の方向にそれぞれ対応するように定義されている。
この実施形態に係る視線Sは、3次元ベクトル量として定義されており、それに対応する顔向きθsも、3成分を有している。具体的に、顔向きθsは、x軸、y軸及びz軸まわりの角度としてそれぞれ定義される、ピッチ角θp、ヨー角θf及びローリング角θrの値により特定されるよう構成されている。
この実施形態に係るTV1は、顔向きθsとして、前記ヨー角θfを用いるように構成されており、以下、特段の事情がない限りは、この“ヨー角”θfを“顔向き”θfと記載することにする。この顔向きθfは、図2に示すように、ユーザUが表示面中央部21cを正面から見た状態を0度とするように定義されている(つまり、y軸に係る左ネジ方向)。
ユーザ視線推定部42は、ユーザ像V内における各顔器官の位置を計測する。この実施形態に係るユーザ視線推定部42は、顔領域分析部41により抽出された顔領域Fの形態に基づいて、各顔器官を検出すると共に、図3(a)に示すように、ユーザ像V中における左目中央部、眉間及び右目中央部のx座標をそれぞれxL、xR及びxMとして検出する。この実施形態に係るユーザ視線推定部42は、眉間のx座標をxMとして、左右両目を結んだ直線と、当該直線に対して鼻中央部から延ばした垂線との交点の座標を用いるように構成されている。
なお、各顔器官のx座標は、顔サイズFsと同様に、ユーザ像V内における相対位置関係に係る座標として検出されている。
次に、ユーザ視線推定部42は、検出された各顔器官のx座標に基づいて、ユーザUの顔向きθfを推定する。具体的に、この実施形態に係るユーザ視線推定部42は、図3(a)に示すように、ユーザUの左右両目を含む頭部横断面を、所定の座標x0を中心とした、半径rの円形状としてモデル化する。この半径rについては、学習データベース7を介した事前学習等を通じて、予め設定されている。この場合、ユーザUが正面を向いたとき、つまり、該ユーザUの顔向きを、y軸に平行で且つx0を通る回転軸を中心として−θf回転させたとき(図3(b)参照)、正面を向いた顔領域Fのx方向中央部に眉間が位置するものと仮定すると、眉間のx座標xMは、
として記述されることになる。また、ユーザUが正面を向いたときの、右目中央部、眉間及び右目中央部のx座標をそれぞれxL’、xR’及びxM’として、ユーザUが正面を向いたとき、左目中央部から眉間までの距離と、右目中央部から眉間までの距離とが同一であると仮定すると、図3(a)及び図3(b)に示すように、
がそれぞれ成立する。上式(1)〜(4)にxL、xR及びxMの検出結果を代入して整理することで、顔向きθfが得られる。ユーザ視線推定部42は、図7に示すように、顔向きθfの推定結果を、集中度算出手段5とユーザ距離推定部43とに入力する(ユーザ距離推定部43への入力については、図7に不図示)。
まぶた開閉判定部46は、顔領域分析部41より入力された顔領域Fの形態に基づいて、ユーザUのまぶたの開度を判定する。この実施形態に係るまぶた開閉判定部46は、顔領域Fにおける左右両目の形態に基づいて、まぶたの開度を検出するように構成されており、その検出結果を集中度算出手段5に入力する。この実施形態では、顔領域Fから瞳孔(黒目)が検出されたときには、まぶたが完全に開いた状態にあると判定する一方、瞳孔(黒目)が検出されなかったときには、まぶたが完全に閉じた状態にあると判定するように構成されている。
ユーザ動作検出部44は、ユーザ像Vの時間推移に基づいて、ユーザUの身体動作を検出する。この実施形態に係るユーザ動作検出部44は、顔領域分析部41より入力された顔サイズFsの経時変化をモニターするように構成されている。そして、所定時間あたり(この実施形態では、撮像間隔tあたり)の顔サイズFsの変化量が所定の設定値を超えたときには、ユーザUの身体動作を検出したものとして、その検出結果を集中度算出手段5に入力する(図7参照)。例えば、顔サイズFsが比較的大きく増減したときには、そのユーザUが首を動かしたり、貧乏ゆすりをしたり、したものとみなすことができる。
ユーザ距離推定部43は、顔領域分析部41より入力された顔サイズFsの検出結果に基づいて、表示面中央部21cからユーザUまでの距離Dを推定する。以下では、この“距離”Dを“ユーザ距離”Dと記載する。
具体的には、図3(a)及び図3(b)に示すように、TV1から離れたとき、つまり、ユーザ距離Dが増大したときには、顔サイズFsが減少する一方で、TV1に近づいたとき、つまり、ユーザ距離Dが減少したときには、顔サイズFsが増大することになる。そこで、ユーザ距離推定部43は、顔サイズFsとユーザ距離Dとを対応付ける距離変換テーブルT1を参照することによって、顔サイズFsの検出結果からユーザ距離Dを推定する。距離変換テーブルT1は、ディスプレイ2及びCCDカメラ3の構成等に基づいて事前に設定されており、図5の実線L1に示すように、顔サイズFsが増大するにしたがって、ユーザ距離Dが単調に減少するように推定する。
また、ユーザ距離推定部43は、顔サイズFsの検出結果に加えてさらに、顔領域分析部41による顔向きθfの推定結果も、ユーザ距離Dの推定に反映させるように構成されている。具体的には、図3(a)及び図3(b)に示すように、ユーザUの顔向きθfが+90度又は−90度に近づくに従って、すなわち、ユーザUの視線Sが表示面中央部21cから離れる方向に向かうに従って、右目中央部のx座標xLと左目中央部のx座標xRとの差の大きさ、ひいてはユーザ像Vから検出される顔サイズFsの大きさは、単調に減少することになる。この実施形態に係る構成では、ユーザUが真横を向いたとき、つまり、顔向きθfが+90度、又は、−90度のとき、顔サイズFsの大きさはゼロとなる。つまり、ユーザ距離Dが一定に保持されていたとしても、顔向きθfの大きさに応じて、顔サイズFsの検出結果が変化することになる。そこで、ユーザ距離推定部43は、図5の実線L1と破線L2とに示すように、顔向きθfが表示面中央部21cから離れる方向に向かうに従って、ユーザ距離Dが単調に減少するように推定する。
ユーザ距離推定部43は、前述のように、顔サイズFsと顔向きθfとに基づいて推定されたユーザ距離Dを、集中度算出手段5に入力する(図7参照)。
集中度算出手段5は、図7に示すように、前記ユーザ像解析手段4による解析結果に基づいて、ユーザUのコンテンツCに対する集中の度合いを示す集中度を算出する。具体的に、集中度算出手段5は、ユーザ視線推定部42により推定された顔向きθf、まぶた開閉判定部46により検出されたまぶたの開度、ユーザ動作検出部44による検出結果、及び、ユーザ距離推定部43により推定されたユーザ距離Dが入力される算出部51と、この算出部51により算出された集中度に対して種々の処理を施すと共に、そうした処理を施した集中度を、算出結果として記録媒体6に入力するデータ処理部52と、を有している。
算出部51は、ユーザ距離Dの推定結果に基づいて、ユーザUの視線Sが表示面21上にあるか否かを判定するための第1判定角度範囲R1を設定する。図1(a)及び図1(b)に示すように、第1判定角度範囲R1は、顔向きθfの推定結果と比較することで、その顔向きθfに対応する視線Sが表示面21上にあるか否かを判定する指標であり、表示面21の長手方向の形態等に基づいて設定されている。図6(a)に示すように、この実施形態に係る第1判定角度範囲R1は、所定の角度θ1から−θ1にわたって設けられており、推定された顔向きθfがこの範囲内(−θ1<θf<θ1)であれば、ユーザUの視線Sが表示面21上にあるものとみなすことができる。
また、算出部51は、第1判定角度範囲R1内に、ユーザUが表示面21に表示されたコンテンツCに注視しているか否かを判定するための第2判定角度範囲R2を設定する。図1(a)及び図1(b)に示すように、この第2判定角度範囲R2は、顔向きθfの推定結果と比較することで、その顔向きθfに対応する視線Sが表示面中央部21c付近にあるか否かを判定する指標であり、表示面21及びコンテンツCの長手方向の形態等に基づいて設定されている。図6(a)に示すように、この実施形態に係る第2判定角度範囲R2は、所定の角度θ2(<θ1)から−θ2にわたって設けられており、推定された顔向きθfがこの範囲内(−θ2<θf<θ2)であれば、その顔向きθfに対応する視線Sが前記表示面中央部21c付近にある、つまり、ユーザUの視線Sは表示面21上にあり且つ、当該ユーザUがコンテンツCに注視しているものとみなすことにする。
算出部51は、第1判定角度範囲R1及び第2判定角度範囲R2の設定を反映するように構成された集中度変換テーブル(図6(a)参照)T2に基づいて、撮像間隔t毎に、推定された顔向きθfを集中度に変換する。前述のように、顔向きθfが第1判定角度範囲R1外にある状況は、ユーザUの視線Sが表示面21上にない状況に相当する。この場合、ユーザUは、表示面21、ひいてはコンテンツCに比較的集中していないものとみなすことができる。それゆえ、集中度変換テーブルT2は、図6(a)に示すように、この場合には、集中度をゼロとするように構成されている。
次に、顔向きθfが第1判定角度範囲R1内にあり且つ、第2判定角度範囲R2外にある状況は、前述のように、ユーザUの視線Sが表示面21上にある状況に相当する。この場合、ユーザUは、表示面21、ひいてはコンテンツCに比較的集中しているものとみなすことができる。それゆえ、集中度変換テーブルT2は、図6(a)に示すように、この場合には、集中度がゼロを上回るように構成されている。また、顔向きθfの大きさがゼロに近づいていくにつれて、ユーザUの視線Sと表示面21との交点は、表示面21の周縁部付近から表示面中央部21c付近に向けて移動していくものとみなすことができる。この場合、ユーザUのコンテンツCに対する集中度合いが高まっていくものとして、変換テーブルT1は、集中度が単調に増大していくように構成されている。
さらに、顔向きθfが第2判定角度範囲R2内にある状況は、前述のように、視線Sは表示面中央部21c付近の領域C1に向けられており、ユーザUがコンテンツCに注視している状況に相当する。集中度変換テーブルT2は、図6(a)に示すように、この場合には、第2判定角度範囲R2内における顔向きθfの増減に拘らず、集中度が一定の最大値(=100)になるように構成されている。
この実施形態に係る算出部51は、ユーザ距離推定部43により推定されたユーザ距離Dが増大するにつれて、前記θ1及びθ2の値を減少させることで、前記のような第1判定角度範囲R1と第2判定角度範囲R2とが、それぞれ、より狭くなるように設定する。
こうした構成は、以下の知見を反映している。
例えば、図4(a)に示すように、ユーザ距離Dの大きさをDaとして、このときの第1判定角度範囲R1は、前記θ1から−θ1にわたって設けられているものとする。この場合、顔向きθfがθ1に等しいとすると、表示面21に沿って平行に延ばした平面と、顔向きθfに対応する視線Sとの交点P1は、表示面21の周縁部付近に位置することになる。
一方で、図4(b)に示すように、ユーザ距離Dの大きさがDaからDbに増大したものとする。この場合、ユーザ距離Dが増大した分だけ、そのユーザUの視界内における表示面21の相対サイズが単調に縮小するため、その縮小に対応するように、第1判定角度範囲R1を再設定する必要がある。つまり、顔向きθfがθ1に保持されているものとすると、図4(b)に示すように、表示面21に沿って平行に延ばした平面と、顔向きθfに対応する視線Sとの交点P2は、前記P1よりも外方に位置することになる。つまり、ユーザUの視線Sは表示面21上にないため、図4(a)に示す状況よりも集中度を低くすることが考えられる。そこで、算出部51は、ユーザ距離Dが増大した分だけ、図4(a)に示す状況よりも、第1判定角度範囲R1を狭く設定するように構成されている。
第2判定角度範囲R2についても、第1判定角度範囲R1と同様に、ユーザ距離Dが大きくなるにしたがって、より狭く設定されるように構成されている。
このように、本願発明者等は、ユーザ距離Dの推定結果に基づいて、第1判定角度範囲R1及び第2判定角度範囲R2の範囲を定めるようにした。具体的には、図6(b)に示すように、集中度変換テーブルT2は、ユーザ距離Dが大きくなるにつれて、θ1及びθ2の値がそれぞれθ1’及びθ2’に減少するよう構成されている。
算出部51は、前述のようにして、ユーザ距離Dの大きさに応じて調整された集中度変換テーブルT2に基づいて、顔向きθfを集中度に変換する。そして、変換により算出された集中度を、時系列に沿ってデータ処理部52に入力する(図7参照)。以下では、データ処理部52により実行される種々の処理について、図8(a)、図8(b)、図9(a)及び図9(b)に示す例を用いて説明する。
図8(a)は、撮像間隔t毎に算出された集中度を模式的に示したヒストグラムである。この実施形態に係るデータ処理部52は、算出された集中度のそれぞれに対して所定の処理を行った上で、図8(b)に示すように、所定の時間T毎に平均する。
図9(a)は、図8(a)におけるコンテンツCの一部区間X1,X2に係る集中度を拡大して示すものであり、図9(b)及び図9(c)は、当該区間X1,X2におけるデータ処理部52による前記所定の処理を説明するものである。
具体的に、データ処理部52は、撮像間隔t毎に、まぶた開閉判定部46により検出されたまぶたの開度を参照する。そして、ユーザUのまぶたが一部乃至完全に閉じた状態にあると判定されていたときには、その判定に係る顔領域Fに基づいて算出された集中度を、検出された開度に応じて減少させる。図9(a)における区間Y1においては、ユーザUのまぶたが完全に閉じた状態にあると判定されていたため、集中度がゼロまで減少されている(図9(b)参照)。
また、データ処理部52は、まぶた開閉判定部46による判定結果に加えてさらに、撮像間隔t毎に、ユーザ動作検出部44による検出結果も参照する。そしてユーザUの身体動作が検出されていたときには、その検出に係る顔領域Fに基づいて算出された集中度の大きさを、前述の算出結果から半減させる。図9(a)における区間Y2においては、ユーザの身体動作が検出されていたため、集中度が半減されている(図9(b)参照)。
データ処理部52は、まぶた開閉判定部46の検出結果と、ユーザ動作検出部44の検出結果とを反映させた集中度を、所定の時間T(>t)毎に平均(移動平均)した上で、その平均値を、算出結果(集中度データ)として記録媒体6に記録する。図9(c)に示すように、この実施形態では、集中度を5回算出する毎に1回平均するよう構成されている(つまり、T=5t)。以下では、この“所定の時間”Tを、“記録間隔”Tと記載する。
記録媒体6は、この実施形態では、TV1に内蔵されたHDDとして構成されている。この記録媒体6は、図7及び図8(b)に示すように、データ処理部52から入力された集中度データを、記録間隔T毎に、継続的に記録する。また、記録媒体6は、そうした集中度データとは別に、その集中度データを算出したときに、表示面21に表示されていたコンテンツCを識別するためのコンテンツ識別データが入力されるよう構成されており、集中度データとコンテンツ識別データとを対応付けて記録する。それゆえ、記録媒体6に記録される集中度データは、図8(b)に示すように、各コンテンツCに関連付けられた状態で、継続的に記録されることになる。
ユーザUが2人以上の場合も同様である。その場合、ユーザU毎に顔領域Fが抽出されて、それぞれについての集中度データが得られる。この実施形態に係るTV1は、設定に応じて、各人に係る集中度データを統計処理したデータ(例えば、各人に係る集中度データの平均値)を記録したり、各ユーザU毎に集中度データを独立して記録したり、するように構成されている。
この実施形態に係る集中度データは、時系列に沿って、日時に関連付けられて記録されている。したがって、この集中度データは、ユーザUの視聴履歴(視聴内容及び視聴日時)と関連付けられた状態で、記録されることになる。このTV1は、そうした集中度データに基づいて、番組推薦情報及び広告推薦情報を算出するように構成されている。例えば、この実施形態に係るTV1は、あるコンテンツCに係る集中度データが比較的高いときには、そのコンテンツCに興味があるものとして、当該コンテンツCと同ジャンルの番組を推薦する。
以上説明したように、この実施形態に係るTV1は、集中度を算出するときに、顔向きθfに加えてさらに、顔サイズFsから推定されるユーザ距離Dも参照するようにした。そうした参照によって設定される第1判定角度範囲R1と、顔向きθfとの間の相対関係に基づいて集中度を算出するように構成したから、ユーザUが表示面21を見ているか否かを集中度に反映させることができるという点で、集中度をより正確に算出することができる。
さらに、この実施形態に係るTV1は、顔サイズFs及び顔向きθfを推定する上で、CCDカメラにより撮像されたユーザ像Vのみを用いるように構成されているから、モーションキャプチャ等の部材を新設したり、その部材に係る制御系を設けたりする必要がない分だけ、より簡素に構成することができるようになり、ひいては、TV1の製造コストを抑止する上でも有利になる。
この実施形態に係るTV1は、従来構成とは異なり、事前のキャリブレーションを必要としないから、ユーザUの負担を軽減させるという点で、当該従来構成よりも利便性に優れる。また、ユーザ像Vを撮像する度にユーザ距離Dを推定できるように構成されているから、ユーザUが移動する等しても、第1判定角度範囲R1を再設定することで、集中度を安定して算出することができる。
ユーザU毎に事前のキャリブレーションを行う必要がなく、しかもユーザ距離Dの変化を許容するような構成は、TV1のように、ユーザUが複数人と成り得たり、各ユーザUが家屋内の各所から視聴するような用途に適用したりする上で有利になる。
ユーザUが2人以上の場合には、ユーザU毎に顔領域Fを抽出し、それぞれについて集中度を算出するだけでよいから、利便性を高める上で有利になる。
また、この実施形態に係るTV1のように、集中度データを継続的に記録する場合、視聴の度に事前作業を行うことなく、しかも、ユーザ距離Dの変化を許容するような構成は、日常的に使用する上で、実用性を高めることができるという点で、取り分け有効となる。
また、算出部51は、顔向きθfが第1判定角度範囲R1内にあり且つ、第2判定角度範囲外にあるときには、顔向きθfが0度に近づくにしたがって、集中度を単調に増大させるように構成されているから、集中の度合いを定量化する上で有利になる。
また、算出部51は、顔向きθfが第2判定角度範囲R2内にあるときに、集中度を一定の最大値にするよう構成されているから、ユーザUがコンテンツCに注視しているときに、コンテンツCの変化に応じた視線Sの変動や揺れ動きの影響を低減させる上で有利になり、ひいては、集中度の算出を安定させる上で有利になる。
また、ユーザ距離推定部43は、ユーザ距離Dを推定するときに、顔サイズFsに加えてさらに、顔向きθfの推定結果も参照するようにしたから、ユーザ距離Dをより正確に推定する上で有利になる。
また、データ処理部52は、まぶた開閉判定部46による判定結果に基づいて、まぶたが閉じた状態にあると判定されたときには、集中度を減少させるよう構成されている。通常、コンテンツCに対する集中度合いが高まるにしたがって、ユーザUがまぶたを閉じる頻度は減少していくものと考えられる。また、睡眠状態にあったり、眠気が高まった状態にあったりすると、まぶたが所定時間にわたって閉じたり、まぶたを閉じる頻度が増大したりする。ゆえに、この構成によると、前記のような状況を集中度に反映させることができるから、集中度の精度を高める上で有利になる。
また、データ処理部52は、ユーザ動作検出部44による判定結果に基づいて、ユーザUの身体動作が検出されたときには、集中度を半減させるよう構成されている。通常、ユーザが身体動作をするとき、コンテンツCに対する集中度合いは比較的低いものと考えられるから、このように構成することで、集中度の精度を高める上で有利になる。
また、データ処理部52は、所定の記録間隔T毎に、算出された集中度を平均するよう構成されているから、ユーザUの視線のふらつきや、顔領域Fの抽出エラー等の影響を低減する上で有利になる。これにより、記録媒体6に記録された集中度データを活用する上で有利になる。
また、記録媒体6は、平均値として得られた集中度データを記録間隔T毎に記録するように構成されているから、平均した分だけデータ量を削減することができるという点で、当該記録媒体6を構成するHDDの容量を節約する上で有利になる。
また、記録媒体6は、集中度データとコンテンツ識別データとを関連付けて記録するようにしたから、番組推薦情報及び広告推薦情報の精度を高めることができるという点で有利になる。
また、記録媒体6は、集中度データと日時とを関連付けて記録するようにしたから、番組推薦情報及び広告推薦情報の精度を高めることができるという点で有利になる。
(第1の変形例)
以下では、前記実施形態に係る第1の変形例について説明する。この変形例は、請求項8に係る。
以下では、前記実施形態に係る第1の変形例について説明する。この変形例は、請求項8に係る。
第1の変形例に係るユーザ属性推定部を含んで構成される顔領域分析部41は、抽出された顔領域Fを分析することにより、ユーザUの属性として、老若男女に係る情報を分析する。こうした分析は、学習データベース7による事前学習に基づいて、顔領域Fにおける顔のしわ、及び、髪型等を解析することにより行われる。
第1の変形例に係る記録媒体6は、集中度データを記録する際に、ユーザUの属性を識別する属性識別データと関連付けて記録する。この記録媒体6は、インターネットを介して外部のデータベースに接続されていて、記録された集中度データを属性別に集計する。
第1の変形例によると、顔領域分析部41は、抽出された顔領域FよりユーザUの属性を抽出するから、番組推薦情報及び広告推薦情報の精度を高める上で有利になる。また、記録された集中度データを属性別に集計することで、不特定多数のユーザUのニーズを分析する上でも有利になる。
また、ユーザUの属性を抽出することで、複数のユーザUが複数人いる状況において、各ユーザUを区別する上でも有利になる。そうすることで、ユーザU毎に集中度データを記録する上で有利な構成が得られる。こうした構成は、コンテンツ表示装置としてのデジタルサイネージに適用する上で取り分け有利となる。
(第2の変形例)
以下では、前記実施形態に係る第2の変形例について説明する。
以下では、前記実施形態に係る第2の変形例について説明する。
第2の実施形態に係るTV1は、顔向きθsとして、ヨー角θfとピッチ角θpとを用いるように構成されている。このピッチ角θpは、ユーザUが表示面中央部(基準位置)21cを正面から見た状態を0度とするように定義されている(つまり、x軸の右ネジ方向)。
第2の変形例に係るユーザ視線推定部42は、ユーザ像V内における各顔器官の位置として、眉間、鼻中央部、及び口中央部のy座標をそれぞれ検出する。そして、事前に設定された顔モデルに基づいて、ユーザUが正面を向いたときに、眉間と鼻中央部と口中央部とがy方向に沿って所定の比率で並ぶと仮定すると、ヨー角θfと同様に、ピッチ角θpを推定することができる。
第2の変形例に係る算出部51は、ヨー角θfと同様に、ピッチ角θpに係る第1判定角度範囲R1と第2判定角度範囲R2とを、表示面21及びコンテンツCの短手方向の形態等に基づいて設定し、ユーザ距離Dを、前記ヨー角θfに係る集中度とは別に、ピッチ角θpに係る集中度として変換する。
第2の変形例に係る算出部51は、ヨー角θfに係る集中度と、ピッチ角θpに係る集中度とを乗算した値を、算出結果としてデータ処理部52に入力する。
第2の変形例によると、算出結果として、ヨー角θfに係る集中度に加えてさらに、ピッチ角θpに係る集中度を算出するようにしたから、集中度の精度を高める上で有利になると共に、表示面21ひいてはコンテンツCの形態に対応するように、第1判定角度範囲R1及び第2判定角度範囲R2を設定する上でも有利になる。
<他の実施形態>
前記実施形態では、コンテンツ表示装置の一例として、TV1について説明したが、これに限定されるわけではない。例えば、デジタルサイネージに適用してもよいし、パーソナルコンピュータに適用してもよい。
前記実施形態では、コンテンツ表示装置の一例として、TV1について説明したが、これに限定されるわけではない。例えば、デジタルサイネージに適用してもよいし、パーソナルコンピュータに適用してもよい。
前記実施形態では、表示手段の一例として、平面状に形成された表示面21を有するディスプレイ2について説明したが、この構成に限定されるわけではない。例えば、曲面状に形成された表示面を有するディスプレイであってもよいし、表示面としての壁部又はスクリーン上に映像を投射するように構成された投影装置であってもよい。
また、前記実施形態では、基準位置として表示面中央部21cを用いた構成について説明したが、この構成に限定されるわけではない。表示面21の形態、ひいては、表示面21上におけるコンテンツCの表示位置等に応じて、適宜変更することができる。例えば、コンテンツCの形態に応じて、基準位置の位置を所定の時間間隔毎に変更するようにしてもよい。
前記実施形態では、撮像手段の一例として、CCDカメラ3を用いた構成について説明したが、この構成に限定されるわけはない。ユーザ像を撮像可能なものであればよい。その取付位置についても、前記実施形態に係る構成から可能な範囲で変更することができる。
撮像手段、ユーザ像解析手段及び集中度算出手段は、それぞれ、コンテンツ表示装置を構成する各要素に対して一体的、又は、着脱可能に構成されていてもよい。例えば、撮像手段として、USBポートを介して取付可能なUSBカメラを適用してもよい。各手段間の接続方法についても、ケーブルで接続してもよいし、ワイヤレスで通信させてもよい。
前記実施形態では、集中度記録手段の一例として、TV1に内蔵されたHDDから構成された記録媒体6について説明したが、この構成に限定されるわけではない。例えば、外付式のHDDであってもよいし、インターネットを介して接続されたクラウド式のデータベースでもよい。
ユーザ像解析手段4に係る構成についても、可能な範囲で変更することができる。顔領域Fの抽出方法として、前記実施形態では、機械学習方式を用いた方法について説明したが、この方式に代えて、撮像されたユーザ像Vから、人物の顔モデルに基づいて設定された所定の形状を有し且つ、所定の色を有する領域を抽出するような方法でもよい。機械学習方式を用いる場合においても、インターネットを介して接続された学習データベースを用いるよう構成することもできる。
また、顔領域Fのモデル化(式(1)参照)についても、可能な範囲で変更することができる。円形状ではなく所定の楕円形状であってもよいし、顔領域Fに基づいて分析されたユーザUの属性に基づいて設定してもよい。
また、前記実施形態では、ユーザUの視線角度として顔向きθfを用いた構成について説明したが、これに代えて、又は、これに加えて、ユーザUの瞳孔の向きを反映させるようにしてもよい。その場合、顔領域Fから左右両目の中心の位置を検出するときに、それぞれの目に係る瞳孔の中心の位置も検出するように構成すればよい。
ユーザ動作検出部44の構成についても、可能な範囲で変更することができる。前記実施形態では、撮像間隔t毎に検出するように構成されていたが、記録間隔T毎に検出してもよいし、撮像間隔tとも記録間隔Tとも異なる時間毎に行ってもよい。
第1判定角度範囲R1の設定の詳細についても、可能な範囲で変更することができる。表示面21の形態や、当該表示面21上に表示されるコンテンツCの形態に応じて設定されるものであればよい。第2判定角度範囲R2の設定についても同様である。集中度変換テーブルの詳細についても、可能な範囲で変更することができる。
集中度算出手段5に係る構成についても可能な範囲で変更することができる。例えば、算出部51とデータ処理部52とを一体的に構成してもよい。集中度算出手段5が行う処理についても、例えば、前記実施形態のように、集中度を算出した後にまぶたの開閉に係る処理を行う構成に代えて、集中度の算出とまぶたの開閉に係る処理とを併せて行うようにしてもよい。記録間隔Tについても、適宜変更することができる。
C コンテンツ
D ユーザ距離(基準位置からユーザまでの距離)
F 顔領域
Fs 顔サイズ(ユーザ像内における顔領域のサイズ)
R1 第1判定角度範囲
R2 第2判定角度範囲
S 視線
U ユーザ
V ユーザ像
θf 顔向き(視線角度)
1 TV(コンテンツ表示装置)
2 ディスプレイ(表示手段)
21 表示面
21c 表示面中央部(基準位置)
3 CCDカメラ(撮像手段)
4 ユーザ像解析手段
41 顔領域分析部
42 ユーザ視線推定部
43 ユーザ距離推定部
44 ユーザ動作検出部
46 まぶた開閉判定部
5 集中度算出手段
6 記録媒体(集中度記録手段)
D ユーザ距離(基準位置からユーザまでの距離)
F 顔領域
Fs 顔サイズ(ユーザ像内における顔領域のサイズ)
R1 第1判定角度範囲
R2 第2判定角度範囲
S 視線
U ユーザ
V ユーザ像
θf 顔向き(視線角度)
1 TV(コンテンツ表示装置)
2 ディスプレイ(表示手段)
21 表示面
21c 表示面中央部(基準位置)
3 CCDカメラ(撮像手段)
4 ユーザ像解析手段
41 顔領域分析部
42 ユーザ視線推定部
43 ユーザ距離推定部
44 ユーザ動作検出部
46 まぶた開閉判定部
5 集中度算出手段
6 記録媒体(集中度記録手段)
Claims (8)
- ユーザに対してコンテンツを表示可能な表示面を有する表示手段と、
ユーザ像を撮像可能な撮像手段と、
前記撮像手段により撮像された前記ユーザ像を解析するユーザ像解析手段と、
前記ユーザ像解析手段による解析結果に基づいて、前記ユーザの前記コンテンツに対する集中の度合いを示す集中度を算出する集中度算出手段と、
前記集中度算出手段による算出結果を、時系列に沿って継続的に記録可能な集中度記録手段と、を備え、
前記ユーザ像解析手段は、前記ユーザ像から前記ユーザの顔領域を抽出すると共に、該ユーザ像内における顔領域のサイズを検出する顔領域分析部と、前記顔領域分析部により抽出された顔領域の形態に基づいて、前記ユーザの視線方向が、前記表示面上の基準位置から面直に延びる直線に対して成す視線角度を推定するユーザ視線推定部と、前記顔領域分析部により検出された顔領域のサイズに基づいて、前記基準位置から前記ユーザまでの距離を推定するユーザ距離推定部と、を有し、
前記ユーザ距離推定部は、前記ユーザ像内における顔領域のサイズが大きくなるにしたがって、前記基準位置から前記ユーザまでの距離がより小さくなるように推定し、
前記集中度算出手段は、前記ユーザ距離推定部による推定結果に基づいて、前記ユーザの視線が前記表示面上にあるか否かを判定する第1判定角度範囲を設定すると共に、前記視線角度が前記第1判定角度範囲内にあるときには、前記ユーザの視線が前記表示面上にあるものとして、当該第1判定角度範囲外にあるときよりも、前記集中度を高く算出するように構成され、
前記第1判定角度範囲は、前記基準位置から前記ユーザまでの距離が大きくなるにしたがって狭くなるように設定される、コンテンツ表示装置。 - 請求項1に記載のコンテンツ表示装置において、
前記集中度算出手段は、前記第1判定角度範囲内に、第2判定角度範囲を設定すると共に、前記視線角度が前記第2判定角度範囲内にあるときには、前記ユーザが前記コンテンツに注視しているものとして、前記集中度を一定にするように構成される、コンテンツ表示装置。 - 請求項1又は請求項2に記載のコンテンツ表示装置において、
前記ユーザ距離推定部は、前記ユーザ視線推定部により推定された視線角度に基づいて、
前記ユーザの視線が前記表示面から離れる方向に向かうにつれて、前記基準位置から前記ユーザまでの距離がより小さくなるように推定する、コンテンツ表示装置。 - 請求項1から請求項3のいずれか1つに記載のコンテンツ表示装置において、
前記ユーザ像解析手段は、前記顔領域分析部により抽出された顔領域の形態に基づいて、前記ユーザのまぶたの開度を検出するまぶた開閉判定部を有し、
前記集中度算出手段は、前記まぶた開閉判定部により検出されたまぶたの開度に基づいて、前記ユーザのまぶたが閉じた状態にあると判定されたときには、開いた状態にあると判定されたときよりも、前記集中度を低く算出するよう構成される、コンテンツ表示装置。 - 請求項1から請求項4のいずれか1つに記載のコンテンツ表示装置において、
前記ユーザ像解析手段は、前記ユーザ像の時間推移に基づいて、前記ユーザの身体動作を検出するユーザ動作検出部を有し、
前記集中度算出手段は、前記ユーザ動作検出部による検出結果に基づいて、前記ユーザの身体動作が検出されたときには、当該ユーザの身体動作が検出されなかったときよりも、前記集中度を低く算出するように構成される、コンテンツ表示装置。 - 請求項1から請求項5のいずれか1つに記載のコンテンツ表示装置において、
前記集中度算出手段は、前記集中度を所定の時間毎に平均し、
前記集中度記録手段は、前記平均値を算出結果として記録するように構成される、コンテンツ表示装置。 - 請求項1から請求項6のいずれか1つに記載のコンテンツ表示装置において、
前記集中度記録手段は、前記集中度算出手段による算出結果を、当該算出の際に前記表示面に表示されていたコンテンツに関連付けて記録するように構成される、コンテンツ表示装置。 - 請求項1から請求項7のいずれか1つに記載のコンテンツ表示装置において、
前記ユーザ像解析手段は、前記顔領域分析部により抽出された顔領域の形態に基づいて、撮像されたユーザの属性を推定するユーザ属性推定部を有し、
前記集中度記録手段は、前記集中度算出手段による算出結果を、前記ユーザの属性に関連付けて記録するように構成される、コンテンツ表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014249178A JP2016111612A (ja) | 2014-12-09 | 2014-12-09 | コンテンツ表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014249178A JP2016111612A (ja) | 2014-12-09 | 2014-12-09 | コンテンツ表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016111612A true JP2016111612A (ja) | 2016-06-20 |
Family
ID=56124989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014249178A Pending JP2016111612A (ja) | 2014-12-09 | 2014-12-09 | コンテンツ表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016111612A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018032174A (ja) * | 2016-08-23 | 2018-03-01 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
KR102266479B1 (ko) * | 2021-01-12 | 2021-06-17 | (주)이루미에듀테크 | 온라인 학습 능력 분석을 위한 시선 추적 방법, 장치 및 시스템 |
CN114063962A (zh) * | 2021-11-25 | 2022-02-18 | 深圳Tcl数字技术有限公司 | 图像显示方法、装置、终端和存储介质 |
WO2022209912A1 (ja) * | 2021-03-30 | 2022-10-06 | パナソニックIpマネジメント株式会社 | 集中値算出システム、集中値算出方法、プログラム、及び、集中値算出モデル生成システム |
-
2014
- 2014-12-09 JP JP2014249178A patent/JP2016111612A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018032174A (ja) * | 2016-08-23 | 2018-03-01 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
KR102266479B1 (ko) * | 2021-01-12 | 2021-06-17 | (주)이루미에듀테크 | 온라인 학습 능력 분석을 위한 시선 추적 방법, 장치 및 시스템 |
WO2022209912A1 (ja) * | 2021-03-30 | 2022-10-06 | パナソニックIpマネジメント株式会社 | 集中値算出システム、集中値算出方法、プログラム、及び、集中値算出モデル生成システム |
JP7531148B2 (ja) | 2021-03-30 | 2024-08-09 | パナソニックIpマネジメント株式会社 | 集中値算出システム、集中値算出方法、及び、プログラム |
CN114063962A (zh) * | 2021-11-25 | 2022-02-18 | 深圳Tcl数字技术有限公司 | 图像显示方法、装置、终端和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tonsen et al. | A high-level description and performance evaluation of pupil invisible | |
US11747898B2 (en) | Method and apparatus with gaze estimation | |
Smith et al. | Gaze locking: passive eye contact detection for human-object interaction | |
Harezlak et al. | Towards accurate eye tracker calibration–methods and procedures | |
Sugano et al. | Appearance-based gaze estimation with online calibration from mouse operations | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
Szwoch et al. | Facial emotion recognition using depth data | |
WO2020042542A1 (zh) | 眼动控制校准数据获取方法和装置 | |
JP5225870B2 (ja) | 情動分析装置 | |
US20160232399A1 (en) | System and method of detecting a gaze of a viewer | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
WO2015192879A1 (en) | A gaze estimation method and apparatus | |
JP2016111612A (ja) | コンテンツ表示装置 | |
JP2012022538A (ja) | 注目位置推定方法、画像表示方法、注目コンテンツ表示方法、注目位置推定装置および画像表示装置 | |
Yang et al. | Continuous gaze tracking with implicit saliency-aware calibration on mobile devices | |
Dostal et al. | Estimating and using absolute and relative viewing distance in interactive systems | |
Yang et al. | vGaze: Implicit saliency-aware calibration for continuous gaze tracking on mobile devices | |
Khaleel et al. | Best low-cost methods for real-time detection of the eye and gaze tracking | |
Tamura et al. | Unconstrained and calibration-free gaze estimation in a room-scale area using a monocular camera | |
CN110858095A (zh) | 可由头部操控的电子装置与其操作方法 | |
EP2685351A1 (en) | Method for calibration free gaze tracking using low cost camera | |
WO2021100214A1 (ja) | 情報処理方法、情報処理装置、及び制御プログラム | |
Parte et al. | A survey on eye tracking and detection | |
Carrato et al. | Computer vision for the blind: a dataset for experiments on face detection and recognition | |
Anwar | Real time facial expression recognition and eye gaze estimation system |