JP2022094784A - コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム - Google Patents

コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム Download PDF

Info

Publication number
JP2022094784A
JP2022094784A JP2020207869A JP2020207869A JP2022094784A JP 2022094784 A JP2022094784 A JP 2022094784A JP 2020207869 A JP2020207869 A JP 2020207869A JP 2020207869 A JP2020207869 A JP 2020207869A JP 2022094784 A JP2022094784 A JP 2022094784A
Authority
JP
Japan
Prior art keywords
viewer
information
content
movement
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020207869A
Other languages
English (en)
Inventor
保 佐藤
Tamotsu Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Webrage Co Ltd
Original Assignee
Webrage Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Webrage Co Ltd filed Critical Webrage Co Ltd
Priority to JP2020207869A priority Critical patent/JP2022094784A/ja
Publication of JP2022094784A publication Critical patent/JP2022094784A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案するコンテンツ提案装置を提供する。【解決手段】コンテンツ提案システムにおいて、コンテンツ提案装置3は、コンテンツを視聴する視聴者情報を感情測定端末2(端末2)から受信する視聴者情報受信部311と、端末2コンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を視聴者情報に基づいて生成可能なコンテンツ提案情報生成部312と、端末2にコンテンツ提案情報を送信可能なコンテンツ提案情報送信部313と、を備える。視聴者情報は、少なくとも、視聴者の感情に関する感情指数情報と、端末2の表示部25に設けられた画面表示領域のうち、視聴者が注視する領域に関する注視領域情報と、を含む。感情指数情報及び注視領域情報は、視聴者が視聴したコンテンツの視聴履歴と関連付けられている。【選択図】図1

Description

本発明は、コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラムに関する。
動画、画像、文章、及びウェブサイト等によって例示されるコンテンツを視聴することが広く行われている。コンテンツを視聴する視聴者が視聴可能なコンテンツの数は、ますます増加している。コンテンツの数が増加するに伴い、視聴者の好みは、ますます多様化している。そのため、視聴者の好みを把握し、視聴者の好みに合うコンテンツを多くのコンテンツの中から探し出して視聴者に提供することは、ますます困難になっている。視聴者の感情を解析できれば、視聴者の感情に基づいて視聴者の好みを把握し得る。したがって、視聴者の感情に基づいて選択したコンテンツの視聴を視聴者に提案できれば、視聴者は、多くのコンテンツの中から好みに合うコンテンツを探し出す労力を費やすことなく、好みに合うコンテンツを視聴して楽しみ得る。
視聴者の感情に基づいて選択したコンテンツの視聴を提案することに関し、特許文献1は、ユーザの顔を認識する顔認識エンジン及び顔表現に関する情報を含む顔表現ライブラリ等を用いてデバイスの認識範囲内のユーザ及びユーザの感情的状態、気分、及び/又はコンテンツに対する注意深さ等を特定し、ユーザの感情的状態、気分、及び/又はコンテンツに対する注意深さ等に基づいてユーザにコンテンツを提供し得る方法を開示している。
特表2014-502454号公報
スマートフォン、タブレット端末、及びパーソナルコンピュータによって例示される端末の画面表示領域にコンテンツを表示する場合、画面表示領域には、領域ごとに異なる複数の視聴対象が表示され得る。例えば、画面表示領域の右側の領域にツッコミを担当する芸人が表示され、左側の領域にボケを担当する芸人が表示される場合があり得る。あるいは、画面表示領域の上側の領域に芸人たちがコントを行う動画が表示され、下側の領域に笑いを誘う文章が表示される場合があり得る。このような場合において、視聴者の注意及び/又は感情が複数ある視聴対象のいずれに向けられたものであるかを判別できれば、視聴者の注意及び/又は感情を向けられた視聴対象に類似した視聴対象等を含むコンテンツを選択して、該コンテンツの視聴を提案し得る。したがって、視聴者の注意及び/又は感情が複数ある視聴対象のいずれに向けられたものであるかを判別しない場合と比べて、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。
しかしながら、特許文献1の方法は、ユーザの感情的状態、気分、及び/又はコンテンツに対する注意深さに基づいてコンテンツをユーザに提供し得るにとどまる。特許文献1の方法は、ユーザの顔を認識するものの、ユーザの識別と顔表現ライブラリを用いた感情的状態又は気分の特定とコンテンツに対する注意深さの確認とに認識された顔を利用するにとどまり、視聴者の注意及び/又は感情が画面表示領域の領域ごとに表示された複数の視聴対象のいずれに向けられたものであるかの判別を行わない。したがって、特許文献1の方法は、視聴者の注意及び/又は感情が画面表示領域の領域ごとに表示された複数の視聴対象のいずれに向けられたものであるかに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することにおいて、改善の余地がある。
また、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することに関し、処理リソースの課題もある。視聴者の感情を解析することや、解析された感情等に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することは、多大な処理リソースを要求し得る。したがって、視聴者が用いる端末がスマートフォン等によって例示される携帯端末である場合等の端末が提供可能な処理リソースが比較的少ない場合、該端末を用いて視聴者の感情等を解析することや、該端末を用いて解析された感情等に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することは、容易ではない。特許文献1の方法は、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合において、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することについても、なおいっそう改善の余地がある。
本発明は、このような事情に鑑みてなされたものであり、その目的は、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能なコンテンツ提案装置等を提供することである。
本発明者らは、上記課題を解決するために鋭意検討した結果、視聴者の視点の動きと視聴者の顔の動きとを用いて解析等された感情指数及び注視領域等を含む視聴者情報に基づいてコンテンツの視聴を提案することで、上記の目的を達成できることを見出し、本発明を完成させるに至った。具体的に、本発明は以下のものを提供する。
第1の特徴に係る発明は、コンテンツを視聴する視聴者に関する視聴者情報を外部端末から受信する視聴者情報受信部と、前記外部端末にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を前記視聴者情報に基づいて生成可能なコンテンツ提案情報生成部と、前記外部端末に前記コンテンツ提案情報を送信可能なコンテンツ提案情報送信部と、を備え、前記視聴者情報は、少なくとも、前記視聴者の感情に関する感情指数情報と、前記外部端末における画面表示領域のうち、前記視聴者が注視する領域に関する注視領域情報と、を含み、前記感情指数情報及び前記注視領域情報は、前記視聴者が視聴した前記コンテンツの視聴履歴と関連付けられている、コンテンツ提案装置を提供する。
視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することに関し、端末の画面表示領域にコンテンツを表示する場合、画面表示領域には、領域ごとに異なる複数の視聴対象が表示され得る。このような場合において、視聴者の注意及び/又は感情が複数の視聴対象のいずれに向けられたものであるかを判別できれば、視聴者の注意及び/又は感情を向けられた視聴対象に類似した視聴対象等を含むコンテンツを選択して、該コンテンツの視聴を提案し得る。したがって、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。
第1の特徴によれば、外部端末から受信した視聴者情報に基づいて生成されたコンテンツ提案情報を介して、外部端末にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を生成する。このため、視聴者情報に基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを外部端末において必要とすることがない。したがって、外部端末がスマートフォン等によって例示される携帯端末である場合等の外部端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者情報に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
視聴者情報は、視聴者の感情に関する感情指数情報と、外部端末における画面表示領域のうち、視聴者が注視する領域に関する注視領域情報とを含むため、視聴者の感情と、画面表示領域のうち視聴者が注視する領域と、に基づいてコンテンツ提案情報が生成され得る。そして、生成されたコンテンツ提案情報を介して、外部端末にコンテンツの視聴を提案する画面を表示させ得る。すなわち、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。
第1の特徴によれば、感情指数情報及び注視領域情報は、視聴者が視聴したコンテンツの視聴履歴と関連付けられているため、単に視聴者の感情又は注視する領域に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案するにとどまらず、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案する、あるいは、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案する等し得る。
したがって、第1の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能なコンテンツ提案装置を提供できる。
第2の特徴に係る発明は、第1の特徴に係る発明であって、前記視聴者情報は、前記視聴者の生体情報をさらに含み、前記生体情報は、前記視聴履歴と関連付けられている、コンテンツ提案装置を提供する。
心拍数、血圧、及び体温等によって例示される生体情報は、感情に応じて変化することが知られている。第2の特徴に係る発明によれば、視聴履歴と関連付けられた生体情報を用いて、生体情報を用いない場合と比べて視聴者の感情を詳細に解析し得る。これにより、生体情報を用いない場合と比べて、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情をより詳細に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
第2の特徴に係る発明によれば、受信した生体情報を含む視聴者情報に基づいてコンテンツ提案情報を生成するため、外部端末がスマートフォン等によって例示される携帯端末である場合等の外部端末が提供可能な処理リソースが比較的少なく、外部端末において生体情報を用いた感情の解析等を行えない場合であっても、生体情報を用いて視聴者の好みにより合ったコンテンツの視聴を提案し得る。
したがって、第2の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性が生体情報を用いない場合より高いコンテンツの視聴を提案可能なコンテンツ提案装置を提供できる。
第3の特徴に係る発明は、コンテンツを視聴する視聴者の顔に関する特徴点を取得する特徴点取得部と、前記特徴点を用いて前記視聴者の視点の動きを解析する視点動き解析部と、前記特徴点を用いて前記視聴者の顔の動きを解析する顔動き解析部と、前記視点の動きと前記顔の動きとを用いて前記視聴者の感情に関する感情指数情報を生成する感情指数情報生成部と、前記視点の動きと前記顔の動きとを用いて、画面表示領域のうち、前記視聴者が注視する領域に関する注視領域情報を解析する注視領域情報解析部と、前記視聴者が視聴した前記コンテンツの視聴履歴と関連付けられた前記感情指数情報と前記視聴履歴と関連付けられた前記注視領域とを含む視聴者情報を外部装置に送信する視聴者情報送信部と、前記視聴者情報に基づいて前記画面表示領域にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を前記外部装置から受信するコンテンツ提案情報受信部と、前記コンテンツ提案情報を用いて前記画面表示領域に前記コンテンツの視聴を提案する画面を表示するコンテンツ提案画面表示部と、を備える、感情測定端末を提供する。
表情による顔の動きは、感情を判断するための重要な判断材料である。顔の動きに加えて視点の動きを用いて感情を判断すれば、コンテンツに対する興味の度合いを含む視聴者の感情を判断し得る。すなわち、顔の動きと視点の動きとを用いれば、顔の動きのみを用いる場合より視聴者の感情を詳細に判断し得る。しかしながら、顔を映した映像等から顔の動きを解析する処理は、顔の動きの解析に用いる顔の特徴点を取得する処理等において多くの処理リソースを要求し得る。顔を映した映像等から視点の動きを解析する処理もまた、視点の動きの解析に用いる顔の特徴点を取得する処理等において多くの処理リソースを要求し得る。これらを同時に実行すると多大な処理リソースを必要とし得るため、視聴者が用いる端末が提供可能な処理リソースを上回り得る。したがって、視聴者が用いる端末において、限られた処理リソースを用いて顔の動きと視点の動きとを同時に解析することは、容易ではない。限られた処理リソースを用いて顔の動きと視点の動きとを同時に解析することに関し、解析に要する処理リソースを減らすために特徴点を取得する手順そのものを簡易な手順にすると、取得された特徴点の精度が下がり得る。したがって、特徴点に基づいて解析される視聴者の感情及び注視する領域が不正確になり得る。
第3の特徴に係る発明によれば、まず、視聴者の顔に関する特徴点を取得し、続いて、取得した特徴点を用いて顔の動き及び視点の動きを解析する一連の処理を実行するため、顔の動きの解析に用いる顔の特徴点を取得して顔の動きを解析し、視点の動きの解析に用いる顔の特徴点を取得して視点の動きを解析する一連の処理を実行する場合より、顔の特徴点を取得する処理の実行回数を減らし得る。これにより、顔の特徴点を取得する処理が要求する処理リソースを減らし得る一方で、特徴点を取得する手順そのものを簡易な手順にして特徴点の精度が下がることを防ぎ得る。すなわち、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少ない場合であっても、顔の動き及び視点の動きを正確に解析し得る。そして、解析された顔の動き及び視点の動きを用いて、視聴者の感情を顔の動きのみを用いる場合より詳細に判断し、感情に関する感情指数情報を生成し得る。さらに、視点の動きと顔の動きとを用いて、画面表示領域のうち、視聴者が注視する領域に関する注視領域情報を解析できる。
第3の特徴に係る発明によれば、視聴者の感情に関する感情指数情報と画面表示領域のうち視聴者が注視する注視領域情報とを外部装置に送信できる。そして、感情測定端末は、感情指数と注視領域とに基づいてコンテンツの視聴を提案する画面を表示可能な情報を外部装置から受信し、該情報を用いて視聴者の感情と注視する領域とに基づいてコンテンツの視聴を提案する画面を表示させ得る。コンテンツの視聴を提案する画面を表示可能な情報の生成を外部装置において行うため、感情指数情報と注視領域情報とに基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを感情測定端末において必要とすることがない。したがって、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
したがって、第3の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能な感情測定端末を提供できる。
第4の特徴に係る発明は、第3の特徴に係る発明であって、前記画面表示領域のうち、指定された画面上の基準領域を見るよう前記視聴者に指示する注視指示部と、前記基準領域を見る前記視聴者の視点である基準視点を解析する基準視点解析部と、をさらに備え前記注視領域解析部は、前記基準視点と前記視点の動きと前記顔の動きとを用いて前記視聴者が見ている画面上の領域である注視領域を解析する、感情測定端末を提供する。
第4の特徴に係る発明によれば、指定された画面上の基準領域を見る視聴者の視点である基準視点を用いて、注視領域を解析できる。基準視点と視点の動きとを比較して注視領域を解析できるため、基準視点を用いない場合よりも、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。これにより、視聴者の好みによりいっそう合う可能性が高いコンテンツの視聴を視聴者に提案し得る。基準視点と視点の動きとを比較する簡易な手法で注視領域を解析し得るため、基準視点を用いない場合と比べて、注視領域を解析するための処理リソースをよりいっそう減らし得る。したがって、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。
したがって、第4の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能な感情測定端末を提供できる。
第5の特徴に係る発明は、第3の特徴又は第4の特徴に係る発明であって、前記視聴者の生体情報を取得する生体情報取得部をさらに備え、前記視聴者情報は、前記視聴履歴と関連付けられた前記生体情報を含む、感情測定端末を提供する。
心拍数、血圧、及び体温等によって例示される生体情報は、感情に応じて変化することが知られている。第5の特徴に係る発明によれば、視聴履歴と関連付けられた生体情報を用いて、生体情報を用いない場合と比べて視聴者の感情をより詳細に解析し得る。これにより、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情を、生体情報を用いない場合と比べてより詳細に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
第5の特徴に係る発明によれば、生体情報を含む視聴者情報を外部装置に送信するため、生体情報を用いた解析を外部装置において行い得る。したがって、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少なく、生体情報を用いた解析を実現できない場合であっても、生体情報を用いて感情をよりいっそう詳細かつ正確に解析し得る。
したがって、第5の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性が生体情報を用いない場合より高いコンテンツの視聴を提案可能な感情測定端末を提供できる。
第6の特徴に係る発明は、第3の特徴から第5の特徴のいずれかに係る発明であって、前記視聴者の表情が基準となる表情である場合における前記視聴者の顔に関する特徴点である基準表情特徴点を取得する基準表情特徴点取得部をさらに備え、前記感情指数情報生成部は、前記基準表情特徴点と前記特徴点との比較を用いて前記感情指数情報を生成可能である、感情測定端末を提供する。
顔の特徴点を用いて視聴者の感情を分析することに関し、視聴者がコンテンツを視聴しているときの顔の特徴点だけを用いて分析すると、コンテンツを視聴したことによって生じた感情を反映した表情と、普段の表情との判別が難しい。視聴者がコンテンツを視聴しているときの顔の特徴点だけを用いた分析では、例えば、視聴者の顔が、口角が上がった笑い顔である場合に、視聴者がコンテンツを視聴して笑ったために笑い顔であるのか、あるいは、普段の表情での顔が笑い顔であるのかの判別が難しい。
第6の特徴に係る発明によれば、視聴者の表情が普段の表情等によって例示される基準となる表情である場合における顔に関する特徴点である基準表情特徴点を取得するため、基準となる表情とコンテンツを視聴したことによって生じた感情を反映した表情とを判別し得る。したがって、判別された表情に基づいて視聴者の感情を、基準表情特徴点を用いない場合より詳細に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。また、基準表情特徴点とコンテンツを視聴しているときの特徴点とを比較する簡易な処理を行い得るため、感情指数を解析するための処理リソースを、基準表情特徴点を用いない場合よりいっそう減らし得る。したがって、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少ない場合であっても、感情指数をよりいっそう詳細かつ正確に解析し得る。
したがって、第6の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性が基準表情特徴点を用いない場合より高いコンテンツの視聴を提案可能な感情測定端末を提供できる。
第7の特徴に係る発明は、第3の特徴から第6の特徴のいずれかに係る発明であって、前記感情測定端末は、手持ち可能に構成された端末であり、前記特徴点取得部は、前記感情測定端末が手持ちされている場合に、前記感情測定端末の移動及び/又は向きの変化による前記特徴点の移動を打ち消すように前記特徴点の位置を補正可能である、感情測定端末を提供する。
携帯端末等によって例示される手持ち可能に構成された端末では、視聴者が端末を手持ちしている場合に、視聴者の手の動きや身体の動き等によって端末が移動する、あるいは、端末の向きが変化する場合がある。感情測定端末が手持ち可能に構成された端末である場合、視聴者の顔の動きや視点の動きによって特徴点が移動するだけでなく、感情測定端末の移動及び/又は向きの変化によっても特徴点が移動し得る。したがって、感情測定端末の移動及び/又は向きの変化による特徴点の移動が視聴者の顔の動き及び/又は視点の動きの解析に悪影響を及ぼし得る。
第7の特徴に係る発明によれば、感情測定端末の移動及び/又は向きの変化による前記特徴点の移動を打ち消すように特徴点の位置を補正可能であるため、視聴者が感情測定端末を手持ちしている場合であっても、感情測定端末の移動及び/又は向きの変化による特徴点の移動が視聴者の顔の動き及び/又は視点の動きの解析に及ぼす悪影響を軽減し得る。これにより、顔の動き及び視点の動きを、補正を行わない場合より正確に解析し得る。したがって、視聴者の感情及び注視する領域を、補正を行わない場合より正確に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
複雑なデータや大量のデータについて移動に関する補正を行う場合、多大な処理リソースを必要とし得る。そのため、補正を行えないことや、補正を行えたとしても、時間を要してしまうことがあり得る。第7の特徴に係る発明によれば、補正の対象が視聴者の顔を写した映像等の複雑なデータ及び/又は大量のデータでなく、映像等より単純かつデータ量が小さい顔の特徴点の位置であるため、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少ない場合であっても、移動を打ち消すような補正を比較的短時間で実行し得る。
したがって、第7の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性が補正を行わない場合より高いコンテンツの視聴を提案可能な感情測定端末を提供できる。
第8の特徴に係る発明は、第7の特徴に係る発明であって前記感情測定端末がスマートフォンである、感情測定端末を提供する。
広く普及しているスマートフォンを用いて感情測定端末を構成し、視聴者の感情及び注視する領域を解析できれば、感情測定端末がスマートフォンでない場合より多くの視聴者に対して、視聴者の好みにより合ったコンテンツの視聴を提案し得る。しかし、スマートフォンは、通常、手持ちして用いるため、視聴者の手の動きや身体の動き等によって移動する、あるいは、向きが変化する場合がある。したがって、感情測定端末がスマートフォンである場合、スマートフォンの移動及び/又は向きの変化によって特徴点が移動し、視聴者の顔の動き及び/又は視点の動きの解析に悪影響を及ぼし得る。
また、携帯可能なサイズに構成されるスマートフォンは、比較的小型であるため、パーソナルコンピュータ等の比較的大型の端末と比較して提供可能な処理リソースが少ない傾向がある。したがって、視聴者の顔の動き及び/又は視点の動きの解析に要する処理リソースがスマートフォンにおいて提供可能な処理リソースを上回り得る。解析に要する処理リソースを減らすために特徴点を取得する手順そのものを簡易な手順にすると、取得された特徴点の精度が下がり得る。したがって、特徴点に基づいて解析される視聴者の感情及び注視する領域が不正確になり得る。
これらの事情により、視聴者の手の動きや身体の動き等によって移動する、あるいは、向きが変化する場合があり、なおかつ、提供可能な処理リソースが比較的少ないスマートフォンを用いて感情測定端末を構成し、視聴者の感情及び注視する領域を解析することは、容易ではない。
第8の特徴に係る発明によれば、感情測定端末の移動及び/又は向きの変化による前記特徴点の移動を打ち消すように特徴点の位置を補正可能であるため、感情測定端末がスマートフォンであるにもかかわらず、視聴者の感情及び注視する領域を、補正を行わない場合より詳細に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
第8の特徴に係る発明によれば、まず、視聴者の顔に関する特徴点を取得し、続いて、取得した特徴点を用いて顔の動き及び視点の動きを解析する一連の処理を実行するため、顔の動きの解析に用いる顔の特徴点を取得して顔の動きを解析し、視点の動きの解析に用いる顔の特徴点を取得して視点の動きを解析する一連の処理を実行する場合より、顔の特徴点を取得する処理の実行回数を減らし得る。これにより、顔の特徴点を取得する処理が要求する処理リソースを減らし得る一方で、特徴点を取得する手順そのものを簡易な手順にして特徴点の精度が下がることを防ぎ得る。これにより、顔の動き及び視点の動きを解析するための処理リソースを減らし、提供可能な処理リソースが比較的少ないスマートフォンであっても顔の動き及び視点の動きを正確に解析し得る。
第8の特徴に係る発明によれば、コンテンツの視聴を提案する画面を表示可能な情報の生成を外部装置において行うため、感情指数情報と注視領域情報とに基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを感情測定端末において必要とすることがない。したがって、提供可能な処理リソースが比較的少ないスマートフォンであっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
したがって、第8の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ないスマートフォンを用いて構成された、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を、感情測定端末がスマートフォンでない場合より多くの視聴者に対して提案可能な感情測定端末を提供できる。
第9の特徴に係る発明は、前記外部装置としての第1の特徴又は第2の特徴に係るコンテンツ提案装置と、前記外部端末としての第3の特徴から第8の特徴のいずれかに係る感情測定端末と、を含んで構成される、コンテンツ提案システムを提供する。
第9の特徴に係る発明によれば、感情測定端末によって解析した感情指数及び注視領域等をコンテンツ提案装置に送信できる。コンテンツ提案装置は、感情測定端末から受信した感情指数及び注視領域等を用いて、コンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を感情測定端末に送信できる。感情測定端末は、コンテンツ提案情報を受信し、視聴者にコンテンツの視聴を提案できる。したがって、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案できる。
第9の特徴に係る発明によれば、感情測定端末からコンテンツ提案装置に送信される情報が感情指数及び注視領域等であるため、視聴者の顔を撮影した動画等を送信する場合よりも通信量を減らし得る。したがって、感情測定端末とコンテンツ提案装置との間の通信において利用可能な通信帯域が比較的小さい量に制限されている場合であっても、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案できる。
第9の特徴に係る発明によれば、コンテンツ提案装置が感情指数及び注視領域等を用いてコンテンツ提案情報を感情測定端末に送信するため、感情指数情報と注視領域情報とに基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを感情測定端末において必要とすることがない。したがって、感情測定端末がスマートフォン等によって例示される携帯端末である場合等の感情測定端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案できる。
したがって、第9の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能なコンテンツ提案システムを提供できる。
第10の特徴に係る発明は、第3の特徴に係る発明のカテゴリ違いである。第10の特徴によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能な感情測定端末を実現するプログラムを提供できる。
本発明によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能なコンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラムを提供できる。
図1は、本発明のコンテンツ提案システム1のハードウェア構成及びソフトウェア構成の一例を示すブロック図である。 図2は、基準表情特徴点テーブル231の一例を示す図である。 図3は、基準視点テーブル232の一例を示す図である。 図4は、感情指数テーブル233の一例を示す図である。 図5は、視聴者情報テーブル321の一例を示す図である。 図6は、コンテンツ提案情報テーブル322の一例を示す図である。 図7は、感情測定端末2で実行される感情測定処理の一例を示すメインフローチャートである。 図8は、基準点取得処理の一例を示すフローチャートである。 図9は、視聴者情報送信処理の一例を示すフローチャートである。 図10は、コンテンツ提案装置3で実行されるコンテンツ提案処理の一例を示すメインフローチャートである。 図11は、特徴点取得の一例を示す概略模式図である。 図12は、注視領域情報解析の一例を示す概略模式図である。
以下、本発明を実施するための好適な形態の一例について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
<コンテンツ提案システム1>
図1は、本実施形態に係るコンテンツ提案システム1におけるハードウェア構成及びソフトウェア構成の一例を示すブロック図である。コンテンツ提案システム1(以下、単にシステム1とも称する。)は、少なくとも、感情測定端末2と、コンテンツ提案装置3と、を含んで構成される。感情測定端末2(以下、単に端末2とも称する。)は、視聴者情報を外部装置(例えば、コンテンツ提案装置3)に送信する端末である。コンテンツ提案装置3(以下、単に装置3とも称する。)は、外部端末(例えば、感情測定端末2)から視聴者情報を受信し、視聴者情報を送信した外部端末にコンテンツ提案情報を送信する装置である。端末2と装置3とは、ネットワークN1を介して接続可能である。
必須の態様ではないが、システム1は、視聴者の生体情報を測定し、ネットワークN2を介して測定した生体情報を端末2に提供可能な生体情報センサBをさらに含むことが好ましい。これにより、端末2は、生体情報センサB及びネットワークN2を介して視聴者の生体情報を取得し、装置3等に送信できる。
〔感情測定端末2〕
感情測定端末2は、視聴者情報を外部装置に送信し、外部装置からコンテンツ提案情報を受信し、コンテンツの視聴を提案する画面を画面表示領域に表示する端末である。
端末2の種類は、特に限定されず、従来から知られている各種の端末でよい。端末2の種類は、例えば、スマートフォン及びタブレット端末等によって例示される携帯端末でよい。端末2は、例えば、デスクトップパソコン及びノートパソコン等によって例示されるパーソナルコンピュータでもよい。
中でも、端末2の種類は、携帯端末であることが好ましい。端末2の種類が携帯端末であることにより、自宅等から離れた場所(例えば、電車内、屋外、又は飲食店。)であっても、端末2を用いて感情指数情報及び注視領域を解析し得る。そして、解析した情報に基づいてコンテンツの視聴を提案する画面を表示し得る。
端末2の種類は、スマートフォンであることがさらに好ましい。端末2がスマートフォンであることにより、視聴者は、広く普及し、多くの視聴者が携帯しているスマートフォン以外の端末をわざわざ携帯する労力を費やすことがない。これにより、視聴者が普段から携帯するスマートフォンを用いて感情指数情報及び注視領域を解析し得る。そして、解析した情報に基づいてコンテンツの視聴を提案する画面を表示し得る。端末2がスマートフォンであることにより、端末2がスマートフォンでない場合より多くの視聴者に対して、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。端末2がスマートフォンである場合、パーソナルコンピュータ等の比較的大型の端末と比較して提供可能な処理リソースが少ない傾向がある課題が生じ得る。スマートフォンは、通常、手持ちして用いるため、視聴者の手の動きや身体の動き等によって移動する課題が生じ得る。また、手持ちして用いることにより、視聴者の手の動きや身体の動き等によって向きが変化する課題が生じ得る。端末2がスマートフォンである場合に生じ得るこれらの課題を解決する手段については、後述する。
感情測定端末2は、制御部21と、記憶部23と、通信部24と、表示部25と、を含んで構成される。表示部25には、1以上の画面表示領域が設けられている。また、感情測定端末2は、表示部25に設けられた1以上の画面表示領域のいずれか1以上にコンテンツを表示可能に構成されている。
[制御部21]
制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備える。
制御部21は、所定のプログラムを読み込み、必要に応じて記憶部23及び/又は通信部24と協働することで、端末2におけるソフトウェア構成の要素である基準表情特徴点取得部211、注視指示部212、基準視点解析部213、特徴点取得部214、視点動き解析部215、顔動き解析部216、生体情報取得部217、感情指数情報生成部218、注視領域情報解析部219、視聴者情報送信部220、コンテンツ提案情報受信部221、及びコンテンツ提案画面表示部222等を実現する。
[記憶部23]
記憶部23には、データやファイルが記憶される。記憶部23は、半導体メモリ、記録媒体、及びメモリカード等によって例示されるデータやファイルを記憶可能な部材を含むデータのストレージ部を有する。記憶部23は、ネットワークを介してNAS(Network Attached Storage)、SAN(Storage Area Network)、クラウドストレージ、ファイルサーバ及び/又は分散ファイルシステム等の記憶装置又は記憶システムとの接続を可能にする仕組みを有してもよい。
記憶部23には、マイクロコンピューターで実行される制御プログラム、基準表情特徴点テーブル231、基準視点テーブル232、及び感情指数テーブル233等が記憶されている。
(基準表情特徴点テーブル231)
図2は、基準表情特徴点テーブル231の一例を示す図である。基準表情特徴点テーブル231は、基準表情特徴点を記憶するテーブルである。図2に示す基準表情特徴点テーブル231には、「基準表情特徴点ID」と「基準表情特徴点集合」とが互いに関連付けられて格納されている。基準表情特徴点IDは、基準表情特徴点集合を識別可能なIDである。基準表情特徴点集合は、視聴者の表情が基準となる表情(例えば、普段の表情等。)である場合における顔に関する特徴点を複数含む集合である。基準表情特徴点IDを格納することにより、基準表情特徴点の取得及び格納が容易になる。基準表情特徴点を格納することにより、コンテンツを視聴したことによって生じた感情を反映した表情と基準となる表情とを判別し得る。したがって、基準表情特徴点を用いない場合より視聴者の感情を詳細に解析し得る。そして、視聴者の好みにより合ったコンテンツの視聴を提案し得る。また、視点の動き及び/又は顔の動きの解析において、基準表情特徴点とコンテンツを視聴しているときの特徴点とを比較する簡易な処理を行い得る。
基準表情特徴点テーブル231に格納される基準表情特徴点集合のデータ形式は、特に限定されない。基準表情特徴点集合のデータ形式は、複数の特徴点を含む集合を格納する従来技術のデータ形式でよい。基準表情特徴点集合のデータ形式として、例えば、基準表情特徴点集合に含まれる複数の基準表情特徴点のそれぞれについて、その座標を格納するデータ形式が挙げられる。基準表情特徴点のデータ形式は、基準表情特徴点集合に含まれる複数の基準表情特徴点のそれぞれについて、関連する1又は複数の基準表情特徴点を識別可能な情報をさらに格納するデータ形式でもよい。基準表情特徴点テーブル231に格納される基準表情特徴点集合に含まれる基準表情特徴点は、後述する特徴点取得部214が取得する特徴点と同様の顔の特徴点に対応する基準表情特徴点を含むことが好ましい。これにより、基準表情特徴点とコンテンツを視聴しているときの特徴点とを比較する簡易な処理を行い得る。
図2の基準表情特徴点ID「BCP0001」によって識別される基準表情特徴点集合BCP0001には、基準表情特徴点集合BCP0001に含まれる複数の基準表情特徴点について、基準表情特徴点の座標及び基準表情特徴点と関連する1又は複数の基準表情特徴点を識別可能な情報が格納されている。基準表情特徴点ID「BCP0002」によって識別される基準表情特徴点集合BCP0002には、基準表情特徴点集合BCP0002に含まれる複数の基準表情特徴点について、基準表情特徴点の座標及び基準表情特徴点と関連する1又は複数の基準表情特徴点を識別可能な情報が格納されている。図2では、わかりやすさのために、格納された座標等に基づいた平面グラフを用いて、格納された基準表情特徴点を示している。この平面グラフでは、各基準表情特徴点の位置を黒丸で示し、互いに関連する基準表情特徴点に対応する黒丸を直線によって連結している。視聴者の顔と特徴点との関係及び視聴者の顔から特徴点を取得することに関しては、後に図11を用いてより詳細に説明する。
図2の基準表情特徴点集合BCP0001に含まれる基準表情特徴点と基準表情特徴点集合BCP0002に含まれる基準表情特徴点とは、互いに異なる。すなわち、基準となる表情(例えば、普段の表情。)において互いに異なる視聴者の顔のそれぞれに対応する基準表情特徴点が含まれている。これにより、基準となる表情における視聴者の顔が違う場合であっても、基準となる表情とコンテンツを視聴したことによって生じた感情を反映した表情とを判別し得る。したがって、基準表情特徴点を用いない場合より視聴者の感情を詳細に解析し得る。そして、視聴者の好みにより合ったコンテンツの視聴を提案し得る。また、コンテンツを視聴しているときの特徴点と基準表情特徴点とを比較する簡易な処理を行い得る。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、感情指数情報をよりいっそう詳細かつ正確に生成し得る。
(基準視点テーブル232)
図3は、基準視点テーブル232の一例を示す図である。基準視点テーブル232は、基準領域を見る視聴者の視点である基準視点を記憶するテーブルである。図3に示す基準視点テーブル232には、「基準視点ID」と、基準領域を見る視聴者の視点に関する「基準表情特徴点ID」、「基準領域」、及び「基準視点」とが関連付けられて格納されている。
基準視点IDは、基準視点を識別可能なIDである。基準表情特徴点IDは、基準表情特徴点テーブル231に格納された基準表情特徴点集合を識別可能なIDである。基準領域は、視聴者が見る画面上の特定の領域である。基準視点は、基準領域を見る視聴者の視点に関する視点である。基準視点IDを格納することにより、基準視点の取得及び格納が容易になる。基準表情特徴点IDを格納することにより、基準表情特徴点テーブル231に格納された基準表情特徴点集合と基準視点とを関連付けられる。これにより、普段の表情における視聴者の顔が違う場合であっても、普段の表情における視聴者の顔に応じた基準視点を格納できる。基準視点を格納することにより、基準視点と視点の動きとを比較して注視領域を解析できる。
したがって、基準視点を用いない場合よりも、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。そして、視聴者の好みによりいっそう合う可能性が高いコンテンツの視聴を視聴者に提案し得る。また、基準視点と視点の動きとを比較する簡易な手法で注視領域を解析し得る。
基準視点テーブル232に格納する基準視点は、基準領域を見る視聴者の視点に関する情報であれば、特に限定されない。基準視点は、例えば、基準領域を見る視聴者の目の特徴点及び/又は顔の特徴点でよい。基準視点が基準領域を見る視聴者の目の特徴点であることにより、コンテンツを視聴する視聴者の視点の動き及び顔の動きに関する目の特徴点と基準視点とを比較する簡易な手法で注視領域を解析し得る。これにより、注視領域を解析するための処理リソースをよりいっそう減らし得る。
したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。また、顔の特徴点全てを基準視点として用いる場合より、注視領域を解析するための処理リソースを減らし得る。基準視点が基準領域を見る視聴者の顔の特徴点であることにより、コンテンツを視聴する視聴者の視点の動き及び顔の動きに関する顔の特徴点と基準視点とを比較する簡易な手法で注視領域を解析し得る。また、目の特徴点のみを基準視点として用いる場合より、注視領域をよりいっそう詳細かつ正確に解析し得る。
図3の基準視点ID「BVP0001」によって識別される基準視点には、基準表情特徴点BCP0001と対応する視聴者に関し、画面表示領域の「中央」に表示された基準領域を見る視聴者の基準視点に関する目の特徴点が格納されている。格納された目の特徴点は、この目の特徴点と関連する1又は複数の目の特徴点を識別可能な情報とこの目の特徴点の座標とを含む。図3では、わかりやすさのために、格納された座標等に基づいた平面グラフを用いて、格納された目の特徴点を示している。この平面グラフでは、目の特徴点の位置を黒丸で示し、互いに関連する目の特徴点に対応する黒丸を直線によって連結している。
図3の基準視点ID「BVP0002」によって識別される基準視点には、基準表情特徴点BCP0001と対応する視聴者に関し、画面表示領域の「左側」に表示された基準領域を見る視聴者の基準視点に関する目の特徴点が格納されている。この基準視点に関する目の特徴点は、基準視点ID「BVP0001」によって識別される画面表示領域の「中央」に表示された基準領域を見る視聴者の基準視点に関する目の特徴点と異なる。対応付けられた基準領域が異なる基準視点を複数格納することにより、例えば、コンテンツを視聴する視聴者の視点の動きがいずれの基準領域を見る視聴者の基準視点に近いかを判別する処理を行い得る。これにより、1つの基準領域を見る視聴者の基準視点を用いる場合より、注視領域を詳細に解析し得る。
(感情指数情報テーブル233)
図4は、感情指数情報テーブル233の一例を示す図である。感情指数情報テーブル233は、視点の動き及び顔の動きを含む特徴点移動量と関連付けられた感情指数を記憶するテーブルである。図4に示す感情指数情報テーブル233には、「感情指数情報ID」と、視聴者の感情に関する「動き情報」及び「感情指数情報」とが関連付けられて格納されている。
感情指数情報IDは、感情指数情報を識別可能なIDである。動き情報は、視点の動き及び顔の動きに関する情報である。感情指数情報は、視聴者の感情に関する情報である。感情指数情報IDを格納することにより、感情指数情報の取得及び格納が容易になる。動き情報と感情指数情報とを関連付けて格納することにより、視点の動き及び/又は顔の動きに基づいて感情指数情報を生成し得る。
表情による顔の動きは、感情を判断するための重要な判断材料である。顔の動きに加えて視点の動きを用いて感情を判断すれば、コンテンツに対する興味の度合いを含む視聴者の感情を判断し得る。すなわち、顔の動きと視点の動きとを用いれば、顔の動きのみを用いる場合より視聴者の感情を詳細に判断し得る。表情による顔の動きについて、例えば、眉尻が下がる、口角が上がる、目尻が下がる、及び/又は口が開く等の顔の動き(笑いの表情における顔の動き)がある。これによってコンテンツを視聴する視聴者が楽しさ及び/又は喜び等の快感(以下、笑いの表情に対応する感情を単に「笑い」とも称する)を感じたことを判別し得る。表情による視点の動きについて、例えば、視点が画面表示領域の特定の領域を注視する視点の動きである場合に、コンテンツを視聴する視聴者がコンテンツに集中していることを判別し得る。
感情指数情報テーブル233に格納する動き情報は、視聴者の感情を判別し得る視点の動き及び顔の動きに関する情報であれば特に限定されない。動き情報は、例えば、視聴者の感情を判別し得る視点の動き及び顔の動きに関する顔の特徴点のそれぞれについて、顔の特徴点の座標と、顔の特徴点と関連する1又は複数の特徴点を識別可能な情報と、顔の特徴点の移動量とを含む特徴点移動量情報を有する。
基準表情特徴点テーブル231に格納される基準表情特徴点とコンテンツを視聴する視聴者の顔の特徴点とを比較することにより、基準表情特徴点からの特徴点の移動量を解析し得る。動き情報が特徴点移動量情報を含むことにより、この移動量を特徴点移動量情報と比較する簡易な処理によって感情指数情報を生成し得る。
このような処理を行うことにより、基準表情特徴点が異なる視聴者であっても、基準表情特徴点からの移動量を用いて感情指数情報を容易に生成し得る。例えば、基準となる表情において口角が上がった顔の視聴者について、基準となる表情よりさらに口角が上がった場合にのみ笑いの感情に対応する感情指数情報を生成することができる。あるいは、基準となる表情と同様の口角の上がり方では笑いの感情に対応する感情指数情報を生成しないようにできる。
感情指数情報テーブル233に格納する感情指数情報は、視聴者が笑いの表情を浮かべた場合の顔の動きと関連付けられた感情指数情報を含むことが好ましい。視聴者が笑いの表情を浮かべた場合の顔の動きと関連付けられた感情指数情報を含むことにより、笑いの表情を判別し得る。
笑いの表情は、視聴者が楽しさを感じたときや喜びを感じたとき等の快感を覚えたときに浮かべる表情であることが知られている。視聴者は、視聴したときに快感を覚えるコンテンツを好ましいと感じ得る。したがって、笑いの表情を判別し得ることにより、視聴者が好ましいと感じるコンテンツを判別し得る。これにより、視聴者が好ましいと感じるコンテンツを提案し得る。
感情指数情報テーブル233に格納する感情指数情報は、各種の感情(例えば、笑い、悲しみ、及び怒り等。)のそれぞれについて、感情の程度に関する情報を含むことが好ましい。感情指数情報が感情の程度に関する情報を含むことにより、感情の種類を判別し得るだけでなく、感情の程度をも判別し得る。これにより、感情の種類だけでなく、感情の程度にも基づいてコンテンツの視聴を提案し得る。
図4の感情指数情報ID「EI0001」には、眉尻が下がり、口角が上がった顔の動きによって判別される視聴者の表情(笑いの表情)に対応する動き情報と感情指数情報「笑い1」とが関連付けられて格納されている。感情指数情報「笑い1」は、笑いの感情の程度を1-3の3段階に分類した場合の一番低い程度1の笑いの感情に関する感情指数情報である。
また、図4の感情指数情報ID「EI0002」には、眉尻が下がり、口角が上がった顔の動き及び目尻が下がる視点の動きによって判別される視聴者の表情(EI0001より程度が高い笑いの表情)に対応する動き情報と「笑い2」とが関連付けられて格納されている。「笑い2」は、程度2の笑いの感情に関する感情指数情報である。
図4の感情指数情報ID「EI0003」には、眉尻が下がり、口角が上がり、口が開かれた顔の動き及び目尻が下がる視点の動きによって判別される視聴者の表情(EI0001及びEI0002よりさらに程度が高い笑いの表情)に対応する動き情報と「笑い3」とが関連付けられて格納されている。「笑い3」は、程度3の笑いの感情に関する感情指数情報である。
図4では、動き情報は、特徴点移動量情報を含む。図4では、わかりやすさのために、格納された特徴点移動量情報に基づいた平面グラフを用いて、格納された動き情報を示している。この平面グラフでは、特徴点の位置を黒丸で示し、互いに関連する目の特徴点に対応する黒丸を直線によって連結している。また、特徴点の移動量を矢印で示している。
感情指数情報テーブル233に、動き情報と関連付けられた感情指数情報を複数格納することにより、コンテンツを視聴する視聴者の感情をより詳細に解析し得る。これにより、コンテンツを視聴する視聴者の感情の種類だけでなく、感情の程度をも解析し得る。
[通信部24]
図1に戻る。通信部24は、端末2をネットワークN1に接続して装置3と通信可能にする通信部であれば特に限定されない。通信部24として、例えば、携帯電話ネットワークに対応した無線装置、IEEE802.11に準拠したWi-Fi(Wireless Fidelity)対応デバイス、及びイーサネット規格に対応したネットワークカード等が挙げられる。
システム1が生体情報センサBを含む場合、通信部24は、端末2をネットワークN2に接続して生体情報センサBと通信可能であることが好ましい。これにより、生体情報センサB及びネットワークN2を介して視聴者の生体情報を取得し得る。
通信部24が端末2をネットワークN2に接続して生体情報センサBと通信可能である場合、通信部24は、Bluetooth(登録商標)規格に準拠した通信デバイスを含むことが好ましい。Bluetooth規格に準拠した通信では、指向性が少ない簡易な無線通信を行える。指向性が少ない無線通信では、無線通信を行う機器間の位置関係がもたらす無線通信への悪影響を指向性がある無線通信より軽減できる。生体情報センサBが視聴者の身体に装着されている場合、視聴者の身体の動きによって生体情報センサBが移動して生体情報センサBと端末2との位置関係が変化し得る。通信部24がBluetooth規格に準拠した通信デバイスを含むことにより、生体情報センサBと端末2との位置関係が変化する場合でも、ネットワークN2を介して視聴者の生体情報を取得し得る。
[表示部25]
表示部25は、後述するコンテンツ提案画面を表示可能な画面表示領域(例えば、図12の符号25A等。)を有する表示部であれば特に限定されない。表示部25として、例えば、タッチパネル、有機ELディスプレイ、液晶ディスプレイ、モニタ、プロジェクタ等を有する表示部が挙げられる。
[入力部]
必須の態様ではないが、端末2は、視聴者がコンテンツの再生を指令する入力を入力可能である入力部(図示せず)を備えることが好ましい。入力部の種類は、特に限定されず、例えば、タッチパネル、ソフトウェアキーボード、音声を認識するマイク、外部の装置から入力を受信する通信デバイス、キーボード、マウス等が挙げられる。端末2が入力部を備えることにより、視聴者は、入力部を介してコンテンツの再生を指令し得る。
入力部は、視聴者が視聴者に関する情報を入力可能であることが好ましい。これにより、視聴者は、入力部を介して視聴者に関する情報を入力し得る。したがって、視聴履歴、感情指数情報、及び注視領域情報だけでなく、入力部を介して入力された視聴者に関する情報をも含む視聴者情報を外部装置に送信し得る。
[動き検知部]
必須の態様ではないが、端末2は、端末2の向き及び/又は移動を検知可能な動き検知部(図示せず)を有することが好ましい。端末2が動き検知部を有することにより、動き検知部によって検知された動きを用いて特徴点の移動を補正し得る。動き検知部が動きを検知する手段は、特に限定されない。動きを検知する手段は、例えば、重力センサ、加速度センサ、ジャイロセンサ、及び回転ベクトルセンサ等によって例示される各種の動きを検知可能なセンサの1以上を含む従来技術の動きを検知する手段でよい。
〔コンテンツ提案装置3〕
コンテンツ提案装置3は、外部端末から受信した視聴者情報に基づいて、この外部端末にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を送信する装置である。コンテンツ提案装置3の種類は、特に限定されない。コンテンツ提案装置3の種類は、例えば、サーバ、ワークステーション、及びパーソナルコンピュータ等によって例示される従来技術の情報処理装置でよい。
コンテンツ提案装置3は、制御部31と、記憶部32と、通信部33と、を含んで構成される。
[制御部31]
制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備える。
制御部31は、所定のプログラムを読み込み、必要に応じて記憶部32及び/又は通信部33と協働することで、装置3におけるソフトウェア構成の要素である視聴者情報受信部311、コンテンツ提案情報生成部312、及びコンテンツ提案情報送信部313等を実現する。
[記憶部32]
記憶部32には、データやファイルが記憶される。記憶部32は、ハードディスク、半導体メモリ、記録媒体、及びメモリカード等によって例示されるデータやファイルを記憶可能な部材を含むデータのストレージ部を有する。記憶部32は、ネットワークを介してNAS(Network Attached Storage)、SAN(Storage Area Network)、クラウドストレージ、ファイルサーバ及び/又は分散ファイルシステム等の記憶装置又は記憶システムとの接続を可能にする仕組みを有してもよい。
記憶部32には、マイクロコンピューターで実行される制御プログラム、視聴者情報テーブル321、及びコンテンツ提案情報テーブル322等が記憶されている。視聴者情報テーブル321は、視聴履歴と関連付けられた感情指数情報及び視聴履歴と関連付けられた注視領域情報を含む視聴者情報を格納するテーブルである。コンテンツ提案情報テーブル322は、視聴者情報に関する条件と関連付けられたコンテンツ提案情報を格納するテーブルである。
(視聴者情報テーブル321)
図5は、視聴者情報テーブル321の一例を示す図である。図5に示す視聴者情報テーブル321には、「視聴者情報ID」と、「視聴者情報」とが互いに関連付けられて格納されている。視聴者情報IDは、視聴者情報を識別可能なIDである。視聴者情報IDを格納することにより、視聴者情報の取得及び格納が容易になる。視聴者情報を格納することにより、格納された視聴者情報を外部装置に送信し得る。
視聴者情報は、コンテンツを視聴する視聴者に関する情報である。視聴者情報は、コンテンツを視聴する視聴者に関する「端末ID」、「視聴履歴」、「感情指数情報」、「注視領域情報」、及び「生体情報」を互いに関連付けた情報を含んでいる。端末IDは、視聴者情報を送信した外部端末を識別可能なIDである。視聴履歴は、視聴者が視聴したコンテンツに関する履歴である。感情指数情報は、視聴者の感情に関する情報である。注視領域情報は、画面表示領域のうち視聴者が注視する領域に関する情報である。
端末IDを含むことにより、外部端末が複数ある場合に、外部端末のそれぞれに応じたコンテンツの視聴を提案し得る。視聴者情報を格納することにより、視聴履歴と関連付けられた感情指数情報と、視聴履歴と関連付けられた注視領域情報と、視聴履歴と関連付けられた生体情報とに基づいてコンテンツの視聴を提案し得る。必須の態様ではないが、端末IDは、外部端末を利用する視聴者を識別可能な情報を含むことが好ましい。これにより、複数の視聴者が外部端末を利用する場合でも、外部端末を利用する視聴者それぞれの好みに合うコンテンツの視聴を提案し得る。
視聴履歴は、視聴者が視聴したコンテンツを識別可能な情報を含む。視聴履歴は、コンテンツの表題、再生時間、コンテンツに関するテキスト、コンテンツに関する画像等によって例示されるコンテンツに関する情報を含むことが好ましい。これにより、コンテンツに関する情報を用いて、外部端末を利用する視聴者それぞれの好みに合うコンテンツの視聴を提案し得る。視聴履歴は、コンテンツの時系列情報を含むことが好ましい。これにより、コンテンツの時系列によって画面表示領域の各領域に表示される視聴対象が変化するコンテンツであっても、視聴者が注意及び/又は感情を向けた視聴対象を正確に判別し得る。そして、視聴者それぞれの好みに合うコンテンツの視聴を提案し得る。
図5の視聴者情報ID「VI0001」に格納された視聴者情報VI0001は、端末ID「T0001」によって識別される外部端末から送信された視聴者情報である。視聴者情報VI0001は、「コントA号」の開始から0分0秒経過後を視聴することに関する視聴履歴、感情指数情報「笑い1」、画面表示領域の「左側」を見る視聴者に関する注視領域情報、及び視聴者の心拍数が60であることに関する生体情報を関連付けた情報を含む。感情指数情報「笑い1」は、一番程度が低い笑いの感情に対応する。視聴者情報VI0001が格納されていることにより、例えば、「コントA号」の開始から0分0秒経過後を視聴する視聴者が、一番程度が低い笑いの感情で、画面表示領域の左側を注視し、心拍数60であったことを用いてコンテンツの視聴を提案し得る。
図5の視聴者情報ID「VI0003」に格納された視聴者情報VI0003は、端末ID「T0001」によって識別される外部端末から送信された視聴者情報である。視聴者情報VI0003は、コンテンツ「コントA号」の開始から0分10秒経過後を視聴する視聴者の視聴履歴、感情指数情報「笑い3」、画面表示領域の「右側」を見る視聴者に関する注視領域情報、及び視聴者の心拍数が80であることに関する生体情報を関連付けた情報を含む。視聴者情報VI0003が格納されていることにより、例えば、「コントA号」の開始から0分10秒経過後を視聴する視聴者が、高い程度の笑いの表情で画面表示領域の右側を注視し、心拍数80と大いに興奮していたことを用いてコンテンツの視聴を提案し得る。これにより、例えば、「コントA号」の開始から0分10秒経過後において画面表示領域の右側に表示されていた視聴対象と類似する視聴対象を含むコンテンツの視聴を提案し得る。
(コンテンツ提案情報テーブル322)
図6は、コンテンツ提案情報テーブル322の一例を示す図である。図6に示すコンテンツ提案情報テーブル322には、コンテンツ提案情報を識別可能な「コンテンツ提案情報ID」と、視聴者が視聴したコンテンツの「視聴履歴」、「感情指数条件」、「注視領域条件」、「生体情報条件」及び「コンテンツ提案情報」とが関連付けられて格納されている。視聴履歴は、視聴者が視聴したコンテンツを識別可能な情報を含む。感情指数条件は、感情指数情報に関する条件である。注視領域条件は、注視領域情報に関する条件である。生体情報条件は、生体情報に関する条件である。コンテンツ提案情報は、コンテンツの視聴を提案する情報であり、視聴を提案するコンテンツに関する「提案情報」を1以上含む。
コンテンツ提案情報IDを格納することにより、コンテンツ提案情報の取得及び格納が容易になる。コンテンツ提案情報IDと、視聴履歴、感情指数条件、注視領域条件、生体情報条件、及びコンテンツ提案情報とを関連付けて格納することにより、視聴履歴と関連付けられた感情指数条件、視聴履歴と関連付けられた注視領域条件、及び/又は視聴履歴と関連付けられた生体情報条件に基づいてコンテンツ提案情報を生成し得る。提案情報を1以上含むことにより、1又は複数のコンテンツの視聴を提案するコンテンツ提案情報を生成し得る。
視聴履歴は、コンテンツの時系列情報を含むことが好ましい。これにより、コンテンツの時系列によって画面表示領域の各領域に表示される視聴対象が変化するコンテンツであっても、視聴者が注意及び/又は感情を向けた視聴対象を正確に判別し得る。そして、視聴者それぞれの好みに合うコンテンツの視聴を提案し得る。
図6のコンテンツ提案情報ID「CP0001」には、コンテンツ提案情報ID「CP0001」と、コンテンツ「コントA号」の0分10秒を視聴することに関する視聴履歴、感情指数条件、注視領域条件、生体情報条件、及びコンテンツ提案情報とが関連付けられて格納されている。この感情指数条件は、感情指数情報が「笑い2」又は「笑い3」であることに関する条件である。この注視領域条件は、注視領域情報が「右側」であることに関する条件である。この生体情報条件は、視聴者の心拍数が70以上であることに関する条件である。このコンテンツ提案情報は、コンテンツ「ワライドズ」及び「ミイ&ツッ子」の視聴を提案する情報である。これにより、コンテンツ「コントA号」の0分10秒を視聴する視聴者が「笑い2」又は「笑い3」の感情指数情報を有し、画面表示領域の「右側」を見ていて心拍数70以上である場合に、コンテンツ「ワライドズ」及び「ミイ&ツッ子」の視聴を提案するコンテンツ提案情報を生成し得る。
[通信部33]
図1に戻る。通信部33は、装置3をネットワークN1に接続して端末2と通信可能にする通信部であれば特に限定されない。通信部33として、例えば、イーサネット規格に対応したネットワークカード、IEEE802.11に準拠したWi-Fi(Wireless Fidelity)対応デバイス、及び携帯電話ネットワークに対応した無線装置等が挙げられる。
〔ネットワークN1〕
ネットワークN1は、端末2と装置3とを通信可能に接続するネットワークであれば特に限定されない。ネットワークN1として、例えば、パーソナルエリアネットワーク、ローカルエリアネットワーク、イントラネット、エクストラネット、インターネット、携帯電話ネットワーク、Wi-Fiネットワーク、あるいはこれらを含むネットワークを複数組み合わせたネットワーク等が挙げられる。
ネットワークN1は、携帯電話ネットワーク及びWi-Fiネットワークによって例示される無線通信可能なネットワークを含むことが好ましい。これにより、有線通信の利用が困難な場所(例えば、電車内、屋外、又は飲食店。)でコンテンツを視聴する場合であっても、視聴者情報を端末2から装置3に送信し得る。また、コンテンツ提案情報を装置3から端末2に送信し得る。
〔生体情報センサB〕
生体情報センサBは、視聴者の生体情報を取得し、端末2に提供可能なセンサであれば特に限定されない。生体情報センサBとして、例えば、脈拍計、血圧計、及び体温計によって例示される生体情報を取得可能な従来から知られている各種のセンサが挙げられる。生体情報センサBは、脈拍計を含むことが好ましい。これにより、視聴者の感情に応じた変化を体温等より迅速に反映する脈拍を用いて、視聴者の感情を解析し得る。
生体情報センサBは、視聴者の身体に装着可能であることが好ましい。これにより、視聴者は、コンテンツを視聴するたびに生体情報センサを逐一身につけて使用する労力を費やすことなく、視聴者の生体情報を端末2に提供できる。生体情報センサBは、スマートウォッチ及びスマートバンド等によって例示される視聴者の生体情報を取得するセンサを含んで構成されたウェアラブル端末であってもよい。これにより、視聴者が普段使っているウェアラブル端末以外の追加のセンサを用いることなく、視聴者の生体情報を端末2に提供できる。
生体情報センサBは、Bluetooth(登録商標)規格に準拠した通信デバイス及びIEEE802.11に準拠したWi-Fi(Wireless Fidelity)対応デバイス等によって例示されるネットワークN2に接続可能な通信デバイスを含む。生体情報センサBは、中でも、Bluetooth規格に準拠した通信デバイスを含むことが好ましい。
Bluetooth規格に準拠した通信では、指向性が少ない簡易な無線通信を行える。指向性が少ない無線通信では、無線通信を行う機器間の位置関係がもたらす無線通信への悪影響を指向性がある無線通信より軽減し得る。生体情報センサBが視聴者の身体に装着されている場合、視聴者の身体の動きによって生体情報センサBが移動し得る。そして、生体情報センサBと端末2との位置関係が変化し得る。生体情報センサBがBluetooth規格に準拠した通信デバイスを含むことにより、生体情報センサBと端末2との位置関係が変化し得る場合であっても、ネットワークN2を介して視聴者の生体情報を端末2に提供し得る。
〔ネットワークN2〕
ネットワークN2の種類は、生体情報センサBと端末2とを通信可能に接続するネットワークであれば特に限定されない。ネットワークN2は、Bluetooth規格に準拠した無線通信ネットワークを含むことが好ましい。これにより、生体情報センサBと端末2との位置関係が変化する場合であっても、ネットワークN2を介して視聴者の生体情報を生体情報センサBから端末2へ送信し得る。
〔感情測定処理のメインフローチャート〕
図7は、感情測定端末2で実行される感情測定処理の一例を示すメインフローチャートである。図8及び図9は、感情測定端末2で実行される感情測定処理に関する各種の処理について、手順の一例を示すフローチャートである。以下、図7~図9を用いて、感情測定端末2で実行される感情測定処理の好ましい態様の一例を説明する。
必須の態様ではないが、感情測定処理は、ステップS1及びステップS2で実行される、基準点取得処理を含むことが好ましい。基準点取得処理は、視聴者の表情が普段の表情等によって例示される基準となる表情である場合における顔に関する特徴点である基準表情特徴点と、指定された画面上の基準領域を見る視聴者の視点である基準視点とを取得する処理である。基準点取得処理を含むことにより、基準表情特徴点と基準視点とを取得できる。
[ステップS1:基準表情特徴点及び基準視点を含む全ての基準点を取得済であるか否かを判別]
制御部21は、記憶部23及び通信部24と協働して基準表情特徴点取得部211を実行し、基準表情特徴点及び基準視点を含む全ての基準点を取得済であるか否かを判別する(ステップS1)。全ての基準点を取得済であるならば、制御部21は、処理をステップS3に移す。いずれか1以上の基準点が取得済でない場合、制御部21は、処理をステップS2に移す。ステップS1で実行される処理により、いずれか1以上の基準点が取得済でない場合に、取得済でない基準表情特徴点及び/又は取得済でない基準視点を取得する基準点取得処理を実行できる。
[ステップS2:基準点取得処理]
制御部21は、記憶部23及び通信部24と協働して基準表情特徴点取得部211等を実行し、取得済でない基準表情特徴点及び/又は取得済でない基準視点を取得する基準点取得処理を行う(ステップS2)。ステップS2で実行される基準点取得処理については、後に図8を用いてより詳細に説明する。制御部21は、処理をステップS3に移す。
基準点取得処理を行うことにより、指定された画面上の基準領域を見る視聴者の視点である基準視点を取得できる。そして、取得した基準視点を用いて、基準視点と視点の動きとを比較して注視領域を解析できる。したがって、基準視点を用いない場合よりも、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。これにより、視聴者の好みによりいっそう合う可能性が高いコンテンツの視聴を視聴者に提案し得る。
取得した基準視点を用いて、基準視点と視点の動きとを比較する簡易な手法で注視領域を解析し得る。これにより、基準視点を用いない場合と比べて、注視領域を解析するための処理リソースをよりいっそう減らし得る。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。
視聴者がコンテンツを視聴しているときの顔の特徴点だけを用いた分析では、コンテンツを視聴したことによって生じた感情を反映した表情と、普段の表情との判別が難しい。視聴者がコンテンツを視聴しているときの顔の特徴点だけを用いた分析では、例えば、視聴者の顔が、口角が上がった笑い顔である場合に、視聴者がコンテンツを視聴して笑ったために笑い顔であるのか、あるいは、普段の表情での顔が笑い顔であるのかの判別が難しい。
基準点取得処理を行うことにより、視聴者の表情が普段の表情等によって例示される基準となる表情である場合における顔に関する特徴点である基準表情特徴点を取得できる。これにより、基準となる表情とコンテンツを視聴したことによって生じた感情を反映した表情とを判別し得る。したがって、判別された表情に基づいて視聴者の感情を、基準点取得処理を行わない場合より詳細に解析し得る。そして、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
また、基準点取得処理を行うことにより、コンテンツを視聴しているときの特徴点と基準表情特徴点とを比較する簡易な処理を行い得る。これにより、感情指数を解析するための処理リソースを、基準点取得処理を行わない場合よりいっそう減らし得る。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、感情指数をよりいっそう詳細かつ正確に解析し得る。
[ステップS3:コンテンツを視聴しているか否かを判別]
制御部21は、記憶部23及び通信部24と協働して特徴点取得部214を実行し、視聴者がコンテンツを視聴しているか否かを判別する(ステップS3)。視聴者がコンテンツを視聴しているならば、制御部21は、処理をステップS4に移す。視聴者がコンテンツを視聴していないならば、制御部21は、処理をステップS5に移す。視聴者がコンテンツを視聴しているか否かを判別することにより、視聴者がコンテンツを視聴している場合に、コンテンツを視聴する視聴者に関する感情指数情報及び注視領域情報を解析し、これらの情報を含む視聴者情報を外部装置に送信する視聴者情報送信処理を実行できる。
[ステップS4:視聴者情報送信処理]
制御部21は、記憶部23及び通信部24と協働して特徴点取得部214、視点動き解析部215、顔動き解析部216、感情指数情報生成部218、注視領域情報解析部219、及び視聴者情報送信部220等を実行して、視聴者情報送信処理を行う(ステップS4)。
視聴者情報送信処理は、視聴者の顔の特徴点を取得し、取得した特徴点に基づいて顔の動き及び視点の動きを解析し、解析した顔の動き及び視点の動きを用いてコンテンツを視聴する視聴者に関する感情指数情報を生成し、解析した顔の動き及び視点の動きを用いて表示部25に設けられた画面表示領域のうち視聴者が注視する領域に関する注視領域情報を解析し、視聴履歴と関連付けられた感情指数情報及び注視領域情報を含む視聴者情報を外部装置に送信する、一連の処理である。ステップS4で実行される視聴者情報送信処理については、後に図9を用いてより詳細に説明する。制御部21は、処理をステップS5に移す。
表情による顔の動きは、感情を判断するための重要な判断材料である。顔の動きに加えて視点の動きを用いて感情を判断すれば、コンテンツに対する興味の度合いを含む視聴者の感情を判断し得る。すなわち、顔の動きと視点の動きとを用いれば、顔の動きのみを用いる場合より視聴者の感情を詳細に判断し得る。しかしながら、顔を映した映像等から顔の動きを解析する処理は、顔の動きの解析に用いる顔の特徴点を取得する処理等において多くの処理リソースを要求し得る。顔を映した映像等から視点の動きを解析する処理もまた、視点の動きの解析に用いる顔の特徴点を取得する処理等において多くの処理リソースを要求し得る。
これらの処理を同時に実行すると多大な処理リソースを必要とし得るため、視聴者が用いる端末が提供可能な処理リソースを上回り得る。したがって、視聴者が用いる端末において、限られた処理リソースを用いて顔の動きと視点の動きとを同時に解析することは、容易ではない。解析に要する処理リソースを減らすために特徴点を取得する手順そのものを簡易な手順にすると、取得された特徴点の精度が下がり得る。したがって、特徴点に基づいて解析される視聴者の感情及び注視する領域が不正確になり得る。
視聴者情報送信処理では、まず、視聴者の顔に関する特徴点を取得し、続いて、取得した特徴点を用いて顔の動き及び視点の動きを解析する一連の処理を実行する。したがって、顔の動きの解析に用いる顔の特徴点を取得して顔の動きを解析し、視点の動きの解析に用いる顔の特徴点を取得して視点の動きを解析する一連の処理を実行する場合より、顔の特徴点を取得する処理の実行回数を減らし得る。
これにより、顔の特徴点を取得する処理が要求する処理リソースを減らし得る一方で、特徴点を取得する手順そのものを簡易な手順にして特徴点の精度が下がることを防ぎ得る。すなわち、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、顔の動き及び視点の動きを正確に解析し得る。そして、解析された顔の動き及び視点の動きを用いて、視聴者の感情を顔の動きのみを用いる場合より詳細に判断し得る。したがって、感情に関するより詳細で正確な感情指数情報を生成し得る。さらに、視点の動きと顔の動きとを用いて、画面表示領域のうち、視聴者が注視する領域に関する注視領域情報を解析できる。
視聴者情報送信処理を行うことにより、視聴者の感情に関する感情指数情報と画面表示領域のうち視聴者が注視する注視領域情報とを外部装置に送信できる。そして、端末2は、感情指数と注視領域とに基づいてコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を外部装置から受信できる。端末2は、受信したコンテンツ提案情報を用いて視聴者の感情と注視する領域とに基づいてコンテンツの視聴を提案する画面を表示部25に表示させ得る。
この一連の処理では、コンテンツの視聴を提案する画面を表示可能な情報の生成を外部装置において行う。したがって、感情指数情報と注視領域情報とに基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを端末2において必要とすることがない。これにより、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、視聴者の感情と表示部25に設けられた画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
[ステップS5:コンテンツ提案情報を受信したか否かを判別]
制御部21は、記憶部23及び通信部24と協働してコンテンツ提案情報受信部221を実行し、コンテンツ提案情報を外部装置から受信したか否かを判別する(ステップS5)。コンテンツ提案情報を外部装置から受信したならば、制御部21は、処理をステップS6に移す。コンテンツ提案情報を外部装置から受信していないならば、制御部21は、処理をステップS1に移し、ステップS1からステップS6の処理を繰り返す。コンテンツ提案情報を受信したか否かを判別することにより、コンテンツ提案情報を受信した場合に、コンテンツ提案情報を用いて表示部25に設けられた画面表示領域にコンテンツの視聴を提案する画面を表示し得る。
[ステップS6:コンテンツ提案画面を表示]
制御部21は、記憶部23及び通信部24と協働してコンテンツ提案画面表示部222を実行し、ステップS5で受信したコンテンツ視聴提案情報を用いて表示部25に設けられた画面表示領域にコンテンツの視聴を提案する画面を表示する(ステップS6)。制御部21は、処理をステップS1に移し、ステップS1からステップS6の処理を繰り返す。
表示部25に設けられた画面表示領域に表示されるコンテンツの視聴を提案する画面は、コンテンツ提案情報を用いてコンテンツの視聴を提案する画面であれば特に限定されない。コンテンツの視聴を提案する画面は、例えば、コンテンツ提案情報に含まれるコンテンツの表題、再生時間、コンテンツに関するテキスト、コンテンツに関する画像等によって例示されるコンテンツに関する情報の1以上を表示する画面でよい。これにより、視聴者は、コンテンツに関する情報を用いて提案されたコンテンツを視聴するか否かを判断し得る。
コンテンツの視聴を提案する画面は、テキスト「おすすめ動画」等によって例示されるコンテンツの視聴を提案することを示すテキストを含むことが好ましい。これにより、視聴者は、該画面がコンテンツの視聴を提案する画面であると判断できる。コンテンツの視聴を提案する画面は、コンテンツの視聴を開始する手段(例えば、コンテンツの再生及び/又は表示を指示するボタン等。)を含むことが好ましい。これにより、視聴者は、提案されたコンテンツの視聴を開始する手段を探す労力を費やすことなく、コンテンツの視聴を開始できる。
ステップS5からステップS6において行われる処理により、ステップS5で受信したコンテンツ視聴提案情報を用いて表示部25に設けられた画面表示領域にコンテンツの視聴を提案する画面を表示できる。この一連の処理では、コンテンツの視聴を提案する画面を表示可能な情報の生成を外部装置において行う。これにより、感情指数情報と注視領域情報とに基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを端末2において必要とすることがない。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
したがって、ステップS1からステップS6で実行される処理によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能な感情測定端末2を提供できる。
[基準点取得処理]
図8は、基準点取得処理の一例を示すフローチャートである。以下、図8を用いて、図7のステップS2で実行される基準点取得処理の好ましい手順の一例について説明する。
(ステップS11:基準表情特徴点を取得済であるか否かを判別)
制御部21は、記憶部23と協働して基準表情特徴点取得部211を実行し、基準表情特徴点を取得済であるか否かを判別する(ステップS11)。基準表情特徴点を取得済であるならば、制御部21は、処理をステップS13に移す。基準表情特徴点を取得済でないならば、制御部21は、処理をステップS12に移す。基準表情特徴点を取得済であるか否かを判別することにより、基準表情特徴点を取得済でない場合に基準表情特徴点を取得する処理を実行できる。
(ステップS12:基準表情特徴点を取得)
制御部21は、記憶部23と協働して基準表情特徴点取得部211を実行し、視聴者の表情が基準となる表情である場合における視聴者の顔に関する特徴点である基準表情特徴点を取得する。そして、取得した基準表情特徴点と基準表情特徴点IDとを関連付けて基準表情特徴点テーブル231に格納する(ステップS12)。制御部21は、処理をステップS13に移す。ステップS12で実行される処理により、基準表情特徴点を基準表情特徴点テーブル231に格納できる。
(ステップS13:全ての基準領域について基準視点を取得済であるか否かを判別)
制御部21は、記憶部23と協働して注視指示部212を実行し、全ての基準領域について基準視点を取得済であるか否かを判別する(ステップS13)。全ての基準領域について基準視点を取得済であるならば、制御部21は、基準点取得処理を終了し、処理をステップS3に移す。いずれかの基準領域について基準視点を取得済でないならば、制御部21は、処理をステップS14に移す。ステップS13で実行される処理により、いずれかの基準領域について基準視点を取得済でない場合に、基準視点を取得済でない基準領域について基準視点を取得する処理を実行できる。
(ステップS14:未取得の基準領域を注視するよう指示)
制御部21は、記憶部23及び表示部25と協働して注視指示部212を実行し、対応する基準視点を取得済でない基準領域を1つ選択する。そして、選択された基準領域を注視する指示を表示部25に設けられた画面表示領域に表示する(ステップS14)。制御部21は、処理をステップS15に移す。ステップS14で実行される処理により、未取得の基準領域を注視するよう視聴者に指示できる。
(ステップS15:基準視点を取得)
制御部21は、記憶部23と協働して基準視点解析部213を実行し、基準領域を見る視聴者の視点である基準視点を解析する。そして、解析した基準視点と基準表情特徴点IDとを関連付けて基準視点テーブル232に格納する(ステップS15)。制御部21は、処理をステップS13に移す。ステップS15で実行される処理により、基準視点を基準視点テーブル232に格納できる。
[視聴者情報送信処理]
図9は、視聴者情報送信処理の一例を示すフローチャートである。以下、図9を用いて、図7のステップS4で実行される視聴者情報送信処理の好ましい手順の一例について説明する。
(ステップS21:特徴点を取得)
制御部21は、記憶部23と協働して特徴点取得部214を実行し、コンテンツを視聴する視聴者について、顔の特徴点を取得する(ステップS21)。制御部21は、処理をステップS22に移す。コンテンツを視聴する視聴者について、顔の特徴点を取得することにより、取得した特徴点を用いて顔の動き及び視点の動きを解析する一連の処理を実行できる。
顔の特徴点を取得する方法は、特に限定されない。顔の特徴点を取得する方法は、例えば、各種の画像認識技術を用いる従来から知られている顔の特徴点を取得する方法でよい。顔の特徴点を取得する方法は、ニューラルネットワーク技術等によって例示される人工知能技術(AI技術)を用いて顔の特徴点を取得する手順を含むことが好ましい。人工知能技術では、学習データを用いた学習を繰り返すことによってデータ認識における認識精度を高め得る。したがって、人工知能技術を用いて顔の特徴点を取得する手順を含むことにより、顔の特徴点を認識する処理における認識精度を高め得る。そして、顔の特徴点を高い精度で取得し得る。
必須の態様ではないが、顔の特徴点を取得する方法は、端末2が手持ちされている場合に、端末2の移動及び/又は向きの変化による特徴点の移動を打ち消すように特徴点の位置を補正する手順を含むことが好ましい。
携帯端末等によって例示される手持ち可能に構成された端末2では、視聴者が端末2を手持ちしている場合に、視聴者の手の動きや身体の動き等によって端末2が移動する場合がある。あるいは、視聴者の手の動きや身体の動き等によって端末2の向きが変化する場合がある。したがって、端末2が手持ち可能に構成された端末2である場合、視聴者の顔の動きや視点の動きによって特徴点が移動するだけでなく、端末2の移動及び/又は向きの変化によっても特徴点が移動し得る。端末2の移動及び/又は向きの変化による特徴点の移動は、視聴者の顔の動き及び/又は視点の動きの解析に悪影響を及ぼし得る。
顔の特徴点を取得する方法が、上述の特徴点の位置を補正する手順を含むことにより、視聴者が端末2を手持ちしている場合であっても、端末2の移動及び/又は向きの変化による特徴点の移動が視聴者の顔の動き及び/又は視点の動きの解析に及ぼす悪影響を軽減し得る。これにより、顔の動き及び視点の動きを、補正を行わない場合より正確に解析し得る。したがって、視聴者の感情及び注視する領域を、補正を行わない場合より正確に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
複雑なデータや大量のデータについて移動に関する補正を行う場合、多大な処理リソースを必要とし得る。そのため、補正を行えないことや、補正を行えたとしても、時間を要してしまうことがあり得る。端末2の移動及び/又は向きの変化による特徴点の移動を打ち消すように特徴点の位置を補正する手順では、補正の対象が視聴者の顔を写した映像等の複雑なデータ及び/又は大量のデータでなく、映像等より単純かつデータ量が小さい顔の特徴点の位置である。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、移動を打ち消すような補正を比較的短時間で実行し得る。
端末2の移動及び/又は向きの変化を検出する手段は、特に限定されない。端末2の移動及び/又は向きの変化を検出する手段は、従来から知られている端末2の移動及び/又は向きの変化を検出する手段でよい。端末2の移動及び/又は向きの変化を検出する手段は、例えば、複数の特徴点が同一方向に移動する動きを用いて端末2が移動したことを検出する方法、2以上の特徴点によって定められる向きが変化したことを用いて端末2の向きが変化したことを検出する方法、及び動き検知部によって検知された端末2の移動及び/又は向きの変化を用いて検出する方法等によって例示される。
端末2が動き検知部を含む場合、特徴点の位置を補正する手順は、動き検知部によって検知された端末2の移動及び/又は向きの変化を用いて特徴点の位置を補正する手順を含むことが好ましい。これにより、端末2の移動及び/又は向きの変化を正確に検出し得る。したがって、特徴点の位置をより高い精度で補正し得る。
(ステップS22:視点動きを解析)
制御部21は、記憶部23と協働して視点動き解析部215を実行し、ステップS21で取得した特徴点を用いて視聴者の視点の動きである視点動きを解析する(ステップS22)。制御部21は、処理をステップS23に移す。ステップS22で実行される処理により、後述する顔の動きと視点の動きとを用いて感情を判断し得る。視点動きを解析する方法は、特に限定されない。視点動きを解析する方法は、例えば、顔の特徴点を用いて視点動きを解析する従来技術の方法でよい。視点動きは、顔の特徴点のうち目に関する目の特徴点の動きを含むことが好ましい。これにより、視点と関連する目の特徴点の動きを用いて視聴者が注視する領域を解析し得る。
(ステップS23:顔動きを解析)
制御部21は、記憶部23と協働して顔動き解析部216を実行し、ステップS21で取得した特徴点を用いて視聴者の顔の動きである顔動きを解析する(ステップS23)。制御部21は、処理をステップS24に移す。ステップS23で実行される処理により、顔の動きとステップS22で解析された視点の動きとを用いて感情を判断し得る。顔動きを解析する方法は、特に限定されない。顔動きを解析する方法は、例えば、顔の特徴点を用いて顔動きを解析する従来技術の方法でよい。
顔動きを解析する方法は、図2に示す基準表情特徴点テーブル231に格納された基準表情特徴点とステップS21で取得された顔の特徴点との違いを用いて特徴点の移動量を算出する手順を含むことが好ましい。視聴者がコンテンツを視聴しているときの顔の特徴点だけを用いて分析すると、コンテンツを視聴したことによって生じた感情を反映した表情と、普段の表情との判別が難しい。視聴者がコンテンツを視聴しているときの顔の特徴点だけを用いた分析では、例えば、視聴者の顔が、口角が上がった笑い顔である場合に、視聴者がコンテンツを視聴して笑ったために笑い顔であるのか、あるいは、普段の表情での顔が笑い顔であるのかの判別が難しい。
顔動きを解析する方法が基準表情特徴点とステップS21で取得された顔の特徴点との違いを用いて特徴点の移動量を算出する手順を含むことにより、基準となる表情とコンテンツを視聴したことによって生じた感情を反映した表情とを判別し得る。したがって、判別された表情に基づいて視聴者の感情を、基準表情特徴点を用いない場合より詳細に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
また、顔動きを解析する方法が基準表情特徴点とステップS21で取得された顔の特徴点との違いを用いて特徴点の移動量を算出する手順を含むことにより、基準表情特徴点とコンテンツを視聴しているときの特徴点とを比較する簡易な処理を行い得る。これにより、感情指数を解析するための処理リソースを、基準表情特徴点を用いない場合よりいっそう減らし得る。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、感情指数をよりいっそう詳細かつ正確に解析し得る。
ところで、心拍数、血圧、及び体温等によって例示される生体情報は、感情に応じて変化することが知られている。システム1が生体情報センサBを含む場合、視聴者情報送信処理は、ステップS24で実行される生体情報を取得する処理を含むことが好ましい。これにより、感情に応じて変化する生体情報を用いて視聴者の感情をより詳細に解析し得る。
(ステップS24:生体情報を取得)
制御部21は、記憶部23及び通信部24と協働して生体情報取得部217を実行し、ネットワークN2を介して生体情報センサBから視聴者の生体情報を取得する(ステップS24)。制御部21は、処理をステップS25に移す。
ネットワークN2を介して生体情報センサBから視聴者の生体情報を取得することにより、視聴履歴と生体情報とを関連付けることができる。そして、視聴履歴と関連付けられた生体情報を用いて、生体情報を用いない場合と比べて視聴者の感情をより詳細に解析し得る。したがって、表示部25に設けられた画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情を、生体情報を用いない場合と比べてより詳細に解析し得る。これにより、視聴者の好みにより合ったコンテンツの視聴を提案し得る。また、視聴者の生体情報を取得することにより、生体情報を含む視聴者情報を外部装置に送信し得る。これにより、生体情報を用いた解析を外部装置において行い得る。
したがって、端末2が提供可能な処理リソースが比較的少なく、生体情報を用いた解析を実現できない場合(例えば、端末2がスマートフォンであって生体情報を用いた解析を実現できない場合。)であっても、生体情報を用いて感情をよりいっそう詳細かつ正確に解析し得る。
(ステップS25:感情指数情報を生成)
制御部21は、記憶部23と協働して感情指数情報生成部218を実行し、ステップS22で解析された視点動き及びステップS23で解析された顔動きを用いてコンテンツを視聴する視聴者の感情に関する感情指数情報を生成する(ステップS25)。制御部21は、処理をステップS26に移す。ステップS25で実行される処理により、顔の動きのみを用いる場合より視聴者の感情を詳細に判断した感情指数情報を生成し得る。
視点動き及び顔動きを用いて感情指数情報を生成する方法は、特に限定されない。感情指数情報を生成する方法は、例えば、図4に示す感情指数情報テーブル233を参照し、視点動き及び顔動きに関する動き情報とステップS22で解析された視点動き及びステップS23で解析された顔動きとを比較して、解析された視点動き及び顔動きに最も類似した動き情報と関連付けられた感情指数情報を取得する方法でよい。これにより、動き情報と解析された視点動き及び顔動きとを比較する簡易な処理によって、感情指数情報を生成できる。
(ステップS26:注視領域情報を解析)
制御部21は、記憶部23と協働して注視領域情報解析部219を実行し、ステップS22で解析された視点動き及びステップS23で解析された顔動きを用いて注視領域情報を解析する(ステップS26)。制御部21は、処理をステップS27に移す。視点動き及び顔動き等を用いて注視領域情報を解析することにより、注視領域情報を含む視聴者情報を外部装置に送信できる。
視点動き及び顔動きを用いて注視領域情報を解析する方法は、特に限定されない。基準視点テーブル232に格納する基準視点が基準領域を見る視聴者の目の特徴点である場合、注視領域情報を解析する方法は、コンテンツを視聴する視聴者に関し、視点の動き及び顔の動きに関する目の特徴点と基準視点とを比較する手順を含むことが好ましい。これにより、注視領域を解析するための処理リソースをよりいっそう減らし得る。したがって、端末2が提供可能な処理リソースが比較的少ない場合(例えば、端末2がスマートフォンである場合。)であっても、視聴者が注視する領域をよりいっそう詳細かつ正確に解析し得る。また、顔の特徴点全てを基準視点として用いる場合より、注視領域を解析するための処理リソースを減らし得る。
注視領域情報を解析する方法が目の特徴点と基準視点とを比較する手順を含む場合、視点動き及び顔動きを用いて注視領域情報を解析する方法は、基準視点テーブル232に格納する基準視点それぞれと目の特徴点との類似度を用いて基準視点に関連付けられた基準領域に重み付けし、基準領域それぞれから注視領域までの距離とこの重み付けとを積算した値が略同一の値になるように注視領域を決定する手順を含んでも良い。これにより、複数の基準視点を用いて注視領域をより詳細に解析し得る。
基準視点テーブル232に格納する基準視点が基準領域を見る視聴者の顔の特徴点である場合、視点動き及び顔動きを用いて注視領域情報を解析する方法は、コンテンツを視聴する視聴者に関し、視点の動き及び顔の動きに関する顔の特徴点と基準視点とを比較する手順を含むことが好ましい。これにより、目の特徴点のみを基準視点として用いる場合より、注視領域を詳細に解析し得る。
(ステップS27:視聴者情報を送信)
制御部21は、記憶部23及び通信部24と協働して視聴者情報送信部220を実行し、視聴者が視聴したコンテンツの視聴履歴とステップS25で生成された感情指数情報とステップS26で解析された注視領域情報とを関連付けた情報を含む視聴者情報を外部装置に送信する(ステップS27)。制御部21は、視聴者情報送信処理を終了し、処理をステップS5に移す。ステップS27で実行される処理により、感情指数と注視領域とに基づいてコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を外部装置から受信し得る。そして、受信したコンテンツ提案情報を用いて視聴者の感情と注視する領域とに基づいてコンテンツの視聴を提案する画面を表示部25に設けられた画面表示領域に表示させ得る。
視聴者情報送信処理がステップS24で実行される生体情報を取得する処理を含む場合、視聴者情報は、ステップS24で取得された生体情報と視聴履歴とを関連付けた情報を含むことが好ましい。これにより、外部装置において、視聴履歴と関連付けられた生体情報を用いて、生体情報を用いない場合と比べて視聴者の感情をより詳細に解析し得る。したがって、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情を、生体情報を用いない場合と比べてより詳細に解析し、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
視聴者情報がステップS24で取得された生体情報と視聴履歴とを関連付けた情報を含むことにより、生体情報を用いた解析を外部装置において行い得るため、端末2が提供可能な処理リソースが比較的少なく、生体情報を用いた解析を実現できない場合(例えば、端末2がスマートフォンであって生体情報を用いた解析を実現できない場合。)であっても、生体情報を用いて感情をよりいっそう詳細かつ正確に解析し得る。
視聴者情報に含まれる視聴履歴は、コンテンツの時系列情報を含むことが好ましい。これにより、コンテンツの時系列によって画面表示領域の各領域に表示される視聴対象が変化するコンテンツであっても、視聴者が注意及び/又は感情を向けた視聴対象を正確に判別し、視聴者それぞれの好みに合うコンテンツの視聴を提案し得る。
〔コンテンツ提案処理のメインフローチャート〕
図10は、コンテンツ提案装置3で実行されるコンテンツ提案処理の一例を示すメインフローチャートである。以下、図10を用いて、コンテンツ提案装置3で実行されるコンテンツ提案処理の好ましい態様の一例を説明する。
[ステップS31:視聴者情報を受信したか否かを判別]
制御部31は、記憶部32及び通信部33と協働して視聴者情報受信部311を実行し、感情測定端末2等の外部端末から視聴者情報を受信したか否かを判別する(ステップS31)。視聴者情報を受信したならば、制御部31は、視聴者情報IDと受信した視聴者情報とを関連付けた情報を視聴者情報テーブル321に格納し、処理をステップS32に移す。視聴者情報を受信していないならば、制御部31は、処理をステップS31に移す。外部端末から視聴者情報を受信したか否かを判別ことにより、外部端末から視聴者情報を受信した場合に、コンテンツ提案情報を生成し、生成したコンテンツ提案情報を送信する一連の処理を実行できる。
視聴者情報は、少なくとも、コンテンツを視聴する視聴者の感情に関する感情指数情報と、外部端末における画面表示領域のうち、視聴者が注視する領域に関する注視領域情報と、を含む。また、感情指数情報及び注視領域情報は、視聴者が視聴したコンテンツの視聴履歴と関連付けられている。これにより、視聴履歴と関連付けられた感情指数情報及び視聴履歴と関連付けられた注視領域情報に基づいてコンテンツ提案情報を生成できる。視聴者情報IDと受信した視聴者情報とを関連付けた情報を視聴者情報テーブル321に格納するため、視聴者情報テーブル321に格納された視聴者情報を用いてコンテンツ提案情報を生成できる。
視聴者情報は、外部端末を識別可能な端末IDを含むことが好ましい。これにより、外部端末が複数ある場合に、外部端末のそれぞれに応じたコンテンツの視聴を提案し得る。必須の態様ではないが、端末IDは、外部端末を利用する視聴者を識別可能な情報を含むことが好ましい。これにより、複数の視聴者が外部端末を利用する場合でも、外部端末を利用する視聴者それぞれの好みに合うコンテンツの視聴を提案し得る。
システム1が生体情報センサBを含む場合、視聴者情報は、視聴履歴と関連付けられた視聴者の生体情報をさらに含むことが好ましい。これにより、視聴履歴と関連付けられた生体情報を用いて、生体情報を用いない場合と比べて視聴者の感情を詳細に解析し得る。また、これにより、生体情報を用いない場合と比べて、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情をより詳細に解析し得る。したがって、視聴者の好みにより合ったコンテンツの視聴を提案し得る。
また、受信した生体情報を含む視聴者情報に基づいて装置3がコンテンツ提案情報を生成するため、外部端末が提供可能な処理リソースが比較的少なく、外部端末において生体情報を用いた感情の解析等を行えない場合(例えば、外部端末がスマートフォンであって生体情報を用いた解析を実現できない場合。)であっても、生体情報を用いて視聴者の好みにより合ったコンテンツの視聴を提案し得る。
[ステップS32:コンテンツ提案情報を生成]
制御部31は、記憶部32と協働してコンテンツ提案情報生成部312を実行し、ステップS31で受信した視聴者情報に基づいてコンテンツ提案情報を生成する(ステップS32)。制御部21は、処理をステップS33に移す。ステップS32で実行される処理により、視聴者情報に基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを外部端末において必要とすることがない。したがって、外部端末が提供可能な処理リソースが比較的少ない場合(例えば、外部端末がスマートフォンである場合。)であっても、視聴者情報に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
コンテンツ提案情報を生成する手段は、特に限定されない。コンテンツ提案情報を生成する手段は、例えば、ステップS31で受信した視聴者情報と同じ端末IDを含む1以上の視聴者情報を視聴者情報テーブル321から取得し、視聴者情報のそれぞれとコンテンツ提案情報テーブル322に格納された視聴履歴、感情指数条件、注視領域条件、及び/又は生体情報条件を比較して、視聴履歴と関連付けられたこれらの条件を1以上満たすコンテンツ提案情報を取得する方法を含む手段でよい。これにより、コンテンツ提案情報テーブル322に格納された各種の条件を用いてコンテンツ提案情報を生成できる。
コンテンツ提案情報を生成する手段がコンテンツ提案情報テーブル322に格納された各種の条件を1以上満たすコンテンツ提案情報を取得する方法を含む場合、コンテンツ提案情報を生成する手段は、条件を満たした数が多い所定数のコンテンツ提案情報を用いてコンテンツ提案情報を生成する方法をさらに含んでもよい。これにより、より多くの条件を満たしたコンテンツ提案情報、すなわち、視聴者の好みに合う可能性がより高いコンテンツ提案情報を所定数含むコンテンツ提案情報を生成し得る。
[ステップS33:コンテンツ提案情報を送信]
制御部31は、記憶部32及び通信部33と協働してコンテンツ提案情報送信部313を実行し、ステップS31で視聴者情報を送信した外部端末にコンテンツ提案情報を送信する(ステップS33)。制御部21は、処理をステップS31に移し、ステップS31からステップS33の処理を繰り返す。ステップS33で実行される処理により、外部端末から受信した視聴者情報に基づいて生成されたコンテンツ提案情報を介して、外部端末にコンテンツの視聴を提案する画面を表示させ得る。
視聴者の好みに合う可能性がより高いコンテンツの視聴を提案することに関し、端末の画面表示領域にコンテンツを表示する場合、画面表示領域には、領域ごとに異なる複数の視聴対象が表示され得る。このような場合において、視聴者の注意及び/又は感情が視聴対象のいずれに向けられたものであるかを判別できれば、視聴者の注意及び/又は感情を向けられた視聴対象に類似した視聴対象等を含むコンテンツを選択し得る。そして、選択されたコンテンツの視聴を提案し得る。したがって、視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。
ステップS31からステップS33で実行される処理によれば、外部端末から受信した視聴者情報に基づいてコンテンツ提案情報を生成する。そして、生成されたコンテンツ提案情報を介して、外部端末にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を表示させ得る。このため、視聴者情報に基づいて視聴者の好みに合う可能性がより高いコンテンツを大量のコンテンツから探し出すための多大な処理リソースを外部端末において必要とすることがない。したがって、外部端末が提供可能な処理リソースが比較的少ない場合(例えば、外部端末がスマートフォンである場合。)であっても、視聴者情報に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を視聴者に提案し得る。
ステップS31において受信する視聴者情報は、視聴者の感情に関する感情指数情報と、外部端末における画面表示領域のうち、視聴者が注視する領域に関する注視領域情報とを含む。これにより、装置3は、ステップS32において、視聴者の感情と、画面表示領域のうち視聴者が注視する領域と、に基づいてコンテンツ提案情報を生成し得る。そして、ステップS33において生成したコンテンツ提案情報を送信するため、コンテンツ提案情報を介して、外部端末にコンテンツの視聴を提案する画面を表示させ得る。すなわち、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。
ステップS31において受信する感情指数情報及び注視領域情報は、視聴者が視聴したコンテンツの視聴履歴と関連付けられている。これにより、装置3は、ステップS32及びステップS33の処理において、単に視聴者の感情又は注視する領域に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案するにとどまらず、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。あるいは、これにより、装置3は、画面表示領域のうち視聴者が注視する領域に表示された視聴対象に向けられた視聴者の感情に基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案し得る。
したがって、ステップS31からステップS33で実行される処理によれば、視聴者が用いる端末が提供可能な処理リソースが比較的少ない場合であっても、視聴者の感情と画面表示領域のうち視聴者が注視する領域とに基づいて視聴者の好みに合う可能性がより高いコンテンツの視聴を提案可能なコンテンツ提案装置3を提供できる。
<システム1の使用例>
図11は、特徴点取得の一例を示す概略模式図である。図12は、注視領域情報解析の一例を示す概略模式図である。以下、必要に応じて図11及び図12を参照しつつ、本実施形態におけるシステム1の使用例を説明する。
〔コンテンツの再生〕
視聴者は、感情測定端末2の表示部25に設けられた画面表示領域25A(図12参照)にコンテンツを表示させ、表示されたコンテンツを視聴する。図12に示す例では、コンテンツ「コントA号」を画面表示領域25Aに表示している。
〔特徴点の取得〕
感情測定端末2は、コンテンツを視聴する視聴者に関し、顔の特徴点を取得する。図11に示す例では、点線で示す視聴者の顔から、実線でつながれた黒丸で示す特徴点を取得している。図11に示す例では、特徴点は、右眉の特徴に対応する右眉特徴点CP1R、左眉の特徴に対応する左眉特徴点CP1L、右目内側の特徴に対応する右目内側特徴点CP2R、左目外側の特徴に対応する左目外側特徴点CP3L、唇の特徴に対応する唇特徴点CP4、あごの特徴に対応するあご特徴点CP5等を含む。図11に示す例の特徴点は、左目内側の特徴に対応する左目内側特徴点、右目外側の特徴に対応する右目外側特徴点、鼻の特徴に対応する鼻特徴点等も含むが、図の見やすさを向上させるためにこれらの特徴点に対応する符号の記載を省略している。なお、ここでいう顔の構成要素及び特徴点の左右は、コンテンツを視聴する視聴者から見た左右であり、図の左右と逆である。
右眉の特徴に対応する右眉特徴点CP1Rは、右眉尻の特徴に対応する第1右眉特徴点CP1Ra、右眉中央の特徴に対応する第2右眉特徴点CP1Rb、及び右眉内側の特徴に対応する第3右眉特徴点CP1Rcを含む。これにより、笑った表情における眉尻が下がる顔の動き、怒った表情における眉尻が上がる顔の動き、及び驚いた表情における眉全体が上がる顔の動き等によって例示される顔の動きを解析し得る。
左眉の特徴に対応する左眉特徴点CP1Lは、左眉尻の特徴に対応する第1左眉特徴点CP1La、左眉中央の特徴に対応する第2左眉特徴点CP1Lb、及び左眉内側の特徴に対応する第3左眉特徴点CP1Lcを含む。これにより、右眉の特徴に対応する特徴点を含むことによる顔の動きを解析し得ることに加えて、疑いの感情を示す表情における左右の眉が不均等に動く顔の動き等も解析し得る。
右目内側の特徴に対応する右目内側特徴点CP2Rは、右目の虹彩部分について、輪郭の特徴に対応する第1右目内側特徴点CP2Ra、第2右目内側特徴点CP2Rb、第3右目内側特徴点CP2Rc、第4右目内側特徴点CP2Rdを含む。これにより、右目の虹彩部分の動きによって示される視点の動きを解析し得る。
左目外側の特徴に対応する左目外側特徴点CP3Lは、左目外側について、輪郭上側の特徴に対応する第1左目外側特徴点CP3La、目尻の特徴に対応する第2左目外側特徴点CP3Lb、輪郭下側の特徴に対応する第3左目外側特徴点CP3Lc、及び目頭の特徴に対応する第4左目外側特徴点CP3Ldを含む。これにより、微笑んだ表情における左目を細める目の動き、驚いた表情における左目を見開く目の動き、笑う表情における左目尻を下げる目の動き等によって例示される目の動きを解析し得る。
唇の特徴に対応する唇特徴点CP4は、唇の輪郭の特徴に関し、第1唇特徴点CP4a、第2唇特徴点CP4b、第3唇特徴点CP4c、第4唇特徴点CP4d、第5唇特徴点CP4e、第6唇特徴点CP4f、及び第7唇特徴点CP4gを含む。これにより、笑う表情における口角(第3唇特徴点CP4c及び第6唇特徴点CP4f)を上げる顔の動き及び驚いた表情における口を開ける顔の動き等によって例示される顔の動きを解析し得る。
あごの特徴に対応するあご特徴点CP5は、あごの輪郭の特徴に関し、第1あご特徴点CP5a、第2あご特徴点CP5b、第3あご特徴点CP5c等を含む。これにより、笑う表情におけるあごが下がる顔の動き等によって例示される顔の動きを解析し得る。
〔動きの解析〕
感情測定端末2は、取得した特徴点を用いて目の動き及び顔の動きを解析する。顔の特徴点が上述の各種の特徴点を含むため、感情指数情報の生成及び注視領域情報の解析に用いることが可能な目の動き及び顔の動きを解析できる。
〔感情指数情報の生成〕
感情測定端末2は、目の動き及び顔の動きを用いて感情指数情報を生成する。図12(a)及び図12(c)に示す例では、「笑い1」の感情指数情報が生成されている。図12(b)に示す例では、「笑い3」の感情指数情報が生成されている。図12(b)に示す例では、図12(a)及び図12(c)に示す例より程度が高い笑いの感情に対応する感情指数情報が生成されている。
〔注視領域情報の解析〕
感情測定端末2は、目の動き及び顔の動きを用いて注視領域情報を解析する。図12(a)に示す例は、向かって左側に立つボケ担当の芸人と向かって右側に立つツッコミ担当の芸人との二人組が話芸を披露するコンテンツ「コントA号」を視聴する視聴者に関する例である。図12(a)に示す例では、コンテンツの再生開始から0分0秒の時点において、画面表示領域25Aのうち、ボケ担当の芸人が表示されている左側の領域が第1注視領域VPaであることが示されている。このときの感情指数情報は、「笑い1」であり、視聴者が笑いの感情を程度1で感じたことを示す感情指数情報が生成されている。
図12(b)に示す例では、コンテンツの再生開始から0分10秒の時点において、画面表示領域25Aのうち、大仰な身振りを行っているツッコミ担当の芸人が表示されている右側の領域が第2注視領域VPbであることが示されている。このときの感情指数情報は、「笑い3」であり、視聴者が笑いの感情を程度3で感じたことを示す感情指数情報が生成されている。コンテンツの0分10秒における笑いの感情の程度は、コンテンツの再生開始から0分0秒の時点における笑いの感情の程度より高い。第2注視領域VPb及び対応する感情指数情報により、視聴者は、向かって左側に立つボケ担当の芸人よりも、向かって右側に立つツッコミ担当の芸人について程度が高い笑いを感じていると判断し得る。
図12(c)に示す例では、コンテンツの再生開始から0分20秒の時点において、画面表示領域25Aのうち、手を合わせる身振りを行っているボケ担当の芸人が表示されている左側の領域が第3注視領域VPcであることが示されている。このときの感情指数情報は、「笑い1」であり、視聴者が笑いの感情を程度1で感じたことを示す感情指数情報が生成されている。コンテンツの再生開始から0分20秒の時点における笑いの感情の程度は、コンテンツの再生開始から0分0秒の時点における笑いの感情の程度と同程度であり、コンテンツの再生開始から0分10秒の時点における笑いの感情の程度より低い。
第1注視領域VPa、第2注視領域VPb、及び第3注視領域VPcと、これらの注視領域に対応する感情指数情報とを用いることにより、視聴者が向かって左側に立つボケ担当の芸人について感じている笑いの感情の程度は、ツッコミ担当の芸人について感じている笑いの感情の程度ほど高くないことを判断し得る。
このように、コンテンツ「コントA号」を視聴する視聴者について感情指数情報を生成し、生成した注視領域情報を解析することにより、視聴者がボケ担当の芸人よりツッコミ担当の芸人についてより程度が高い笑いの感情を感じていることを判断し得る。したがって、コンテンツ提案装置3は、コンテンツ「コントA号」を視聴したことを示す視聴履歴と関連付けられた感情指数情報及び注視領域情報を用いて、画面表示領域25Aのうち、右側の領域に表示されているツッコミ担当の芸人に類似した視聴対象を含むコンテンツの視聴を提案し得る。
〔視聴者情報の送信〕
感情測定端末2は、視聴者が視聴したコンテンツの視聴履歴と感情指数情報と注視領域情報とを関連付けた情報を含む視聴者情報をコンテンツ提案装置3に送信する。コンテンツ提案装置3は、感情測定端末2から該視聴者情報を受信する。
〔コンテンツ提案情報の生成〕
コンテンツ提案装置3は、受信した視聴者情報に基づいてコンテンツ提案情報を生成する。受信した視聴者情報には、上述のコンテンツ「コントA号」に関する視聴履歴と、該コンテンツを視聴する視聴者がコンテンツの再生開始から0分10秒の時点において、感情指数情報「笑い3」で画面表示領域25Aにおける右側の領域を注視していたことを示す情報が含まれている。
コンテンツ提案装置3は、図6に示すコンテンツ提案情報テーブル322に格納されたコンテンツ提案情報のそれぞれについて、受信した視聴者情報が該コンテンツ提案情報に含まれる条件を満たすか否かを判別する。受信した視聴者情報は、コンテンツ提案情報ID「CP0001」に格納された、コンテンツ「コントA号」の再生開始から0分10秒の時点に関する、感情指数情報が「笑い2」又は「笑い3」のいずれかであるという条件と、注視領域が画面表示領域25Aにおける右側の領域であるという条件とを満たす。コンテンツ提案装置3は、これらの条件を満たすことに基づいて、これらの条件と関連付けられたコンテンツ「ワライドズ」「ミイ&ツッ子」の視聴を提案するコンテンツ提案情報を生成する。
〔コンテンツ提案情報の送信〕
コンテンツ提案装置3は、生成したコンテンツ提案情報を感情測定端末2に送信する。感情測定端末2は、該コンテンツ提案情報をコンテンツ提案装置3から受信する。
〔コンテンツ提案画面の表示〕
感情測定端末2は、受信したコンテンツ提案情報に基づいて、表示部25に設けられた画面表示領域25Aにコンテンツ「ワライドズ」「ミイ&ツッ子」の視聴を提案する画面を表示する。これにより、視聴者は、視聴者の好みに合う可能性がより高いコンテンツである「ワライドズ」及び/又は「ミイ&ツッ子」を視聴し得る。
以上、本発明の実施形態について説明したが、本発明は上述の実施形態に限るものではない。また、上述の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したものに過ぎず、本発明による効果は、上述の実施形態に記載されたものに限定されるものではない。また、上述の実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
1 コンテンツ提案システム
2 感情測定端末
21 制御部
211 基準表情特徴点取得部
212 注視指示部
213 基準視点解析部
214 特徴点取得部
215 視点動き解析部
216 顔動き解析部
217 生体情報取得部
218 感情指数情報生成部
219 注視領域情報解析部
220 視聴者情報送信部
221 コンテンツ提案情報受信部
222 コンテンツ提案画面表示部
23 記憶部
231 基準表情特徴点テーブル
232 基準視点テーブル
233 感情指数テーブル
24 通信部
25 表示部
25A 画面表示領域
3 コンテンツ提案装置
31 制御部
311 視聴者情報受信部
312 コンテンツ提案情報生成部
313 コンテンツ提案情報送信部
32 記憶部
321 視聴者情報テーブル
322 コンテンツ提案情報テーブル
33 通信部
B 生体情報センサ
N1 第1ネットワーク
N2 第2ネットワーク

Claims (10)

  1. コンテンツを視聴する視聴者に関する視聴者情報を外部端末から受信する視聴者情報受信部と、
    前記外部端末にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を前記視聴者情報に基づいて生成可能なコンテンツ提案情報生成部と、
    前記外部端末に前記コンテンツ提案情報を送信可能なコンテンツ提案情報送信部と、
    を備え、
    前記視聴者情報は、少なくとも、
    前記視聴者の感情に関する感情指数情報と、
    前記外部端末における画面表示領域のうち、前記視聴者が注視する領域に関する注視領域情報と、
    を含み、
    前記感情指数情報及び前記注視領域情報は、前記視聴者が視聴した前記コンテンツの視聴履歴と関連付けられている、
    コンテンツ提案装置。
  2. 前記視聴者情報は、前記視聴者の生体情報をさらに含み、
    前記生体情報は、前記視聴履歴と関連付けられている、請求項1に記載のコンテンツ提案装置。
  3. コンテンツを視聴する視聴者の顔に関する特徴点を取得する特徴点取得部と、
    前記特徴点を用いて前記視聴者の視点の動きを解析する視点動き解析部と、
    前記特徴点を用いて前記視聴者の顔の動きを解析する顔動き解析部と、
    前記視点の動きと前記顔の動きとを用いて前記視聴者の感情に関する感情指数情報を生成する感情指数情報生成部と、
    前記視点の動きと前記顔の動きとを用いて、画面表示領域のうち、前記視聴者が注視する領域に関する注視領域情報を解析する注視領域情報解析部と、
    前記視聴者が視聴した前記コンテンツの視聴履歴と関連付けられた前記感情指数情報と前記視聴履歴と関連付けられた前記注視領域とを含む視聴者情報を外部装置に送信する視聴者情報送信部と、
    前記視聴者情報に基づいて前記画面表示領域にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を前記外部装置から受信するコンテンツ提案情報受信部と、
    前記コンテンツ提案情報を用いて前記画面表示領域に前記コンテンツの視聴を提案する画面を表示するコンテンツ提案画面表示部と、
    を備える、感情測定端末。
  4. 前記画面表示領域のうち、指定された画面上の基準領域を見るよう前記視聴者に指示する注視指示部と、
    前記基準領域を見る前記視聴者の視点である基準視点を解析する基準視点解析部と、
    をさらに備え
    前記注視領域解析部は、前記基準視点と前記視点の動きと前記顔の動きとを用いて前記視聴者が見ている画面上の領域である注視領域を解析する、請求項3に記載の感情測定端末。
  5. 前記視聴者の生体情報を取得する生体情報取得部をさらに備え、
    前記視聴者情報は、前記視聴履歴と関連付けられた前記生体情報を含む、
    請求項3又は4に記載の感情測定端末。
  6. 前記視聴者の表情が基準となる表情である場合における前記視聴者の顔に関する特徴点である基準表情特徴点を取得する基準表情特徴点取得部をさらに備え、
    前記感情指数情報生成部は、前記基準表情特徴点と前記特徴点との比較を用いて前記感情指数情報を生成可能である、
    請求項3から5のいずれか1項に記載の感情測定端末。
  7. 前記感情測定端末は、手持ち可能に構成された端末であり、
    前記特徴点取得部は、前記感情測定端末が手持ちされている場合に、前記感情測定端末の移動及び/又は向きの変化による前記特徴点の移動を打ち消すように前記特徴点の位置を補正可能である、
    請求項3から6のいずれか1項に記載の感情測定端末。
  8. 前記感情測定端末がスマートフォンである、請求項7に記載の感情測定端末。
  9. 前記外部装置としての請求項1又は2に記載のコンテンツ提案装置と、
    前記外部端末としての請求項3から8のいずれか1項に記載の感情測定端末と、
    を含んで構成される、コンテンツ提案システム。
  10. 感情測定端末に、
    コンテンツを視聴する視聴者の顔に関する特徴点を取得する特徴点取得ステップと、
    前記特徴点を用いて前記視聴者の視点の動きを解析する視点動き解析ステップと、
    前記特徴点を用いて前記視聴者の顔の動きを解析する顔動き解析ステップと、
    前記視点の動きと前記顔の動きとを用いて前記視聴者の感情に関する感情指数情報を生成する感情指数情報生成ステップと、
    前記視点の動きと前記顔の動きとを用いて、画面表示領域のうち、前記視聴者が注視する領域に関する注視領域情報を解析する注視領域情報解析ステップと、
    前記視聴者が視聴した前記コンテンツの視聴履歴と関連付けられた前記感情指数情報と前記視聴履歴と関連付けられた前記注視領域とを含む視聴者情報を外部装置に送信する視聴者情報送信ステップと、
    前記視聴者情報に基づいて前記画面表示領域にコンテンツの視聴を提案する画面を表示可能なコンテンツ提案情報を前記外部装置から受信するコンテンツ提案情報受信ステップと、
    前記コンテンツ提案情報を用いて前記画面表示領域に前記コンテンツの視聴を提案する画面を表示するコンテンツ提案画面表示ステップと、
    を実行させるプログラム。

JP2020207869A 2020-12-15 2020-12-15 コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム Pending JP2022094784A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020207869A JP2022094784A (ja) 2020-12-15 2020-12-15 コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020207869A JP2022094784A (ja) 2020-12-15 2020-12-15 コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022094784A true JP2022094784A (ja) 2022-06-27

Family

ID=82162473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020207869A Pending JP2022094784A (ja) 2020-12-15 2020-12-15 コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム

Country Status (1)

Country Link
JP (1) JP2022094784A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102626061B1 (ko) * 2023-04-21 2024-01-16 주식회사 티빙 콘텐츠에 대한 사용자의 감정 정보에 기반하여 서비스를 제공하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102626061B1 (ko) * 2023-04-21 2024-01-16 주식회사 티빙 콘텐츠에 대한 사용자의 감정 정보에 기반하여 서비스를 제공하는 방법 및 장치

Similar Documents

Publication Publication Date Title
US20210196188A1 (en) System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US10366691B2 (en) System and method for voice command context
EP3321787B1 (en) Method for providing application, and electronic device therefor
CN110447232B (zh) 用于确定用户情绪的电子设备及其控制方法
US10366487B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
US20210256264A1 (en) Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
AU2015201759B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer readable storage medium
US9535499B2 (en) Method and display apparatus for providing content
US20160350801A1 (en) Method for analysing comprehensive state of a subject
US20190042574A1 (en) Electronic device and method for controlling the electronic device
US20170095192A1 (en) Mental state analysis using web servers
KR20160037074A (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
US20140234815A1 (en) Apparatus and method for emotion interaction based on biological signals
US10088901B2 (en) Display device and operating method thereof
US11914784B1 (en) Detecting emotions from micro-expressive free-form movements
JP7118697B2 (ja) 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル
KR20180074180A (ko) 가상현실 영상에 대한 정보를 제공하는 장치 및 방법
WO2020077011A1 (en) Systems and methods for generating a product recommendation in a virtual try-on session
TWI717425B (zh) 可區別使用者生理特徵的使用者生理感測系統
US20150150032A1 (en) Computer ecosystem with automatic "like" tagging
JP2022094784A (ja) コンテンツ提案装置、感情測定端末、コンテンツ提案システム、及びプログラム
CN116823408B (zh) 基于虚拟现实的商品推荐方法、装置、终端及存储介质
KR20220127568A (ko) 홈 트레이닝 서비스 제공 방법 및 그를 수행하는 디스플레이 장치
CN110446996A (zh) 一种控制方法、终端及系统
US20200301398A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409