JP2022022871A - 処理装置および没入度導出方法 - Google Patents
処理装置および没入度導出方法 Download PDFInfo
- Publication number
- JP2022022871A JP2022022871A JP2020118638A JP2020118638A JP2022022871A JP 2022022871 A JP2022022871 A JP 2022022871A JP 2020118638 A JP2020118638 A JP 2020118638A JP 2020118638 A JP2020118638 A JP 2020118638A JP 2022022871 A JP2022022871 A JP 2022022871A
- Authority
- JP
- Japan
- Prior art keywords
- immersive
- user
- evaluation value
- content
- reaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 44
- 238000000034 method Methods 0.000 title claims description 23
- 238000009795 derivation Methods 0.000 title claims description 19
- 238000011156 evaluation Methods 0.000 claims abstract description 153
- 238000004458 analytical method Methods 0.000 claims abstract description 71
- 238000007654 immersion Methods 0.000 claims abstract description 28
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000010365 information processing Effects 0.000 description 54
- 210000003128 head Anatomy 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 239000003550 marker Substances 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 239000012141 concentrate Substances 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 206010041308 Soliloquy Diseases 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1688—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being integrated loudspeakers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Abstract
【課題】仮想現実の映像世界を体験したユーザが当該映像世界に入り込んだ度合いを示す没入度を導出する技術を提供する。【解決手段】状況データ取得部210は、コンテンツの画像が表示されているときのユーザの第1の反応を示すデータと第2の反応を示すデータとを含む状況データを取得する。第1解析部212は、第1の反応を示すデータを解析して、ユーザの第1の反応にもとづく第1没入評価値を導出する。第2解析部214は、第2の反応を示すデータを解析して、ユーザの第2の反応にもとづく第2没入評価値を導出する。重み設定部218は、第1没入評価値および第2没入評価値のそれぞれの重み値を設定する。没入度導出部220は、第1没入評価値および第2没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出する。【選択図】図6
Description
本発明は、ユーザがコンテンツを見たときの没入度を導出する技術に関する。
ヘッドマウントディスプレイ(HMD)はユーザの頭部に装着されて、仮想現実(VR)の映像世界をユーザに提供する。HMDはユーザの視野全体にVR画像を提供することで、ユーザを映像世界に没入させる。特許文献1は、複数のアイコンを含むメニュー画面を表示して、ユーザからアイコンの選択操作を受け付ける情報処理装置を開示する。特許文献1では、アイコン配置部が、優先度の高いアイコンほどユーザからの距離が近くなるように、複数のアイコンを仮想空間に配置する。
多種多様なコンテンツが溢れる現代では、選択肢が多すぎることで、ユーザがコンテンツを選択することが難しくなっている。特許文献1は、ユーザが選択しやすいように、ユーザによる選択頻度の高いコンテンツのアイコンをユーザに近い位置に配置する技術を開示する。しかしながら、この配置ルールによれば、これまで選択されたことのないコンテンツはユーザから遠い位置に配置されるため、ユーザにより選択されにくい。そこでコンテンツそのものの魅力ないしは価値を評価するための指標を新たに作成することが好ましい。
本発明はこうした課題に鑑みてなされたものであり、その目的は、仮想現実の映像世界を体験したユーザが当該映像世界に入り込んだ度合いを示す没入度を、コンテンツの客観的評価の指標として導出する技術を提供することにある。
上記課題を解決するために、本発明のある態様は、コンテンツに対する没入度を導出する処理装置であって、コンテンツの画像が表示されているときのユーザの第1の反応を示すデータと、コンテンツの画像が表示されているときのユーザの第1の反応とは異なる第2の反応を示すデータとを含む状況データを取得する状況データ取得部と、第1の反応を示すデータを解析して、ユーザの第1の反応にもとづく第1没入評価値を導出する第1解析部と、第2の反応を示すデータを解析して、ユーザの第2の反応にもとづく第2没入評価値を導出する第2解析部と、第1没入評価値および第2没入評価値のそれぞれの重み値を設定する重み設定部と、第1没入評価値および第2没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出する没入度導出部とを備える。
本発明の別の態様は、コンテンツに対する没入度を導出する方法であって、コンテンツの画像が表示されているときのユーザの第1の反応を示すデータを取得するステップと、第1の反応を示すデータを解析して、ユーザの第1の反応にもとづく第1没入評価値を導出するステップと、コンテンツの画像が表示されているときのユーザの第2の反応を示すデータを取得するステップと、第2の反応を示すデータを解析して、ユーザの第2の反応にもとづく第2没入評価値を導出するステップと、第1没入評価値および第2没入評価値のそれぞれの重み値を設定するステップと、第1没入評価値および第2没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出するステップと、を有する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、コンテンツに対する没入度を導出する技術を提供できる。
図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は情報処理装置10と、ヘッドマウントディスプレイ(HMD)100と、記録装置11と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影するカメラ14と、画像を表示する出力装置15とを備える。出力装置15はテレビであってよい。情報処理装置10は、アクセスポイント(AP)12を介して、インターネットなどの外部のネットワーク2に接続される。AP12は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP12とケーブルで接続してよく、または既知の無線通信プロトコルで接続してもよい。
HMD100はユーザの頭部に装着されて仮想現実(VR)の映像世界をユーザに提供する。情報処理装置10にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動してHMD100に表示される視野画像を更新することで、映像世界に対するユーザの没入感を高められる。
情報処理装置10は、ユーザにより入力装置16に入力された操作データ(たとえばキーデータ)を受け付けて、様々なカテゴリのコンテンツを処理する端末装置である。情報処理装置10は、コンテンツを処理した結果である画像データおよび音声データをHMD100に供給する。たとえばコンテンツが映画やミュージックビデオである場合、情報処理装置10は、コンテンツを再生して、コンテンツの映像および音声をHMD100から出力させる。コンテンツがゲームソフトウェアである場合、情報処理装置10は、ユーザ操作にもとづいてゲームソフトウェアを実行して、ゲームの映像および音声をHMD100から出力させる。情報処理装置10と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。情報処理装置10とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
カメラ14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を情報処理装置10に供給する。HMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、情報処理装置10は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。HMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、情報処理装置10は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のヘッドトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、情報処理装置10はHMD100の動きを検出できるのであれば、どのような手法を採用してもよい。後述するように実施例のHMD100は外部空間を撮影するカメラを搭載しており、情報処理装置10が、カメラ画像からSLAM(Simultaneous Localization and Mapping)処理によりヘッドトラッキングを実施してもよい。
ユーザはHMD100で画像を見るため、HMD100を装着したユーザにとって出力装置15は必ずしも必要ではないが、出力装置15を用意することで、HMD100を装着していない別のユーザが出力装置15に表示される画像を見ることができる。情報処理装置10は、HMD100を装着したユーザが見ている視野画像と同じ画像を出力装置15に表示させてもよいが、別の画像を表示させてもよい。
HMD100は、ユーザが頭部に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。
情報処理装置10は、ユーザのヘッドトラッキング処理により、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標は、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢は、3次元空間における基準姿勢に対する3軸方向の傾きで表現される。基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。
情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらにカメラ14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。
情報処理システム1では、複数の情報処理装置10が、ネットワーク2経由で、管理サーバ4と接続する。管理サーバ4は、情報処理装置10にコンテンツを提供するコンテンツサーバ8と、コンテンツサーバ8が提供するコンテンツに対するユーザの没入度を導出する処理サーバ6とを備える。処理サーバ6およびコンテンツサーバ8は、別個の処理装置として構成されてよいが、一体の処理装置として構成されてもよい。
処理サーバ6は、複数のユーザが操作する複数の情報処理装置10から、コンテンツの画像が表示されているときのユーザの反応を示す状況データを取得して、当該コンテンツに対するユーザの没入度を導出する。「没入度」はユーザがコンテンツに集中して入り込んだ度合いを示す指標であり、没入度が高いことは、ユーザがコンテンツに集中した程度が高いことを意味し、没入度が低いことは、ユーザがコンテンツに集中した程度が低いこと、つまりユーザがコンテンツを集中して見なかったことを意味する。没入度は複数のパラメータにおける評価値を統合して導出され、たとえば100点満点中の点数として表現されてよい。
処理サーバ6は、1つのコンテンツに関して、複数のユーザの没入度を導出し、導出した複数のユーザの没入度を統計処理することで、当該コンテンツの客観的な評価指標となる没入度を導出する。処理サーバ6は、コンテンツに対する没入度を利用して、ユーザがコンテンツを選択するためのメニュー空間を生成してよい。仮想空間であるメニュー空間には、複数のコンテンツアイコンが選択可能に配置され、没入度の高いコンテンツのアイコンがユーザに近い位置に配置される。
コンテンツサーバ8は、情報処理装置10にコンテンツを提供する。コンテンツサーバ8は、映画、ゲーム、ニュース映像、ミュージックビデオ、コンサート映像など、様々なカテゴリのコンテンツを提供してよい。
図2は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよく、外付けのヘッドホンが接続されるように構成されてもよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしてもカメラ14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザがカメラ14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、姿勢センサが検出したセンサデータや筐体外部を撮影するカメラ(図示せず)が撮影した画像データ、マイクに入力された音声データを情報処理装置10に送信する。またHMD100は、情報処理装置10から供給される画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示し、情報処理装置10から供給される音声データを受信して、スピーカーから出力する。
図3は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。カメラ134は筐体108の外側に設けられて、HMD100の外部空間を撮影する。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、情報処理装置10から受け取ったコンテンツの画像データを表示パネル130に供給して表示し、情報処理装置10から受け取ったコンテンツの音声データを音声出力部132に供給して音声出力する。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データ、カメラ134からの撮影画像データを、通信制御部128から情報処理装置10に送信させる。
図4は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、メニュー空間受信部20、コンテンツ受信部22、HMDデータ受信部24、撮影画像受信部26、操作データ受信部28および送信部60を備える。情報処理装置10は、さらに顔方向検出部30、コンテンツ処理部40および状況データ生成部50を備え、コンテンツ処理部40は、メニュー画像生成部42、実行部44および出力処理部46を有する。
図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
実施例において処理サーバ6は、ユーザがコンテンツを選択するためのメニュー空間を構成するデータ(メニュー空間データ)を生成して、情報処理装置10に提供する。情報処理装置10においてメニュー空間受信部20がメニュー空間データを受信し、メニュー画像生成部42が、ユーザの顔の向きにもとづいたメニュー画像を生成して、送信部60がメニュー画像をHMD100に転送する。
図5は、HMD100の表示パネル130に表示されるメニュー画面を示す。メニュー画面には、複数のコンテンツのアイコンが表示される。複数のコンテンツアイコンは、導出された没入度の高いものから順に、手前から奥に向かって配置される。このメニュー画面例では、複数のコンテンツアイコンが、カテゴリ別に一列に並べて表示されている。
映画アイコン80a、80b、80c、80dは、映画コンテンツを表現し、高い没入度を有する映画コンテンツのアイコンほど手前に、より大きく表示される。ゲームアイコン82a、82b、82cは、ゲームコンテンツを表現し、高い没入度を有するゲームコンテンツのアイコンほど手前に、より大きく表示される。ニュース映像アイコン84a、84bは、ニュース映像コンテンツを表現し、ミュージックビデオアイコン86a、86b、86cは、ミュージックビデオコンテンツを表現し、コンサート映像アイコン88a、88bは、音楽のコンサート映像コンテンツを表現する。いずれのカテゴリにおいても、高い没入度を有するコンテンツのアイコンほど手前に、且つ大きく表示されてよい。
高い没入度を有するコンテンツのアイコンは目立つように表示されることが好ましい。たとえば高い没入度を有するコンテンツのアイコンほど、変形する態様や、振動する態様で表示されてよい。
操作データ受信部28は、入力装置16から、ユーザが入力した操作データを受信する。操作データ受信部28は、ユーザの操作データを、コンテンツ処理部40および状況データ生成部50に供給する。
HMDデータ受信部24は、HMD100の姿勢センサ124で検出されたセンサデータ、マイク126で取得された音声データ、カメラ134で取得された撮影画像データを受信する。HMDデータ受信部24は、センサデータ、音声データおよび撮影画像データを状況データ生成部50に供給するとともに、センサデータを顔方向検出部30に供給する。
撮影画像受信部26は、カメラ14から所定の周期でユーザを撮影した画像を受信して、顔方向検出部30および状況データ生成部50に供給する。カメラ14は(1/60)秒ごとにユーザを含む空間を撮影してよい。
顔方向検出部30は、姿勢センサ124によるセンサデータおよびカメラ14による撮影画像を、ユーザの頭部に装着されたHMD100の姿勢を示す姿勢情報として取得し、ユーザの顔の向きを検出する。具体的に顔方向検出部30は、姿勢センサ124のうち3軸ジャイロセンサのセンサデータから、HMD100の姿勢の変化を検出する。顔方向検出部30は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。顔方向検出部30は、特定したHMD100の姿勢を、ユーザの顔の向きとして決定し、コンテンツ処理部40に提供する。
コンテンツ処理部40において、メニュー画像生成部42は、顔方向検出部30から提供される顔の向きを、メニュー空間における仮想カメラの光軸方向を定める情報として利用する。なおメニュー画像生成部42は、操作データ受信部28が受信した操作データを、仮想カメラの光軸方向を定める情報として利用してもよい。実施例においてメニュー空間内の仮想カメラの位置は固定とするが、メニュー空間内で仮想カメラを移動可能としてもよい。メニュー画像生成部42は、仮想カメラの位置および光軸方向に応じたメニュー画像を生成する。メニュー画像生成部42が左目用のメニュー画像と右目用のメニュー画像を生成すると、出力処理部46は送信部60から、左目用表示画像と右目用表示画像をHMD100に送信させる。これによりHMD100は、図5に示すメニュー画面を表示パネル130に表示する。
ユーザは、入力装置16を操作して、メニュー画面に含まれるコンテンツアイコンを選択できる。メニュー画面において複数のコンテンツアイコンが重なってしまっている場合、ユーザは、手をスワイプして手前または奥のコンテンツアイコンを移動または消去させたり、発声によって手前または奥のコンテンツアイコンを移動または消去させたりできてよい。またユーザが首を傾けることで、手前または奥のコンテンツアイコンを移動させることができてもよい。このようにユーザは、所望のコンテンツアイコンを選択しやすい状態にして、選択してよい。ユーザがコンテンツアイコンを選択すると、HMD100が、選択したコンテンツ情報を情報処理装置10に送信し、情報処理装置10がコンテンツサーバ8にコンテンツ情報を送信する。コンテンツサーバ8は、ユーザが選択したコンテンツ情報を受信すると、当該コンテンツを情報処理装置10に送信する。
情報処理装置10においてコンテンツ受信部22がコンテンツを受信し、実行部44が、操作データ受信部28が受信した入力装置16の操作データ、および/または顔方向検出部30で検出されたユーザの顔の向きに応じて、コンテンツを処理する。出力処理部46は送信部60から、コンテンツの処理結果となる画像データおよび音声データをHMD100に送信させる。これによりHMD100は、コンテンツ画像を表示パネル130に表示し、コンテンツ音声を音声出力部132から出力する。以上のようにして、ユーザは、コンテンツを楽しむことができる。
上記したようにHMDデータ受信部24は、姿勢センサ124で検出されたセンサデータ、マイク126で取得された音声データ、カメラ134で取得された撮影画像データを状況データ生成部50に供給する。撮影画像受信部26は、カメラ14で取得された撮影画像データを状況データ生成部50に供給する。また操作データ受信部28は、入力装置16にユーザが入力した操作データを状況データ生成部50に供給する。出力処理部46は、状況データ生成部50に対して、コンテンツ画像が表示パネル130に表示されているか否かを示す情報を提供する。
コンテンツ画像が表示パネル130に表示されている間、状況データ生成部50は、HMDデータ受信部24、撮影画像受信部26および操作データ受信部28から供給される各種データをまとめて、ユーザがコンテンツに反応している状況を示す状況データとして処理サーバ6に送信する。なお状況データ生成部50は、状況データをリアルタイムに送信しなくてもよく、コンテンツ画像の表示中に供給される各種データをまとめて、コンテンツ画像の表示終了後に処理サーバ6に送信してもよい。
以下、処理サーバ6が、情報処理装置10から送信されるユーザの状況データから、コンテンツに対するユーザの没入度を導出する処理について説明する。
図6は、処理サーバ6の機能ブロックを示す。処理サーバ6は、処理部200および通信部202を備え、処理部200は、状況データ取得部210、第1解析部212、第2解析部214、第3解析部216、重み設定部218、没入度導出部220およびメニュー空間生成部222を備える。
図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
状況データ取得部210は、通信部202を介して、情報処理装置10から、コンテンツが表示されているときのユーザの反応状況を示す状況データを取得する。状況データに含まれるユーザの反応を示すデータは、以下のデータ種類に分類される。
・ 第1の反応を示すデータ
第1の反応を示すデータは、コンテンツ画像が表示されているときのユーザの体の動きを示す動作データであり、姿勢センサ124で検出されたセンサデータ、カメラ134で取得された撮影画像データおよびカメラ14で取得された撮影画像データを含む。
・ 第2の反応を示すデータ
第2の反応を示すデータは、コンテンツ画像が表示されているときにユーザが発した音声を示す音声データであり、マイク126で取得された音声データが該当する。
・ 第3の反応を示すデータ
第3の反応を示すデータは、コンテンツ画像が表示されているときにユーザが入力装置16を操作した操作データであり、入力装置16に入力された操作データが該当する。
・ 第1の反応を示すデータ
第1の反応を示すデータは、コンテンツ画像が表示されているときのユーザの体の動きを示す動作データであり、姿勢センサ124で検出されたセンサデータ、カメラ134で取得された撮影画像データおよびカメラ14で取得された撮影画像データを含む。
・ 第2の反応を示すデータ
第2の反応を示すデータは、コンテンツ画像が表示されているときにユーザが発した音声を示す音声データであり、マイク126で取得された音声データが該当する。
・ 第3の反応を示すデータ
第3の反応を示すデータは、コンテンツ画像が表示されているときにユーザが入力装置16を操作した操作データであり、入力装置16に入力された操作データが該当する。
処理部200は、データ種類ごとにデータを解析して、コンテンツに対するユーザの没入度を求めるための評価値をデータ種類ごとに導出する。
(1)ユーザの第1の反応にもとづく第1没入評価値
第1解析部212は、第1の反応を示すデータである動作データを解析して、ユーザの体の動きにもとづく第1没入評価値を導出する。実施例において動作データは、姿勢センサ124によるセンサデータ、カメラ134およびカメラ14で取得された撮影画像データを含むが、第1解析部212は、適切な1種類以上のデータを利用して、ユーザの体の動きを特定してよい。第1解析部212は、以下の2つの評価基準のうちのいずれかで、ユーザの体の動きにもとづく第1没入評価値を導出する。
第1解析部212は、第1の反応を示すデータである動作データを解析して、ユーザの体の動きにもとづく第1没入評価値を導出する。実施例において動作データは、姿勢センサ124によるセンサデータ、カメラ134およびカメラ14で取得された撮影画像データを含むが、第1解析部212は、適切な1種類以上のデータを利用して、ユーザの体の動きを特定してよい。第1解析部212は、以下の2つの評価基準のうちのいずれかで、ユーザの体の動きにもとづく第1没入評価値を導出する。
(1a)静止姿勢にもとづく第1評価基準
映画やニュース映像などのコンテンツに没入しているとき、ユーザは大きく動かず、静止した姿勢をとる。そこで第1評価基準では、第1解析部212はユーザの静止姿勢を、コンテンツに没入した状態と評価する。第1解析部212は、コンテンツ表示中に、ユーザの姿勢が連続して静止している時間を計測し、コンテンツ表示時間に対する姿勢静止時間の割合を求める。このとき連続して静止している時間が所定時間(たとえば30秒)よりも短ければ、その時間は、姿勢静止時間に加算されない。第1解析部212は、当該割合に応じて、第1没入評価値を導出する。第1没入評価値は、100点満点中の点数として導出される。
映画やニュース映像などのコンテンツに没入しているとき、ユーザは大きく動かず、静止した姿勢をとる。そこで第1評価基準では、第1解析部212はユーザの静止姿勢を、コンテンツに没入した状態と評価する。第1解析部212は、コンテンツ表示中に、ユーザの姿勢が連続して静止している時間を計測し、コンテンツ表示時間に対する姿勢静止時間の割合を求める。このとき連続して静止している時間が所定時間(たとえば30秒)よりも短ければ、その時間は、姿勢静止時間に加算されない。第1解析部212は、当該割合に応じて、第1没入評価値を導出する。第1没入評価値は、100点満点中の点数として導出される。
コンテンツ表示時間に対する姿勢静止時間の割合が90%以上である場合、第1解析部212は、第1没入評価値を100点としてよい。たとえばコンテンツ表示時間が100分であるとき、累積した姿勢静止時間が90分以上であれば、第1解析部212は、第1没入評価値を100点に設定する。当該割合が70%以上、90%未満の場合、第1解析部212は、第1没入評価値を60点とし、当該割合が50%以上、70%未満の場合、第1解析部212は、第1没入評価値を30点とし、当該割合が50%未満の場合、第1解析部212は、第1没入評価値を0点としてよい。このように第1解析部212は、静止姿勢時間にもとづく第1評価基準で、第1没入評価値を導出してよい。
(1b)連続的な動きにもとづく第2評価基準
ミュージックビデオやコンサート映像などのコンテンツに没入しているとき、ユーザは音楽のリズムに合わせて体を動かす。そこで第2評価基準では、第1解析部212はユーザが連続的に体を動かしている状態を、コンテンツに没入した状態と評価する。第1解析部212は、コンテンツ表示中に、ユーザの姿勢が連続して動いている時間を計測し、コンテンツ表示時間に対する連続動作時間の割合を求める。このとき連続して動いている時間が所定時間(たとえば20秒)よりも短ければ、その時間は、連続動作時間に加算されない。第1解析部212は、当該割合に応じて、第1没入評価値を導出する。第1没入評価値は、100点満点中の点数として導出される。
ミュージックビデオやコンサート映像などのコンテンツに没入しているとき、ユーザは音楽のリズムに合わせて体を動かす。そこで第2評価基準では、第1解析部212はユーザが連続的に体を動かしている状態を、コンテンツに没入した状態と評価する。第1解析部212は、コンテンツ表示中に、ユーザの姿勢が連続して動いている時間を計測し、コンテンツ表示時間に対する連続動作時間の割合を求める。このとき連続して動いている時間が所定時間(たとえば20秒)よりも短ければ、その時間は、連続動作時間に加算されない。第1解析部212は、当該割合に応じて、第1没入評価値を導出する。第1没入評価値は、100点満点中の点数として導出される。
コンテンツ表示時間に対する連続動作時間の割合が50%以上である場合、第1解析部212は、第1没入評価値を100点としてよい。たとえばコンテンツ表示時間が100分であるとき、累積した連続動作時間が50分以上であれば、第1解析部212は、第1没入評価値を100点に設定する。当該割合が30%以上、50%未満の場合、第1解析部212は、第1没入評価値を60点とし、当該割合が10%以上、30%未満の場合、第1解析部212は、第1没入評価値を30点とし、当該割合が10%未満の場合、第1解析部212は、第1没入評価値を0点としてよい。このように第1解析部212は、連続動作時間にもとづく第2評価基準で、第1没入評価値を導出してよい。
第1解析部212は、コンテンツのカテゴリにもとづいて、いずれの評価基準を利用するか決定する。コンテンツが映画やニュース映像、ゲームなどである場合、第1解析部212は、連続静止時間にもとづいた第1評価基準を利用する。一方で、コンテンツがミュージックビデオやコンサート映像などの場合、第1解析部212は、連続動作時間にもとづく第2評価基準を利用する。このようにカテゴリに応じて評価基準を使い分けることで、第1解析部212は、ユーザの体の動きにもとづいた第1没入評価値を適切に導出できる。
(2)ユーザの第2の反応にもとづく第2没入評価値
第2解析部214は、第2の反応を示すデータである音声データを解析して、ユーザの発声にもとづく第2没入評価値を導出する。実施例において音声データは、HMD100のマイク126で取得された音声データであるが、ユーザが存在する空間に設置された別のマイクで取得された音声データであってもよい。
第2解析部214は、第2の反応を示すデータである音声データを解析して、ユーザの発声にもとづく第2没入評価値を導出する。実施例において音声データは、HMD100のマイク126で取得された音声データであるが、ユーザが存在する空間に設置された別のマイクで取得された音声データであってもよい。
・ 別のユーザと会話できる状態のとき
ユーザと別のユーザが同じコンテンツを見ながら会話できる状態にあるとき、ユーザ同士が当該コンテンツに関して会話することで、集中力が高まり、コンテンツに没入しやすくなる。そこで第2解析部214は、コンテンツ表示中に、ユーザが発声している時間を計測し、コンテンツ表示時間に対する発声時間の割合を求める。
ユーザと別のユーザが同じコンテンツを見ながら会話できる状態にあるとき、ユーザ同士が当該コンテンツに関して会話することで、集中力が高まり、コンテンツに没入しやすくなる。そこで第2解析部214は、コンテンツ表示中に、ユーザが発声している時間を計測し、コンテンツ表示時間に対する発声時間の割合を求める。
コンテンツ表示時間に対する発声時間の割合が10%以上である場合、第2解析部214は、第2没入評価値を100点としてよい。たとえばコンテンツ表示時間が100分であるとき、累積した発声時間が10分以上であれば、第2解析部214は、第2没入評価値を100点に設定する。当該割合が5%以上、10%未満の場合、第2解析部214は、第2没入評価値を60点とし、当該割合が2%以上、5%未満の場合、第2解析部214は、第2没入評価値を30点とし、当該割合が2%未満の場合、第2解析部214は、第2没入評価値を0点としてよい。このように第2解析部214は、発声時間にもとづいて、第2没入評価値を導出してよい。
・ 別のユーザと会話できないとき
独り言には、目の前にある事柄に集中できる効果があることが知られている。そのためユーザが1人でコンテンツを見ているときに、独り言を言っていれば、コンテンツに没入している可能性が高い。そこで第2解析部214は、コンテンツ表示中に、ユーザが発声(独り言)している時間を計測し、コンテンツ表示時間に対する発声時間の割合を求める。
独り言には、目の前にある事柄に集中できる効果があることが知られている。そのためユーザが1人でコンテンツを見ているときに、独り言を言っていれば、コンテンツに没入している可能性が高い。そこで第2解析部214は、コンテンツ表示中に、ユーザが発声(独り言)している時間を計測し、コンテンツ表示時間に対する発声時間の割合を求める。
コンテンツ表示時間に対する発声時間の割合が5%以上である場合、第2解析部214は、第2没入評価値を100点としてよい。たとえばコンテンツ表示時間が100分であるとき、累積した発声時間が5分以上であれば、第2解析部214は、第2没入評価値を100点に設定する。当該割合が3%以上、5%未満の場合、第2解析部214は、第2没入評価値を60点とし、当該割合が1%以上、3%未満の場合、第2解析部214は、第2没入評価値を30点とし、当該割合が1%未満の場合、第2解析部214は、第2没入評価値を0点としてよい。このように第2解析部214は、独り言の発声時間にもとづいて、第2没入評価値を導出してよい。
なおコンサート映像やミュージックビデオなどの音楽コンテンツの表示中、ユーザは没入すると、コンテンツ音声として流れる歌声に合わせて歌う。そこで音楽が流れるコンテンツの場合には、以下の基準で、第2解析部214が第2没入評価値を導出する。
コンテンツ表示時間に対する発声時間の割合が40%以上である場合、第2解析部214は、第2没入評価値を100点としてよい。たとえばコンテンツ表示時間が100分であるとき、歌うことで累積された発声時間が40分以上であれば、第2解析部214は、第2没入評価値を100点に設定する。当該割合が20%以上、40%未満の場合、第2解析部214は、第2没入評価値を60点とし、当該割合が10%以上、20%未満の場合、第2解析部214は、第2没入評価値を30点とし、当該割合が10%未満の場合、第2解析部214は、第2没入評価値を0点としてよい。このように音楽コンテンツの場合、第2解析部214は、ユーザが歌っている時間にもとづいて、第2没入評価値を導出してよい。
(3)ユーザの第3の反応にもとづく第3没入評価値
第3解析部216は、第3の反応を示すデータである入力装置16の操作データを解析して、入力装置16の操作状況にもとづく第3没入評価値を導出する。
映画、ニュース映像、ミュージックビデオやコンサート映像などのコンテンツ表示中、入力装置16は、画像を切り替えるためのメニュー表示や、音量変更、早送りや早戻しなどの操作のために利用される。そのため、これらのコンテンツの表示中に、頻繁に入力装置16が操作されることは、ユーザが、当該コンテンツに没入していないことを示す。そこで第3解析部216は、コンテンツ表示中に、入力装置16が操作された回数をカウントし、単位時間あたりの操作回数を求める。第3解析部216は、たとえば10分あたりの操作回数を求めてよい。第3解析部216は、単位時間あたりの操作回数に応じて、第3没入評価値を導出する。第3没入評価値は、100点満点中の点数として導出される。
第3解析部216は、第3の反応を示すデータである入力装置16の操作データを解析して、入力装置16の操作状況にもとづく第3没入評価値を導出する。
映画、ニュース映像、ミュージックビデオやコンサート映像などのコンテンツ表示中、入力装置16は、画像を切り替えるためのメニュー表示や、音量変更、早送りや早戻しなどの操作のために利用される。そのため、これらのコンテンツの表示中に、頻繁に入力装置16が操作されることは、ユーザが、当該コンテンツに没入していないことを示す。そこで第3解析部216は、コンテンツ表示中に、入力装置16が操作された回数をカウントし、単位時間あたりの操作回数を求める。第3解析部216は、たとえば10分あたりの操作回数を求めてよい。第3解析部216は、単位時間あたりの操作回数に応じて、第3没入評価値を導出する。第3没入評価値は、100点満点中の点数として導出される。
単位時間あたりの操作回数(10分あたりの操作回数)が2回以上である場合、第3解析部216は、第3没入評価値を0点としてよい。当該回数が1回以上、2回未満の場合、第3解析部216は、第3没入評価値を30点とし、当該回数が0.5回以上、1回未満の場合、第3解析部216は、第3没入評価値を50点とし、当該回数が0.5回未満の場合、第3解析部216は、第3没入評価値を100点とする。
なおゲームのコンテンツ表示中、ユーザは入力装置16を操作してゲームを進行させている。そのためゲームコンテンツを表示しているとき(つまりユーザがゲームをプレイしているとき)、入力装置16の操作データは、あくまでもゲーム進行に必要なものであり、ユーザのゲームコンテンツに対する没入度を表現しない。そこでゲームコンテンツの場合には、第3没入評価値を無視して、没入度を導出することが必要となる。
以上のように、第1解析部212が第1没入評価値を導出し、第2解析部214が第2没入評価値を導出し、第3解析部216が第3没入評価値を導出する。重み設定部218は、第1没入評価値、第2没入評価値および第3没入評価値のそれぞれの重み値を設定する。没入度導出部220は、第1没入評価値、第2没入評価値および第3没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出する。重み設定部218は、コンテンツのカテゴリに応じた重み値を設定してよい。
図7(a)~図7(c)は、カテゴリごとに設定される重み値の例を示す。
図7(a)は、映画コンテンツの重み値を示す。重み設定部218は、第1評価基準にもとづく第1没入評価値の重み値をwa1(50%)、第2没入評価値の重み値をwa2(40%)、第3没入評価値の重み値をwa3(10%)と設定する。重み値wa1、wa2、wa3の総和は、100%となる。映画コンテンツの場合、第1没入評価値が、コンテンツ没入度に最も影響を与えるパラメータとして設定される。
図7(a)は、映画コンテンツの重み値を示す。重み設定部218は、第1評価基準にもとづく第1没入評価値の重み値をwa1(50%)、第2没入評価値の重み値をwa2(40%)、第3没入評価値の重み値をwa3(10%)と設定する。重み値wa1、wa2、wa3の総和は、100%となる。映画コンテンツの場合、第1没入評価値が、コンテンツ没入度に最も影響を与えるパラメータとして設定される。
没入度導出部220は、以下のように映画コンテンツの没入度を導出する。
(没入度)=第1没入評価値×wa1+第2没入評価値×wa2+第3没入評価値×wa3
没入評価値に重み値を乗算する演算は、没入評価値を重み付けする処理に相当する。以上の式により、1人のユーザの映画コンテンツに対する没入度が導出される。
(没入度)=第1没入評価値×wa1+第2没入評価値×wa2+第3没入評価値×wa3
没入評価値に重み値を乗算する演算は、没入評価値を重み付けする処理に相当する。以上の式により、1人のユーザの映画コンテンツに対する没入度が導出される。
図7(b)は、コンサート映像コンテンツの重み値を示す。重み設定部218は、第2評価基準にもとづく第1没入評価値の重み値をwb1(30%)、第2没入評価値の重み値をwb2(60%)、第3没入評価値の重み値をwb3(10%)と設定する。重み値wb1、wb2、wb3の総和は、100%となる。コンサート映像コンテンツの場合、第2没入評価値が、コンテンツ没入度に最も影響を与えるパラメータとして設定される。
没入度導出部220は、以下のようにコンサート映像コンテンツの没入度を導出する。
(没入度)=第1没入評価値×wb1+第2没入評価値×wb2+第3没入評価値×wb3
以上の式により、1人のユーザのコンサート映像コンテンツに対する没入度が導出される。
(没入度)=第1没入評価値×wb1+第2没入評価値×wb2+第3没入評価値×wb3
以上の式により、1人のユーザのコンサート映像コンテンツに対する没入度が導出される。
図7(c)は、ゲームコンテンツの重み値を示す。重み設定部218は、第1評価基準にもとづく第1没入評価値の重み値をwc1(30%)、第2没入評価値の重み値をwc2(70%)、第3没入評価値の重み値を0%と設定する。重み値wc1、wc2の総和は、100%となる。ゲームコンテンツの場合、第2没入評価値が、コンテンツ没入度に最も影響を与えるパラメータとして設定される。
没入度導出部220は、以下のようにゲームコンテンツの没入度を導出する。
(没入度)=第1没入評価値×wc1+第2没入評価値×wc2
以上の式により、1人のユーザのゲームコンテンツに対する没入度が導出される。ゲームコンテンツを実施する際、ユーザは入力装置16を操作するため、入力装置16の操作状況を没入度導出のパラメータとして利用しないことで、導出する没入度の信頼性を高めることができる。
(没入度)=第1没入評価値×wc1+第2没入評価値×wc2
以上の式により、1人のユーザのゲームコンテンツに対する没入度が導出される。ゲームコンテンツを実施する際、ユーザは入力装置16を操作するため、入力装置16の操作状況を没入度導出のパラメータとして利用しないことで、導出する没入度の信頼性を高めることができる。
没入度導出部220は、1つのコンテンツに関して、複数のユーザの没入度を導出し、導出した複数のユーザの没入度を統計処理することで、当該コンテンツの客観的な評価指標となる没入度を導出する。統計処理の単純な例としては、没入度導出部220は、複数のユーザの没入度の平均値を算出することで、当該コンテンツに対する没入度を導出してよい。重み設定部218がカテゴリごとに重み値を設定し、没入度導出部220が重み値を用いて各没入評価値を重み付けして没入度を算出することで、カテゴリ内のコンテンツ没入度に順位付けすることが可能となる。
メニュー空間生成部222は、没入度導出部220により導出されたコンテンツに対する没入度を利用して、ユーザがコンテンツを選択するためのメニュー空間を生成する。図5に例示したように、メニュー空間には、仮想的なユーザ位置に対して、没入度の高いコンテンツアイコンが近くに且つ大きく配置される。これによりユーザは、1つのカテゴリ内において没入度の高いコンテンツを選択しやすくなる。
なお没入度導出部220は、没入度に関する指標をカテゴリ間で容易に比較できるようにするために、没入度を加工してもよい。たとえば没入度導出部220は、カテゴリ内での没入度の偏差値を求める。カテゴリ内で求められた没入度の偏差値は、平均値からの偏差を表現する指標であるため、カテゴリ間の比較に利用できる。この場合、メニュー空間生成部222は、カテゴリに依存することなく、没入度の偏差値を利用して、コンテンツを選択するためのメニュー空間を生成してよい。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施例では情報処理装置10とHMD100とが別体であることを説明したが、変形例では情報処理装置10の機能がHMD100に組み込まれて、HMD100が単体で状況データの送信機能を実現してもよい。
実施例では、没入度導出部220が、第1没入評価値、第2没入評価値、第3没入評価値の3つのパラメータを用いてコンテンツ没入度を導出したが、これらのパラメータのうちの2つを用いてコンテンツ没入度を導出してもよい。没入度導出部220は、第1没入評価値および第2没入評価値の組み合わせにもとづいてコンテンツ没入度を導出してよく、第1没入評価値および第3没入評価値の組み合わせにもとづいてコンテンツ没入度を導出してよく、第2没入評価値および第3没入評価値の組み合わせにもとづいてコンテンツ没入度を導出してよい。
1・・・情報処理システム、2・・・ネットワーク、4・・・管理サーバ、6・・・処理サーバ、8・・・コンテンツサーバ、10・・・情報処理装置、16・・・入力装置、20・・・メニュー空間受信部、22・・・コンテンツ受信部、24・・・HMDデータ受信部、26・・・撮影画像受信部、28・・・操作データ受信部、30・・・顔方向検出部、40・・・コンテンツ処理部、42・・・メニュー画像生成部、44・・・実行部、46・・・出力処理部、50・・・状況データ生成部、60・・・送信部、100・・・HMD、102・・・出力機構部、104・・・装着機構部、106・・・装着バンド、108・・・筐体、110・・・発光マーカ、120・・・制御部、122・・・記憶部、124・・・姿勢センサ、126・・・マイク、128・・・通信制御部、130・・・表示パネル、130a・・・左目用表示パネル、130b・・・右目用表示パネル、132・・・音声出力部、134・・・カメラ、200・・・処理部、202・・・通信部、210・・・状況データ取得部、212・・・第1解析部、214・・・第2解析部、216・・・第3解析部、218・・・重み設定部、220・・・没入度導出部、222・・・メニュー空間生成部。
Claims (7)
- コンテンツに対する没入度を導出する処理装置であって、
コンテンツの画像が表示されているときのユーザの第1の反応を示すデータと、コンテンツの画像が表示されているときのユーザの第1の反応とは異なる第2の反応を示すデータとを含む状況データを取得する状況データ取得部と、
第1の反応を示すデータを解析して、ユーザの第1の反応にもとづく第1没入評価値を導出する第1解析部と、
第2の反応を示すデータを解析して、ユーザの第2の反応にもとづく第2没入評価値を導出する第2解析部と、
第1没入評価値および第2没入評価値のそれぞれの重み値を設定する重み設定部と、
第1没入評価値および第2没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出する没入度導出部と、
を備えることを特徴とする処理装置。 - ユーザの第1の反応を示すデータは、ユーザの動きを示す動作データであり、
ユーザの第2の反応を示すデータは、ユーザが発した音声を示す音声データである、
ことを特徴とする請求項1に記載の処理装置。 - 前記状況データ取得部は、コンテンツの画像が表示されているときのユーザの第3の反応を示すデータを含む状況データを取得し、
第3の反応を示すデータを解析して、ユーザの第3の反応にもとづく第3没入評価値を導出する第3解析部を、さらに備え、
前記重み設定部は、第3没入評価値の重み値を設定し、
前記没入度導出部は、それぞれの重み値で重み付けされた第1没入評価値、第2没入評価値および第3没入評価値から、コンテンツに対する没入度を導出する、
ことを特徴とする請求項1または2に記載の処理装置。 - ユーザの第3の反応を示すデータは、ユーザが入力装置を操作した操作データである、
ことを特徴とする請求項3に記載の処理装置。 - 前記重み値設定部は、コンテンツのカテゴリに応じた重み値を設定する、
ことを特徴とする請求項1から4のいずれかに記載の処理装置。 - コンテンツに対する没入度を導出する方法であって、
コンテンツの画像が表示されているときのユーザの第1の反応を示すデータを取得するステップと、
第1の反応を示すデータを解析して、ユーザの第1の反応にもとづく第1没入評価値を導出するステップと、
コンテンツの画像が表示されているときのユーザの第2の反応を示すデータを取得するステップと、
第2の反応を示すデータを解析して、ユーザの第2の反応にもとづく第2没入評価値を導出するステップと、
第1没入評価値および第2没入評価値のそれぞれの重み値を設定するステップと、
第1没入評価値および第2没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出するステップと、
を有することを特徴とする没入度導出方法。 - コンピュータに、
コンテンツの画像が表示されているときのユーザの第1の反応を示すデータを取得する機能と、
第1の反応を示すデータを解析して、ユーザの第1の反応にもとづく第1没入評価値を導出する機能と、
コンテンツの画像が表示されているときのユーザの第2の反応を示すデータを取得する機能と、
第2の反応を示すデータを解析して、ユーザの第2の反応にもとづく第2没入評価値を導出する機能と、
第1没入評価値および第2没入評価値のそれぞれの重み値を設定する機能と、
第1没入評価値および第2没入評価値と、それぞれの重み値とから、コンテンツに対する没入度を導出する機能と、
を実現させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020118638A JP2022022871A (ja) | 2020-07-09 | 2020-07-09 | 処理装置および没入度導出方法 |
US17/355,317 US11880631B2 (en) | 2020-07-09 | 2021-06-23 | Processing apparatus and immersion level deriving method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020118638A JP2022022871A (ja) | 2020-07-09 | 2020-07-09 | 処理装置および没入度導出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022022871A true JP2022022871A (ja) | 2022-02-07 |
Family
ID=79172609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020118638A Pending JP2022022871A (ja) | 2020-07-09 | 2020-07-09 | 処理装置および没入度導出方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11880631B2 (ja) |
JP (1) | JP2022022871A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023243305A1 (ja) * | 2022-06-15 | 2023-12-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140072720A (ko) * | 2012-12-05 | 2014-06-13 | 삼성전자주식회사 | 콘텐츠 제공 장치, 콘텐츠 제공 방법, 영상표시장치 및 컴퓨터 판독가능 기록매체 |
US20150339539A1 (en) * | 2012-12-31 | 2015-11-26 | Xiaodong Gu | Method and system for determining concentration level of a viewer of displayed content |
JP6518582B2 (ja) | 2015-12-21 | 2019-05-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および操作受付方法 |
JP6992761B2 (ja) * | 2016-10-07 | 2022-01-13 | ソニーグループ株式会社 | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム |
KR20200063777A (ko) * | 2018-11-28 | 2020-06-05 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10946279B1 (en) * | 2019-08-30 | 2021-03-16 | Sony Interactive Entertainment Inc. | Context-based notifications on a user display |
-
2020
- 2020-07-09 JP JP2020118638A patent/JP2022022871A/ja active Pending
-
2021
- 2021-06-23 US US17/355,317 patent/US11880631B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023243305A1 (ja) * | 2022-06-15 | 2023-12-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11880631B2 (en) | 2024-01-23 |
US20220012006A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6094190B2 (ja) | 情報処理装置および記録媒体 | |
JP6462059B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置 | |
WO2018150831A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP6845111B2 (ja) | 情報処理装置および画像表示方法 | |
CN109691141B (zh) | 空间化音频系统以及渲染空间化音频的方法 | |
CN108983982B (zh) | Ar头显设备与终端设备组合系统 | |
CN107943275B (zh) | 模拟环境显示系统及方法 | |
JP2017220032A (ja) | 情報処理装置、情報処理方法、およびコンピュータプログラム | |
JP2023512966A (ja) | 画像処理方法、電子機器及びコンピュータ可読記憶媒体 | |
JP2019087226A (ja) | 情報処理装置、情報処理システムおよび表情画像出力方法 | |
JP2019220848A (ja) | データ処理装置、データ処理方法及びプログラム | |
JP6470374B1 (ja) | 仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置 | |
CN112272817A (zh) | 用于在沉浸式现实中提供音频内容的方法和装置 | |
JP2019128721A (ja) | ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法 | |
JP6616023B2 (ja) | 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム | |
JP2022022871A (ja) | 処理装置および没入度導出方法 | |
KR20170107137A (ko) | 복수의 영상 데이터를 이용하는 헤드 마운트 디스플레이 장치 및 복수의 영상 데이터를 송수신하기 위한 시스템 | |
JP6518645B2 (ja) | 情報処理装置および画像生成方法 | |
US20210082088A1 (en) | Image processor, imaging processing method, and program | |
JP2022015647A (ja) | 情報処理装置および画像表示方法 | |
JP6999538B2 (ja) | 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置 | |
GB2558279A (en) | Head mountable display system | |
KR101802308B1 (ko) | 실시간 사용자 시각에 대응되는 3차원 증강 현실 영상 시현 장치 및 복수의 사용자가 동시 참여하는 3차원 증강 현실 구현 시스템 | |
JP6921204B2 (ja) | 情報処理装置および画像出力方法 | |
KR20200116380A (ko) | 모바일을 이용한 vr 디바이스에 호환 가능한 스포츠 기기와 컨테츠 제공 방법 |