JP2016045815A - Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method - Google Patents

Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method Download PDF

Info

Publication number
JP2016045815A
JP2016045815A JP2014171042A JP2014171042A JP2016045815A JP 2016045815 A JP2016045815 A JP 2016045815A JP 2014171042 A JP2014171042 A JP 2014171042A JP 2014171042 A JP2014171042 A JP 2014171042A JP 2016045815 A JP2016045815 A JP 2016045815A
Authority
JP
Japan
Prior art keywords
virtual reality
user
video
virtual
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014171042A
Other languages
Japanese (ja)
Inventor
泰章 岩井
Yasuaki Iwai
泰章 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2014171042A priority Critical patent/JP2016045815A/en
Publication of JP2016045815A publication Critical patent/JP2016045815A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which: a virtual reality presentation system has been sought, which enables a user to mistakenly recognize a virtual reality world as a real world and become absorbed in the virtual reality world.SOLUTION: A virtual reality presentation system of the present invention includes: user state detection means for detecting the state of a user; video creation means for creating a video for presenting virtual reality on the basis of the state of the user; video display means for displaying the created video for presenting virtual reality; determination means for determining if the state of the user detected by the user state detection means satisfies a predetermined standard; and video display control means for, when determined that the state of the user satisfies the standard, controlling the video display means to display the video for presenting virtual reality.SELECTED DRAWING: Figure 1

Description

本発明は、仮想現実提示システム、仮想現実提示装置、仮想現実提示方法、仮想現実サービス提供システム、仮想現実サービス提供サーバ、仮想現実サービス提供方法、情報処理システム、情報処理サーバ、情報処理方法、情報処理プログラム、ヘッドマウントディスプレイ装置、に関する。   The present invention relates to a virtual reality presentation system, a virtual reality presentation device, a virtual reality presentation method, a virtual reality service providing system, a virtual reality service providing server, a virtual reality service providing method, an information processing system, an information processing server, an information processing method, and information. The present invention relates to a processing program and a head mounted display device.

近年、映像を表示するための装置として、テレビなど従来の据え置き型ディスプレイに加えて様々な電子デバイスが開発されており、携帯電話端末やタブレット端末、ヘッドマウントディスプレイ(HMD:Human Mounted Display)と言った電子デバイスが既に開発されている。 In recent years, various electronic devices have been developed as devices for displaying images in addition to conventional stationary displays such as televisions, and are referred to as mobile phone terminals, tablet terminals, and head mounted displays (HMDs). Electronic devices have already been developed.

先行文献1には、現実の風景にCG(Computer Graphics)を重ねてHMDで表示するための仮想現実提示装置が開示されている。   Prior art document 1 discloses a virtual reality presentation device for displaying CG (Computer Graphics) on a real landscape and displaying it in HMD.

特開2006−338163号公報JP 2006-338163 A

従来のディスプレイでは、ユーザが視聴したい映像コンテンツを選択してディスプレイに表示させる。例えば、テレビのチャンネルを選択して、当該チャンネルで放送されているコンテンツを表示させたり、マウスやタッチパネル等の操作入力装置を用いて、コンピュータに指示入力を行い、自らが使用を希望するアプリケーション画面をディスプレイに表示させたりする。 In the conventional display, the video content that the user wants to view is selected and displayed on the display. For example, an application screen that the user wants to use can be selected by selecting a TV channel and displaying content broadcast on the channel, or by inputting instructions to the computer using an operation input device such as a mouse or a touch panel. On the display.

これらの従来型のディスプレイでは、ユーザからの入力操作を受けた後、短い時間内に指定されたコンテンツデータを読み出して画面に表示できることが、良好なレスポンスを有する良いディスプレイとされる。これは、従来のディスプレイが、ユーザが指定した映像コンテンツを表示する単なる表示装置であることを示している。 In these conventional displays, after receiving an input operation from the user, the content data designated in a short time can be read and displayed on the screen, which is a good display having a good response. This indicates that the conventional display is merely a display device that displays video content specified by the user.

HMD装置もディスプレイの一種であるが、仮想現実を提示する仮想現実提示装置として使用する場合には、単なる表示装置とは異なる機能が求められる。仮想現実提示装置として優れたデバイスであるかどうかの基準は、いかに素早く映像を表示できるかではなく、いかにユーザが感知する現実(リアル)と仮想現実(バーチャル)の境界をなくすことができるかである。すなわち、ユーザ自身が現在リアルの景色を見ているのか、仮想現実提示装置が提示するバーチャルな景色を見ているのかを判別できなけれはできない程、良いデバイスと言えることになる。 An HMD device is a kind of display, but when used as a virtual reality presentation device that presents virtual reality, a function different from a simple display device is required. The criteria for whether or not it is an excellent virtual reality presentation device is not how quickly images can be displayed, but how it can eliminate the boundary between reality (virtual) and virtual reality (virtual) perceived by the user. is there. That is, it can be said that the device is so good that it is impossible to determine whether the user is currently viewing a real landscape or a virtual landscape presented by the virtual reality presentation device.

バーチャルな景色をリアルな景色として認識させる、別の表現ではバーチャルな景色をユーザにリアルな景色であると錯覚させるためには、第1に、HMD装置に表示している映像の挙動が、現実の景色の挙動と一致している必要がある。ユーザの頭部が動くことで、背後の景色と表示されている映像との間の挙動に不一致が生じてしまうと、ユーザは、現在見えている風景の一部がバーチャルな映像であることを認識してしまうことになる。従って、HMD装置は、ユーザの視線の動き等に連動して、映像表示領域に表示する映像を変化させる制御が必要となる。 In order to make a virtual landscape be recognized as a real landscape, or to make the virtual scene an illusion that the user is a real landscape in another expression, first, the behavior of the image displayed on the HMD device is a reality. Must be consistent with the scenery's behavior. If the movement of the user's head causes a discrepancy in the behavior between the background scenery and the displayed video, the user can confirm that part of the currently visible landscape is a virtual video. It will be recognized. Therefore, the HMD device needs to be controlled to change the video displayed in the video display area in conjunction with the movement of the user's line of sight.

しかしながら、バーチャルな映像をリアルな映像と認識させることに失敗する別の要因がある。それは、HMD装置の映像表示領域に映像の表示することを開始するタイミングにおいて、実際にユーザが感知する景色がリアルからバーチャルに切り替わる不連続が生じることである。 However, there is another factor that makes it difficult to recognize a virtual video as a real video. That is, there is a discontinuity in which the scenery actually sensed by the user is switched from real to virtual at the timing when video display is started in the video display area of the HMD device.

図39では、仮想現実提示装置によって仮想現実が提示されているユーザにおいて、仮想現実であることを認識しているレベルの推移を示している。図39において、閾値Th0を下回っている場合は、ユーザは現在見ている景色がバーチャルであることを認識しており、閾値Th0を上回っている場合は、ユーザは現在見ている景色がリアルであると錯覚していることを示している。 In FIG. 39, the transition of the level which recognizes that it is a virtual reality is shown in the user whose virtual reality is shown by the virtual reality presentation apparatus. In FIG. 39, when the threshold value Th0 is below, the user recognizes that the current view is virtual, and when the threshold value Th0 is exceeded, the user is viewing the current view in real. It shows that there is an illusion.

図39の上図は、ユーザが提示されている仮想現実を現実であると誤って認識している状態において、時刻T1でユーザは、バーチャルであると認識する事例を示している。例えば、時刻T1でユーザの頭部が大きく動いたことにより、映像表示領域に表示されている映像と背景の景色との整合性が崩れ、ユーザが今まで見ていた景色の一部又は全部がバーチャルであったと認識する。 The upper diagram of FIG. 39 shows an example in which the user recognizes that it is virtual at time T1 in a state where the virtual reality presented by the user is erroneously recognized as real. For example, when the user's head has moved greatly at time T1, the consistency between the image displayed in the image display area and the background scenery is lost, and part or all of the scenery that the user has viewed so far has been lost. Recognize that it was virtual.

一方、図39の下図は、時刻T0のタイミングで仮想現実の提示を開始した場合におけるユーザのバーチャルの認識度合いを示している。図39では、ユーザは時刻T0のタイミングで、表示領域に仮想現実用のオブジェクトの表示が開始されたことを明確に認識しており、現在見ている映像がリアルではなく、バーチャルであることを認識している。 On the other hand, the lower part of FIG. 39 shows the degree of virtual recognition of the user when presentation of virtual reality is started at the time T0. In FIG. 39, the user clearly recognizes that the display of the virtual reality object has started in the display area at time T0, and that the video currently being viewed is not real but virtual. It has recognized.

このように、仮想現実の提示を開始する段階で、リアルからバーチャルへの不連続が生じ、ユーザは、バーチャルな映像を見せられていると認識してしまう。例えば、CGの犬を景色に溶け込ませるように表示することで仮想現実を提示する場合に、いきなり視野内に犬が現れると、その不連続性、すなわち現実の自然界で物理的に起こりえない瞬間移動という事象による違和感がユーザにバーチャルであることを認識させてしまうことになる。 Thus, at the stage of starting the presentation of virtual reality, discontinuity from real to virtual occurs, and the user recognizes that a virtual video is being shown. For example, when presenting virtual reality by displaying a CG dog so that it blends into the scenery, if the dog suddenly appears in the field of view, the discontinuity, that is, the moment that cannot occur physically in the real world This causes the user to recognize that the discomfort due to the phenomenon of movement is virtual.

仮想現実の提示開始時点でユーザがバーチャルであると明確に認識してしまうと、時間が経過しても表示されているオブジェクトがバーチャルであると言う認識が払拭されず、ユーザは仮想現実世界に入り込むことができないと言う問題が生じる。 If the user clearly recognizes that it is virtual at the start of presentation of virtual reality, the recognition that the displayed object is virtual will not be dispelled even if time passes, and the user will enter the virtual reality world The problem of being unable to get in occurs.

上記課題を鑑み、バーチャルとリアルとの境界の不連続性を低減し、ユーザが仮想現実の世界に深く入り込むことを可能とする仮想現実提示装置、HMD装置、仮想現実提示システム、仮想現実提示方法を提供することを目的とする。 In view of the above problems, a virtual reality presentation device, an HMD device, a virtual reality presentation system, and a virtual reality presentation method that reduce the discontinuity of the boundary between virtual and real and allow the user to deeply enter the virtual reality world The purpose is to provide.

本発明の一態様である仮想現実提示システムは、ユーザの状態を検知するユーザ状態検知手段と、前記ユーザの状態に基づいて仮想現実提示用の映像を生成する映像生成手段と、前記生成された仮想現実提示用の映像を表示する映像表示手段と、前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、前記基準を満たしていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示させる制御を行う映像表示制御手段と、を備える。 A virtual reality presentation system according to an aspect of the present invention includes a user state detection unit that detects a user state, a video generation unit that generates a virtual reality presentation video based on the user state, and the generated It is determined that the video display means for displaying the virtual reality presentation video, the determination means for determining whether the user status detected by the user status detection means satisfies a predetermined criterion, and the criterion is satisfied. Video display control means for performing control to display the virtual reality presentation video on the video display means.

また、本発明の別の一態様である仮想現実提示装置は、ユーザの状態を検知するユーザ状態検知手段と、映像を表示する映像表示手段と、前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、前記基準を満たしていると判定された場合に、前記ユーザ状態検知手段で検知された前記ユーザの状態に基づいて制御される仮想現実提示用の映像を前記映像表示手段に表示する制御を行う表示制御手段と、を備える。 According to another aspect of the present invention, a virtual reality presentation device includes a user state detection unit that detects a user state, a video display unit that displays a video, and a user state detected by the user state detection unit. A virtual reality presentation controlled based on the state of the user detected by the user state detection unit when it is determined that the reference is satisfied Display control means for performing control to display a video for use on the video display means.

また、本発明の別の一態様である仮想現実提示方法は、ユーザの状態を検知するユーザ状態検知ステップと、前記検知されたユーザの状態が所定の基準を満たしているかを判定する判定ステップと、前記検知されたユーザの状態に基づいて仮想現実提示用の映像を生成する映像生成ステップと、前記基準を満たしていると判定された場合に、前記仮想現実提示用の映像を表示させる制御を行う映像表示制御ステップと、前記制御に基づいて、前記生成された仮想現実提示用の映像を表示する映像表示ステップと、を有する。 The virtual reality presentation method according to another aspect of the present invention includes a user state detection step for detecting a user state, and a determination step for determining whether the detected user state satisfies a predetermined criterion, A video generation step for generating a virtual reality presentation video based on the detected user state, and a control for displaying the virtual reality presentation video when it is determined that the criterion is satisfied. A video display control step for performing, and a video display step for displaying the generated video for virtual reality presentation based on the control.

本発明によれば、バーチャルとリアルとの境界の不連続性を低減し、ユーザが仮想現実の世界に深く入り込むことを可能とすることができる。 ADVANTAGE OF THE INVENTION According to this invention, the discontinuity of the boundary of virtual and real can be reduced, and it can enable a user to penetrate deeply into the virtual reality world.

実施形態1に係る仮想現実提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る仮想現実提示装置における処理の流れを示すフローチャート図である。FIG. 3 is a flowchart illustrating a process flow in the virtual reality presentation device according to the first embodiment. 実施形態1に係る仮想現実提示装置における処理の詳細な流れを示すフローチャート図である。FIG. 5 is a flowchart illustrating a detailed flow of processing in the virtual reality presentation device according to the first embodiment. 実施の形態2に係る仮想現実提示システムの構成を示すブロック図である。6 is a block diagram showing a configuration of a virtual reality presentation system according to Embodiment 2. FIG. 実施の形態2に係る仮想現実提示システムの別構成を示すブロック図である。6 is a block diagram showing another configuration of the virtual reality presentation system according to Embodiment 2. FIG. 表示開始判定を行わない場合の仮想現実提示装置で提示される映像とユーザが感知する景色との関係を説明する図である。It is a figure explaining the relationship between the image | video shown with the virtual reality presentation apparatus when not performing display start determination, and the scenery which a user senses. 表示開始判定を行う場合の仮想現実提示装置で提示される映像とユーザが感知する景色との関係を説明する図である。It is a figure explaining the relationship between the image | video shown with the virtual reality presentation apparatus in the case of performing display start determination, and the scenery which a user senses. ユーザが視界を変更していく場合に仮想現実提示装置で提示される映像とユーザが感知する景色との関係を説明する図である。It is a figure explaining the relationship between the image | video shown with a virtual reality presentation apparatus, and the scenery which a user senses when a user changes a visual field. 実施形態3に係る仮想現実提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation apparatus which concerns on Embodiment 3. FIG. 仮想現実サービス提供開始通知情報の一例を示す図である。It is a figure which shows an example of virtual reality service provision start notification information. 実施の形態3に係る仮想現実提示システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation system according to Embodiment 3. 実施の形態4に係る仮想現実提示装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation device according to Embodiment 4. 実施の形態4に係る仮想現実提示装置の斜め前方と斜め後方からの外観斜視図である。FIG. 10 is an external perspective view of a virtual reality presentation device according to Embodiment 4 from diagonally forward and diagonally rear. 実施の形態4に係る仮想現実提示装置の表示パネル付近での断面図である。FIG. 10 is a cross-sectional view of the virtual reality presentation device according to Embodiment 4 in the vicinity of the display panel. 実施の形態4に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 10 is a cross-sectional view near a display panel in a modification of the virtual reality presentation device according to Embodiment 4. 実施の形態4に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 10 is a cross-sectional view near a display panel in a modification of the virtual reality presentation device according to Embodiment 4. 実施の形態4に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 10 is a cross-sectional view near a display panel in a modification of the virtual reality presentation device according to Embodiment 4. 実施の形態4に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 10 is a cross-sectional view near a display panel in a modification of the virtual reality presentation device according to Embodiment 4. 実施の形態4に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 10 is a cross-sectional view near a display panel in a modification of the virtual reality presentation device according to Embodiment 4. 登録されたユーザに関する情報を管理するユーザ情報管理ファイルの別の一例である。It is another example of the user information management file which manages the information regarding the registered user. 実施の形態4に係る仮想現実提示システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation system according to Embodiment 4. 実施の形態5に係る仮想現実提示装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation device according to Embodiment 5. 実施の形態5に係る仮想現実提示システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation system according to Embodiment 5. 仮想現実コンテンツの階層構造の一例である。It is an example of the hierarchical structure of virtual reality content. 仮想現実制御プログラムの階層構造の一例である。It is an example of the hierarchical structure of a virtual reality control program. 実施の形態6に係る仮想現実提示システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation system according to Embodiment 6. 実施の形態6に係る仮想現実提示システムの別構成を示すブロック図である。FIG. 20 is a block diagram showing another configuration of the virtual reality presentation system according to Embodiment 6. 実施の形態6に係る仮想現実提示システムの別構成を示すブロック図である。FIG. 20 is a block diagram showing another configuration of the virtual reality presentation system according to Embodiment 6. 仮想現実提示前、仮想現実提示開始後、仮想現実オブジェクト追加後における仮想現実提示用の映像と、ユーザが感知する仮想現実の世界との関係を示す図である。It is a figure which shows the relationship between the image | video for virtual reality presentation before a virtual reality presentation, after a virtual reality presentation start, and after adding a virtual reality object, and the virtual reality world which a user senses. 実施の形態7に係る仮想現実提示システムの構成を示すブロック図である。FIG. 20 is a block diagram showing a configuration of a virtual reality presentation system according to Embodiment 7. 実施の形態7に係る仮想現実提示装置の構成を示すブロック図である。FIG. 20 is a block diagram showing a configuration of a virtual reality presentation device according to Embodiment 7. 仮想現実提示前、仮想現実提示開始後、仮想現実オブジェクト追加後における仮想現実提示用の映像と、ユーザが感知する仮想現実の世界との関係を示す図である。It is a figure which shows the relationship between the image | video for virtual reality presentation before a virtual reality presentation, after a virtual reality presentation start, and after adding a virtual reality object, and the virtual reality world which a user senses. 実施の形態7に係る仮想現実提示システムの別構成を示すブロック図である。FIG. 20 is a block diagram showing another configuration of the virtual reality presentation system according to Embodiment 7. 実施の形態7に係る仮想現実提示装置の別構成を示すブロック図である。FIG. 20 is a block diagram showing another configuration of the virtual reality presentation device according to Embodiment 7. 仮想空間のレイヤーと仮想現実オブジェクトの関連付けを管理する管理ファイルの一例である。It is an example of the management file which manages the correlation of the layer of virtual space, and a virtual reality object. 実施の形態8に係る仮想現実提示装置の構成を示すブロック図である。FIG. 20 is a block diagram showing a configuration of a virtual reality presentation device according to Embodiment 8. 実施の形態8に係る仮想現実提示システムの構成を示すブロック図である。FIG. 20 is a block diagram showing a configuration of a virtual reality presentation system according to Embodiment 8. 実施の形態9に係る仮想現実提示装置の構成を示すブロック図である。FIG. 20 is a block diagram illustrating a configuration of a virtual reality presentation device according to Embodiment 9. 錯覚度の時間推移を説明する図である。It is a figure explaining the time transition of an illusion degree. 実施形態10に係る仮想現実提示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation system which concerns on Embodiment 10. FIG. 実施形態10に係る仮想現実提示システムの別構成を示すブロック図である。It is a block diagram which shows another structure of the virtual reality presentation system which concerns on Embodiment 10. FIG. 実施形態10に係る仮想現実提示システムの別構成を示すブロック図である。It is a block diagram which shows another structure of the virtual reality presentation system which concerns on Embodiment 10. FIG. 実施形態10に係る仮想現実提示システムの別構成を示すブロック図である。It is a block diagram which shows another structure of the virtual reality presentation system which concerns on Embodiment 10. FIG. 実施形態11に係る仮想現実提示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation system which concerns on Embodiment 11. FIG. 実施形態12に係る仮想現実提示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation system which concerns on Embodiment 12. FIG. 仮想現実オブジェクトと仮想現実度との対応関係を管理する管理ファイルの一例である。It is an example of the management file which manages the correspondence of a virtual reality object and virtual reality. 実施形態12に係る仮想現実提示システムの別構成を示すブロック図である。It is a block diagram which shows another structure of the virtual reality presentation system which concerns on Embodiment 12. FIG. 実施形態12に係る仮想現実提示システムの別構成を示すブロック図である。It is a block diagram which shows another structure of the virtual reality presentation system which concerns on Embodiment 12. FIG. ユーザが利用可能な仮想現実サービスを登録した管理ファイルの一例である。It is an example of the management file which registered the virtual reality service which a user can use. 仮想現実サービスと、当該仮想現実サービスで使用される仮想現実オブジェクトとその仮想現実度とのの対応関係を管理する管理ファイルの一例である。It is an example of the management file which manages the correspondence of a virtual reality service, the virtual reality object used by the said virtual reality service, and its virtual reality. 実施形態13に係る仮想現実提示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation system which concerns on Embodiment 13. FIG. 仮想現実オブジェクトと周囲状況別の仮想現実度との対応関係を管理する管理ファイルの一例である。It is an example of the management file which manages the correspondence of a virtual reality object and the virtual reality according to surrounding situations. 実施形態13に係る仮想現実提示システムの別構成を示すブロック図である。It is a block diagram which shows another structure of the virtual reality presentation system which concerns on Embodiment 13. FIG. 物体と周囲状況との対応関係を纏めた管理ファイルである。This is a management file that summarizes the correspondence between objects and surrounding situations. 実施形態14に係る仮想現実提示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the virtual reality presentation system which concerns on Embodiment 14. FIG. 仮想現実サービス提供開始通知情報の一例である。It is an example of virtual reality service provision start notification information. 複数レイヤーに分かれて配置される仮想現実オブジェクトを説明する図である。It is a figure explaining the virtual reality object divided and arrange | positioned at several layers. ユーザ位置とレイヤー順序との関係を説明する図である。It is a figure explaining the relationship between a user position and layer order. 補正処理前後のレイヤー別の仮想現実提示用映像を示す図である。It is a figure which shows the image | video for virtual reality presentation according to the layer before and behind a correction | amendment process. 実施形態14に係る仮想現実提示装置の斜め前方と斜め後方からの外観斜視図である。FIG. 20 is an external perspective view of a virtual reality presentation device according to a fourteenth embodiment from obliquely forward and obliquely rearward. 実施形態14に係る仮想現実提示装置の表示パネル付近での断面図である。FIG. 17 is a cross-sectional view of the virtual reality presentation device according to the fourteenth embodiment near a display panel. 実施形態14に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 29 is a cross-sectional view near the display panel in a modification of the virtual reality presentation device according to the fourteenth embodiment. 実施形態14に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 29 is a cross-sectional view near the display panel in a modification of the virtual reality presentation device according to the fourteenth embodiment. 実施形態14に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 29 is a cross-sectional view near the display panel in a modification of the virtual reality presentation device according to the fourteenth embodiment. 実施形態14に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 29 is a cross-sectional view near the display panel in a modification of the virtual reality presentation device according to the fourteenth embodiment. 実施形態14に係る仮想現実提示装置の変形例における表示パネル付近での断面図である。FIG. 29 is a cross-sectional view near the display panel in a modification of the virtual reality presentation device according to the fourteenth embodiment. 実施形態14に係る仮想現実提示装置の変形例における斜め前方と斜め後方からの外観斜視図である。FIG. 16 is an external perspective view from diagonally forward and diagonally backward in a modified example of the virtual reality presentation device according to the fourteenth embodiment. 仮想現実の世界と現実の世界との相違を説明する図である。It is a figure explaining the difference between the virtual reality world and the real world. 仮想現実の世界の仮想現実度とユーザの錯覚度との相関関係を説明する図である。It is a figure explaining the correlation with the virtual reality of the virtual reality world, and the illusion degree of a user. 実施形態15に係る仮想現実サービスに関連する人物・組織の全体構成を模式的に示した概念図である。FIG. 16 is a conceptual diagram schematically showing an overall configuration of a person / organization related to the virtual reality service according to the fifteenth embodiment. 仮想現実サービス提供会社が管理するユーザ登録情報の一例を示す図である。It is a figure which shows an example of the user registration information which a virtual reality service provision company manages. 実施の形態1に係る仮想現実提示システムの構成を示すブロック図である。1 is a block diagram showing a configuration of a virtual reality presentation system according to Embodiment 1. FIG. 現実の世界と仮想現実の世界との違いを説明する図である。It is a figure explaining the difference between the real world and the virtual reality world. 仮想現実コンテンツの構造を説明する図である。It is a figure explaining the structure of virtual reality content. 仮想現実オブジェクトを管理する管理ファイルの一例である。It is an example of the management file which manages a virtual reality object. 仮想現実オブジェクトのモデルデータの一例である。It is an example of model data of a virtual reality object. 仮想現実オブジェクト制御プログラムの分類を説明する図である。It is a figure explaining the classification | category of a virtual reality object control program. 実施の形態1に係る仮想現実提示システムの変形例の構成を示すブロック図である。6 is a block diagram showing a configuration of a modified example of the virtual reality presentation system according to Embodiment 1. FIG. 仮想現実サービス履歴情報の一例である。It is an example of virtual reality service history information. 仮想現実履歴情報の一例である。It is an example of virtual reality history information. 実施の形態2に係る仮想現実提示装置の斜め前方と斜め後方からの外観斜視図である。。It is an external appearance perspective view from the diagonally forward and diagonally rear of the virtual reality presentation device according to the second embodiment. . 実施の形態2に係る仮想現実提示装置の表示パネル付近での断面図である。FIG. 10 is a cross-sectional view of the virtual reality presentation device according to Embodiment 2 near a display panel. 実施の形態2に係る仮想現実提示システムの構成を示すブロック図である。6 is a block diagram showing a configuration of a virtual reality presentation system according to Embodiment 2. FIG. 実施の形態3に係る仮想現実提示システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a virtual reality presentation system according to Embodiment 3. 仮想現実サービス提供開始通知情報の一例である。It is an example of virtual reality service provision start notification information. レイヤー毎に生成されるレイヤー別仮想現実提示用映像の一例である。It is an example of the image | video for virtual reality presentation according to layer produced | generated for every layer. レイヤー順序の変更を説明する図である。It is a figure explaining the change of a layer order. 映像補正処理前後で仮想現実オブジェクトの表示位置が変更されたレイヤー毎の仮想現実提示用映像を説明する図である。It is a figure explaining the video for virtual reality presentation for every layer in which the display position of the virtual reality object was changed before and after video correction processing. データベースに記憶保管される仮想現実関連データの組み合わせを示す図である。It is a figure which shows the combination of the virtual reality related data memorize | stored in the database. 仮想現実提示システムの全体構成を示すブロック図である。It is a block diagram which shows the whole virtual reality presentation system structure.

以下、本発明の各実施の形態について図面を参照して詳細に説明する。以下の説明において同一の符号が付された部分は実質的に同一の機能を有している。また、発明の明確化のため重複部分は適宜説明が省略されている。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, parts denoted by the same reference numerals have substantially the same functions. For the sake of clarification of the invention, explanations of overlapping parts are omitted as appropriate.

<実施形態1>
図1は本発明の実施形態1に係る仮想現実提示装置100の構成を示すブロック図である。仮想現実提示装置100は、ユーザ状態検知部110と、表示開始判定処理部120と、表示制御部130と、表示部140と、を備える。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration of a virtual reality presentation device 100 according to Embodiment 1 of the present invention. The virtual reality presentation device 100 includes a user state detection unit 110, a display start determination processing unit 120, a display control unit 130, and a display unit 140.

ユーザ状態検知部110は、当該仮想現実提示装置100を使用しているユーザの状態を検知する。ユーザ状態検知部110は、例えばユーザの移動を検知するために、当該仮想現実提示装置100に取り付けられる加速度センサや、ユーザの表情を撮影する内部カメラ、その他ユーザの傾きを検知する傾きセンサ、ユーザの位置を検出するGPS受信機などである。ユーザ状態検知部110は、検知結果をユーザの状態を示すユーザ状態情報として表示開始判定処理部120に出力する。 The user state detection unit 110 detects the state of the user who is using the virtual reality presentation device 100. The user state detection unit 110 includes, for example, an acceleration sensor attached to the virtual reality presentation apparatus 100, an internal camera that captures the user's facial expression, other inclination sensors that detect the inclination of the user, A GPS receiver that detects the position of The user status detection unit 110 outputs the detection result to the display start determination processing unit 120 as user status information indicating the user status.

表示開始判定処理部120は、ユーザ状態検知部110で検知されるユーザの状態が所定の基準を満たしているかを判定する。例えば、ユーザ状態検知部110がユーザの顔の一部又は全部を撮影する内部カメラである場合には、表示開始判定処理部120は、ユーザの目が所定の時間以上閉じているかを判定する。また、ユーザ状態検知部110が、加速度センサである場合は、表示開始判定処理部120は、ユーザが向いている方向が所定の角度以上変化したかを判定する。 The display start determination processing unit 120 determines whether the user state detected by the user state detection unit 110 satisfies a predetermined criterion. For example, when the user state detection unit 110 is an internal camera that captures part or all of the user's face, the display start determination processing unit 120 determines whether the user's eyes are closed for a predetermined time or more. If the user state detection unit 110 is an acceleration sensor, the display start determination processing unit 120 determines whether the direction in which the user is facing has changed by a predetermined angle or more.

表示制御部130は、表示開始判定処理部120において、ユーザ状態検知部110における検知結果で示されるユーザの状態が、予め設定されている所定の基準を満たしていると判定された場合、表示部140に所定の映像を表示させる制御を行う。例えば、表示制御部130は、表示部140に表示させる仮想現実提示用の映像の表示位置や表示時間などを制御する。 When the display start determination processing unit 120 determines that the user state indicated by the detection result in the user state detection unit 110 satisfies a predetermined criterion set in advance, the display control unit 130 displays the display unit Control to display a predetermined video on 140 is performed. For example, the display control unit 130 controls the display position and display time of the virtual reality presentation video displayed on the display unit 140.

表示部140は、表示制御部130の制御に基づいて仮想現実提示用の映像を表示する。表示部140に表示される映像は、仮想現実を提示するためのオブジェクトである仮想現実オブジェクトの静止画像や動画像などである。 The display unit 140 displays a virtual reality presentation video based on the control of the display control unit 130. The video displayed on the display unit 140 is a still image or a moving image of a virtual reality object that is an object for presenting virtual reality.

ここで、仮想現実(VR:Vertual Reality)とは、コンピュータグラフィックス(CG:Computer Graphics)や音響効果を組み合わせることで、人工的に創り出される現実感(リアリティー)のある世界を言う。 Here, virtual reality (VR) refers to a world with reality created artificially by combining computer graphics (CG) and sound effects.

また、仮想現実オブジェクトとは、人為的に設定される仮想的な空間である仮想空間に配置されることで、仮想現実の世界に表される仮想的な人物や建築物などを指す。当該仮想空間が、ユーザの周囲の現実の空間に対応するように設定されることで、ユーザに仮想現実の世界が提示される。 The virtual reality object refers to a virtual person or a building represented in the virtual reality world by being arranged in a virtual space that is a virtual space artificially set. By setting the virtual space so as to correspond to the real space around the user, the virtual reality world is presented to the user.

各種の仮想現実オブジェクトは、外観形状を規定する3Dポリゴンデータや、当該ポリゴンデータで形成される形状の表面に張り付けられるテキスチャーデータなどを含むモデルデータで構成される。また、仮想現実オブジェクトを動作させるための関節ポイントデータや骨格データ等を含む構成とするとより好ましい。関節ポイントデータとポリゴンデータの頂点とが関連付けされており、関節ポイントの位置や角度を変更することで、関連付けされているポリゴンデータの頂点の位置が変更されることになり、仮想現実オブジェクトの外観形状が変化する。また、テキスチャーデータも複数種類用意されており、各テキスチャーデータは識別番号で識別される。選択されたテキスチャーがポリゴン表面に張り付けられることで、仮想現実オブジェクトの映像が生成される。 Each type of virtual reality object is composed of model data including 3D polygon data defining the appearance shape, texture data pasted on the surface of the shape formed by the polygon data, and the like. Moreover, it is more preferable that the configuration includes joint point data, skeleton data, and the like for operating the virtual reality object. The joint point data and the vertex of the polygon data are associated, and changing the position and angle of the joint point changes the position of the vertex of the associated polygon data, and the appearance of the virtual reality object The shape changes. A plurality of types of texture data are also prepared, and each texture data is identified by an identification number. An image of the virtual reality object is generated by pasting the selected texture onto the polygon surface.

当該表示部140に表示される映像のデータは、そのまま読み出して表示可能な状態で仮想現実提示装置100内に別途設けられている記憶部に記憶されていても良いし、当該記憶部に仮想現実オブジェクトのモデルデータとして記憶しておき、当該モデルデータを描画して表示用の映像を生成する構成としても良い。また、装置外部から当該表示部140に表示される映像の符号化データを受信する構成としても良い。表示部140としては、例えば透過型液晶ディスプレイや、有機ELディスプレイなどを用いることができる。 The video data displayed on the display unit 140 may be stored in a storage unit separately provided in the virtual reality presentation device 100 in a state where it can be read and displayed as it is, or the virtual reality is stored in the storage unit. A configuration may be used in which model data of an object is stored, and the model data is drawn to generate a display video. Alternatively, the encoded data of the video displayed on the display unit 140 may be received from the outside of the apparatus. As the display unit 140, for example, a transmissive liquid crystal display or an organic EL display can be used.

図2は、仮想現実提示装置100の動作を示すフローチャート図である。ユーザ状態検知部110は、ユーザの状態を検知する(ステップS101)。例えば、ユーザの表情や目の開閉状態、ユーザの移動速度や加速度その他ユーザの向いている方向などユーザの状態を所定の周期間隔で検知する。検知するユーザの状態の種類にも依存するが、検知周期としては、10μs〜1秒に一度の周期で、より好ましくは、100μs〜100msに一度の周期で、更に好ましくは1ms〜10msに一度の周期でサンプリングする構成とすると、ユーザの状態をリアルタイムに検知できるため好ましい。 FIG. 2 is a flowchart showing the operation of the virtual reality presentation device 100. The user state detection unit 110 detects a user state (step S101). For example, the user's state such as the user's facial expression, the eye open / closed state, the user's moving speed and acceleration, and other directions facing the user are detected at predetermined intervals. Although it depends on the type of user status to be detected, the detection cycle is once every 10 μs to 1 second, more preferably once every 100 μs to 100 ms, and more preferably once every 1 ms to 10 ms. A configuration in which sampling is performed at a cycle is preferable because the user's state can be detected in real time.

ステップS101で、ユーザの状態が新たに検知されると、表示開始判定処理部120は、検知されたユーザの状態が所定の基準を満たしているかを判定する(ステップS102)。なお、表示開始判定処理部120は、ステップS101で検知された1つのタイミングにおけるユーザの状態だけではなく、複数のタイミングにおける検知結果に基づいて特定されるユーザの状態に基づいて所定の基準を満たしているかを判定しても良い。 When a user state is newly detected in step S101, the display start determination processing unit 120 determines whether the detected user state satisfies a predetermined criterion (step S102). The display start determination processing unit 120 satisfies a predetermined criterion based not only on the user status at one timing detected in step S101 but also on the user status specified based on the detection results at a plurality of timings. It may be determined whether or not.

ステップS102における判定の結果、現在のユーザの状態が、仮想現実提示用の映像の表示を開始するための基準を満たしていないと判定された場合は、ステップS101に戻り、ユーザの状態の検知処理を行う次のタイミングまで待機する。一方、ステップS102における判定の結果、ユーザの現在の状態が映像の表示を開始するために予め設定されている基準を満たしている場合に、表示制御部130は、表示部140に所定の映像を表示させる制御を行う(ステップS103)。 As a result of the determination in step S102, when it is determined that the current user state does not satisfy the criteria for starting the display of the virtual reality presentation video, the process returns to step S101 to detect the user state Wait until the next timing. On the other hand, if the result of determination in step S <b> 102 is that the current state of the user satisfies a preset criterion for starting video display, the display control unit 130 displays a predetermined video on the display unit 140. Control to display is performed (step S103).

例えば、ユーザの目が所定の時間以上閉じていることが、映像表示開始条件として設定されているとする。図3は、当該判定基準が設けられている場合における仮想現実提示装置100の動作の流れを示すフローチャート図である。 For example, it is assumed that the user's eyes are closed for a predetermined time or more is set as the video display start condition. FIG. 3 is a flowchart showing an operation flow of the virtual reality presentation device 100 when the determination criterion is provided.

ユーザ状態検知部110は、ユーザの状態を検知する(ステップS101)。表示開始判定処理部120は、現在のモードが第1モードであるか第2モードであるかを確認する(ステップS102a)。 The user state detection unit 110 detects a user state (step S101). The display start determination processing unit 120 checks whether the current mode is the first mode or the second mode (step S102a).

現在のモードが第1モードである場合、表示開始判定処理部120は、ステップS101における検知結果に基づいて、ユーザの目が閉じているかを判定する(ステップS102b)。目が閉じていない場合、ステップS101に戻る。一方、目が閉じている場合、表示開始判定処理部120は、現在のモードを第2モードに設定する(ステップS102c)。続いて、表示開始判定処理部120は、タイマをセットすることで所定の時間計測を開始し、ステップS101に戻る(ステップS102d)。 When the current mode is the first mode, the display start determination processing unit 120 determines whether the user's eyes are closed based on the detection result in step S101 (step S102b). If the eyes are not closed, the process returns to step S101. On the other hand, when the eyes are closed, the display start determination processing unit 120 sets the current mode to the second mode (step S102c). Subsequently, the display start determination processing unit 120 starts measuring a predetermined time by setting a timer, and returns to step S101 (step S102d).

一方、ステップS102aにおける判定の結果、現在のモードが第2モードである場合、表示開始判定処理部120は、ユーザの目が閉じているかを判定する(ステップS102e)。当該判定の結果、ユーザの目が閉じていない場合は、映像表示開始による景色の不連続な変化から、表示される映像がバーチャルであることをユーザが容易に認識してしまうため、ステップS103には進まず、現在のモードを第1モードに戻してステップS101に戻る(ステップS102f)。 On the other hand, as a result of the determination in step S102a, if the current mode is the second mode, the display start determination processing unit 120 determines whether the user's eyes are closed (step S102e). As a result of the determination, if the user's eyes are not closed, the user can easily recognize that the displayed video is virtual from the discontinuous change in the scenery due to the start of video display. Does not proceed and returns the current mode to the first mode and returns to step S101 (step S102f).

一方、ステップS102eにおける判定の結果、ユーザの目が閉じていると判定された場合、表示開始判定処理部120は、ステップS102dで開始している時間計測が完了しているかを判定する(ステップS102g)。当該判定の結果、時間計測が完了していない場合は、まだ映像表示を開始する条件が整っていないとしてステップS101に戻る。 On the other hand, when it is determined that the user's eyes are closed as a result of the determination in step S102e, the display start determination processing unit 120 determines whether the time measurement started in step S102d is completed (step S102g). ). If the time measurement has not been completed as a result of the determination, it is determined that the conditions for starting the video display are not yet ready, and the process returns to step S101.

一方、ステップS102gにおける判定の結果、時間計測が完了している場合は、映像表示を開始する条件が整ったとして、表示開始判定処理部120は、現在のモードを第1モードに戻した後(ステップS102h)、表示制御部130へ映像の表示開始を指示する。 On the other hand, if the time measurement is completed as a result of the determination in step S102g, the display start determination processing unit 120 assumes that the conditions for starting the video display are satisfied, and returns the current mode to the first mode ( In step S102h), the display control unit 130 is instructed to start displaying video.

このように、ステップS102a〜102hにおける処理によって、ユーザの状態が映像表示開始のための基準を満たしているかの判定となる。なお、所定の時間を計測する理由は、単に目が閉じているだけだと、瞬きによって目が閉じられている可能性があり、このタイミングで映像表示を開始することがユーザにバーチャルをリアルと刷り込ませる上で好ましくないためである。瞬き程度の一瞬の間に見える景色が異なると、景色の不連続性から違和感を生じ、バーチャルをリアルと認識させることは難しい。一方、所定の時間以上目を閉じていると、先ほどまで見ていた景色が脳内から薄れていくため、リアルの景色に溶け込ませる形で映像が多重されていても、ユーザはそれがバーチャルであると認識する可能性は下がり、ユーザは自然に仮想現実の世界に入っていくことができる。 As described above, the process in steps S102a to 102h determines whether or not the user's state satisfies the criteria for starting video display. Note that the reason for measuring the predetermined time is that if the eyes are simply closed, the eyes may be closed due to blinking. This is because it is not preferable in imprinting. If the scenery that can be seen in the blink of an eye is different, the discontinuity of the scenery creates a sense of incongruity, making it difficult to recognize the virtual as real. On the other hand, if you close your eyes for a certain period of time, the scenery you have seen will fade from the brain, so even if the video is multiplexed in a form that blends into the real scenery, the user can see that it is virtual. The possibility of recognizing it is reduced, and the user can naturally enter the virtual reality world.

表示制御部130は、表示開始判定処理部120における判定結果に基づいて、表示する映像を読み込み、表示部140に読み込んだ映像を表示させる(ステップS103)。 The display control unit 130 reads the video to be displayed based on the determination result in the display start determination processing unit 120, and displays the read video on the display unit 140 (step S103).

以上説明したように、本実施形態1に係る仮想現実提示装置100は、ユーザの状態を検知するユーザ状態検知手段と、映像を表示する表示手段と、ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、前記基準を満たしていると判定された場合に、前記表示手段に所定の映像を表示させる制御を行う表示制御手段と、を備える。 As described above, the virtual reality presentation device 100 according to the first embodiment includes the user state detection unit that detects the user state, the display unit that displays the video, and the user state detected by the user state detection unit. Determining means for determining whether or not a predetermined criterion is satisfied, and display control means for performing control to display a predetermined video on the display means when it is determined that the criterion is satisfied.

当該構成とすることで、、バーチャルとリアルとの境界の不連続性を低減し、ユーザが仮想現実の世界に無意識の内に入り込むことを実現することができる。 With this configuration, it is possible to reduce the discontinuity of the boundary between the virtual and the real and to allow the user to unconsciously enter the virtual reality world.

すなわち、従来は表示した映像の挙動が現実の風景と一致するようにリアルタイム制御することで、不自然さを無くし、リアルとバーチャルを融合するように映像をユーザに表示させる技術の開発は進められていた。しかしながら、映像表示を開始する際に生じる不連続性に伴う不自然さを抑える技術開発は十分に進められておらず、仮想現実用の映像が表示された時点でその映像がバーチャルであるとユーザは直ちに認識してしまい、当該映像がバーチャルであるものとして意識されてしまっていた。このことは、仮想現実の世界に入り込むことを妨げ、その後の表示されている映像の挙動が現実の風景に溶け込んでいても、ユーザに対してバーチャルをリアルであると完全に誤認させるには障害となっていた。 In other words, in the past, development of technology to display images to users so that the unnaturalness is eliminated and real and virtual are fused by real-time control so that the behavior of the displayed video matches the actual landscape is being promoted. It was. However, technology development that suppresses the unnaturalness caused by discontinuity that occurs when video display is started has not been sufficiently advanced, and when the video for virtual reality is displayed, the user is assumed to be virtual. Was immediately recognized and the video was perceived as being virtual. This hinders entry into the virtual reality world and is a hindrance to let the user fully misunderstand that the virtual is real even if the behavior of the displayed video blends into the real landscape. It was.

一方、本実施形態1に記載の仮想現実提示装置によれば、バーチャルな映像を表示する時点でユーザがバーチャルであると明確に認識しないように、ユーザの状態に基づいて映像を表示するタイミングが制御される。ユーザが不自然さを感じにくい状況で映像の表示が開始されるため、映像が表示されたことでユーザが少々の違和感を持ったとしても、ユーザは、その映像がバーチャルであるという確信を持っていない。そのため、その後の表示制御によって現実の風景と一致させることで、ユーザの警戒心が徐々に薄れていき、仮想現実の世界にユーザを引き込むことが可能となる。 On the other hand, according to the virtual reality presentation device described in the first exemplary embodiment, the timing for displaying the video based on the state of the user so that the user does not clearly recognize that it is virtual at the time of displaying the virtual video. Be controlled. Since the display of the video starts in a situation where the user does not feel unnaturalness, even if the user feels a little uncomfortable with the display of the video, the user has certainty that the video is virtual Not. Therefore, by matching the display with the actual scenery by subsequent display control, the user's alertness gradually fades, and the user can be drawn into the virtual reality world.

なお、上述した仮想現実提示装置の構成は1つの装置で構成されていても良いし、複数の装置によって仮想現実提示システムとして構成されていても良い。 Note that the configuration of the virtual reality presentation device described above may be configured by a single device, or may be configured as a virtual reality presentation system by a plurality of devices.

<実施形態2>
図4は、本実施形態2に係る仮想現実提示システム2000の構成を示すブロック図である。仮想現実提示システム2000は、ユーザ状態検知部110と、映像表示開始判定処理部120と、表示制御部130と、表示部140と、仮想現実提示制御部2010と、表示映像生成処理部2020と、を備える。
<Embodiment 2>
FIG. 4 is a block diagram illustrating a configuration of the virtual reality presentation system 2000 according to the second embodiment. The virtual reality presentation system 2000 includes a user state detection unit 110, a video display start determination processing unit 120, a display control unit 130, a display unit 140, a virtual reality presentation control unit 2010, a display video generation processing unit 2020, Is provided.

ユーザ状態検知部110は、内部カメラ111と、傾きセンサ112と、加速度センサ113と、を備える。内部カメラ111は、ユーザの顔の一部又は全部を撮影する。傾きセンサ112は、ユーザの頭部の傾きを検知するセンサである。また、加速度センサ113は、ユーザの頭部に加わる加速度を検知するセンサである。 The user state detection unit 110 includes an internal camera 111, a tilt sensor 112, and an acceleration sensor 113. The internal camera 111 captures part or all of the user's face. The tilt sensor 112 is a sensor that detects the tilt of the user's head. The acceleration sensor 113 is a sensor that detects acceleration applied to the user's head.

ユーザ状態検知部110で検知される一部又は全部の情報は、ユーザ状態情報として映像表示開始判定処理部120に送られる。また、ユーザ状態検知部110で検知される一部又は全部の情報は、ユーザ状態情報として表示映像生成処理部2020に送られる。 Part or all of the information detected by the user state detection unit 110 is sent to the video display start determination processing unit 120 as user state information. Also, part or all of the information detected by the user state detection unit 110 is sent to the display video generation processing unit 2020 as user state information.

仮想現実提示制御部2010は、ユーザに対して提示する仮想現実に関する全体制御を行う。仮想現実提示制御部2010は、ユーザに対する仮想現実の提示を開始すると決定した場合に、映像表示開始判定処理部120に映像表示開始判定を指示し、表示映像生成処理部2020に、表示映像の生成を指示する。 The virtual reality presentation control unit 2010 performs overall control related to virtual reality presented to the user. When the virtual reality presentation control unit 2010 determines to start presenting virtual reality to the user, the virtual reality presentation control unit 2010 instructs the video display start determination processing unit 120 to perform video display start determination, and the display video generation processing unit 2020 generates a display video. Instruct.

映像表示開始判定処理部120は、仮想現実提示制御部2010より仮想現実提示用の映像表示判定指示を受けた場合に、ユーザ状態検知部110で検知されたユーザ状態に基づいて、映像表示を開始できるかどうかを判定する。具体的には、映像表示開始判定処理部120は、ユーザ状態検知部110で検知されるユーザの状態が所定の基準を満たしているかを判定する。例えば、内部カメラ111で撮影されたユーザの顔の映像に基づいて、ユーザの目が所定の時間以上閉じているかを判定する。また、例えば、傾きセンサ112や加速度センサ113における検知結果に基づいて、ユーザが向いている方向が所定の角度以上変化したかを判定する。 The video display start determination processing unit 120 starts video display based on the user status detected by the user status detection unit 110 when receiving a video display determination instruction for virtual reality presentation from the virtual reality presentation control unit 2010. Determine if you can. Specifically, the video display start determination processing unit 120 determines whether the user status detected by the user status detection unit 110 satisfies a predetermined criterion. For example, it is determined whether the user's eyes are closed for a predetermined time or more based on the user's face image captured by the internal camera 111. Further, for example, based on the detection results of the inclination sensor 112 and the acceleration sensor 113, it is determined whether the direction in which the user is facing has changed by a predetermined angle or more.

表示映像生成処理部2020は、仮想現実提示制御部2010からの仮想現実用の映像生成開始指示に基づいて、表示部140で表示する映像を生成する処理を開始する。表示映像生成処理部2020は、ユーザ状態検知部110における検知結果に基づいて制御された仮想現実用の映像を順次生成して表示制御部130に出力する。仮想現実用の映像としては、例えば仮想現実オブジェクトの映像がある。 The display video generation processing unit 2020 starts a process of generating a video to be displayed on the display unit 140 based on a virtual reality video generation start instruction from the virtual reality presentation control unit 2010. The display video generation processing unit 2020 sequentially generates virtual reality video controlled based on the detection result in the user state detection unit 110 and outputs the generated video to the display control unit 130. Examples of the virtual reality video include a virtual reality object video.

表示制御部130は、映像表示開始判定処理部120において、ユーザ状態検知部110における検知結果で示されるユーザの状態が、予め設定されている所定の基準を満たしていると判定された場合、表示映像生成処理部2020で生成される仮想現実提示用の映像を表示部140に表示させる制御を行う。 When the video display start determination processing unit 120 determines that the user state indicated by the detection result in the user state detection unit 110 satisfies a predetermined criterion set in advance, the display control unit 130 displays Control for displaying the virtual reality presentation video generated by the video generation processing unit 2020 on the display unit 140 is performed.

以上のように、本実施形態2に係る仮想現実提示システムによれば、表示映像生成処理部2020によって生成されるユーザ状態に基づいて制御された仮想現実提示用の映像が、表示制御部130における制御に基づいて表示部140に表示される。仮想現実提示制御部2010が行う仮想現実提示の開始制御に基づいて、表示映像生成処理部2020は仮想現実用の映像を生成して表示制御部130に当該生成した映像を出力するが、表示制御部130は、表示映像生成処理部2020で生成された映像を直ちには表示部140に表示させず、表示開始判定処理部120からの判定結果に基づいて表示部140への表示を開始する。 As described above, according to the virtual reality presentation system according to the second embodiment, the virtual reality presentation video controlled based on the user state generated by the display video generation processing unit 2020 is displayed in the display control unit 130. It is displayed on the display unit 140 based on the control. Based on the virtual reality presentation start control performed by the virtual reality presentation control unit 2010, the display video generation processing unit 2020 generates a virtual reality video and outputs the generated video to the display control unit 130. The unit 130 does not immediately display the video generated by the display video generation processing unit 2020 on the display unit 140 but starts display on the display unit 140 based on the determination result from the display start determination processing unit 120.

このように構成することで、表示用映像は、いつでも表示可能なように表示映像生成処理部2020で生成されているため、映像表示開始判定処理部120において、ユーザの状態が予め設定されている所定の基準を満たしていると判定された場合に直ちに仮想現実用の映像を表示部140に表示することができる。 With this configuration, since the display video is generated by the display video generation processing unit 2020 so that it can be displayed at any time, the video display start determination processing unit 120 has a user state set in advance. When it is determined that the predetermined criterion is satisfied, the virtual reality video can be immediately displayed on the display unit 140.

なお、上述した仮想現実提示システム2000を構成する各機能は、ユーザが装着する仮想現実提示装置内に組み込まれても良いし、一部の機能が外部の情報処理サーバに組み込まれ、仮想現実提示装置と通信を行うことで仮想現実提示装置において仮想現実提示用の映像が表示部140に表示される構成としても良い。 Note that the functions constituting the virtual reality presentation system 2000 described above may be incorporated into a virtual reality presentation device worn by the user, or some functions may be incorporated into an external information processing server to provide virtual reality presentation. It is good also as a structure by which the video for virtual reality presentation is displayed on the display part 140 in a virtual reality presentation apparatus by communicating with an apparatus.

図5は、仮想現実の提示に必要となる処理の一部を外部情報処理サーバが行う場合における仮想現実提示システム2000の構成を示すブロック図である。仮想現実提示システム2000は、ユーザが装着する装置であって、仮想現実をユーザに直接提示する仮想現実提示装置200と、仮想現実を提示するためサービスである仮想現実サービスを提供する仮想現実サービス提供サーバ2100と、仮想現実提示装置200で入力される音声を解析する音声解析サーバ2200と、仮想現実コンテンツを記憶する仮想現実コンテンツ記憶データベース2300と、を備える。 FIG. 5 is a block diagram showing a configuration of the virtual reality presentation system 2000 when an external information processing server performs a part of processing necessary for presentation of virtual reality. The virtual reality presentation system 2000 is a device worn by a user, and provides a virtual reality service 200 that provides a virtual reality service that is a service for presenting virtual reality, and a virtual reality presentation device 200 that directly presents virtual reality to the user. A server 2100; a voice analysis server 2200 that analyzes voice input by the virtual reality presentation device 200; and a virtual reality content storage database 2300 that stores virtual reality content.

図5に示す仮想現実提示装置200は、ユーザ状態検知部110と、映像表示開始判定処理部120と、表示制御部130と、表示部140と、音声入力部210と、装置側仮想現実提示制御部220と、通信部230と、映像データ一時記憶部240と、を備える。 The virtual reality presentation device 200 illustrated in FIG. 5 includes a user state detection unit 110, a video display start determination processing unit 120, a display control unit 130, a display unit 140, a voice input unit 210, and device-side virtual reality presentation control. Unit 220, communication unit 230, and video data temporary storage unit 240.

音声入力部210は、所謂マイクロフォンであり、仮想現実提示装置200を装着しているユーザが発する音声やユーザの周囲環境からの音声を集音して音声データとして入力する。音声入力部210は、入力した音声データを通信部230に出力する。 The voice input unit 210 is a so-called microphone, and collects voices uttered by the user wearing the virtual reality presentation device 200 and voices from the user's surrounding environment and inputs them as voice data. The voice input unit 210 outputs the input voice data to the communication unit 230.

装置側仮想現実提示制御部220は、仮想現実提示装置200側で必要となる仮想現実提示用の各種制御を行う。装置側仮想現実提示制御部220は、仮想現実サービス提供サーバ2100より送信される仮想現実サービスの提供開始の通知である仮想現実サービス提供開始通知情報が通信部230で受信された場合に、仮想現実提示開始用の制御を行う。具体的には、装置側仮想現実提示制御部220は、仮想現実サービス提供開始通知情報を受け取った場合に、少なくともユーザ状態検知部110及び映像表示開始判定処理部120にそれぞれ仮想現実提示用処理開始指示を行う。 The device-side virtual reality presentation control unit 220 performs various controls for virtual reality presentation required on the virtual reality presentation device 200 side. The device-side virtual reality presentation control unit 220 receives the virtual reality service provision start notification information, which is a notification of the provision of virtual reality service transmission transmitted from the virtual reality service providing server 2100, when the communication unit 230 receives virtual reality service provision start notification information. Control for starting presentation. Specifically, when receiving the virtual reality service provision start notification information, the device-side virtual reality presentation control unit 220 starts virtual reality presentation processing at least in the user state detection unit 110 and the video display start determination processing unit 120, respectively. Give instructions.

ユーザ状態検知部110は、装置側仮想現実提示制御部220からの仮想現実提示用処理開始指示に基づいてユーザ状態の検知処理を開始し、検知結果をユーザ状態情報として映像表示開始判定処理部120と通信部230に出力する。 The user state detection unit 110 starts a user state detection process based on a virtual reality presentation process start instruction from the device-side virtual reality presentation control unit 220, and uses the detection result as user state information to display a video display start determination processing unit 120. And output to the communication unit 230.

映像表示開始判定処理部120は、装置側仮想現実提示制御部220からの仮想現実提示用処理開始指示に基づいて、映像表示開始判定処理を開始する。具体的には、映像表示開始判定処理部120は、仮想現実提示用処理開始指示を受けると、ユーザ状態検知部110で検知されるユーザの状態が所定の基準を満たしているかの判定処理を開始する。 The video display start determination processing unit 120 starts the video display start determination process based on the virtual reality presentation process start instruction from the device-side virtual reality presentation control unit 220. Specifically, when receiving a virtual reality presentation process start instruction, the video display start determination processing unit 120 starts a determination process to determine whether the user state detected by the user state detection unit 110 satisfies a predetermined criterion. To do.

通信部230は、インターネット等の通信網10を介して仮想現実サービス提供サーバ2100と通信を行う。通信部230は、装置200内で生成された各種情報を装置外部へ無線送信する無線送信部231と、装置外部より送信された各種情報を無線受信する無線受信部232とを備える。 The communication unit 230 communicates with the virtual reality service providing server 2100 via the communication network 10 such as the Internet. The communication unit 230 includes a wireless transmission unit 231 that wirelessly transmits various types of information generated in the device 200 to the outside of the device, and a wireless reception unit 232 that wirelessly receives various types of information transmitted from the outside of the device.

無線送信部231は、少なくともユーザ状態検知部110で生成されるユーザ状態情報と音声入力部210で入力された音声データとを仮想現実サービス提供サーバ2100へ無線送信する。また、装置側仮想現実提示制御部220で生成される一部の制御情報を仮想現実サービス提供サーバ2100へ無線送信する。 The wireless transmission unit 231 wirelessly transmits at least the user state information generated by the user state detection unit 110 and the voice data input by the voice input unit 210 to the virtual reality service providing server 2100. In addition, some control information generated by the device-side virtual reality presentation control unit 220 is wirelessly transmitted to the virtual reality service providing server 2100.

無線受信部232は、少なくとも仮想現実サービス提供サーバ2100で生成された仮想現実用の映像の符号化データを無線受信する。無線受信部232は、当該無線受信した映像符号化データを映像データ一時記憶部240に出力する。 The wireless reception unit 232 wirelessly receives at least encoded data of virtual reality video generated by the virtual reality service providing server 2100. The wireless reception unit 232 outputs the wirelessly received video encoded data to the video data temporary storage unit 240.

映像データ一時記憶部240は、無線受信部232で無線受信された映像符号化データを仮想現実提示用の記憶領域に記憶する。映像データ一時記憶部240は、順次送られてくる映像符号化データに基づいて過去に記憶した映像符号化データを上書きすることで、最新の生成された映像符号化データを記憶していく。 The video data temporary storage unit 240 stores the encoded video data wirelessly received by the wireless reception unit 232 in a storage area for virtual reality presentation. The video data temporary storage unit 240 stores the latest generated video encoded data by overwriting the previously stored video encoded data based on the sequentially encoded video encoded data.

映像表示開始判定処理部120において、ユーザ状態検知部110における検知結果で示されるユーザの状態が、予め設定されている所定の基準を満たしていると判定された場合、表示映像生成処理部2140で生成される仮想現実提示用の映像を表示部140に表示させる制御を行う。 When the video display start determination processing unit 120 determines that the user state indicated by the detection result in the user state detection unit 110 satisfies a predetermined criterion set in advance, the display video generation processing unit 2140 Control is performed to display the generated virtual reality presentation video on the display unit 140.

表示制御部130は、映像表示開始判定処理部120からの判定結果に基づいて、映像データ一時記憶部240に一時記憶されている仮想現実提示用の映像符号化データを読み出し、復号化処理を行った上で得られた映像データによる映像を表示部140で表示するための制御を行う。表示部140は、表示制御部130が行う表示制御に従って仮想現実提示用の映像を表示する。 Based on the determination result from the video display start determination processing unit 120, the display control unit 130 reads out the virtual reality presentation video encoded data temporarily stored in the video data temporary storage unit 240 and performs a decoding process. In addition, control is performed to display the video based on the obtained video data on the display unit 140. The display unit 140 displays a virtual reality presentation video according to display control performed by the display control unit 130.

仮想現実サービス提供サーバ2100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、を備える。   The virtual reality service providing server 2100 includes a communication unit 2110, an audio context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, and a display video generation processing unit 2140.

通信部2110は、インターネット等の通信網10を介して仮想現実提示装置200と通信を行う。通信部2110は、仮想現実提示装置200より通信網10を介して送信されたユーザ状態情報と音声データを少なくとも受信する受信部2111と、表示映像生成処理部2140で生成される仮想現実提示用の映像符号化データを、通信網10を介して仮想現実提示装置200に送信する送信部2112とを、備える。受信部2111は、受信した音声データを音声コンテキスト取得部2120へ出力し、ユーザ状態情報を表示映像生成処理部2140へ出力する。 The communication unit 2110 communicates with the virtual reality presentation device 200 via the communication network 10 such as the Internet. The communication unit 2110 receives at least user state information and audio data transmitted from the virtual reality presentation device 200 via the communication network 10 and a virtual reality presentation generated by the display video generation processing unit 2140. A transmission unit 2112 that transmits the encoded video data to the virtual reality presentation device 200 via the communication network 10. The reception unit 2111 outputs the received audio data to the audio context acquisition unit 2120 and outputs user state information to the display video generation processing unit 2140.

音声コンテキスト取得部2120は、入力された音声データのコンテキストを取得する。具体的に、音声コンテキスト取得部2120は、音声解析サーバ2200に音声データを転送し、音声解析サーバ2200における音声解析処理の結果抽出された音声コンテキストを受信することで仮想現実提示装置200の音声入力部210で入力された音声のコンテキストを取得し、取得したコンテキストをサーバ側仮想現実提示制御部2130へ出力する。 The voice context acquisition unit 2120 acquires the context of the input voice data. Specifically, the voice context acquisition unit 2120 transfers voice data to the voice analysis server 2200 and receives a voice context extracted as a result of the voice analysis processing in the voice analysis server 2200, thereby inputting the voice of the virtual reality presentation device 200. The voice context input by unit 210 is acquired, and the acquired context is output to server-side virtual reality presentation control unit 2130.

音声解析サーバ2200は、入力した音声データが示しているコンテキストを特定するためのサーバであり、音声解析処理部2210と、コンテキスト抽出部2220と、を備える。 The voice analysis server 2200 is a server for specifying a context indicated by input voice data, and includes a voice analysis processing unit 2210 and a context extraction unit 2220.

音声解析処理部2210は、仮想現実サービス提供サーバ2100より転送されてきた音声データに対して所定の音声解析アルゴリズムに従って解析を行い、当該音声データを複数の音声単位に分割する。 The voice analysis processing unit 2210 analyzes the voice data transferred from the virtual reality service providing server 2100 according to a predetermined voice analysis algorithm, and divides the voice data into a plurality of voice units.

例えば、音声解析処理部2210は、複数の音声単位を記憶する音声データベースに含まれる音声単位データと、入力した音声データとのマッチング処理を行うことで、音声データを単位音声に分割する。当該音声データベースに含まれる音声単位データは、例えば「い」の単位音声がコードNo004、「こ」の単位音声がコードNo021というように、コードが割り当てられている。音声解析処理部2210は、入力した音声データを単位音声に分割することで、当該入力した音声データをコードの羅列に変換する。なお、上記音声データベースの図示は省略している。 For example, the voice analysis processing unit 2210 divides the voice data into unit voices by performing a matching process between the voice unit data included in the voice database storing a plurality of voice units and the input voice data. The voice unit data included in the voice database is assigned a code such that the unit voice “I” is code No004 and the unit voice “ko” is code No021, for example. The voice analysis processing unit 2210 divides the input voice data into unit voices, thereby converting the input voice data into a sequence of codes. The voice database is not shown.

コンテキスト抽出部2220は、情報処理サーバ2200より転送されてきた上記音声データ、すなわち仮想現実提示装置200の音声入力部210で入力された音声が示すコンテキストを抽出する。 The context extraction unit 2220 extracts the above-described audio data transferred from the information processing server 2200, that is, the context indicated by the audio input by the audio input unit 210 of the virtual reality presentation device 200.

例えば、コンテキスト抽出部2220は、複数の単語データや文法構造を規定する文法データを記憶している単語・文法データベースにアクセスし、音声解析処理部2210における解析処理で得られた一連のコードのいくつかと、上記データベースに記憶される単語データとのマッチングを行うことで、意味のある部分を抽出していく。コンテキスト抽出部2220は、当該一連の処理に基づいて、入力された音声データが示すコンテキストを抽出する。 For example, the context extraction unit 2220 accesses a word / grammar database storing a plurality of word data and grammar data defining a grammatical structure, and determines how many of the series of codes obtained by the analysis processing in the speech analysis processing unit 2210 A meaningful part is extracted by performing matching with word data stored in the database. The context extraction unit 2220 extracts the context indicated by the input audio data based on the series of processes.

例えば、入力された音声データが「ねことたわむれたいな」と言う音声であった場合、音声解析処理部2210は、「ね」、「こ」、「と」、「た」、「わ」、「む」、「れ」、「た」、「い」、「な」と単位音声に分割する。各単位音声にはコードが割り当てられているため、音声解析処理部2210は、当該音声データを「072/021/041/036/124/085/099/036/004/043」といったコードの羅列に変換する。 For example, if the input voice data is a voice saying “I want to play with cats”, the voice analysis processing unit 2210 performs “ne”, “ko”, “to”, “ta”, “wa”, “Mu”, “Re”, “Ta”, “I”, “NA” are divided into unit sounds. Since a code is assigned to each unit voice, the voice analysis processing unit 2210 puts the voice data in a list of codes such as “072/02/041/036/124/085/099/036/004/043”. Convert.

コンテキスト抽出部2220は、入力された音声データから変換された当該コードと単語・文法データベースの単語を示すコードとのマッチング処理を行うことで単語の羅列に変換する。例えば、コンテキスト抽出部2220は、当該マッチング処理を行うことで、「072021」、「034」、「036124085099」、「036004043」と纏まり毎に抽出し、「Ob:ねこ、Of:と、Va:たわむれ、Vc:たいな」と言う形で主語、目的語、述語、助詞、などに整理する。コンテキスト抽出部2220は、当該処理により、入力された音声は、「猫と戯れたい」というコンテキストを示していると判定する。コンテキスト抽出部2220は抽出したコンテキストデータを、仮想現実サービス提供サーバ2100の音声コンテキスト取得部2120に送信する。 The context extraction unit 2220 performs matching processing between the code converted from the input voice data and a code indicating a word in the word / grammar database to convert the code into a list of words. For example, by performing the matching process, the context extraction unit 2220 extracts “072021”, “034”, “036224085099”, and “0360004043” for each group, and “Ob: Cat, Of: and Va: Deflection. , Vc: taina "and organize it into a subject, object, predicate, particle, etc. The context extraction unit 2220 determines that the input voice indicates a context of “I want to play with a cat” by the processing. The context extraction unit 2220 transmits the extracted context data to the voice context acquisition unit 2120 of the virtual reality service providing server 2100.

サーバ側仮想現実提示制御部2130は、音声解析サーバ2200で抽出されたコンテキストが仮想現実サービスの開始を要求するものであった場合に、仮想現実サービスの提供を開始する。具体的には、サーバ側仮想現実提示制御部2130は、仮想現実サービス提供開始通知情報を生成して通信部2110に出力する。またサーバ側仮想現実提示制御部2130は、仮想現実コンテンツ記憶データベース2300より提供する仮想現実サービスに係る仮想現実コンテンツを読み出して表示映像生成処理部2140に出力する。 The server-side virtual reality presentation control unit 2130 starts providing the virtual reality service when the context extracted by the voice analysis server 2200 requests to start the virtual reality service. Specifically, the server-side virtual reality presentation control unit 2130 generates virtual reality service provision start notification information and outputs it to the communication unit 2110. Also, the server-side virtual reality presentation control unit 2130 reads out virtual reality content related to the virtual reality service provided from the virtual reality content storage database 2300 and outputs the virtual reality content to the display video generation processing unit 2140.

表示映像生成処理部2140は、サーバ側仮想現実提示制御部2130で読み出された仮想現実コンテンツに基づいて、仮想現実提示装置200で表示する仮想現実提示用の映像を生成する。表示映像生成処理部2140は、ユーザ状態情報に基づいて、仮想現実提示用の映像を生成する。表示映像生成処理部2140は、読み出された当該仮想現実コンテンツからユーザ状態検知部110における検知結果に基づいて制御された仮想現実用の映像を順次生成し、符号化処理を行って映像符号化データを生成する。表示映像生成処理部2140は、生成した映像符号化データを通信部2110に出力する。 The display video generation processing unit 2140 generates a virtual reality presentation video to be displayed on the virtual reality presentation device 200 based on the virtual reality content read by the server side virtual reality presentation control unit 2130. The display video generation processing unit 2140 generates a video for virtual reality presentation based on the user state information. The display video generation processing unit 2140 sequentially generates virtual reality video controlled based on the detection result in the user state detection unit 110 from the read virtual reality content, performs encoding processing, and encodes the video. Generate data. The display video generation processing unit 2140 outputs the generated video encoded data to the communication unit 2110.

このように、比較的処理性能の高い仮想現実サービス提供サーバ側で仮想現実提示用の映像の生成処理を行う構成とすることで、より精細な仮想現実提示用の映像を仮想現実提示装置側で表示することが可能となる。 In this way, by generating a virtual reality presentation video on the virtual reality service providing server side having relatively high processing performance, a more detailed virtual reality presentation video can be generated on the virtual reality presentation device side. It is possible to display.

図6は、映像表示開始判定処理部120を備えない従来の仮想現実提示装置において提示される仮想現実の世界を示している。図6のT0のタイミングにおいて、現実の景色はソファーの置かれた部屋の景色であり仮想現実提示装置の表示部である透過型のフロントパネルを通して当該景色が見えている。表示部140には、何も表示されていないため、ユーザには、現実の風景だけが見えている。 FIG. 6 shows a virtual reality world presented in a conventional virtual reality presentation device that does not include the video display start determination processing unit 120. At the timing of T0 in FIG. 6, the real scenery is the scenery of the room where the sofa is placed, and the scenery can be seen through the transmissive front panel which is the display unit of the virtual reality presentation device. Since nothing is displayed on the display unit 140, the user can see only the actual scenery.

T1のタイミングにおいて「犬がいてくれたらいいのに」、という要求をユーザが言ったとする。当該音声が仮想現実提示装置に入力される。仮想現実提示装置は、映像コンテンツ記憶データベースより当該犬の映像コンテンツを読み出し、T2のタイミングで表示部に表示することで仮想現実の提示が開始される。 It is assumed that the user makes a request “I wish I had a dog” at the timing of T1. The voice is input to the virtual reality presentation device. The virtual reality presentation device reads the video content of the dog from the video content storage database and displays it on the display unit at the timing of T2 to start presenting virtual reality.

ここで、仮想現実提示装置は映像コンテンツの読み出しが完了した段階ですぐに当該犬の映像を表示部に表示するが、この時ユーザは目を開いていると、急に犬がソファー上に現れることになる。現実の世界において、瞬間移動するように物体が現れることは非現実的度合いが高く、人生において経験的に認識している物理現象からかけ離れている。そのため、当該犬が現実の犬ではなく、表示部に表示された犬であるとユーザは明確に認識してしまうことになる。一度、バーチャルであると認識してしまうと、その後、時間が経過してもユーザの警戒心が抜けず、ユーザは仮想現実の世界に入り込むことは困難となる。すなわち、目の前に見えている犬を現実の世界の犬であると錯覚することができなくなる。 Here, the virtual reality presentation device immediately displays the video of the dog on the display unit when the reading of the video content is completed. If the user opens his eyes at this time, the dog suddenly appears on the sofa. It will be. In the real world, the appearance of an object as if it moves instantaneously is highly unrealistic and far from physical phenomena that are empirically recognized in life. Therefore, the user clearly recognizes that the dog is not a real dog but a dog displayed on the display unit. Once it is recognized that it is virtual, the user's alertness will not be lost even if time passes, and it will be difficult for the user to enter the virtual reality world. That is, the illusion that a dog that is visible in front of you is a real world dog cannot be realized.

次に、本実施形態2に係る仮想現実提示装置200が提示する仮想現実について図7を用いて説明する。T0、T1のタイミングについては図6と同様であるため説明を省略する。仮想現実提示装置200は、映像表示開始判定処理部120が映像の表示を開始するかどうかの判定処理を行うため、T1のタイミングで仮想現実オブジェクトである犬の映像が表示映像生成処理部2140で仮想現実用の映像として生成されて映像データ一時記憶部240に格納されても、直ぐには表示部140には表示されない。 Next, the virtual reality presented by the virtual reality presentation device 200 according to the second embodiment will be described with reference to FIG. The timings of T0 and T1 are the same as those in FIG. In the virtual reality presentation device 200, since the video display start determination processing unit 120 determines whether to start displaying the video, the video of the dog, which is a virtual reality object, is displayed by the display video generation processing unit 2140 at the timing T1. Even if it is generated as a virtual reality video and stored in the video data temporary storage unit 240, it is not immediately displayed on the display unit 140.

内部カメラ111で撮影されたユーザの目の映像に基づいてユーザが所定の基準値以上の時間目を閉じていたと映像表示開始判定処理部120が判定したタイミングT3で表示部140に仮想現実用の映像として読み出された仮想現実オブジェクトである犬の映像が表示される。 Based on the video image of the user's eyes taken by the internal camera 111, the video display start determination processing unit 120 determines that the user has closed his eyes for a time equal to or greater than a predetermined reference value. An image of a dog that is a virtual reality object read out as an image is displayed.

ユーザは、目を開いたタイミングT4で犬が見えているが、目を閉じていた間に犬が迷い込んできたと錯覚することができる。そのような物理現象は現実的に十分生じ得る現象であり、ユーザには目の前に現れている事実が優先される。従って、少々の違和感を持ったとしても、時間の経過と共に違和感が薄れていき、当該表示されているバーチャルな犬がリアルな犬であると認識するようになり、仮想現実の世界に入り込むことができる。 The user can see the dog at the timing T4 when the eyes are opened, but can make an illusion that the dog has strayed while the eyes are closed. Such a physical phenomenon is a phenomenon that can actually occur sufficiently, and the fact that appears in front of the user is prioritized. Therefore, even if there is a little uncomfortable feeling, the uncomfortable feeling fades with time, and the displayed virtual dog is recognized as a real dog and can enter the virtual reality world. it can.

また、上記説明では映像表示開始判定処理部120は、内部カメラ111で撮影されたユーザの顔の一部又は全部の画像データに基づいて、ユーザの目が所定の時間以上閉じているかを判定し、当該判定結果に基づいて映像の表示を開始するかどうかを決定する場合について説明したが、これに限定されるものではない。 In the above description, the video display start determination processing unit 120 determines whether the user's eyes are closed for a predetermined time or more based on part or all of the image data of the user's face taken by the internal camera 111. Although the case where it is determined whether to start displaying video based on the determination result has been described, the present invention is not limited to this.

例えば、映像表示開始判定処理部120は、ユーザの視界が変化した場合に、仮想現実提示用の映像を表示する構成としても良い。例えば映像表示開始判定処理部120は、ユーザが顔を回転させて所定の角度以上顔を回転させた場合に映像の表示を開始する構成としても良い。 For example, the video display start determination processing unit 120 may be configured to display a virtual reality presentation video when the user's field of view changes. For example, the video display start determination processing unit 120 may be configured to start displaying video when the user rotates the face and rotates the face by a predetermined angle or more.

図8において、T1のタイミングで映像コンテンツの読み込みが行われているが、ユーザの向きが所定の角度以上回転しておらず、この状態で映像の表示を開始すると不自然であるため表示部140に映像は表示されていない。 In FIG. 8, the video content is read at the timing of T1, but the orientation of the user is not rotated by a predetermined angle or more, and it is unnatural to start displaying the video in this state. No video is displayed.

T3のタイミングにおいて、ユーザの向きは当初より45度回転し、表示パネルの右下に映像コンテンツである犬の足が表示され始めている。すなわち、仮想現実用の映像表示を開始するための条件として、ユーザの向きが右へ45度回転することを、映像表示を開始するための条件として設定されている。映像表示開始判定処理部120は、傾きセンサ112で検知される傾き及び加速度センサ113で検知される加速度に基づいて、ユーザの現在の方向を特定する。映像表示開始判定処理部120は、ユーザの方向が基準値である45度超えた場合に、表示開始条件を満たしたとして、表示制御部130に仮想現実用の映像の表示開始を指示する。 At the timing of T3, the user's direction is rotated 45 degrees from the beginning, and the dog's paw as the video content is starting to be displayed at the lower right of the display panel. That is, as a condition for starting the virtual reality video display, the user's direction is rotated 45 degrees to the right as a condition for starting the video display. The video display start determination processing unit 120 specifies the current direction of the user based on the tilt detected by the tilt sensor 112 and the acceleration detected by the acceleration sensor 113. The video display start determination processing unit 120 instructs the display control unit 130 to start displaying the virtual reality video, assuming that the display start condition is satisfied when the direction of the user exceeds the reference value of 45 degrees.

更にT4のタイミングにおいてユーザの向きは当初より60度回転しており、表示制御部130は、当該ユーザの回転に応じてリアルタイムに算出される表示位置・表示角度・表示サイズに基づいて表示部140に仮想現実オブジェクトである犬の映像を表示させる。 Furthermore, at the timing of T4, the orientation of the user is rotated 60 degrees from the beginning, and the display control unit 130 displays the display unit 140 based on the display position, display angle, and display size calculated in real time according to the rotation of the user. Displays a video of a dog, which is a virtual reality object.

T5、T6のタイミングでは、ユーザの向きが当初よりそれぞれ90度、120度回転しており、仮想現実オブジェクトである犬の全体の映像が表示部140に表示されている。 At the timings T5 and T6, the orientation of the user has been rotated by 90 degrees and 120 degrees, respectively, from the beginning, and the entire video of the dog that is a virtual reality object is displayed on the display unit 140.

当該構成とすることで、ユーザが視界を変更したことにより、映像が見えるようになるため、ユーザに見える景色は、現実に犬がいている場合と変わらずリアルとバーチャルの接点に不連続性がなくなっている。従って、ユーザは、表示されている犬の映像がバーチャルなものであると認識せず、リアルな犬であると認識することになる。従って、ユーザは、仮想現実の世界に入り込むことが可能となる。 With this configuration, the user can change the field of view so that the video can be seen. Therefore, the scenery that the user sees is not discontinuous at the point of contact between the real and virtual, as it is when a dog is actually present. It is gone. Therefore, the user does not recognize that the displayed video of the dog is virtual, but recognizes that it is a real dog. Therefore, the user can enter the virtual reality world.

なお、上述した映像表示開始判定処理部120は、仮想現実サービス提供サーバ2100側に配置されていても良い。 Note that the video display start determination processing unit 120 described above may be disposed on the virtual reality service providing server 2100 side.

<実施形態3>
ユーザに提示される仮想現実は様々な種類がある。仮想現実提示用の映像の表示開始タイミングについても、ユーザに提示される仮想現実の種類に応じて決定されることが好ましい。
<Embodiment 3>
There are various types of virtual reality presented to the user. The display start timing of the virtual reality presentation video is also preferably determined according to the type of virtual reality presented to the user.

図9は、本実施形態3に係る仮想現実提示装置300の機能構成を示すブロック図である。仮想現実提示装置300は、ユーザ状態検知部110と、映像表示開始判定処理部120と、表示制御部130と、表示部140と、音声入力部210と、装置側仮想現実提示制御部220と、通信部230と、映像データ一時記憶部240と、周囲状況検知部310と、映像表示開始条件設定部320と、を備える。 FIG. 9 is a block diagram illustrating a functional configuration of the virtual reality presentation device 300 according to the third embodiment. The virtual reality presentation device 300 includes a user state detection unit 110, a video display start determination processing unit 120, a display control unit 130, a display unit 140, a voice input unit 210, a device-side virtual reality presentation control unit 220, A communication unit 230, a video data temporary storage unit 240, an ambient condition detection unit 310, and a video display start condition setting unit 320 are provided.

ユーザの状態を検知するユーザ状態検知部110として、仮想現実提示装置300は、装着しているユーザの顔の一部又は全部を撮影する内部カメラ111と、ユーザの頭部の傾きを検知する傾きセンサ112と、ユーザの頭部の加速度を検知する加速度センサ113と、を備える。 As the user state detection unit 110 that detects the user state, the virtual reality presentation device 300 includes an internal camera 111 that captures part or all of the face of the user wearing the device, and an inclination that detects the inclination of the user's head. The sensor 112 and the acceleration sensor 113 which detects the acceleration of a user's head are provided.

内部カメラ111で撮影されたユーザの顔の映像データや傾きセンサ112で検知された傾きを示す傾き情報、加速度センサ113で検知された加速度を示す加速度情報は、映像表示開始判定処理のために映像表示開始判定処理部120に送られる。 The video data of the user's face captured by the internal camera 111, the tilt information indicating the tilt detected by the tilt sensor 112, and the acceleration information indicating the acceleration detected by the acceleration sensor 113 are used for video display start determination processing. It is sent to the display start determination processing unit 120.

また、傾きセンサ112で生成された傾き情報及び加速度センサ113で生成された加速度情報は、それぞれ仮想現実用の映像生成処理に利用するために通信部230に出力される。 Further, the tilt information generated by the tilt sensor 112 and the acceleration information generated by the acceleration sensor 113 are output to the communication unit 230 for use in the virtual reality video generation processing.

音声入力部210は、装置を装着しているユーザが発する音声を集音してユーザ音声データを入力するユーザマイク211と、ユーザの外部環境からの音声を集音して周囲音声データを入力する周囲マイク212と、を備える。各マイクで集音された音声は、AD変換処理によってアナログ電気信号からデジタル信号の音声データにそれぞれ変換され、通信部230へ出力される。 The voice input unit 210 collects voices uttered by a user wearing the apparatus and inputs user voice data, and collects voices from the user's external environment and inputs ambient voice data. A surrounding microphone 212. The sound collected by each microphone is converted from analog electric signals to digital signal sound data by AD conversion processing, and is output to the communication unit 230.

周囲状況検知部310は、ユーザの周囲の状況を検知し、ユーザの周囲の状況を示す周囲状況情報を生成する。仮想現実提示装置300において、周囲状況検知部310は、具体的に視線カメラ311と、周辺カメラ312とを備える。 The surrounding situation detection unit 310 detects the surrounding situation of the user and generates ambient situation information indicating the surrounding situation of the user. In the virtual reality presentation device 300, the surrounding situation detection unit 310 includes a line-of-sight camera 311 and a surrounding camera 312.

視線カメラ311は、仮想現実提示装置300の前方に設置されるカメラであって、ユーザの視線に対応するユーザの前方の景色を撮影することで前方景色画像(視線景色画像)を取得する。視線カメラ311で取得された前方景色画像は、通信部230に出力される。 The line-of-sight camera 311 is a camera installed in front of the virtual reality presentation device 300, and acquires a front scene image (line-of-sight scene image) by capturing a scene in front of the user corresponding to the user's line of sight. The forward scenery image acquired by the line-of-sight camera 311 is output to the communication unit 230.

周辺カメラ312は、仮想現実提示装置300の側部や後方部分に設置されるカメラであって、視線カメラ311では撮影できないユーザの周辺の範囲の景色を撮影することで周辺景色画像を取得する。周辺カメラ312で取得された周辺景色画像は、通信部230に出力される。 The peripheral camera 312 is a camera installed on the side part or the rear part of the virtual reality presentation device 300, and acquires a peripheral landscape image by capturing a scene in a range around the user that cannot be captured by the visual line camera 311. The peripheral scenery image acquired by the peripheral camera 312 is output to the communication unit 230.

通信部230は、傾きセンサ112及び加速度センサ113よりそれぞれ出力された傾き情報及び加速度情報をユーザ状態情報として外部の仮想現実サービス提供サーバに送信する。また、通信部230は、ユーザマイク211及び周囲マイク212よりそれぞれ入力されたユーザ音声データ及び周囲音声データをそれぞれ入力音声データとして仮想現実サービス提供サーバに送信する。また、通信部230は、視線カメラ311及び周辺カメラ312でそれぞれ取得された視線景色画像及び周辺景色画像を周囲状況情報として仮想現実サービス提供サーバに送信する。 The communication unit 230 transmits the tilt information and acceleration information output from the tilt sensor 112 and the acceleration sensor 113, respectively, to the external virtual reality service providing server as user status information. In addition, the communication unit 230 transmits the user voice data and the surrounding voice data respectively input from the user microphone 211 and the surrounding microphone 212 as input voice data to the virtual reality service providing server. In addition, the communication unit 230 transmits the visual line scenery image and the peripheral scenery image acquired by the visual line camera 311 and the peripheral camera 312 to the virtual reality service providing server as the surrounding state information.

また、通信部230は、仮想現実サービス提供サーバで生成されて順次送信される送信される仮想現実提示用の映像符号化データを受信し、映像データ一時記憶部240に出力する。また、通信部230は、仮想現実サービス提供サーバで生成されて送信されてくる仮想現実サービス提供開始通知情報を装置側仮想現実提示制御部220に出力する。   In addition, the communication unit 230 receives video encoded data for virtual reality presentation that is generated and transmitted sequentially from the virtual reality service providing server, and outputs the video encoded data to the video data temporary storage unit 240. Further, the communication unit 230 outputs the virtual reality service provision start notification information generated and transmitted by the virtual reality service providing server to the device-side virtual reality presentation control unit 220.

図10は、仮想現実提示装置300が受信する仮想現実サービス提供開始通知情報の一例を示す図である。仮想現実サービス提供開始通知情報には、送信元である仮想現実サービス提供サーバのアドレスである送信元アドレス、送信先である仮想現実提示装置300のアドレスである送信先アドレス、当該情報が仮想現実サービス提供開始通知情報であることを識別する情報種別、仮想現実提示装置300と仮想現実サービス提供サーバとの間で当該仮想現実の提示に伴って生じる通信を他の通信と区別するための仮想現実識別番号と、仮想現実の提示を開始するための条件である仮想現実提示開始条件情報と、が含まれている。 FIG. 10 is a diagram illustrating an example of virtual reality service provision start notification information received by the virtual reality presentation device 300. The virtual reality service provision start notification information includes a transmission source address that is the address of the virtual reality service providing server that is the transmission source, a transmission destination address that is the address of the virtual reality presentation device 300 that is the transmission destination, and the information includes the virtual reality service Information type for identifying the provision start notification information, virtual reality identification for distinguishing communication occurring between the virtual reality presentation device 300 and the virtual reality service providing server accompanying presentation of the virtual reality from other communications A number and virtual reality presentation start condition information that is a condition for starting presentation of virtual reality are included.

仮想現実提示装置300と仮想現実サービス提供サーバとの間で発生する当該仮想現実の提示に関する通信には、仮想現実識別番号が付されることで、他の仮想現実提示装置との通信や、自装置300における他の仮想現実の提示に関する通信と区別される。 The communication relating to the presentation of the virtual reality that occurs between the virtual reality presentation device 300 and the virtual reality service providing server is assigned a virtual reality identification number, so that communication with other virtual reality presentation devices or It is distinguished from communication related to presentation of other virtual reality in the device 300.

また、仮想現実提示開始条件は、仮想現実の提示を開始するための条件であって、本実施形態においては、具体的に仮想現実用の映像表示を開始するための条件である映像表示開始条件が少なくとも含まれる。 The virtual reality presentation start condition is a condition for starting presentation of virtual reality, and in the present embodiment, the video display start condition is a condition for specifically starting video display for virtual reality. Is included at least.

装置側仮想現実提示制御部220は、通信部230で受信された仮想現実サービス提供開始通知情報に基づいて、映像表示開始判定処理部120と映像表示開始条件設定部320に仮想現実提示用の処理の開始を指示する。   The device-side virtual reality presentation control unit 220 performs virtual reality presentation processing on the video display start determination processing unit 120 and the video display start condition setting unit 320 based on the virtual reality service provision start notification information received by the communication unit 230. Instruct the start of.

映像表示開始条件設定部320は、装置側仮想現実提示制御部220からの指示に基づいて、仮想現実提示開始条件として、映像表示開始条件を設定する。映像表示開始条件設定部320は、通信部230で受信された仮想現実サービス提供開始通知情報に含まれる仮想現実提示開始条件に従って、映像表示開始判定処理部120における判定処理における基準となる映像表示開始条件を設定する。   The video display start condition setting unit 320 sets a video display start condition as a virtual reality presentation start condition based on an instruction from the device-side virtual reality presentation control unit 220. The video display start condition setting unit 320 is a video display start that is a reference in the determination process in the video display start determination processing unit 120 according to the virtual reality presentation start condition included in the virtual reality service provision start notification information received by the communication unit 230. Set conditions.

映像表示開始判定処理部120は、ユーザ状態検知部110で検知されるユーザの状態が、映像表示開始条件設定部320で設定された映像表示開始条件を満たしているかの判定処理を行う。 The video display start determination processing unit 120 determines whether the user state detected by the user state detection unit 110 satisfies the video display start condition set by the video display start condition setting unit 320.

例えば、映像表示開始条件X1として「ユーザが目を5秒以上閉じていること」という条件が映像表示開始条件設定部320によって設定されているとする。この場合、映像表示開始判定処理部120は、内部カメラ111で撮影されるユーザの目を含む範囲の映像を入力し、例えば、マッチング処理等に基づいてユーザの目が閉じているかを判定する。例えば、予め、開いた状態や閉じた状態のユーザの目の画像データを記憶しておき、内部カメラ111で撮像された画像と閉じた状態のユーザの目の画像データとを比較し、所定の相関値以上の相関が検出された場合に、ユーザの目が閉じていると判定する構成とすることができる。 For example, it is assumed that the video display start condition setting unit 320 sets the condition “the user has closed his eyes for 5 seconds or more” as the video display start condition X1. In this case, the video display start determination processing unit 120 inputs a video in a range including the user's eyes photographed by the internal camera 111, and determines, for example, whether the user's eyes are closed based on a matching process or the like. For example, the image data of the user's eyes in an open state or a closed state is stored in advance, and the image captured by the internal camera 111 is compared with the image data of the user's eyes in a closed state, When a correlation equal to or higher than the correlation value is detected, it can be determined that the user's eyes are closed.

映像表示開始判定処理部120は、ユーザの目が閉じていると判定した場合、内部タイマを作動し、映像表示開始条件として設定されている5秒間、目が閉じた状態が維持されているかを判定する。5秒経過前にユーザが目を開いた場合は、タイマをリセットし、再び5秒間目が閉じた状態が維持されるかの判定処理を行う。 When it is determined that the user's eyes are closed, the video display start determination processing unit 120 operates an internal timer to check whether the eyes are closed for 5 seconds set as a video display start condition. judge. If the user opens his eyes before the elapse of 5 seconds, the timer is reset, and a determination process is performed to determine whether the state where the eyes are closed for 5 seconds is maintained again.

映像表示開始判定処理部120は、上記判定処理の結果、5秒間目が閉じていたと判定した場合に、表示制御部130に映像の表示開始指示を行う。 The video display start determination processing unit 120 instructs the display control unit 130 to start displaying video when it is determined that the fifth second is closed as a result of the determination process.

表示制御部130は、表示部140に仮想現実用の映像を表示する制御を行う。表示制御部130は、映像データ読み出し部131と、映像復号化処理部132と、を備える。   The display control unit 130 performs control to display a virtual reality video on the display unit 140. The display control unit 130 includes a video data reading unit 131 and a video decoding processing unit 132.

映像データ読み出し部131は、映像表示開始判定処理部120において、映像表示開始条件を満たしたと判定された場合に、映像データ一時記憶部240に記憶されている仮想現実提示用の映像符号化データを読み出して、映像復号化処理部132に出力する。本実施形態3において、仮想現実提示用の映像としては具体的に仮想現実オブジェクトの映像であるとして説明する。 When the video display start determination processing unit 120 determines that the video display start condition is satisfied, the video data reading unit 131 reads the encoded video data for virtual reality presentation stored in the video data temporary storage unit 240. Read out and output to the video decoding processing unit 132. In the third embodiment, the video for virtual reality presentation will be specifically described as a video of a virtual reality object.

映像復号化処理部132は、映像データ読み出し部131で読み出された映像符号化データを復号し、復号処理後の映像を表示部140に表示する制御を行う。表示部140は、表示制御部130からの制御に従って、仮想現実提示用の映像である仮想現実オブジェクトの映像を表示する。 The video decoding processing unit 132 performs control to decode the video encoded data read by the video data reading unit 131 and display the video after decoding processing on the display unit 140. The display unit 140 displays a video of a virtual reality object, which is a video for virtual reality presentation, according to control from the display control unit 130.

次に、本実施形態3に係る仮想現実提示システムについて説明する。図11は、本実施形態3に係る仮想現実提示システム3000の構成を示すブロック図である。仮想現実提示システム3000は、仮想現実提示装置300と、仮想現実サービス提供サーバ3100と、音声解析サーバ2200と、仮想現実コンテンツ記憶データベース2300と、契約者情報記憶データベース3200とを備える。 Next, a virtual reality presentation system according to the third embodiment will be described. FIG. 11 is a block diagram illustrating a configuration of a virtual reality presentation system 3000 according to the third embodiment. The virtual reality presentation system 3000 includes a virtual reality presentation device 300, a virtual reality service providing server 3100, a voice analysis server 2200, a virtual reality content storage database 2300, and a contractor information storage database 3200.

仮想現実サービス提供サーバ3100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、画像解析処理部(映像解析処理部)3110と、仮想現実オブジェクト読み出し部3120と、仮想空間設定部3130と、仮想現実オブジェクト配置部3140と、を備える。 The virtual reality service providing server 3100 includes a communication unit 2110, an audio context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, a display video generation processing unit 2140, and an image analysis processing unit (video analysis processing unit) 3110. A virtual reality object reading unit 3120, a virtual space setting unit 3130, and a virtual reality object placement unit 3140.

通信部2110は、インターネット等の通信網10を介して仮想現実提示装置300と通信を行う。通信部2110は、仮想現実提示装置300より送信されるユーザ状態情報、音声データ、周囲状況情報を受信し、ユーザ状態情報を表示映像生成処理部2140に、音声データを音声コンテキスト取得部2120に、周囲状況情報を画像解析処理部3110にそれぞれ出力する。 The communication unit 2110 communicates with the virtual reality presentation device 300 via the communication network 10 such as the Internet. The communication unit 2110 receives user status information, audio data, and ambient status information transmitted from the virtual reality presentation device 300, and transmits the user status information to the display video generation processing unit 2140 and the audio data to the audio context acquisition unit 2120. The surrounding state information is output to the image analysis processing unit 3110, respectively.

また、通信部2110は、サーバ側仮想現実提示制御部2130で生成された仮想現実サービス提供開始通知情報と、表示映像生成処理部2140で生成された映像符号化データとをそれぞれ仮想現実提示装置300に通信網10を介して送信する。 The communication unit 2110 also receives the virtual reality service provision start notification information generated by the server-side virtual reality presentation control unit 2130 and the video encoded data generated by the display video generation processing unit 2140, respectively. Is transmitted via the communication network 10.

画像解析処理部3110は、通信部2110で入力された周囲状況情報に含まれる映像を解析して所定のパラメータを抽出する。本実施形態3に係る仮想現実サービス提供サーバ3100において、画像解析処理部3110は、物体位置検出部3111と、光学成分抽出部3112とを備える。 The image analysis processing unit 3110 analyzes the video included in the surrounding situation information input by the communication unit 2110 and extracts predetermined parameters. In the virtual reality service providing server 3100 according to the third embodiment, the image analysis processing unit 3110 includes an object position detection unit 3111 and an optical component extraction unit 3112.

物体位置検出部3111は、周囲状況情報に含まれる前方景色画像や周辺景色画像に写っている物体の位置を特定する。物体位置検出部3111は、特定した各物体の位置座標を示す現実物体位置情報を仮想現実オブジェクト配置部3140と、表示映像生成処理部2140の描画処理部2143に出力する。 The object position detection unit 3111 specifies the position of the object shown in the front scenery image or the surrounding scenery image included in the surrounding situation information. The object position detection unit 3111 outputs real object position information indicating the position coordinates of each identified object to the virtual reality object placement unit 3140 and the drawing processing unit 2143 of the display video generation processing unit 2140.

例えば、物体位置検出部3111は、左目と右目の位置に対応する場所に配置された複数の視線カメラ311で取得された前方景色画像や、複数の周辺カメラ312で撮影された周辺景色画像を入力し、各画像において、隣接する画素やブロックとの間で色差信号や輝度信号との差分を算出することで境界判定処理を行う。物体位置特定部3111は、当該境界判定処理に基づいて、当該画像に写っている各物体や壁、床、空などを特定し、特定した各物体等をラべリングする。物体位置特定部3111は、各カメラで取得された画像においてそれぞれ同一のラべルが張られた各物体の画素位置を比較することで、当該物体までの距離を求め、ユーザの周囲に存在する物体等の位置関係を特定する。 For example, the object position detection unit 3111 inputs a front view image acquired by a plurality of line-of-sight cameras 311 arranged at locations corresponding to the positions of the left eye and the right eye, and a peripheral view image taken by a plurality of peripheral cameras 312. In each image, boundary determination processing is performed by calculating a difference between a color difference signal and a luminance signal between adjacent pixels and blocks. Based on the boundary determination process, the object position specifying unit 3111 specifies each object, wall, floor, sky, and the like that appear in the image, and labels each specified object. The object position specifying unit 3111 obtains the distance to the object by comparing the pixel positions of the objects with the same label in the images acquired by the cameras, and exists around the user. The positional relationship of an object etc. is specified.

好ましくは、物体位置特定部3111は、入力した画像に基づいて大きさやユーザまでの距離を特定した各物体をモデリングすることで、ユーザの周囲の物理的環境を示すモデルデータを生成すると良い。すなわち、物体位置特定部3111は、現実の世界におけるユーザの周囲の物理的環境を3Dポリゴンデータでモデル化する。物体位置特定部3111は、生成した現実世界の物体のモデルデータを仮想現実オブジェクト配置位置決定部3140と、表示映像生成処理部2140の描画処理部2143にそれぞれ出力する。   Preferably, the object position specifying unit 3111 generates model data indicating the physical environment around the user by modeling each object whose size and distance to the user are specified based on the input image. That is, the object position specifying unit 3111 models the physical environment around the user in the real world with 3D polygon data. The object position specifying unit 3111 outputs the generated model data of the real world object to the virtual reality object arrangement position determining unit 3140 and the drawing processing unit 2143 of the display video generation processing unit 2140, respectively.

光学成分抽出部3112は、入力した前方景色画像の中から光学成分を抽出する。例えば、光学成分抽出部3112は、前方景色画像の各画素における輝度信号の平均値を算出することで、ユーザの周囲の全体的な明るさ(照度)を示す情報を取得する。また、光学成分抽出部3112は、各画素の色差信号の平均値を求めることで、ユーザの周囲の全体的な色を示す情報を取得する。これらの情報は、後述する光源制御部2142で制御される無限遠方光源の明るさ(照度)や色に対応する。   The optical component extraction unit 3112 extracts an optical component from the input forward scenery image. For example, the optical component extraction unit 3112 obtains information indicating the overall brightness (illuminance) around the user by calculating the average value of the luminance signal in each pixel of the front scene image. In addition, the optical component extraction unit 3112 obtains information indicating the overall color around the user by obtaining an average value of the color difference signals of each pixel. These pieces of information correspond to the brightness (illuminance) and color of the infinity light source controlled by the light source control unit 2142 described later.

また、光学成分抽出部3112は、前方景色画像の各画素又はブロックにおける明るさを比較する比較処理や、影となる部分を特定することで、ユーザの周囲にある光源の位置や光源の明るさに関する情報を取得する。   In addition, the optical component extraction unit 3112 compares the brightness of each pixel or block of the front scene image, and identifies the shadowed portion, so that the position of the light source around the user and the brightness of the light source Get information about.

光学成分抽出部3112は、周囲状況情報として入力された前方景色画像の中から抽出した光学成分に関する情報を光源制御部2142に出力する。なお、光学成分抽出部3112は、周囲状況情報として入力される周囲景色画像に対して同様の処理を行い、仮想空間における光源の位置や強さに関連する光学成分の情報を抽出し、光源制御部2142に出力する構成としても良い。   The optical component extraction unit 3112 outputs to the light source control unit 2142 information related to the optical component extracted from the front scenery image input as the ambient state information. The optical component extraction unit 3112 performs similar processing on the surrounding scene image input as the surrounding state information, extracts information on the optical component related to the position and intensity of the light source in the virtual space, and controls the light source. It may be configured to output to the unit 2142.

音声コンテキスト取得部2120は、通信部2110で受信された音声データからコンテキストを取得する。音声コンテキスト取得部2120は、当該音声データを音声解析サーバ2200に転送し、音声解析サーバ2200における音声解析処理に基づいて抽出されたコンテキストを受信することで当該音声データのコンテキストを取得する。 The voice context acquisition unit 2120 acquires a context from the voice data received by the communication unit 2110. The voice context acquisition unit 2120 transfers the voice data to the voice analysis server 2200, and acquires the context of the voice data by receiving the context extracted based on the voice analysis processing in the voice analysis server 2200.

サーバ側仮想現実提示制御部2130は、音声コンテキスト取得部2120で取得されたコンテキストが仮想現実サービスの提供開始を要求するものであった場合に、ユーザに対して仮想現実サービスの提供を開始する処理を行う。 The server-side virtual reality presentation control unit 2130 starts the provision of the virtual reality service to the user when the context acquired by the audio context acquisition unit 2120 requests to start providing the virtual reality service. I do.

サーバ側仮想現実提示制御部2130は、仮想現実サービスの提供開始要求を受けた場合に、契約者情報記憶データベース3200に記憶されている契約者情報を参照して当該ユーザに対して提供可能な仮想現実サービスを特定し、仮想現実サービス提供開始通知情報を生成して通信部2110に出力する。サーバ側仮想現実提示制御部2130は、提供する仮想現実サービスに応じた仮想現実提示開始条件を含めて仮想現実サービス提供開始通知情報を生成する。 When receiving a virtual reality service provision start request, the server-side virtual reality presentation control unit 2130 refers to the contractor information stored in the contractor information storage database 3200 and can provide virtual services that can be provided to the user. The real service is specified, virtual reality service provision start notification information is generated, and output to the communication unit 2110. The server-side virtual reality presentation control unit 2130 generates virtual reality service provision start notification information including a virtual reality presentation start condition corresponding to the virtual reality service to be provided.

仮想現実サービスの利用を希望するユーザは、当該仮想現実サービスを提供する仮想現実サービス提供会社と契約しており、契約者情報記憶データベース3200は、当該ユーザの契約内容に関する情報を契約情報として記憶する。契約者情報には、ユーザの個人情報や利用可能な仮想現実サービスの種類などの情報が記憶されている。 A user who desires to use the virtual reality service has contracted with a virtual reality service provider that provides the virtual reality service, and the contractor information storage database 3200 stores information on the contract contents of the user as contract information. . The contractor information stores information such as the user's personal information and the types of available virtual reality services.

サーバ側仮想現実提示制御部2130は、当該契約者情報に基づいて、音声コンテキスト取得部2120で取得されたコンテキストで要求されている仮想現実サービスについてユーザが利用可能であるかを判定する。当該判定の結果、要求されている仮想現実サービスが、契約内に含まれる仮想現実サービスであった場合に、サーバ側仮想現実提示制御部2130は、仮想現実サービスの提供が可能であるとして、仮想現実サービスの提供開始処理に移行する。 Based on the contractor information, the server-side virtual reality presentation control unit 2130 determines whether the user can use the virtual reality service requested in the context acquired by the voice context acquisition unit 2120. As a result of the determination, if the requested virtual reality service is a virtual reality service included in the contract, the server-side virtual reality presentation control unit 2130 determines that the virtual reality service can be provided, Transition to real service provision start processing.

サーバ側仮想現実提示制御部2130は、仮想現実オブジェクト読み出し部3120に提供する仮想現実サービスに使用する仮想現実コンテンツの読み出し指示を出す。また、サーバ側仮想現実提示制御部2130は、仮想空間設定部3130に新たな仮想空間の設定指示を出す。 The server-side virtual reality presentation control unit 2130 issues an instruction to read virtual reality content used for the virtual reality service provided to the virtual reality object reading unit 3120. Further, the server-side virtual reality presentation control unit 2130 issues a new virtual space setting instruction to the virtual space setting unit 3130.

仮想現実オブジェクト読み出し部3120は、仮想現実コンテンツ記憶部2300に記憶されている仮想現実コンテンツの中から、提供する仮想現実サービスに係る仮想現実オブジェクトのデータを読み出し、仮想現実オブジェクトデータを仮想現実オブジェクト配置部3140に出力する。 The virtual reality object reading unit 3120 reads out virtual reality object data related to the provided virtual reality service from the virtual reality content stored in the virtual reality content storage unit 2300, and sets the virtual reality object data to the virtual reality object arrangement. To the unit 3140.

仮想現実コンテンツ記憶データベース3200は、仮想現実コンテンツを記憶する。ここで、仮想現実コンテンツとは、仮想現実の世界を創り出すために使用されるデータ等の総称であり、少なくとも仮想現実オブジェクトの外観を規定するモデルデータを含む。当該モデルデータは、外観形状を規定するポリゴンデータや、外観形状表面に張り付けるテキスチャーデータなどから構成される。 The virtual reality content storage database 3200 stores virtual reality content. Here, the virtual reality content is a general term for data used to create a virtual reality world, and includes at least model data that defines the appearance of a virtual reality object. The model data includes polygon data that defines the appearance shape, texture data that is pasted on the surface of the appearance shape, and the like.

仮想現実オブジェクトのモデルデータは、当該仮想現実オブジェクトの形状を規定するポリゴンデータと、当該ポリゴンデータで規定される形状の表面に張り付けられるテキスチャーデータと、を含む。 The model data of the virtual reality object includes polygon data that defines the shape of the virtual reality object and texture data that is attached to the surface of the shape that is defined by the polygon data.

仮想空間設定部3130は、サーバ側仮想現実提示制御部2130からの仮想空間設定指示に基づいて、当該仮想現実サービス用に新たな仮想空間を設定する。具体的には、仮想空間設定部3130は、仮想現実オブジェクトを配置する座標空間を仮想空間として設定する。内部処理的には、仮想空間設定部3130は仮想空間用のメモリー領域を確保する処理を行う。 The virtual space setting unit 3130 sets a new virtual space for the virtual reality service based on the virtual space setting instruction from the server side virtual reality presentation control unit 2130. Specifically, the virtual space setting unit 3130 sets a coordinate space in which a virtual reality object is arranged as a virtual space. In terms of internal processing, the virtual space setting unit 3130 performs processing for securing a virtual space memory area.

ここで、仮想空間設定部3130は、仮想現実サービスに応じた広さの仮想空間を設定することが好ましい。室内に少数の仮想現実オブジェクトを配置する場合は、仮想空間は狭くても問題がない一方、屋外で大掛かりな仮想現実の世界を実現するためには、ユーザから遠い位置にも仮想現実オブジェクトを配置できるように広い仮想空間を設定することが好ましいためである。 Here, it is preferable that the virtual space setting unit 3130 sets a virtual space having a size corresponding to the virtual reality service. When placing a small number of virtual reality objects in the room, there is no problem even if the virtual space is small. On the other hand, in order to realize a large virtual reality world outdoors, virtual reality objects should be placed far away from the user. This is because it is preferable to set a large virtual space as much as possible.

そこで、仮想空間設定部3130は、サーバ側仮想現実提示制御部2130からの指示に従って、提供する仮想現実サービスに応じた広さを有する仮想空間を新たに設定する。仮想空間設定部3130は、仮想空間として縦Y・横X・高さZの直交座標空間を設定しても良いし、原点(0,0,0)と距離R、角度θ、角度φによる極座標空間を設定しても良い。 Therefore, the virtual space setting unit 3130 newly sets a virtual space having a size corresponding to the provided virtual reality service in accordance with an instruction from the server-side virtual reality presentation control unit 2130. The virtual space setting unit 3130 may set an orthogonal coordinate space of vertical Y, horizontal X, and height Z as the virtual space, or polar coordinates based on the origin (0, 0, 0), the distance R, the angle θ, and the angle φ. A space may be set.

仮想現実オブジェクト配置部3140は、仮想空間設定部3130が設定した仮想空間に、仮想現実オブジェクト読み出し部3120で読み出された仮想現実サービス用の仮想現実オブジェクトを配置する。仮想現実オブジェクト配置部3140は、読み出した仮想現実オブジェクトを仮想空間の所定の位置に配置しても良いし、物体位置特定部3111が特定した現実の世界の物体と重なり合わない位置に配置しても良い。例えば、物体位置特定部3111で生成された現実世界の物体のモデルデータを予め仮想空間に配置し、当該現実世界の物体のモデルデータと重複する領域がでないか所定の重なり量以下となるように、仮想現実オブジェクトを仮想空間に配置する。   The virtual reality object placement unit 3140 places the virtual reality object for the virtual reality service read by the virtual reality object reading unit 3120 in the virtual space set by the virtual space setting unit 3130. The virtual reality object placement unit 3140 may place the read virtual reality object at a predetermined position in the virtual space, or place it at a position that does not overlap the real world object specified by the object position specification unit 3111. Also good. For example, model data of an object in the real world generated by the object position specifying unit 3111 is arranged in advance in a virtual space so that there is no area overlapping the model data of the object in the real world or less than a predetermined overlap amount. The virtual reality object is arranged in the virtual space.

表示映像生成処理部2140は、仮想現実オブジェクト配置部3140が仮想空間に配置している仮想現実オブジェクトの映像を生成する。表示映像生成処理部2140は、視点制御部2141と、光源制御部2142と、描画処理部2143と、映像符号化処理部2144と、を備える。 The display video generation processing unit 2140 generates a video of the virtual reality object placed in the virtual space by the virtual reality object placement unit 3140. The display video generation processing unit 2140 includes a viewpoint control unit 2141, a light source control unit 2142, a drawing processing unit 2143, and a video encoding processing unit 2144.

視点制御部2141は、ユーザの状態を示すユーザ状態情報に基づいて仮想現実オブジェクトを描画する際の視点の位置及び方向を制御する。具体的には、ユーザ状態情報に含まれるユーザの頭部の傾きを示す傾き情報やユーザの頭部の加速度を示す加速度情報に基づいて、ユーザの左目の位置と右目の位置に対応する仮想空間での視点位置を算出する。また、加速度情報に基づいて、ユーザの視線の方向に対応する仮想空間での視線方向を算出する。ここで、視線方向は、ユーザが眼球のみを移動させた場合の視線の方向ではなく、ユーザの頭部の方向と対応している。   The viewpoint control unit 2141 controls the position and direction of the viewpoint when drawing the virtual reality object based on the user state information indicating the user state. Specifically, based on the tilt information indicating the tilt of the user's head included in the user state information and the acceleration information indicating the acceleration of the user's head, a virtual space corresponding to the position of the left eye and the position of the right eye of the user The viewpoint position at is calculated. Further, the line-of-sight direction in the virtual space corresponding to the direction of the user's line of sight is calculated based on the acceleration information. Here, the line-of-sight direction corresponds to the direction of the user's head, not the direction of the line of sight when the user moves only the eyeball.

なお、ユーザ状態情報の中にはユーザの方向を示す方位情報やユーザの移動速度を示す移動速度情報などが含まれていると更に好ましい。視点制御部2141は、ユーザ状態情報に含まれるこれら各情報に基づいてユーザの頭部の姿勢を算出し、ユーザの左目と右目の位置及びユーザの頭部が向いている方向を特定する。視点制御部2141は、ユーザの目の位置及び頭部の方向に対応する仮想空間における視点の位置座標及び視線の方向を算出する。   It is more preferable that the user status information includes azimuth information indicating the direction of the user, movement speed information indicating the movement speed of the user, and the like. The viewpoint control unit 2141 calculates the posture of the user's head based on each piece of information included in the user state information, and specifies the positions of the user's left eye and right eye and the direction in which the user's head is facing. The viewpoint control unit 2141 calculates the position coordinates of the viewpoint and the direction of the line of sight in the virtual space corresponding to the position of the user's eyes and the direction of the head.

光源制御部2142は、画像解析処理部3110の光学成分抽出部3112で抽出された光学成分に基づいて、仮想空間における光源の位置座標及び光源の照度(明るさ)を算出する。例えば、光源制御部2142は、光学成分抽出部3112で抽出された画像の各画素の輝度の平均値を算出することで、無限遠方の光源の強さを算出し、当該画像の画素間の輝度の差分に基づいて、他の光源の位置座標及び照度をそれぞれ算出する。また、光源制御部2142は、解析処理が行われた画像における画素の色差信号に基づいて光源の色を算出しても良い。   The light source control unit 2142 calculates the position coordinates of the light source and the illuminance (brightness) of the light source in the virtual space based on the optical component extracted by the optical component extraction unit 3112 of the image analysis processing unit 3110. For example, the light source control unit 2142 calculates the intensity of the light source at infinity by calculating the average value of the luminance of each pixel of the image extracted by the optical component extraction unit 3112, and the luminance between the pixels of the image. Based on the difference, the position coordinates and illuminance of other light sources are calculated. Further, the light source control unit 2142 may calculate the color of the light source based on the color difference signal of the pixel in the image subjected to the analysis process.

描画処理部2143は、仮想現実オブジェクトをリアルタイムにレンダリングして2次元画像を生成する。一例として、描画処理部2143は、以下に示す投影処理、クリッピング処理、隠面処理、シェーディング処理、テキスチャーマッピング処理等の一部又は複数の処理を組み合わせてレンダリングを行い、仮想現実オブジェクトの映像を生成する。   The drawing processing unit 2143 generates a two-dimensional image by rendering the virtual reality object in real time. As an example, the rendering processing unit 2143 generates a virtual reality object image by performing rendering by combining a part or a plurality of processes such as a projection process, a clipping process, a hidden surface process, a shading process, and a texture mapping process shown below. To do.

描画処理部2143は、視点制御部2141で求められた視点の位置及び視線の方向に基づいて、仮想空間内の所定の位置にイメージプレーンを設定し、仮想現実オブジェクトを投影することで、仮想現実オブジェクトの投影画像を取得する。描画処理部2143は、仮想現実オブジェクトが投影されたイメージプレーンのクリッピング処理を行い、仮想現実提示装置300における表示部140で表示される範囲を選択する。   The drawing processing unit 2143 sets an image plane at a predetermined position in the virtual space based on the viewpoint position and the line-of-sight direction obtained by the viewpoint control unit 2141, and projects the virtual reality object. Get the projected image of the object. The drawing processing unit 2143 performs clipping processing of the image plane on which the virtual reality object is projected, and selects a range displayed on the display unit 140 in the virtual reality presentation device 300.

描画処理部2143は、物体位置特定部3111で特定された現実の世界の物体のモデルに基づいて隠面処理を行う。描画処理部2143は、イメージプレーンに投影された仮想現実オブジェクトの画像を構成する画素の中から、視点制御部2141で算出された視点位置と仮想現実オブジェクトの間に位置している現実の世界の物体のモデルの投影画像と重複する画素のデータを消去することで隠面処理を行う。   The drawing processing unit 2143 performs hidden surface processing based on the model of the real world object specified by the object position specifying unit 3111. The drawing processing unit 2143 is configured to display the real world located between the viewpoint position calculated by the viewpoint control unit 2141 and the virtual reality object from among the pixels constituting the virtual reality object image projected onto the image plane. Hidden surface processing is performed by deleting pixel data that overlaps the projected image of the object model.

描画処理部2143は、光源制御部2142で算出された光源の位置及び強さに基づいてシェーディング処理を行い、仮想現実オブジェクトの表面の輝度や光の上がり具合、光の透過の状態を調整する。描画処理部2143は、仮想現実オブジェクトの表面に張り付けられるテキスチャーデータを用いてテキスチャーマッピング処理を行い、アンチエリアシング処理等の補正処理を適宜行い、最終的に仮想現実提示装置300の表示部140で表示する映像を生成する。   The drawing processing unit 2143 performs shading processing based on the position and intensity of the light source calculated by the light source control unit 2142, and adjusts the brightness of the surface of the virtual reality object, the degree of light rise, and the light transmission state. The drawing processing unit 2143 performs texture mapping processing using texture data attached to the surface of the virtual reality object, appropriately performs correction processing such as anti-aliasing processing, and finally is performed by the display unit 140 of the virtual reality presentation device 300. Generate video for display.

なお、描画処理部2143は、視点制御部2141が制御する左目に対応する視点と右目に対応する視点に基づいて、左目用の映像と右目用の映像の2枚の映像を生成する。描画処理部2143は、生成した映像を映像符号化処理部2144に出力する。   Note that the drawing processing unit 2143 generates two images, a left-eye image and a right-eye image, based on the viewpoint corresponding to the left eye and the viewpoint corresponding to the right eye controlled by the viewpoint control unit 2141. The drawing processing unit 2143 outputs the generated video to the video encoding processing unit 2144.

映像符号化処理部2144は、描画処理部2143におけるリアルタイムレンダリング処理で順次生成される映像を所定の符号化方式に基づいて圧縮符号化処理を行う。映像符号化処理部2144は、符号化処理後の映像符号化データを通信部2110に出力する。通信部2110は、映像符号化処理部2144より出力される映像符号化データを仮想現実提示装置300に送信し、仮想現実提示装置300の表示制御部130で復号処理が行われ、復号処理後の映像が表示部140に表示される。   The video encoding processing unit 2144 performs compression encoding processing on videos sequentially generated by the real-time rendering processing in the drawing processing unit 2143 based on a predetermined encoding method. The video encoding processing unit 2144 outputs the encoded video data after the encoding process to the communication unit 2110. The communication unit 2110 transmits the video encoded data output from the video encoding processing unit 2144 to the virtual reality presentation device 300, and the decoding control is performed by the display control unit 130 of the virtual reality presentation device 300, and the post-decoding processing is performed. The video is displayed on the display unit 140.

以上のように、本実施形態3に係る仮想現実提示システムによれば、提供される仮想現実サービスに応じた条件が設定され、当該条件を満たしている場合に仮想現実の提示が開始される。従って、ユーザが感知する世界が、現実の世界から仮想現実の世界へ切り替わるタイミングでの不連続性を無くすようにより適切な制御がなされることとなり、ユーザは自然に仮想現実の世界に入り込むことが可能となる。 As described above, according to the virtual reality presentation system according to the third embodiment, conditions according to the provided virtual reality service are set, and presentation of virtual reality is started when the conditions are satisfied. Therefore, more appropriate control is performed so as to eliminate discontinuity at the timing when the world sensed by the user switches from the real world to the virtual reality world, and the user can naturally enter the virtual reality world. It becomes possible.

<実施形態4>
人間は、五感、すなわち、味覚、触覚、視覚、聴覚、嗅覚を用いて外界で生じる事象を検知し、検知した情報を脳で処理して次の行動を行う生物である。リアルとは異なるバーチャルな世界をリアルな世界であるとユーザに誤認させることは、ユーザと外界とのインターフェースである五感を欺くことに他ならない。従って、五感の中からより多くの感覚を欺けば欺くほど、バーチャルな世界をリアルな世界と認識し、仮想現実が深まっていくことになる。
<Embodiment 4>
A human being is a living organism that detects events that occur in the outside world using the five senses, that is, taste, touch, vision, hearing, and smell, and processes the detected information in the brain to perform the next action. Making a user misidentify a virtual world that is different from the real world is nothing other than deceiving the five senses that are the interface between the user and the outside world. Therefore, the more you deceive your senses from the five senses, the more you will perceive the virtual world as the real world, and the virtual reality will deepen.

五感のうち、最も情報量が多く、主センサとして働く感覚は視覚である。従って、視覚を欺くことができれば、人間は仮想現実に入りやすくなるという点から、本発明の仮想現実提示装置は出発している。しかしながら、提示する仮想現実が映像のみに依存すると現実との乖離が起こる場合がある。例えば、吠えている犬の映像を現実の犬であるとして表示パネルに表示している場合に、犬の鳴き声が聞こえてこないことは、現実の世界で起こり得る事象から乖離しているため、ユーザは現在見ている犬が現実の犬ではなく、作り出された映像の犬ではないかという疑念を抱くきっかけになる。 Of the five senses, the amount of information is the largest, and the sense that acts as the main sensor is vision. Therefore, the virtual reality presentation device of the present invention has started in that humans can easily enter virtual reality if they can deceive vision. However, if the virtual reality to be presented depends only on the video, there may be a deviation from the reality. For example, when the video of a barking dog is displayed on the display panel as being a real dog, the fact that the dog's cry is not heard is deviated from an event that can occur in the real world. Wakes up the suspicion that the current dog is not a real dog, but a created video.

仮想現実提示装置をより高度に昇華させるためには、現実と仮想現実との間に不整合性を持たせないことである。本実施形態4に係る仮想現実提示装置は、人間が生まれながら備えている感覚の中から複数の感覚を欺くことで、仮想現実と現実との境界を縮小し、ユーザが仮想現実の世界に深く入り込むことを可能とする点を特徴とする。 In order to sublimate the virtual reality presentation device to a higher degree, there is no inconsistency between the reality and the virtual reality. The virtual reality presentation device according to the fourth embodiment reduces the boundary between virtual reality and reality by deceiving a plurality of senses from the senses that humans are born with, and allows the user to deepen into the virtual reality world. It is characterized by being able to enter.

図12は、本実施形態4に係る仮想現実提示装置400の機能構成を示すブロック図である。仮想現実提示装置400は、ユーザ状態検知部110と、映像表示開始判定処理部120と、表示制御部130と、表示部140と、音声入力部210と、装置側仮想現実提示制御部220と、通信部230と、周囲状況検知部310と、仮想現実提示用データ記憶部410と、仮想現実提示開始条件設定部420と、音声再生開始判定処理部430と、音声再生処理部440と、音声出力部450と、を備える。 FIG. 12 is a block diagram illustrating a functional configuration of the virtual reality presentation device 400 according to the fourth embodiment. The virtual reality presentation device 400 includes a user state detection unit 110, a video display start determination processing unit 120, a display control unit 130, a display unit 140, a voice input unit 210, a device-side virtual reality presentation control unit 220, Communication unit 230, ambient condition detection unit 310, virtual reality presentation data storage unit 410, virtual reality presentation start condition setting unit 420, audio reproduction start determination processing unit 430, audio reproduction processing unit 440, audio output Part 450.

仮想現実提示装置400において、ユーザ状態検知部110は、内部カメラ111と、傾きセンサ112と、加速度センサ113と、を備える。音声入力部210は、ユーザマイク211と、周囲マイク212とを備える。周囲状況検知部310は、視線カメラ311と、周辺カメラ312とを備える。これらの構成については既に説明しているため、説明を省略する。 In the virtual reality presentation device 400, the user state detection unit 110 includes an internal camera 111, a tilt sensor 112, and an acceleration sensor 113. The voice input unit 210 includes a user microphone 211 and a surrounding microphone 212. The ambient condition detection unit 310 includes a line-of-sight camera 311 and a peripheral camera 312. Since these configurations have already been described, description thereof will be omitted.

仮想現実提示用データ記憶部410は、通信部230で受信された仮想現実提示用のデータを記憶する。仮想現実提示用のデータとしては、仮想現実提示用の映像データや仮想現実提示用の音声データが含まれる。仮想現実提示用の映像データは、例えば仮想現実の世界で現される仮想現実オブジェクトの映像データなどである。また、仮想現実提示用の音声データは、当該仮想現実オブジェクトが発する音声データや、仮想現実の世界を創り出す背景音楽データなどである。これらの映像データや音声データは符号化されており、映像符号化データ及び音声符号化データという形で仮想現実提示用データ記憶部410に一時的に記憶される。 The virtual reality presentation data storage unit 410 stores virtual reality presentation data received by the communication unit 230. The virtual reality presentation data includes virtual reality presentation video data and virtual reality presentation audio data. The video data for presentation of virtual reality is, for example, video data of a virtual reality object that appears in the virtual reality world. The audio data for virtual reality presentation is audio data generated by the virtual reality object, background music data for creating a virtual reality world, and the like. These video data and audio data are encoded, and are temporarily stored in the virtual reality presentation data storage unit 410 in the form of video encoded data and audio encoded data.

仮想現実提示開始条件設定部420は、仮想現実の提示を開始するための条件を設定する。通信部230で受信された仮想現実サービス提供開始通知情報に含まれる仮想現実提示開始条件が装置側仮想現実提示制御部220によって仮想現実提示開始条件設定部420に送られ、仮想現実提示開始条件設定部420は、当該仮想現実サービス提供開始通知情報に含まれる仮想現実提示開始条件に従って、仮想現実提示開始条件を設定する。仮想現実提示開始条件は、具体的に、仮想現実提示用の映像表示を開始するための条件である映像表示開始条件や、仮想現実提示用の音声再生を開始するための条件である音声再生開始条件が必要に応じて含まれる。 The virtual reality presentation start condition setting unit 420 sets a condition for starting presentation of virtual reality. The virtual reality presentation start condition included in the virtual reality service provision start notification information received by the communication unit 230 is sent by the device-side virtual reality presentation control unit 220 to the virtual reality presentation start condition setting unit 420 to set the virtual reality presentation start condition setting. Unit 420 sets a virtual reality presentation start condition in accordance with the virtual reality presentation start condition included in the virtual reality service provision start notification information. The virtual reality presentation start condition is specifically a video display start condition that is a condition for starting video display for virtual reality presentation or a voice playback start that is a condition for starting audio playback for virtual reality presentation. Conditions are included as needed.

映像表示開始判定処理部120は、装置側仮想現実提示制御部220より仮想現実提示用の映像表示判定指示を受けた場合に、ユーザ状態検知部110で検知されたユーザ状態に基づいて、仮想現実提示開始条件設定部420によって設定されている映像表示開始条件を満たしているかを判定する。 The video display start determination processing unit 120 receives virtual reality presentation video display determination instructions from the device-side virtual reality presentation control unit 220 based on the user status detected by the user status detection unit 110 based on the virtual status. It is determined whether the video display start condition set by the presentation start condition setting unit 420 is satisfied.

なお、映像表示開始判定処理部120は、周囲状況検知部310で検知される周囲状況に基づいて当該判定を行う構成としても良い。例えば、映像表示開始条件として「ユーザの周囲に他の人間がいないこと」という条件が設定されている場合、映像表示開始判定処理部120は、周囲状況検知部310である視線カメラ311や周辺カメラ312で撮影された映像の中に人間が写っていないかを判定する。当該判定をクリアした場合に、映像表示開始判定処理部120は、表示制御部130に仮想現実提示用の映像表示開始を指示する。 Note that the video display start determination processing unit 120 may be configured to perform the determination based on the surrounding state detected by the surrounding state detection unit 310. For example, when the condition that “no other people are around the user” is set as the video display start condition, the video display start determination processing unit 120 is configured to use the line-of-sight camera 311 or the peripheral camera that is the ambient state detection unit 310. It is determined whether or not a person is captured in the video imaged at 312. When the determination is cleared, the video display start determination processing unit 120 instructs the display control unit 130 to start displaying video for virtual reality presentation.

音声再生開始判定処理部430は、装置側仮想現実提示制御部220より仮想現実提示用の音声再生判定指示を受けた場合に、仮想現実提示開始条件設定部420によって設定されている音声再生開始条件を満たしているかを判定する。音声再生開始判定処理部430は、映像表示開始判定処理部120と連動しても良いし、他の条件によって判定されていても良い。音声再生開始判定処理部430は、仮想現実用の音声再生を開始すると判定した場合に、音声再生制御部440に音声再生の開始を指示する。 The sound reproduction start determination processing unit 430 receives the sound reproduction start condition set by the virtual reality presentation start condition setting unit 420 when receiving a sound reproduction determination instruction for virtual reality presentation from the device-side virtual reality presentation control unit 220. It is determined whether or not The audio reproduction start determination processing unit 430 may be linked with the video display start determination processing unit 120 or may be determined according to other conditions. The sound reproduction start determination processing unit 430 instructs the sound reproduction control unit 440 to start sound reproduction when it is determined to start sound reproduction for virtual reality.

音声再生制御部440は、仮想現実提示用の音声の再生制御を行う。音声再生制御部440は、音声データ読み出し部441と、音声復号化処理部442とを備える。   The audio reproduction control unit 440 performs audio reproduction control for virtual reality presentation. The audio reproduction control unit 440 includes an audio data reading unit 441 and an audio decoding processing unit 442.

音声データ読み出し部441は、音声再生開始判定処理部430からの音声再生開始指示に基づいて、仮想現実提示用データ記憶部410より仮想現実提示用の音声符号化データを読み出して音声復号化処理部442に出力する。 The audio data reading unit 441 reads out the audio encoded data for virtual reality presentation from the virtual reality presentation data storage unit 410 based on the audio reproduction start instruction from the audio reproduction start determination processing unit 430 to generate an audio decoding processing unit. Output to 442.

音声復号化処理部442は、音声データ読み出し部441で読み出された音声符号化データに対する復号化して各チャンネルの音声データを生成し、復号化後の音声データを音声出力部450に出力する。   The audio decoding processing unit 442 generates audio data of each channel by decoding the audio encoded data read by the audio data reading unit 441, and outputs the decoded audio data to the audio output unit 450.

音声出力部450は、仮想現実提示用の音声を出力する。音声出力部450は、ライトスピーカ451aとレフトスピーカ451bとを備え、各スピーカは、音声復号化処理部442で復号化された各チャンネルの音声データにDA変換処理を行ってアナログ音声信号に変換し更に空気振動に変換して音声を外部へ放音する。 The sound output unit 450 outputs sound for virtual reality presentation. The audio output unit 450 includes a right speaker 451a and a left speaker 451b, and each speaker performs DA conversion processing on the audio data of each channel decoded by the audio decoding processing unit 442 to convert it into an analog audio signal. Furthermore, it converts into air vibration and emits sound to the outside.

図13は、当該仮想現実提示装置400の斜め前方と斜め後方からの外観斜視図を示している。図13に示すように、仮想現実提示装置400は、ユーザが頭部に装着するヘッドマウントディスプレイ(HMD:Head mount Display)装置の形態を取る。仮想現実提示装置400は、フレーム401と、フロントパネル402と、を少なくとも備える。 FIG. 13 shows an external perspective view of the virtual reality presentation device 400 from diagonally forward and diagonally rear. As shown in FIG. 13, the virtual reality presentation device 400 takes the form of a head mounted display (HMD) device that a user wears on the head. The virtual reality presentation device 400 includes at least a frame 401 and a front panel 402.

フレーム401は、仮想現実提示装置400の筐体であり、内部には、CPU(Central Processing Unit)等の情報処理プロセッサ、RAM(Random Access Memory)、ROM(Read only memory)、無線通信処理プロセッサ、バッテリーなどが配置されている。また、必要に応じて映像を描画する専用の映像処理プロセッサなどが合わせて配置されている。フレーム401は、大きく分けてライトフレーム401a、レフトフレーム401b、センターフレーム401cから構成される。   A frame 401 is a housing of the virtual reality presentation device 400, and includes an information processing processor such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read only memory), a wireless communication processing processor, A battery etc. are arranged. In addition, a dedicated video processor or the like that draws video as necessary is also arranged. The frame 401 is roughly divided into a right frame 401a, a left frame 401b, and a center frame 401c.

ライトフレーム401a及び401bは、ユーザの左右の耳にそれぞれ接続する筐体部材であり、それぞれ一端の内側にアナログ電気信号を空気振動に変換して音声を出力するスピーカ451a、451bが配置され、他端がセンターフレーム401cと接続されている。   The light frames 401a and 401b are case members that are connected to the left and right ears of the user, respectively, and speakers 451a and 451b that convert analog electrical signals into air vibrations and output sound are arranged inside one end, respectively. The end is connected to the center frame 401c.

また、ライトフレーム401aの内側の前端下方には、ユーザが発した音声を集音するユーザマイクロフォン211が配置され、ライトフレーム401a及びレフトフレーム401bの一端の外側に周囲の音声を集音する周囲マイクロフォン212a、212bが配置されている。ユーザマイクロフォン211や周囲マイクロフォン212a、212bで集音された音声は、AD変換でデジタル音声信号に変換され、情報処理プロセッサに出力される。 In addition, a user microphone 211 that collects the sound uttered by the user is disposed below the front end inside the right frame 401a, and the surrounding microphone that collects the surrounding sound outside one end of the right frame 401a and the left frame 401b. 212a and 212b are arranged. The sound collected by the user microphone 211 and the surrounding microphones 212a and 212b is converted into a digital sound signal by AD conversion and output to the information processing processor.

ライトフレーム401a及び401bの端部には、それぞれ傾きを検知する傾きセンサ112a、112bと、加速度を検知する加速度センサ113a、113bが配置されている。また、ライトフレーム401a及びレフトフレーム401bの外側には、周囲の景色を撮影する周辺カメラ312a、312bがそれぞれ配置されている。   At the ends of the light frames 401a and 401b, inclination sensors 112a and 112b for detecting inclination and acceleration sensors 113a and 113b for detecting acceleration are arranged, respectively. In addition, peripheral cameras 312a and 312b that photograph surrounding scenery are arranged outside the right frame 401a and the left frame 401b, respectively.

センターフレーム401cは、両端がそれぞれライトフレーム401a、レフトフレーム401bに接続されており、センターフレーム401cの下方にフロントパネル402が接続されている。   Both ends of the center frame 401c are connected to the right frame 401a and the left frame 401b, respectively, and the front panel 402 is connected below the center frame 401c.

センターフレーム401cの中央付近と両端付近には、傾きを検知する傾きセンサ1112c、112d、112eと、加速度を検知する加速度センサ113c、113d、113eがそれぞれ配置されている。   Near the center and near both ends of the center frame 401c, tilt sensors 1112c, 112d, and 112e that detect tilt and acceleration sensors 113c, 113d, and 113e that detect acceleration are arranged, respectively.

センターフレーム401cのユーザ側であって、ユーザの左右の目の位置には、ユーザの顔の一部又は全部の表情を撮影する内部カメラ111a、111bが配置されている。内部カメラ111a、111bは、少なくともユーザの目の位置を含む領域を撮影してユーザ表情映像をユーザ状態情報として生成する。 On the user side of the center frame 401c, internal cameras 111a and 111b for photographing a part or all of the facial expression of the user's face are arranged at the positions of the left and right eyes of the user. The internal cameras 111a and 111b capture at least a region including the position of the user's eyes and generate a user facial expression video as user state information.

センターフレーム401cの前方側であって、ユーザの左右の目の位置には、ユーザの視界と対応する景色を撮影する視線カメラ311a、311bが配置されている。視線カメラ311a、311bは、センターフレーム401cの前方側に、ユーザの左右の目の間隔に対応する距離だけ離れた位置に配置されている。 Line-of-sight cameras 311a and 311b for photographing a scene corresponding to the user's field of view are arranged in front of the center frame 401c and at the positions of the left and right eyes of the user. The line-of-sight cameras 311a and 311b are arranged on the front side of the center frame 401c at positions separated by a distance corresponding to the distance between the left and right eyes of the user.

フロントパネル402は、仮想現実提示装置400を頭部に装着した状態でユーザの目の前方に来る位置に配置される。仮想現実提示装置400において、フロントパネル402は透過型ディスプレイであり、右目の前方と左目の前方にそれぞれ映像を表示する表示領域であるライト表示パネル141aとレフト表示パネル141bとが配置される。   The front panel 402 is disposed at a position in front of the user's eyes with the virtual reality presentation device 400 worn on the head. In the virtual reality presentation device 400, the front panel 402 is a transmissive display, and a right display panel 141a and a left display panel 141b, which are display areas for displaying images respectively, are arranged in front of the right eye and in front of the left eye.

図14は、仮想現実提示装置400のライト表示パネル141a付近の断面図を示している。センターフレーム401cの下方には、フロントパネル402が配置されており、センターフレーム401cの下部には光源142が配置されている。   FIG. 14 is a cross-sectional view of the vicinity of the light display panel 141a of the virtual reality presentation device 400. A front panel 402 is disposed below the center frame 401c, and a light source 142 is disposed below the center frame 401c.

光源142より放射された可視光はフロントパネル402側へ照射される。フロントパネル402は、導光板143とLCD144とが合わさった構成であり、光源142より放射された可視光が導光板143でユーザ側へ反射され、表示制御されたLCD144を透過することで仮想現実提示用の映像が表示される。 Visible light emitted from the light source 142 is irradiated to the front panel 402 side. The front panel 402 has a configuration in which the light guide plate 143 and the LCD 144 are combined. The visible light emitted from the light source 142 is reflected by the light guide plate 143 to the user side and transmitted through the display-controlled LCD 144 to present virtual reality. The video for is displayed.

なお、仮想現実提示装置400は図15に示す構成としても良い。図15に示す仮想現実提示装置400は、光源142と導光板143との間にLCD144が配置されている。従って、外部からの光は、LCD144を透過することなくユーザの目に照射されるため、外部の景色の明るさが暗くなることを防ぐことができる。 The virtual reality presentation device 400 may be configured as shown in FIG. In the virtual reality presentation device 400 illustrated in FIG. 15, the LCD 144 is disposed between the light source 142 and the light guide plate 143. Therefore, since the light from the outside is irradiated to the eyes of the user without passing through the LCD 144, it is possible to prevent the brightness of the external scenery from becoming dark.

また、図16に示すように外界からの光である外部光の照射量を制御するLCD145が配置されていても良い。LCD144で仮想現実オブジェクトの映像を表示しても、外界からの光が混ざってしまい、仮想現実オブジェクトの像が透けてしまうため、LCD145において仮想現実オブジェクトの位置における外部光を遮断することで、仮想現実オブジェクトが透けて見えると言ったことを防ぐことができる。 Moreover, as shown in FIG. 16, LCD145 which controls the irradiation amount of the external light which is the light from the outside may be arrange | positioned. Even if the image of the virtual reality object is displayed on the LCD 144, the light from the outside world is mixed and the image of the virtual reality object is seen through, so that the external light at the position of the virtual reality object is blocked on the LCD 145. It is possible to prevent the real object from being seen through.

なお、導光板143の位置は、図17に示すように、ユーザの目に入射される外部光が通過しない位置に配置されていると更に良好である。図17の構成では、外部光のコントラストを更に向上させることが可能である。 Note that the position of the light guide plate 143 is better when the light guide plate 143 is arranged at a position where external light incident on the eyes of the user does not pass as shown in FIG. In the configuration of FIG. 17, the contrast of external light can be further improved.

また、図18に示すように、外部光を制御するLCD145が配置されていても良い。外部光は、LCD145を透過してユーザの目に到達する一方、光源142から出た光は、LCD144を透過し、導光板143で反射されてユーザの目に到達する。 Further, as shown in FIG. 18, an LCD 145 for controlling external light may be arranged. The external light passes through the LCD 145 and reaches the user's eyes, while the light emitted from the light source 142 passes through the LCD 144 and is reflected by the light guide plate 143 to reach the user's eyes.

なお、LCD145は、電圧制御によって外部から透過してくる光量を制御できるものであればどのようなものを用いても良い。例えば、電圧を印加することで結晶方向を変化させて乱反射を増加させるディスプレイを用いることも可能である。 Any LCD 145 may be used as long as it can control the amount of light transmitted from the outside by voltage control. For example, it is possible to use a display that changes the crystal direction by applying a voltage to increase irregular reflection.

また、図19に示すようにプロジェクション機構を表示部140として使用することも可能である。フロントパネル402の上部に位置するセンターフレーム401cの内部にプロジェクション機構が表示部140として配置されている。 Further, as shown in FIG. 19, a projection mechanism can be used as the display unit 140. A projection mechanism is arranged as a display unit 140 inside a center frame 401 c located at the top of the front panel 402.

センターフレーム401cの内部上方に配置されている光源142より照射された白色光は、レンズ群146aによって集光された後、ポラライジングコンバータ(PLC)146bによって偏光成分が一方向に整えられたのち、第1反射ミラー146cによって垂直方向に反射される。第1反射ミラー146cで反射された白色光は、R反射ダイクロイックミラー146dによって赤色の光成分(R成分)だけが水平方向へ反射され、他の成分の光は、R反射ダイクロイックミラー146dを透過する。   After the white light emitted from the light source 142 disposed inside the center frame 401c is collected by the lens group 146a, the polarization component is adjusted in one direction by the polarizing converter (PLC) 146b. The light is reflected in the vertical direction by the first reflecting mirror 146c. In the white light reflected by the first reflecting mirror 146c, only the red light component (R component) is reflected in the horizontal direction by the R reflecting dichroic mirror 146d, and the light of other components is transmitted through the R reflecting dichroic mirror 146d. .

R反射ダイクロイックミラー146dを透過した光は、G反射ダイクロイックミラー146eで緑色の光成分(G成分)だけが水平方向に反射され、残りの青色の光成分(B成分)はG反射ダイクロイックミラー146eを透過する。   From the light transmitted through the R reflecting dichroic mirror 146d, only the green light component (G component) is reflected in the horizontal direction by the G reflecting dichroic mirror 146e, and the remaining blue light component (B component) passes through the G reflecting dichroic mirror 146e. To Penetrate.

G反射ダイクロイックミラー146eを透過したB成分の光は、第2反射ミラー146fで水平方向に反射され、更に第3反射ミラー146gで垂直上方へ反射され、第1液晶パネル146hを透過した後にクロスダイクロプリズム146jに入射される。   The B component light transmitted through the G reflecting dichroic mirror 146e is reflected in the horizontal direction by the second reflecting mirror 146f, further reflected vertically upward by the third reflecting mirror 146g, and then transmitted through the first liquid crystal panel 146h and then cross dichroic. It enters the prism 146j.

一方、R反射ダイクロイックミラー146dで反射されたR成分の光は、第4反射ミラー146kによって垂直方向に反射され、第2液晶パネル146mを透過した後にクロスダイクロプリズム146jに入射される。また、G反射ダイクロイックミラー146eで反射されたG成分の光は、第3液晶パネル146nを透過した後にクロスダイクロプリズム146jに入射される。   On the other hand, the R component light reflected by the R reflecting dichroic mirror 146d is reflected in the vertical direction by the fourth reflecting mirror 146k, passes through the second liquid crystal panel 146m, and then enters the cross dichroic prism 146j. The G component light reflected by the G reflecting dichroic mirror 146e is transmitted through the third liquid crystal panel 146n and then incident on the cross dichroic prism 146j.

クロスダイクロプリズム146jは、分離されてそれぞれ液晶パネルを通過したR成分、G成分、B成分の3つの光を合成して水平方向に反射する。クロスダイクロプリズム146jより出力された合成光は、ガルバノミラー146pによって垂直方向に反射され、照射窓146qよりフロントパネル402へ照射される。ガルバノミラー146pは、クロスダイクロプリズム146jより出力された合成光を水平方向(y方向)に走査しながら反射する。   The cross dichroic prism 146j combines the three light components R, G, and B that have been separated and passed through the liquid crystal panel, and reflects them in the horizontal direction. The combined light output from the cross dichroic prism 146j is reflected in the vertical direction by the galvano mirror 146p and is irradiated to the front panel 402 from the irradiation window 146q. The galvanometer mirror 146p reflects the combined light output from the cross dichroic prism 146j while scanning in the horizontal direction (y direction).

フロントパネル402のうち、照射窓146qの下方には導光板143が配置されており、当該導光板143によってユーザ方向に反射された光がフロントパネル402で屈折して平行光となってユーザの目の中へ入射される。ガルバノミラー146pによって水平方向に光が操作されているため、導光板143で反射される光は垂直方向(z方向)に走査される。   A light guide plate 143 is disposed below the irradiation window 146q in the front panel 402, and the light reflected in the user direction by the light guide plate 143 is refracted by the front panel 402 to become parallel light. Is incident on the inside. Since light is manipulated in the horizontal direction by the galvanometer mirror 146p, the light reflected by the light guide plate 143 is scanned in the vertical direction (z direction).

なお、図19における各部材は、x方向すなわち紙面垂直方向に長細い構成をとっており、右目用の映像におけるx方向の一列を纏めて表示する。当該一列の映像がガルバノミラー146pによってy方向に走査されて順次表示されることで、xz平面の2次元画像がフロントパネル402に映し出されることになる。同様に、左目の上部にも同一のプロジェクション機構が配置されており、フロントパネル402の左目前方に左目用の映像が映し出される。このように、右目用プロジェクション機構と左目用プロジェクション機構によって表示部が形成される。なお、左目用プロジェクション機構と右目用プロジェクション機構は共通化されていても良い。   Note that each member in FIG. 19 has a configuration that is long and thin in the x direction, that is, in the direction perpendicular to the paper surface, and collectively displays a line in the x direction in the image for the right eye. The row of images is scanned in the y direction by the galvano mirror 146p and sequentially displayed, so that a two-dimensional image in the xz plane is displayed on the front panel 402. Similarly, the same projection mechanism is arranged at the upper part of the left eye, and a left-eye image is displayed in front of the left eye of the front panel 402. In this way, the display unit is formed by the right-eye projection mechanism and the left-eye projection mechanism. Note that the left-eye projection mechanism and the right-eye projection mechanism may be shared.

また、図20のように、仮想現実提示装置400は、非透過型HMD装置であっても良い。この場合、視線カメラ311で撮影された映像に仮想現実提示用の映像を合成した映像を表示パネル140に表示する。 Further, as shown in FIG. 20, the virtual reality presentation device 400 may be a non-transparent HMD device. In this case, an image obtained by synthesizing the image for virtual reality presentation with the image captured by the visual line camera 311 is displayed on the display panel 140.

この場合、仮想現実オブジェクトの表示位置では、視線カメラで撮影された映像を下位レイヤー、仮想現実オブジェクトの映像を上位レイヤーとして2つの映像を合成して映像が表示パネルで表示される。 In this case, at the display position of the virtual reality object, two videos are combined and displayed on the display panel with the video captured by the line-of-sight camera as the lower layer and the video of the virtual reality object as the upper layer.

例えば、仮想現実オブジェクトが表示される所定の座標(x、y)において、映像生成処理部2140で生成される仮想現実オブジェクトの映像の画素データが(Y1、U1、V1)であり、当該座標における視線カメラ311で撮影された映像の画素データが(Y2、U2、V2)であったとする。仮想現実オブジェクトの配置位置が視線カメラ311で撮影された映像に写る物体よりもユーザ側にある場合は、表示パネル141a、141bにおける当該座標で表される画素データは(Y1,U1、V1)となり、一方、視線カメラ311で撮影された映像に写る物体が、仮想現実オブジェクトの配置位置よりもユーザ側になる場合は、表示パネル141a、141bにおける当該座標で表される画素データは(Y2,U2,V2)となる。 For example, at predetermined coordinates (x, y) at which the virtual reality object is displayed, the pixel data of the video of the virtual reality object generated by the video generation processing unit 2140 is (Y1, U1, V1). It is assumed that the pixel data of the video imaged by the visual line camera 311 is (Y2, U2, V2). When the placement position of the virtual reality object is closer to the user than the object captured in the video captured by the line-of-sight camera 311, the pixel data represented by the coordinates on the display panels 141a and 141b is (Y1, U1, V1). On the other hand, when the object shown in the video imaged by the line-of-sight camera 311 is closer to the user side than the arrangement position of the virtual reality object, the pixel data represented by the coordinates on the display panels 141a and 141b is (Y2, U2 , V2).

以上のように、本実施形態4に係る仮想現実提示装置400は、仮想現実を提示するための手段として、映像表示手段と音声再生手段とを備える。ユーザの視覚と聴覚を錯覚させるように仮想現実の世界が提示されるため、ユーザはより深く仮想現実の世界に入り込むことができる。 As described above, the virtual reality presentation device 400 according to the fourth embodiment includes the video display unit and the audio reproduction unit as the unit for presenting the virtual reality. Since the virtual reality world is presented as an illusion of the user's vision and hearing, the user can enter the virtual reality world more deeply.

なお、視界に突如物体や人物が現れた場合には、ユーザには多大な違和感を生じるものの、突如前方から音声が聞こえてくる場合には、ユーザにはそれほど違和感を生じることが無い。そのため、音声再生開始判定処理部430は、ユーザの状態に基づかない判定処理によって音声再生開始の判定を行う構成としても良い。 Note that when an object or person suddenly appears in the field of view, the user feels a great sense of discomfort, but when a sound is suddenly heard from the front, the user does not feel that something discomfort. Therefore, the sound reproduction start determination processing unit 430 may be configured to determine the sound reproduction start by a determination process that is not based on the state of the user.

図21は、本実施形態4に係る仮想現実提示システム4000の構成を示すブロック図である。仮想現実提示システム4000は上述の仮想現実提示装置400と、仮想現実サービス提供サーバ4100と、音声解析サーバ2200と、仮想現実コンテンツ記憶DB2300と、契約者情報記憶DB3200と、を備える。   FIG. 21 is a block diagram illustrating a configuration of a virtual reality presentation system 4000 according to the fourth embodiment. The virtual reality presentation system 4000 includes the virtual reality presentation device 400, the virtual reality service providing server 4100, the voice analysis server 2200, the virtual reality content storage DB 2300, and the contractor information storage DB 3200.

仮想現実コンテンツ記憶データベース2300は、仮想現実コンテンツとして仮想現実オブジェクトのモデルデータに加えて、仮想現実提示用の音声データを記憶する。仮想現実提示用の音声データとしては、各仮想現実オブジェクトに対応付けられた当該仮想現実オブジェクトが発する音声や、仮想現実の世界を創り出すための効果音や背景音楽などが含まれる。 The virtual reality content storage database 2300 stores audio data for virtual reality presentation in addition to the model data of the virtual reality object as virtual reality content. The sound data for virtual reality presentation includes sound generated by the virtual reality object associated with each virtual reality object, sound effects and background music for creating a virtual reality world, and the like.

仮想現実サービス提供サーバ4100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、画像解析処理部3110と、仮想空間設定部3130と、仮想現実オブジェクト配置部3140と、仮想現実コンテンツ読み出し部4110と、再生音声生成処理部4120と、を備える。 The virtual reality service providing server 4100 includes a communication unit 2110, an audio context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, a display video generation processing unit 2140, an image analysis processing unit 3110, and a virtual space setting unit 3130. A virtual reality object placement unit 3140, a virtual reality content reading unit 4110, and a playback sound generation processing unit 4120.

再生音声生成処理部4120は、仮想現実提示装置400の音声再生処理部440で再生する仮想現実提示用の音声データを生成する。再生音声生成処理部4120は、聴覚点制御部4121と、音声分配処理部4122と、音声符号化処理部4123と、を備える。 The playback sound generation processing unit 4120 generates sound data for virtual reality presentation that is played back by the sound playback processing unit 440 of the virtual reality presentation device 400. The reproduction sound generation processing unit 4120 includes an auditory point control unit 4121, a sound distribution processing unit 4122, and a sound coding processing unit 4123.

聴覚点制御部4121は、通信部2110で受信されたユーザ状態情報に基づいて、ユーザの左右の耳の位置に対応する仮想空間内の聴覚点を制御する。   The auditory point control unit 4121 controls the auditory point in the virtual space corresponding to the positions of the left and right ears of the user based on the user state information received by the communication unit 2110.

音声分配処理部4122は、仮想現実提示用の音声データを複数のチャンネルに分配してチャンネル別音声データを生成する。音声分配処理部4122は、仮想現実オブジェクト配置位置情報取得部4122aと、相対位置関係算出部4122bと、チャンネル別音声データ生成処理部4122cと、を備える。 The sound distribution processing unit 4122 generates sound data for each channel by distributing sound data for virtual reality presentation to a plurality of channels. The audio distribution processing unit 4122 includes a virtual reality object arrangement position information acquisition unit 4122a, a relative positional relationship calculation unit 4122b, and a channel-specific audio data generation processing unit 4122c.

仮想現実オブジェクト配置位置情報取得部4122aは、仮想現実コンテンツ読み出し部4110で読み出された仮想現実用の音声データが仮想空間に配置されている仮想現実オブジェクトから発せられる音声である場合に、当該仮想現実オブジェクトが配置されている位置を音声発生源として当該位置座標を仮想現実オブジェクト配置部3140より取得する。 The virtual reality object arrangement position information acquisition unit 4122a, when the audio data for virtual reality read by the virtual reality content reading unit 4110 is a sound emitted from the virtual reality object arranged in the virtual space, The position coordinates are acquired from the virtual reality object placement unit 3140 using the position where the real object is placed as a sound generation source.

仮想現実コンテンツ読み出し部4110で読み出される音声データには、対応する仮想現実オブジェクトを識別する識別番号が付与されている。仮想現実オブジェクト配置位置情報取得部4122aは、仮想現実コンテンツ読み出し部4110で読み出された音声データに対応付けられている仮想現実オブジェクトの識別番号に基づいて、当該識別番号で識別される仮想現実オブジェクトの配置位置を示す情報を仮想現実オブジェクト配置部3130より取得する。仮想現実オブジェクト配置位置情報取得部4122aは、仮想現実オブジェクト配置部3140より取得した仮想現実オブジェクトの位置座標を示す位置情報を相対位置関係算出部4122bに出力する。 The audio data read by the virtual reality content reading unit 4110 is given an identification number for identifying the corresponding virtual reality object. The virtual reality object arrangement position information acquisition unit 4122a is based on the identification number of the virtual reality object associated with the audio data read by the virtual reality content reading unit 4110, and is identified by the identification number. Is obtained from the virtual reality object placement unit 3130. The virtual reality object arrangement position information acquisition unit 4122a outputs position information indicating the position coordinates of the virtual reality object acquired from the virtual reality object arrangement unit 3140 to the relative position relationship calculation unit 4122b.

相対位置関係算出部4122bは、聴覚点制御部4121で求められたユーザの耳の位置に対応する聴覚点の位置座標と、仮想現実オブジェクト配置位置情報取得部4122aで取得された仮想現実オブジェクトの配置位置を示す位置座標とに基づいて、相対位置関係を算出する。具体的に、相対位置関係算出部4122bは、音声発生源である仮想現実オブジェクトの位置座標から音声集音点である聴覚点の位置座標までのベクトルPを算出する。相対位置関係算出部4122bは、算出した相対位置関係であるベクトルPをチャンネル別音声データ生成処理部4122cに出力する。 The relative positional relationship calculation unit 4122b includes the position coordinates of the auditory point corresponding to the position of the user's ear obtained by the auditory point control unit 4121 and the arrangement of the virtual reality object acquired by the virtual reality object arrangement position information acquisition unit 4122a. A relative positional relationship is calculated based on the position coordinates indicating the position. Specifically, the relative positional relationship calculation unit 4122b calculates a vector P from the position coordinates of the virtual reality object that is the sound generation source to the position coordinates of the auditory point that is the sound collection point. The relative positional relationship calculation unit 4122b outputs the vector P, which is the calculated relative positional relationship, to the channel-specific audio data generation processing unit 4122c.

チャンネル別音声データ生成処理部4122cは、仮想現実コンテンツ読み出し部4110で読み出された仮想現実提示用の音声データを、相対位置関係算出部4122bで算出された相対位置であるベクトル情報に基づいて、複数の音声チャンネルに分配することで各チャンネルの音声データを生成する。 The channel-specific audio data generation processing unit 4122c uses the virtual reality presentation audio data read by the virtual reality content reading unit 4110 based on the vector information that is the relative position calculated by the relative positional relationship calculation unit 4122b. By distributing to a plurality of audio channels, audio data for each channel is generated.

仮想現実提示装置400の音声再生処理部440は、5.1Ch、6.1Ch、7.1Ch等の複数チャンネルで音声を再生可能な構成を取っており、チャンネル別音声データ生成処理部4122cは、仮想現実コンテンツ読み出し部4110で読み出された音声データを、仮想現実提示装置400が対応しているCh数に合わせた各チャンネルの音声データを生成する。チャンネル別音声データ生成処理部4122cは、仮想現実オブジェクトに対応付けられた音声が、当該仮想現実オブジェクトの位置から発せられたようにするために、読み出された音声データの各チャンネルの音声レベルを調整することで、音声に指向性を持たせ、各チャンネルの音声データを生成する。 The audio reproduction processing unit 440 of the virtual reality presentation device 400 has a configuration capable of reproducing audio using a plurality of channels such as 5.1Ch, 6.1Ch, 7.1Ch, and the channel-specific audio data generation processing unit 4122c includes: The audio data read by the virtual reality content reading unit 4110 is generated for each channel according to the number of Ch supported by the virtual reality presentation device 400. The channel-specific sound data generation processing unit 4122c sets the sound level of each channel of the read sound data so that the sound associated with the virtual reality object is emitted from the position of the virtual reality object. By adjusting, the sound has directivity and the sound data of each channel is generated.

音声符号化処理部4123は、音声分配処理部4122で各チャンネルに分配されたチャンネル別の音声データをCS−ACELP(Conjugate-Structure Algebraic Code Excited Linear Prediction)等の所定の音声符号化方式で符号化して符号化音声データに変換する。音声符号化処理部4123で符号化された音声データは、通信部2110より仮想現実提示装置400に送信される。 The speech encoding processing unit 4123 encodes the channel-specific speech data distributed to each channel by the speech distribution processing unit 4122 using a predetermined speech encoding method such as CS-ACELP (Conjugate-Structure Algebraic Code Excited Linear Prediction). And converted into encoded audio data. The audio data encoded by the audio encoding processing unit 4123 is transmitted from the communication unit 2110 to the virtual reality presentation device 400.

以上のように、本実施形態4に係る仮想現実提示システムによれば、ユーザの視覚と聴覚に対して錯覚を起こさせるように仮想現実コンテンツを再生することで、ユーザを自然に仮想現実の世界に入り込ませることが可能となる。 As described above, according to the virtual reality presentation system according to the fourth embodiment, virtual reality content is reproduced so as to cause an illusion to the user's vision and auditory sense, thereby allowing the user to naturally experience the virtual reality world. It becomes possible to get in.

なお、上記説明では、仮想現実として聴覚と視覚に対するコンテンツの再生を行う構成としたが、嗅覚や触覚を刺激する手段を備える構成であっても良い。例えば、仮想現実提示装置400に複数の臭気の元となる物質を密封して格納する臭気格納部と、仮想現実管理制御部460からの制御に基づいて臭気格納部のいくつかを開放して臭気を混合する臭気混合部と、混合した臭気を放出する臭気放出部が備えられる構成であっても良い。 In the above description, the content for hearing and vision is reproduced as a virtual reality, but a configuration including means for stimulating the sense of smell and touch may be used. For example, an odor storage unit that seals and stores a plurality of odor source substances in the virtual reality presentation device 400 and an odor by opening some of the odor storage units based on control from the virtual reality management control unit 460 The structure provided with the odor mixing part which mixes, and the odor discharge | release part which discharge | releases the mixed odor may be sufficient.

<実施形態5>
実施形態1〜4に係る仮想現実提示システムでは、仮想現実の提示の開始のタイミングを制御することで、現実の世界から仮想現実の世界へ移り変わる際の不連続性を緩和することができ、ユーザは現実の世界から仮想現実の世界に切り替わったことを知覚することなく仮想現実の世界に入り込むことができる。
<Embodiment 5>
In the virtual reality presentation systems according to the first to fourth embodiments, the discontinuity at the time of transition from the real world to the virtual reality world can be reduced by controlling the start timing of the virtual reality presentation. Can enter the virtual reality world without perceiving the switch from the real world to the virtual reality world.

ここで、仮想現実の世界の提示が終了して現実の世界に戻る場合に、仮想現実の世界と現実の世界へ移り変わる際の不連続性からユーザは今まで仮想現実の世界を感知していたことを認識することになる。ここで、ユーザに提供される仮想現実サービスの種類によっては、仮想現実の世界から現実の世界に戻る際の不連続性を抑え、ユーザが仮想現実の世界に一時的にいたと言うことを認識できないように制御することが好ましい場合がある。例えば、時系列状に複数回に渡って仮想現実の世界を提示する仮想現実サービスである場合には、ストーリー性があるために、仮想現実の世界から連続的に現実の世界へ移り変わることが好ましい。本実施形態5に係る仮想現実提示システムでは、仮想現実の提示終了タイミングを制御することを特徴とする。 Here, when the presentation of the virtual reality world ends and returns to the real world, the user has perceived the virtual reality world from the discontinuity when changing to the virtual reality world and the real world. You will recognize that. Here, depending on the type of virtual reality service provided to the user, the discontinuity when returning from the virtual reality world to the real world is suppressed, and it is recognized that the user was temporarily in the virtual reality world. It may be preferable to control so that it cannot be performed. For example, in the case of a virtual reality service that presents the virtual reality world multiple times in a time series, it is preferable to transition from the virtual reality world to the real world continuously because of the story nature. . The virtual reality presentation system according to the fifth embodiment is characterized in that the virtual reality presentation end timing is controlled.

図22は、本実施形態5に係る仮想現実提示装置500の構成を示すブロック図である。仮想現実提示装置500は、ユーザ状態検知部110と、映像表示開始判定処理部120と、表示制御部130と、表示部140と、音声入力部210と、装置側仮想現実提示制御部220と、通信部230と、周囲状況検知部310と、仮想現実提示用データ記憶部410と、仮想現実提示開始条件設定部420と、音声再生開始判定処理部430と、音声再生処理部440と、音声出力部450と、映像表示終了判定処理部510と、仮想現実提示終了条件設定部520と、音声再生終了判定処理部530と、を備える。 FIG. 22 is a block diagram illustrating a configuration of a virtual reality presentation device 500 according to the fifth embodiment. The virtual reality presentation device 500 includes a user state detection unit 110, a video display start determination processing unit 120, a display control unit 130, a display unit 140, a voice input unit 210, a device-side virtual reality presentation control unit 220, Communication unit 230, ambient condition detection unit 310, virtual reality presentation data storage unit 410, virtual reality presentation start condition setting unit 420, audio reproduction start determination processing unit 430, audio reproduction processing unit 440, audio output Unit 450, video display end determination processing unit 510, virtual reality presentation end condition setting unit 520, and audio reproduction end determination processing unit 530.

通信部230は、仮想現実サービスの提供開始を通知する仮想現実サービス提供開始通知情報に加えて、仮想現実サービスの提供終了を通知する仮想現実サービス提供終了通知情報を受信し、装置側仮想現実提示制御部220に出力する。 The communication unit 230 receives the virtual reality service provision end notification information for notifying the end of provision of the virtual reality service in addition to the virtual reality service provision start notification information for notifying the start of provision of the virtual reality service, and presents the virtual reality service provision end notification information Output to the controller 220.

装置側仮想現実提示制御部220は、仮想現実サービス提供終了通知情報を受け取ると、仮想現実提示終了条件設定部520に仮想現実提示終了条件の設定を指示する。具体的には、仮想現実サービス提供終了通知情報に含まれる仮想現実提示終了条件に基づいて、当該仮想現実提示終了条件を設定する。また、映像表示終了判定処理部510と音声再生終了判定処理部530にそれぞれ対応する判定処理の開始を指示する。 Upon receiving the virtual reality service provision end notification information, the device-side virtual reality presentation control unit 220 instructs the virtual reality presentation end condition setting unit 520 to set the virtual reality presentation end condition. Specifically, the virtual reality presentation end condition is set based on the virtual reality presentation end condition included in the virtual reality service provision end notification information. In addition, it instructs the video display end determination processing unit 510 and the audio reproduction end determination processing unit 530 to start the corresponding determination processing.

仮想現実提示終了条件設定部520は、装置側仮想現実提示制御部220からの指示に基づいて、仮想現実提示終了条件を設定する。仮想現実提示終了条件には、映像表示を終了するための映像表示終了条件と、音声再生を終了するための音声再生終了条件とを含む。 The virtual reality presentation end condition setting unit 520 sets a virtual reality presentation end condition based on an instruction from the device-side virtual reality presentation control unit 220. The virtual reality presentation end condition includes a video display end condition for ending the video display and an audio playback end condition for ending the audio playback.

映像表示終了判定処理部510は、装置側仮想現実提示制御部220からの指示に従って、現在表示部140で表示されている仮想現実用の映像の表示を終了するかどうかの判定処理を開始する。映像表示終了判定処理部510は、ユーザ状態検知部110で検知されるユーザ状態や、周囲状況検知部310で検知される周囲状況が仮想現実提示終了条件を満たしているかの判定処理を行う。当該判定処理の結果、仮想現実提示終了条件を満たしている場合に、映像表示終了判定処理部510は、表示制御部130に仮想現実用の映像の表示を終了させる指示を行う。表示制御部130は、当該指示に基づいて表示部140に仮想現実提示用の映像を表示することを終了する制御を行う。 The video display end determination processing unit 510 starts a determination process for determining whether to end the display of the virtual reality video currently displayed on the display unit 140 in accordance with an instruction from the device-side virtual reality presentation control unit 220. The video display end determination processing unit 510 determines whether the user state detected by the user state detection unit 110 and the surrounding state detected by the surrounding state detection unit 310 satisfy the virtual reality presentation end condition. As a result of the determination process, when the virtual reality presentation end condition is satisfied, the video display end determination processing unit 510 instructs the display control unit 130 to end the display of the virtual reality video. The display control unit 130 performs control to end the display of the virtual reality presentation video on the display unit 140 based on the instruction.

音声再生終了判定処理部530は、装置側仮想現実提示制御部220からの指示に従って、現在音声出力部140より出力されている仮想現実用の音声の再生を終了するかどうかの判定処理を開始する。音声再生終了判定処理部530は、ユーザ状態検知部110で検知されるユーザ状態や、周囲状況検知部310で検知される周囲状況が仮想現実提示終了条件を満たしているかの判定処理を行う。当該判定処理の結果、仮想現実提示終了条件を満たしている場合に、音声再生終了判定処理部530は、音声再生制御部440に仮想現実用の映像の表示を終了させる指示を行う。音声再生制御部440は、当該指示に基づいて仮想現実提示用の音声再生処理を終了する制御を行う。 The audio reproduction end determination processing unit 530 starts a determination process as to whether or not to end the reproduction of the virtual reality sound currently output from the audio output unit 140 in accordance with an instruction from the device-side virtual reality presentation control unit 220. . The audio reproduction end determination processing unit 530 performs a determination process as to whether the user state detected by the user state detection unit 110 and the surrounding state detected by the surrounding state detection unit 310 satisfy the virtual reality presentation end condition. If the virtual reality presentation end condition is satisfied as a result of the determination process, the audio reproduction end determination processing unit 530 instructs the audio reproduction control unit 440 to end the display of the virtual reality video. The sound reproduction control unit 440 performs control to end the sound reproduction processing for virtual reality presentation based on the instruction.

なお、上記音声再生に関する制御は行われない構成としても良い。この場合、音声再生開始判定処理部430及び音声再生終了判定処理部530は、構成から外される。 In addition, it is good also as a structure by which control regarding the said audio | voice reproduction | regeneration is not performed. In this case, the audio reproduction start determination processing unit 430 and the audio reproduction end determination processing unit 530 are excluded from the configuration.

図23は、本実施形態5に係る仮想現実提示システム5000の構成を示すブロック図である。仮想現実提示システム5000は、上述の仮想現実提示装置500と、仮想現実サービス提供サーバ5100と、セーブデータ記憶データベース5200と、音声解析サーバ2200と、仮想現実コンテンツ記憶DB2300と、契約者情報記憶DB3200と、を備える。 FIG. 23 is a block diagram illustrating a configuration of a virtual reality presentation system 5000 according to the fifth embodiment. The virtual reality presentation system 5000 includes the virtual reality presentation device 500, the virtual reality service providing server 5100, the save data storage database 5200, the voice analysis server 2200, the virtual reality content storage DB 2300, and the contractor information storage DB 3200. .

仮想現実コンテンツ記憶DB2300は、複数種類の仮想現実サービスにそれぞれ用いられる仮想現実コンテンツを記憶する。仮想現実コンテンツには、図24に示すように、仮想現実オブジェクトのモデルデータや音声データの他、仮想現実の提示のために実行される仮想現実制御プログラムが含まれる。 The virtual reality content storage DB 2300 stores virtual reality content used for each of a plurality of types of virtual reality services. As shown in FIG. 24, the virtual reality content includes a virtual reality control program executed for presentation of virtual reality in addition to model data and audio data of the virtual reality object.

仮想現実制御プログラムは、大きく分けて、仮想現実メイン制御プログラムと、仮想現実サブ制御プログラムと、仮想現実オブジェクト人格制御プログラムと、仮想現実オブジェクト挙動制御プログラムと、に分類される。図25は、仮想現実制御プログラムの階層構造を示している。 Virtual reality control programs are roughly classified into a virtual reality main control program, a virtual reality sub-control program, a virtual reality object personality control program, and a virtual reality object behavior control program. FIG. 25 shows the hierarchical structure of the virtual reality control program.

仮想現実オブジェクト挙動制御プログラムは、仮想空間に配置されている仮想現実オブジェクトの挙動を制御するためのプログラムであって、仮想現実オブジェクト人格制御プログラムによって読み出される。例えば、仮想現実オブジェクトが人間オブジェクトである場合、仮想現実オブジェクト挙動制御プログラムAは、右膝の関節ポイントを少し折り曲げ、口元のテキスチャーデータを笑顔のテキスチャーデータに段階的に変更すると言った制御を行うプログラムである。一方、仮想現実オブジェクト挙動制御プログラムNは、のけぞるように腰の関節ポイントを折り曲げ、右肩と右ひじの関節ポイントを所定量回転させることで右腕を前に突き出すと言った制御を行う。当該挙動制御プログラムが実行されることで、フレーム経過に伴って仮想空間に配置されているオブジェクトの外観形状が変化していく。 The virtual reality object behavior control program is a program for controlling the behavior of the virtual reality object arranged in the virtual space, and is read by the virtual reality object personality control program. For example, when the virtual reality object is a human object, the virtual reality object behavior control program A performs a control such that the joint point of the right knee is slightly bent and the texture data of the mouth is gradually changed to the smile texture data. It is a program. On the other hand, the virtual reality object behavior control program N performs control such that the hip joint point is bent so as to slide, and the right arm and the right elbow joint point are rotated by a predetermined amount to project the right arm forward. By executing the behavior control program, the appearance shape of the object arranged in the virtual space changes as the frame progresses.

仮想現実オブジェクト人格制御プログラムは、仮想現実サブ制御プログラムによって読み出されるプログラムであって、仮想空間に配置されている仮想現実オブジェクトに対する入力と出力との対応関係を制御する。 The virtual reality object personality control program is a program read by the virtual reality sub-control program, and controls the correspondence between the input and output for the virtual reality object arranged in the virtual space.

仮想現実サブ制御プログラムは、仮想現実メイン制御プログラムによって適宜呼び出されるプログラムであり、提供する仮想現実サービスと対応している。仮想現実サブ制御プログラムは、提供中の仮想現実サービスに用いる仮想現実オブジェクトを仮想空間に読み出して配置する制御や、予め設定されている順序に従って仮想現実オブジェクト挙動制御プログラムを直接読み出して、仮想現実オブジェクトに所定の挙動を行わせる制御を行う。 The virtual reality sub-control program is a program that is appropriately called by the virtual reality main control program, and corresponds to the provided virtual reality service. The virtual reality sub-control program reads the virtual reality object used for the virtual reality service being provided in the virtual space, or directly reads out the virtual reality object behavior control program according to a preset order, Control is performed to perform a predetermined behavior.

仮想現実メイン制御プログラムは、仮想現実サービス毎に対応するプログラムであって、仮想現実サービスの提供開始に当たり、第1に実行されるプログラムである。仮想現実メイン制御プログラムが実行されることで、当該プログラムに対応する仮想現実サービスのための仮想空間の設定や環境設定が行われる。 The virtual reality main control program is a program corresponding to each virtual reality service, and is a program executed first when the provision of the virtual reality service is started. By executing the virtual reality main control program, the virtual space setting and environment setting for the virtual reality service corresponding to the program are performed.

仮想現実サービス提供サーバ5100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、画像解析処理部3110と、仮想空間設定部3130と、仮想現実オブジェクト配置部3140と、仮想現実コンテンツ読み出し部4110と、再生音声生成処理部4120と、仮想現実オブジェクト挙動制御部5110と、を備える。 The virtual reality service providing server 5100 includes a communication unit 2110, a voice context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, a display video generation processing unit 2140, an image analysis processing unit 3110, and a virtual space setting unit 3130. A virtual reality object placement unit 3140, a virtual reality content reading unit 4110, a reproduction sound generation processing unit 4120, and a virtual reality object behavior control unit 5110.

サーバ側仮想現実提示制御部2130は、仮想現実サービス提供可否判定部2131と、仮想現実サービス決定部2132と、仮想現実サービス制御部2133と、通知情報生成処理部2134と、を備える。 The server-side virtual reality presentation control unit 2130 includes a virtual reality service provision availability determination unit 2131, a virtual reality service determination unit 2132, a virtual reality service control unit 2133, and a notification information generation processing unit 2134.

仮想現実サービス提供可否判定部2131は、音声コンテキスト取得部2120で取得される音声コンテキストが仮想現実サービスの提供開始を要求するものであった場合に、契約者情報記憶DB3200に記憶されている契約者情報を参照して、要求されている仮想現実サービスを提供可能であるかを判定する。仮想現実サービス提供可否判定部2131は、仮想現実サービスの提供が可能であると判定した場合に、仮想現実サービス決定処理部2132に提供する仮想現実サービスの決定指示を出すと共に、通知情報生成処理部2134に仮想現実サービス提供開始通知情報の生成指示を出す。 When the voice context acquired by the voice context acquisition unit 2120 requests to start providing the virtual reality service, the virtual reality service provision availability determination unit 2131 stores the contractor stored in the contractor information storage DB 3200. By referring to the information, it is determined whether the requested virtual reality service can be provided. When it is determined that the virtual reality service can be provided, the virtual reality service provision availability determination unit 2131 issues a virtual reality service determination instruction to be provided to the virtual reality service determination processing unit 2132, and a notification information generation processing unit An instruction to generate virtual reality service provision start notification information is issued to 2134.

仮想現実サービス決定処理部2132は、仮想現実サービス提供可否判定部2131からの指示に基づいて、ユーザに提供する仮想現実サービスを決定する。ここで、仮想現実サービス決定処理部2132は、セーブデータ記憶データベース5200に記憶されている当該ユーザの当該仮想現実サービスのセーブデータに基づいて、どの位置からの仮想現実サービスを提供するかを決定する。例えば、仮想現実サービスがストーリー性を有する仮想現実サービスである場合は、既に提供済みの部分を示すセーブデータがセーブデータ記憶データベース5200に記憶されており、前回提供が終了した位置から再開する必要があるためである。仮想現実サービス決定処理部2132は、決定した仮想現実サービス及びセーブデータで示される当該仮想現実サービスにおける再開位置を示す情報を仮想現実サービス制御部2133に出力する。 The virtual reality service determination processing unit 2132 determines a virtual reality service to be provided to the user based on an instruction from the virtual reality service provision availability determination unit 2131. Here, the virtual reality service determination processing unit 2132 determines from which position the virtual reality service is provided based on the save data of the virtual reality service of the user stored in the save data storage database 5200. . For example, when the virtual reality service is a virtual reality service having a story property, save data indicating a portion that has already been provided is stored in the save data storage database 5200, and it is necessary to restart from the position where the previous provision ended. Because there is. The virtual reality service determination processing unit 2132 outputs information indicating a restart position in the virtual reality service indicated by the determined virtual reality service and the save data to the virtual reality service control unit 2133.

仮想現実サービス制御部2133は、仮想現実サービス決定処理部2132からの出力を受けて、仮想現実サービスの提供を行うための各種制御を実行する。仮想現実サービス制御部2133は、仮想現実サービス決定処理部2132で決定された仮想現実サービスであってセーブデータで示される再開位置に係る仮想現実コンテンツの読み出し指示を仮想現実コンテンツ読み出し部4110に出力する。また、仮想現実サービス制御部2133は、当該仮想現実サービスに対応する広さの仮想空間の設定指示を仮想空間設定部3130に出力する。 The virtual reality service control unit 2133 receives the output from the virtual reality service determination processing unit 2132 and executes various controls for providing the virtual reality service. The virtual reality service control unit 2133 outputs, to the virtual reality content reading unit 4110, a virtual reality content reading unit 4110 that is a virtual reality service determined by the virtual reality service determination processing unit 2132 and that is related to the resume position indicated by the save data. . In addition, the virtual reality service control unit 2133 outputs a virtual space setting instruction corresponding to the virtual reality service to the virtual space setting unit 3130.

また、仮想現実サービス制御部2133は、音声コンテキスト取得部2120で取得される音声コンテキストや、画像解析処理部3310で得られる画像解析結果に基づいて、当該仮想現実サービスに係る仮想現実メイン制御プログラムや仮想現実サービスサブ制御プログラムを実行することで、仮想現実サービスの提供を継続する。 In addition, the virtual reality service control unit 2133 is based on the audio context acquired by the audio context acquisition unit 2120 and the image analysis result obtained by the image analysis processing unit 3310, the virtual reality main control program related to the virtual reality service, The virtual reality service is continuously provided by executing the virtual reality service sub-control program.

また、仮想現実サービス制御部2133は、音声コンテキスト取得部2120で取得される音声コンテキストや、画像解析処理部3310で得られる画像解析結果、ユーザが現在提供中の仮想現実サービスの終了を要求している場合や、その他終了条件を満たした場合に、通知情報生成処理部2134に仮想現実サービス提供終了通知情報の生成指示を出す。 Further, the virtual reality service control unit 2133 requests the termination of the virtual reality service currently provided by the user, the voice context acquired by the voice context acquisition unit 2120, the image analysis result obtained by the image analysis processing unit 3310, or the like. If there are other termination conditions, the virtual reality service provision end notification information generation instruction is issued to the notification information generation processing unit 2134.

通知情報生成処理部2134は、仮想現実サービス提供可否判定部2131からの指示や仮想現実サービス制御部2133からの指示に基づいて、それぞれ仮想現実サービス提供開始情報や仮想現実サービス提供終了情報を生成し、通信部2110に出力する。通信部2110は、当該出力された各通知情報を仮想現実提示装置500に送信する。 The notification information generation processing unit 2134 generates virtual reality service provision start information and virtual reality service provision end information, respectively, based on an instruction from the virtual reality service provision availability determination unit 2131 and an instruction from the virtual reality service control unit 2133. And output to the communication unit 2110. The communication unit 2110 transmits the output notification information to the virtual reality presentation device 500.

仮想現実オブジェクト挙動制御部5110は、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。仮想現実オブジェクト挙動制御部5110は、仮想現実コンテンツ読み出し部4110によって仮想現実コンテンツ記憶データベース2300より読み出された仮想現実オブジェクト挙動制御プログラムを実行することで、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。当該仮想現実オブジェクト挙動制御部5110によって、仮想空間内で外観形状が変化していく仮想現実オブジェクトの二次元映像を映像生成処理部2140が生成し、最終的に仮想現実提示装置500の表示部140に表示される。 The virtual reality object behavior control unit 5110 controls the behavior of the virtual reality object arranged in the virtual space. The virtual reality object behavior control unit 5110 executes the virtual reality object behavior control program read from the virtual reality content storage database 2300 by the virtual reality content reading unit 4110, so that the virtual reality object arranged in the virtual space is displayed. Control behavior. By the virtual reality object behavior control unit 5110, the video generation processing unit 2140 generates a two-dimensional video of the virtual reality object whose appearance shape changes in the virtual space, and finally the display unit 140 of the virtual reality presentation device 500. Is displayed.

以上のように、本実施形態5に係る仮想現実提示システムによれば、仮想現実の提示の終了タイミングがユーザの状態に基づいて制御されることで、ユーザが仮想現実の世界から現実の世界に移行したことを認知しないようにできるため、仮想現実の世界が仮想現実の世界であったことをユーザに悟られることを防ぐことができる。 As described above, according to the virtual reality presentation system according to the fifth embodiment, the virtual reality presentation end timing is controlled based on the state of the user, so that the user can change from the virtual reality world to the real world. Since it is possible not to recognize the transition, it is possible to prevent the user from realizing that the virtual reality world was the virtual reality world.

なお、仮想現実提示開始条件と仮想現実提示終了条件は、同一の条件が設けられていても良い。例えば、ユーザの目が3秒以上閉じている場合に仮想現実の提示を終了すると判定されても良いし、ユーザの向いている方角が90度以上変化した場合に仮想現実の提示を終了すると判定されても良い。また、ユーザの向いている角度が45度以上変化した場合に、仮想現実の提示を終了すると判定されても良い。 Note that the virtual reality presentation start condition and the virtual reality presentation end condition may be provided with the same condition. For example, it may be determined that the presentation of virtual reality ends when the user's eyes are closed for 3 seconds or more, or the presentation of virtual reality is ended when the direction in which the user is facing changes by 90 degrees or more. May be. Further, when the angle at which the user is facing changes by 45 degrees or more, it may be determined that the presentation of the virtual reality is ended.

<実施形態6>
実施形態1〜5に係る仮想現実提示システムでは、仮想現実提示装置側において既に生成されて提示可能な状態となっている映像や音声の提示を開始するか同化の判定を行っている。しかしながら、当該構成では、順次生成されながらも提示開始判定条件を満たさずに破棄される映像や音声を生じてしまうため、リソースの消費が大きくなってしまうと言った問題が生じていた。本実施形態6に係る構成は、リソースの消費を抑えつつ、ユーザが感知する現実の世界から仮想現実の世界への切り替わりにおける不連続性を制御することでユーザが仮想現実の世界に自然に入り込めることを可能としている。
<Embodiment 6>
In the virtual reality presentation systems according to the first to fifth embodiments, presentation of video or audio that has already been generated and is ready to be presented on the virtual reality presentation device side is started or assimilation is determined. However, in this configuration, video and audio are generated without being satisfied with the presentation start determination condition even though they are sequentially generated, which causes a problem that resource consumption increases. The configuration according to the sixth embodiment allows the user to naturally enter the virtual reality world by controlling discontinuity in switching from the real world sensed by the user to the virtual reality world while suppressing resource consumption. Making it possible.

図26は、本実施形態6に係る仮想現実提示システム6000の構成を示すブロック図である。仮想現実提示システム6000は、仮想現実提示装置600と、音声解析サーバ2200と、契約者情報記憶DB3200と、仮想現実コンテンツ記憶DB2300と、仮想現実サービス提供サーバ6100と、を備える。 FIG. 26 is a block diagram illustrating a configuration of a virtual reality presentation system 6000 according to the sixth embodiment. The virtual reality presentation system 6000 includes a virtual reality presentation device 600, a voice analysis server 2200, a contractor information storage DB 3200, a virtual reality content storage DB 2300, and a virtual reality service providing server 6100.

仮想現実提示装置600は、ユーザ状態検知部110と、音声入力部210と、表示制御部130と、表示部140と、装置側仮想現実提示制御部220と、通信部230と、周囲状況検知部310と、仮想現実提示用データ記憶部410と、音声再生制御部440と、音声出力部450と、を備える。 The virtual reality presentation device 600 includes a user state detection unit 110, a voice input unit 210, a display control unit 130, a display unit 140, a device-side virtual reality presentation control unit 220, a communication unit 230, and an ambient condition detection unit. 310, a virtual reality presentation data storage unit 410, an audio reproduction control unit 440, and an audio output unit 450.

ユーザ状態検知部110における検知結果であるユーザ状態情報や、音声入力部210で入力されるユーザ音声データ、周囲状況検知部310における検知結果である周囲状況情報等は、通信部230より仮想現実サービス提供サーバ6100に送信される。 The user status information that is the detection result in the user status detection unit 110, the user voice data that is input in the voice input unit 210, the ambient status information that is the detection result in the ambient status detection unit 310, etc. It is transmitted to the providing server 6100.

仮想現実サービス提供サーバ6100で生成される仮想現実提示用の映像データや音声データは、仮想現実提示用データ記憶部410に一時的に記憶され、順次通信部230で受信される最新の仮想現実提示用の映像データや音声データによって上書きされる。 The virtual reality presentation video data and audio data generated by the virtual reality service providing server 6100 are temporarily stored in the virtual reality presentation data storage unit 410 and sequentially received by the communication unit 230. It is overwritten by video data or audio data.

装置側仮想現実提示制御部220は、通信部230で受信された仮想現実サービス提供開始通知情報に基づいて、表示制御部130及び音声再生制御部440にそれぞれ仮想現実の提示開始指示を出す。 The device-side virtual reality presentation control unit 220 issues a virtual reality presentation start instruction to the display control unit 130 and the audio reproduction control unit 440 based on the virtual reality service provision start notification information received by the communication unit 230.

仮想現実の提示開始指示を受け取ると、表示制御部130は、仮想現実提示用データ記憶部410における仮想現実提示用映像データの記憶領域から仮想現実提示用の映像データを順次読み出し、符号化されている場合は復号化処理を行った上で復号処理後の映像を表示部140に表示する制御を行う。表示部140は、表示制御部130で復号された仮想現実提示用の映像を表示する。 Upon receiving the virtual reality presentation start instruction, the display control unit 130 sequentially reads and encodes the virtual reality presentation video data from the virtual reality presentation video data storage area in the virtual reality presentation data storage unit 410. If it is, the decoding process is performed and then the video after the decoding process is displayed on the display unit 140. The display unit 140 displays the virtual reality presentation video decoded by the display control unit 130.

仮想現実の提示開始指示を受け取ると、音声再生制御部440は、仮想現実用データ記憶部410における仮想現実提示用音声データの記憶領域から仮想現実提示用の音声データを順次読み出し、符号化されている場合は復号化処理を行った上で復号処理後の音声を再生する制御を行う。音声出力部450は、音声再生制御部440で再生された音声データをアナログ電気信号に変換し、更に空気振動に変換して外部に放音することで音声を出力する。 Upon receiving the virtual reality presentation start instruction, the audio reproduction control unit 440 sequentially reads out and encodes the virtual reality presentation audio data from the virtual reality presentation audio data storage area in the virtual reality data storage unit 410. If so, the decoding process is performed and then the audio after the decoding process is played back. The audio output unit 450 outputs audio by converting the audio data reproduced by the audio reproduction control unit 440 into an analog electric signal, further converting it into air vibrations and emitting the sound to the outside.

仮想現実サービス提供サーバ6100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、画像解析処理部3110と、仮想空間設定部3130と、仮想現実オブジェクト配置部3140と、仮想現実コンテンツ読み出し部4110と、再生音声生成処理部4120と、仮想現実オブジェクト挙動制御部5110と、仮想現実提示開始判定処理部6110と、を備える。   The virtual reality service providing server 6100 includes a communication unit 2110, an audio context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, a display video generation processing unit 2140, an image analysis processing unit 3110, and a virtual space setting unit 3130. A virtual reality object placement unit 3140, a virtual reality content reading unit 4110, a playback sound generation processing unit 4120, a virtual reality object behavior control unit 5110, and a virtual reality presentation start determination processing unit 6110.

サーバ側仮想現実提示制御部2130は、音声コンテキスト取得部2120で取得される音声コンテキスト等に基づいて、仮想現実サービスの提供を開始する処理を行う。サーバ側仮想現実提示制御部2130は、仮想現実サービス提供開始通知情報を生成して通信部2110に出力する。また、サーバ側仮想現実提示制御部2130は、仮想空間設定部3130に当該仮想現実サービス用の仮想空間の設定を指示し、仮想現実コンテンツ読み出し部4110に提供する仮想現実サービスに係る仮想現実コンテンツの読み出し指示を出し、仮想現実提示開始判定処理部6110に仮想現実の提示を開始するかの判定指示を出す。   The server-side virtual reality presentation control unit 2130 performs processing for starting provision of a virtual reality service based on the audio context acquired by the audio context acquisition unit 2120. The server-side virtual reality presentation control unit 2130 generates virtual reality service provision start notification information and outputs the virtual reality service provision start notification information to the communication unit 2110. Further, the server-side virtual reality presentation control unit 2130 instructs the virtual space setting unit 3130 to set the virtual space for the virtual reality service, and the virtual reality content related to the virtual reality service provided to the virtual reality content reading unit 4110 is displayed. A read instruction is issued, and an instruction to determine whether to start presenting virtual reality is issued to the virtual reality presentation start determination processing unit 6110.

サーバ側仮想現実提示制御部2130からの指示を受けた仮想現実提示開始判定処理部6110は、通信部2110で受信されたユーザ状態情報や周囲状況情報に基づいて、仮想現実提示装置600で仮想現実の提示を開始することが可能な状態であるかを判定する。すなわち、仮想現実提示開始判定処理部6110は、仮想現実の提示を開始するための条件である仮想現実提示開始条件とユーザ状態情報等で示されるユーザの状態を比較することで、現在のタイミングで仮想現実の提示をユーザに対して行っても、ユーザが感知する現実の世界から仮想現実の世界への移行における不連続性が所定の基準値以下に抑えられるかを判定する。 Upon receiving an instruction from the server-side virtual reality presentation control unit 2130, the virtual reality presentation start determination processing unit 6110 performs virtual reality on the virtual reality presentation device 600 based on the user state information and the surrounding state information received by the communication unit 2110. It is determined whether or not it is possible to start presenting. That is, the virtual reality presentation start determination processing unit 6110 compares the virtual reality presentation start condition, which is a condition for starting the presentation of virtual reality, with the user state indicated by the user state information and the like at the current timing. Even if the virtual reality is presented to the user, it is determined whether or not the discontinuity in the transition from the real world to the virtual reality world sensed by the user can be suppressed to a predetermined reference value or less.

例えば、仮想現実提示開始条件として「ユーザの目が4秒以上閉じていること」という条件が設定されている場合、仮想現実提示開始判定処理部6110は、入力したユーザ状態情報に含まれる内部カメラ111で撮影された映像に基づいて、ユーザの目が4秒以上継続して閉じているかを判定する。仮想現実提示開始判定処理部部6110は、ユーザの状態が当該判定条件を満たしている場合に、仮想現実オブジェクト配置部3140に仮想現実オブジェクトの配置を指示する。なお、仮想現実提示開始条件としては、周囲状況検知部310で検知される周囲の明るさ(照度)が所定の基準値以下であると言った条件や、ユーザの頭部が45度以上回転したと言う条件などが設定されていても良い。 For example, when the condition that “the user's eyes are closed for 4 seconds or more” is set as the virtual reality presentation start condition, the virtual reality presentation start determination processing unit 6110 performs the internal camera included in the input user state information. Based on the video imaged at 111, it is determined whether the user's eyes are continuously closed for 4 seconds or more. The virtual reality presentation start determination processing unit 6110 instructs the virtual reality object placement unit 3140 to place a virtual reality object when the user state satisfies the determination condition. The virtual reality presentation start condition includes a condition that the ambient brightness (illuminance) detected by the ambient condition detection unit 310 is equal to or less than a predetermined reference value, or the user's head has rotated 45 degrees or more. Or the like may be set.

仮想現実提示開始判定処理部6110は、上記判定の結果、仮想現実の提示を開始すると判定した場合に、仮想現実オブジェクト配置部3140に仮想現実オブジェクトの配置指示を出す。 The virtual reality presentation start determination processing unit 6110 issues a virtual reality object placement instruction to the virtual reality object placement unit 3140 when it is determined that presentation of virtual reality is started as a result of the determination.

仮想現実オブジェクト配置部3140は、仮想現実コンテンツ読み出し部4110で読み出された仮想現実オブジェクトを、仮想現実提示開始判定処理部6110からの配置指示に基づいて仮想空間設定部3130が設定した(生成した)仮想空間に配置する。すなわち、仮想現実コンテンツ読み出し部4110より仮想現実サービスに使用する仮想現実オブジェクトが読み出されても、仮想現実オブジェクト配置部3140は、仮想現実提示開始判定処理部6110において仮想現実の提示を開始すると判定されるまで仮想現実オブジェクトを仮想空間に配置しない。 The virtual reality object placement unit 3140 sets the virtual reality object read by the virtual reality content reading unit 4110 based on the placement instruction from the virtual reality presentation start determination processing unit 6110 (generated) ) Place in virtual space. That is, even if the virtual reality object used for the virtual reality service is read from the virtual reality content reading unit 4110, the virtual reality object placement unit 3140 determines that the virtual reality presentation start determination processing unit 6110 starts the virtual reality presentation. The virtual reality object is not placed in the virtual space until it is done.

表示映像生成処理部2140は、ユーザ状態情報で示される視点位置及び視線方向から仮想空間に配置されている仮想現実オブジェクトを描画することで仮想現実提示用の映像を生成する。ここで、仮想現実提示開始判定処理部6110で仮想現実の提示を開始すると判定されるまでは仮想空間に仮想現実オブジェクトが配置されていないため、表示映像生成処理部2140で生成される映像は空の映像である。すなわち、仮想現実提示装置600の表示部140には、仮想現実オブジェクトの映像は表示されない。   The display video generation processing unit 2140 generates a virtual reality presentation video by drawing a virtual reality object arranged in the virtual space from the viewpoint position and the line-of-sight direction indicated by the user state information. Here, since the virtual reality object is not arranged in the virtual space until the virtual reality presentation start determination processing unit 6110 determines to start presenting virtual reality, the video generated by the display video generation processing unit 2140 is empty. It is an image of. That is, the video of the virtual reality object is not displayed on the display unit 140 of the virtual reality presentation device 600.

以上のように、仮想現実の提示開始を判定する機能が仮想現実サービス提供サーバ側に設けられることで、実際には表示されない仮想現実オブジェクトの映像データが仮想現実提示装置側に送信されることはない。従って、仮想現実提示装置と仮想現実サービス提供サーバ間の無線リソースの不要な消費を抑え、また、仮想現実提示装置における不要な処理を抑えることでバッテリー消費電力を抑えることができる。 As described above, by providing the virtual reality service providing server with a function for determining the start of virtual reality presentation, video data of a virtual reality object that is not actually displayed is transmitted to the virtual reality presentation device. Absent. Therefore, unnecessary power consumption of wireless resources between the virtual reality presentation device and the virtual reality service providing server can be suppressed, and battery power consumption can be suppressed by suppressing unnecessary processing in the virtual reality presentation device.

なお、本実施形態6に係る仮想現実提示システム6000は、図27の構成としても良い。図27に示す仮想現実提示システム6000において、仮想現実提示開始判定処理部6110は、サーバ側仮想現実提示制御部2130からの判定指示に基づいて、仮想現実の提示を開始するかどうかの判定処理を行う。 Note that the virtual reality presentation system 6000 according to the sixth embodiment may have the configuration of FIG. In the virtual reality presentation system 6000 illustrated in FIG. 27, the virtual reality presentation start determination processing unit 6110 performs a determination process on whether to start presenting virtual reality based on a determination instruction from the server-side virtual reality presentation control unit 2130. Do.

仮想現実提示開始判定処理部6110で仮想現実の提示を開始すると判定された場合、すなわち、仮想現実提示条件を対象となるユーザ状態等が満たしていると判定された場合に、仮想現実提示開始判定処理部6110は、サーバ側仮想現実提示制御部2130に、仮想現実の提示開始を指示する。サーバ側仮想現実提示制御部1230は、当該仮想現実提示開始判定処理部6110からの指示に基づいて、仮想現実コンテンツ読み出し部4110に、提供する仮想現実サービスに係る仮想現実コンテンツの読み出し指示を出す。 When it is determined by the virtual reality presentation start determination processing unit 6110 to start presenting virtual reality, that is, when it is determined that the user state or the like that satisfies the virtual reality presentation condition is satisfied, the virtual reality presentation start determination The processing unit 6110 instructs the server-side virtual reality presentation control unit 2130 to start presentation of virtual reality. Based on the instruction from the virtual reality presentation start determination processing unit 6110, the server-side virtual reality presentation control unit 1230 instructs the virtual reality content reading unit 4110 to read the virtual reality content related to the provided virtual reality service.

仮想現実コンテンツ読み出し部4110は、当該読み出し指示に基づいて、仮想現実コンテンツ記憶DB2300より仮想現実オブジェクトと仮想現実提示用音声データとを読み出す。仮想現実コンテンツ読み出し部4110は、読み出した仮想現実オブジェクトを仮想現実オブジェクト配置部3140に出力し、仮想現実提示用音声データを再生音声生成処理部4120に出力する。仮想現実オブジェクト配置部3140は、仮想現実コンテンツ読み出し部4110で読み出された仮想現実オブジェクトを、仮想空間設定部3130が設定した仮想空間に配置する。表示映像生成処理部2140は、仮想空間に配置されている仮想現実オブジェクトの映像をユーザ状態に基づいて描画し、仮想現実提示用の映像データを生成する。再生音声生成処理部4120は、仮想現実コンテンツ読み出し部4110で読み出された仮想現実提示用音声データに基づいて仮想現実提示装置600で再生するための音声データを生成する。 Based on the read instruction, the virtual reality content read unit 4110 reads the virtual reality object and the virtual reality presentation sound data from the virtual reality content storage DB 2300. The virtual reality content reading unit 4110 outputs the read virtual reality object to the virtual reality object placement unit 3140, and outputs the virtual reality presentation audio data to the reproduction audio generation processing unit 4120. The virtual reality object placement unit 3140 places the virtual reality object read by the virtual reality content reading unit 4110 in the virtual space set by the virtual space setting unit 3130. The display video generation processing unit 2140 draws the video of the virtual reality object arranged in the virtual space based on the user state, and generates video data for virtual reality presentation. The reproduction audio generation processing unit 4120 generates audio data to be reproduced by the virtual reality presentation device 600 based on the virtual reality presentation audio data read by the virtual reality content reading unit 4110.

このように、仮想現実提示開始判定の結果に基づいて、仮想現実オブジェクトがデータベースより読み出されて仮想空間に配置される構成とすることで、当該判定をクリアするまでは表示映像生成処理部2140で空の映像が生成されるため、仮想現実提示装置600の表示部140には仮想現実オブジェクトの映像が表示されない。従って、同様の効果を生み出すことができる。 As described above, based on the result of the virtual reality presentation start determination, the virtual reality object is read from the database and arranged in the virtual space, and the display video generation processing unit 2140 until the determination is cleared. Since the empty video is generated, the video of the virtual reality object is not displayed on the display unit 140 of the virtual reality presentation device 600. Therefore, the same effect can be produced.

また、本実施形態6に係る仮想現実提示システム6000は、図28の構成としても良い。図28に示す仮想現実提示システム6000において、仮想現実提示開始判定処理部6110は、サーバ側仮想現実提示制御部2130からの判定指示に基づいて、仮想現実の提示を開始するかどうかの判定処理を行う。仮想現実提示開始判定処理部6110は、仮想現実の提示を開始すると判定した場合、表示映像生成処理部2140と再生音生成処理部4120に、仮想現実の提示開始を指示する。 The virtual reality presentation system 6000 according to the sixth embodiment may have the configuration shown in FIG. In the virtual reality presentation system 6000 illustrated in FIG. 28, the virtual reality presentation start determination processing unit 6110 performs a determination process on whether to start presenting virtual reality based on a determination instruction from the server-side virtual reality presentation control unit 2130. Do. When the virtual reality presentation start determination processing unit 6110 determines to start the presentation of virtual reality, the virtual reality presentation start determination processing unit 6110 instructs the display video generation processing unit 2140 and the reproduction sound generation processing unit 4120 to start the presentation of virtual reality.

表示映像生成処理部2140は、仮想現実提示開始判定処理部6110からの仮想現実提示開始指示に基づいて、仮想空間に配置されている仮想現実オブジェクトを描画して仮想現実提示用の映像を生成する。再生音声生成処理部4120は、仮想現実提示開始判定処理部6110からの仮想現実提示開始指示に基づいて、仮想現実提示用の音声を生成する。 Based on the virtual reality presentation start instruction from the virtual reality presentation start determination processing unit 6110, the display video generation processing unit 2140 draws a virtual reality object arranged in the virtual space and generates a video for virtual reality presentation. . The reproduction sound generation processing unit 4120 generates sound for virtual reality presentation based on the virtual reality presentation start instruction from the virtual reality presentation start determination processing unit 6110.

このように、仮想現実の提示を受けるユーザの状態等が仮想現実の提示を受けるための条件である仮想現実提示条件を満たした場合に、仮想現実提示用の映像や音声が生成されるため、仮想現実サービス提供サーバにおける不要な処理を削減し、リソース消費を抑えることができる。 As described above, when the state of the user who receives the virtual reality presentation satisfies the virtual reality presentation condition that is a condition for receiving the virtual reality presentation, the virtual reality presentation video and audio are generated. Unnecessary processing in the virtual reality service providing server can be reduced, and resource consumption can be suppressed.

<実施形態7>
実施形態6に係る仮想現実提示システムでは、仮想現実の提示が開始される条件を制御することで、ユーザが仮想現実の世界に違和感なく入れることを特徴としている。ここで、ユーザに提供される仮想現実サービスによっては、単一の仮想現実オブジェクトが表示されるだけではなく、複数の仮想現実オブジェクトが時間の進行に伴って順次仮想空間に読み出されて配置される形態を取る場合がある。
<Embodiment 7>
The virtual reality presentation system according to the sixth embodiment is characterized in that the user can enter the virtual reality world without a sense of incongruity by controlling the conditions for starting the presentation of the virtual reality. Here, depending on the virtual reality service provided to the user, not only a single virtual reality object is displayed, but a plurality of virtual reality objects are sequentially read and arranged in the virtual space as time progresses. May take the form.

この場合に、新たな仮想現実オブジェクトがユーザの視界にいきなり現れると、ユーザには当該仮想現実オブジェクトが瞬間移動して目の前に現れたように感知されることになる。しかしながら、このような瞬間移動は現実の世界においては物理的に最も起こりえない現象であるため、当該目の前に現れた物体(人物)が現実の世界のものではなく、仮想現実オブジェクトであることを認識してしまい、仮想現実の世界に入り込めなくなる。 In this case, when a new virtual reality object suddenly appears in the user's field of view, the user will perceive that the virtual reality object has instantaneously moved and appeared in front of him. However, since such instantaneous movement is a phenomenon that is physically unlikely in the real world, the object (person) that appears in front of the eyes is not a real world object, but a virtual reality object. It becomes impossible to enter into the virtual reality world.

図29は、仮想現実提示前、仮想現実提示開始後、仮想現実オブジェクト追加後における仮想現実提示用の映像と、ユーザが感知する仮想現実の世界との関係を示している。仮想現実を提示する前のユーザの視線先にある景色は、2つのソファーが置かれた部屋の景色である(a)。ここで、ユーザは「お部屋で手軽にサファリ体験」と言う仮想現実サービスの提供を要求し、仮想現実オブジェクトであるライオンの映像が仮想現実サービス提供サーバで生成され、映像表示開始条件(仮想現実提示条件)を満たした場合に、当該ライオンの映像が表示部である表示パネルに表示される(b)。 FIG. 29 shows the relationship between the virtual reality presentation video before the virtual reality presentation, after the virtual reality presentation is started, and after the virtual reality object is added, and the virtual reality world sensed by the user. The scenery at the user's line of sight before presenting virtual reality is the scenery of the room where two sofas are placed (a). Here, the user requests the provision of a virtual reality service called “Easy safari experience in the room”, and the video of the lion, which is a virtual reality object, is generated by the virtual reality service providing server, and the video display start condition (virtual reality presentation) When the condition (condition) is satisfied, the image of the lion is displayed on the display panel as the display unit (b).

ここで、時間の経過に伴って、第2の動物である犬の仮想現実オブジェクトが追加されたとする。ここで、既に仮想空間に配置しているライオンの仮想現実オブジェクトと、新たに追加される犬の仮想現実オブジェクトを同一に描画して1つの映像データを生成されたとする(c)。この場合、ユーザには、ライオンは連続的にそこに居続けるように感知される一方で、犬は瞬間移動して現れたように感知されてしまい、当該犬は現実の犬ではなく、仮想現実の映像であることを明確に認識してしまうことになる。 Here, it is assumed that a virtual reality object of a dog, which is a second animal, is added as time passes. Here, it is assumed that one video data is generated by drawing the virtual reality object of the lion already arranged in the virtual space and the virtual reality object of the newly added dog (c). In this case, the user is perceived as if the lion stays there continuously, while the dog is perceived as if it has moved in a moment, and the dog is not a real dog, but a virtual reality. It will be clearly recognized that the video.

本実施形態7に係る仮想現実提示システムでは、このように新たな仮想現実オブジェクトの映像を表示する場合において、仮想現実の世界と現実の世界との不連続性を抑えつつ表示することを特徴とする。 In the virtual reality presentation system according to the seventh embodiment, when displaying a video of a new virtual reality object, the display is performed while suppressing discontinuity between the virtual reality world and the real world. To do.

図29は、本実施形態7に係る仮想現実提示システム7000の構成を示すブロック図である。仮想現実提示システム7000は、仮想現実提示装置700と、仮想現実サービス提供サーバ7100と、音声解析サーバ2200と、仮想現実コンテンツ記憶DB2300と、契約者情報記憶DB3200と、を備える。 FIG. 29 is a block diagram illustrating a configuration of a virtual reality presentation system 7000 according to the seventh embodiment. The virtual reality presentation system 7000 includes a virtual reality presentation device 700, a virtual reality service providing server 7100, a voice analysis server 2200, a virtual reality content storage DB 2300, and a contractor information storage DB 3200.

仮想現実サービス提供サーバ7100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、画像解析処理部3110と、仮想空間設定部3130と、仮想現実オブジェクト配置部3140と、仮想現実コンテンツ読み出し部4110と、再生音声生成処理部4120と、仮想現実オブジェクト挙動制御部5110と、を備える。仮想空間設定部3130は、仮想空間生成部3131と、仮想空間更新管理部3132とを備える。 The virtual reality service providing server 7100 includes a communication unit 2110, an audio context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, a display video generation processing unit 2140, an image analysis processing unit 3110, and a virtual space setting unit 3130. A virtual reality object placement unit 3140, a virtual reality content reading unit 4110, a reproduction sound generation processing unit 4120, and a virtual reality object behavior control unit 5110. The virtual space setting unit 3130 includes a virtual space generation unit 3131 and a virtual space update management unit 3132.

仮想空間生成部3131は、新たな仮想現実サービスを開始するとサーバ側仮想現実提示制御部2120で決定された場合に、当該仮想現実サービス用の仮想空間を生成する。ここで、仮想空間生成部3131は、仮想空間における複数のレイヤーを生成する。 The virtual space generation unit 3131 generates a virtual space for the virtual reality service when the server-side virtual reality presentation control unit 2120 determines to start a new virtual reality service. Here, the virtual space generation unit 3131 generates a plurality of layers in the virtual space.

仮想空間更新管理部3132は、仮想現実オブジェクト配置部3140が行う新たな仮想現実オブジェクトの配置処理や、仮想現実オブジェクト挙動制御部5110が行う仮想現実オブジェクトの挙動制御処理に応じて、仮想空間に配置されている仮想現実オブジェクトの位置や配置関係を更新する。 The virtual space update management unit 3132 arranges in the virtual space according to the new virtual reality object placement process performed by the virtual reality object placement unit 3140 and the virtual reality object behavior control process performed by the virtual reality object behavior control unit 5110. The position and arrangement relationship of the virtual reality object being updated are updated.

仮想空間管理部3132は、仮想空間に配置される仮想現実オブジェクトを複数のレイヤーに分けて管理する。例えば、仮想空間に、VO001、VO002、VO003の識別番号で識別される3つの仮想現実オブジェクトが配置されているとする。例えば仮想空間管理部3132は、VO001とVO002を仮想空間のレイヤーL01に関連付け、VO003をレイヤー002に関連付ける。 The virtual space management unit 3132 manages the virtual reality object arranged in the virtual space by dividing it into a plurality of layers. For example, it is assumed that three virtual reality objects identified by the identification numbers of VO001, VO002, and VO003 are arranged in the virtual space. For example, the virtual space management unit 3132 associates VO001 and VO002 with the virtual space layer L01, and associates VO003 with the layer 002.

仮想現実オブジェクト配置部3140は、新たに仮想現実コンテンツ読み出し部4110で読み出された仮想現実オブジェクトを仮想空間に設定されている新規仮想現実オブジェクト用のレイヤーに関連付けて仮想空間に配置する。 The virtual reality object placement unit 3140 places the virtual reality object newly read by the virtual reality content reading unit 4110 in the virtual space in association with the layer for the new virtual reality object set in the virtual space.

表示映像生成処理部2140は、仮想空間に配置されている仮想現実オブジェクトをレイヤー毎に分離してそれぞれ描画処理を行い、レイヤー毎の映像データを生成する。表示映像生成処理部2140は、当該生成したレイヤー毎の映像データを符号化して通信部2110に出力する。通信部2110は、表示映像生成処理部2140で生成されたレイヤー毎の映像符号化データを仮想現実提示装置700へ送信する。 The display video generation processing unit 2140 separates virtual reality objects arranged in the virtual space for each layer and performs drawing processing to generate video data for each layer. The display video generation processing unit 2140 encodes the generated video data for each layer and outputs the encoded video data to the communication unit 2110. The communication unit 2110 transmits the video encoded data for each layer generated by the display video generation processing unit 2140 to the virtual reality presentation device 700.

図31は、仮想現実提示装置700の構成を示すブロック図である。仮想現実提示装置700は、ユーザ状態検知部110と、音声入力部210と、表示制御部130と、表示部140と、装置側仮想現実提示制御部220と、通信部230と、周囲状況検知部310と、仮想現実提示用データ記憶部410と、音声再生制御部440と、音声出力部450と、映像表示開始条件設定部710と、映像表示判定処理部720と、を備える。 FIG. 31 is a block diagram showing a configuration of the virtual reality presentation device 700. The virtual reality presentation device 700 includes a user state detection unit 110, a voice input unit 210, a display control unit 130, a display unit 140, a device-side virtual reality presentation control unit 220, a communication unit 230, and an ambient condition detection unit. 310, a virtual reality presentation data storage unit 410, an audio reproduction control unit 440, an audio output unit 450, an image display start condition setting unit 710, and an image display determination processing unit 720.

映像表示条件設定部710は、仮想空間におけるレイヤー毎の映像を表示するための条件を設定する。例えば、映像表示開始条件設定部710は、新たに仮想空間に配置される仮想現実オブジェクトが含まれるレイヤーに対する表示開始条件や表示終了条件を設定する。 The video display condition setting unit 710 sets conditions for displaying video for each layer in the virtual space. For example, the video display start condition setting unit 710 sets a display start condition and a display end condition for a layer that includes a virtual reality object newly arranged in the virtual space.

映像表示判定処理部720は、ユーザ状態検知部110で検知されるユーザ状態や周囲状況検知部310で検知される周囲状況に基づいて、各レイヤーの映像を表示するかを判定する。映像表示判定処理部720は、各レイヤーに設定された映像表示条件をユーザ状態や周囲状況などのパラメータが満たしているかを比較判定し、判定の結果を表示制御部130に出力する。 The video display determination processing unit 720 determines whether to display the video of each layer based on the user status detected by the user status detection unit 110 and the ambient status detected by the ambient status detection unit 310. The video display determination processing unit 720 compares and determines whether the video display conditions set for each layer satisfy parameters such as the user state and the surrounding situation, and outputs the determination result to the display control unit 130.

表示制御部130は、映像データ読み出し部131と、映像復号化処理部132と、映像合成処理部133と、を備える。映像データ読み出し部131は、映像表示判定処理部720における判定結果に基づいて、表示すると判定されたレイヤーの映像符号化データを仮想現実提示用データ記憶部410より読み出す。 The display control unit 130 includes a video data reading unit 131, a video decoding processing unit 132, and a video composition processing unit 133. The video data reading unit 131 reads from the virtual reality presentation data storage unit 410 video encoded data of a layer determined to be displayed based on the determination result in the video display determination processing unit 720.

映像復号化処理部132は、映像データ読み出し部131で読み出された各レイヤーの映像符号化データに対して復号化処理を行い、復号化後の各レイヤーの映像データを取得する。 The video decoding processing unit 132 performs a decoding process on the video encoded data of each layer read by the video data reading unit 131, and acquires video data of each layer after decoding.

映像合成処理部133は、復号された各レイヤーの映像を合成して、表示用映像を取得し、表示部140に出力する。表示部140は、映像合成処理部133で合成された映像を表示する。 The video composition processing unit 133 synthesizes the decoded video of each layer, acquires a display video, and outputs it to the display unit 140. The display unit 140 displays the video synthesized by the video synthesis processing unit 133.

以上のように、本実施形態7に係る仮想現実提示システムでは、仮想現実オブジェクトが、仮想空間生成処理部3131が生成する複数のレイヤーの仮想空間の中からいずれかのレイヤーの仮想空間に配置され、レイヤー毎に仮想現実提示用映像が生成される。更に、新たに仮想現実オブジェクトが配置されたレイヤーの仮想現実提示用映像を表示するかどうかの判定処理が行われ、当該判定をクリアした場合に、他のレイヤーの仮想現実提示用映像と合成された上で表示される。当該構成とすることで、既に表示中の仮想現実オブジェクトの映像に加えて新たに仮想現実オブジェクトをユーザに提示する場合に、ユーザの状態等に応じて所定の条件を満たした場合に表示部140に表示されるため、ユーザは、当該追加された仮想現実オブジェクトが現実の物体(人物)であると錯覚しやすくなり、現実の世界と仮想現実の世界の不連続性を抑えることができる。 As described above, in the virtual reality presentation system according to the seventh embodiment, the virtual reality object is arranged in the virtual space of any layer from among the virtual spaces of the plurality of layers generated by the virtual space generation processing unit 3131. A virtual reality presentation video is generated for each layer. Furthermore, a process for determining whether or not to display the virtual reality presentation video of the layer in which the virtual reality object is newly arranged is performed, and when the determination is cleared, the virtual reality presentation video of another layer is combined. Displayed. With this configuration, when a new virtual reality object is presented to the user in addition to the video of the virtual reality object already displayed, the display unit 140 is displayed when a predetermined condition is satisfied according to the user's state or the like. Therefore, the user is likely to have an illusion that the added virtual reality object is a real object (person), and the discontinuity between the real world and the virtual reality world can be suppressed.

図32は、仮想現実提示用の映像と、ソファーが2つ置かれている現実の世界においてユーザが感知する仮想現実の世界とを示している。仮想空間のレイヤー01にライオンの仮想現実オブジェクトが配置され、当該仮想現実オブジェクトを描画したレイヤー01の映像が生成されて表示部140に表示されている(b)。 FIG. 32 shows a virtual reality presentation image and a virtual reality world sensed by the user in the real world where two sofas are placed. A lion's virtual reality object is arranged in the layer 01 of the virtual space, and an image of the layer 01 in which the virtual reality object is drawn is generated and displayed on the display unit 140 (b).

ここで、新たに犬の仮想現実オブジェクトを仮想空間に配置する場合に、既に仮想現実オブジェクトが配置されているレイヤー01とは異なるレイヤー02に当該犬の仮想現実オブジェクトが配置され、レイヤー毎に仮想現実提示用の映像が生成される(c)。レイヤー02について、表示開始条件を満たしている場合に、レイヤー01とレイヤー02とが合成された映像が表示部140に表示される。 Here, when a virtual reality object of a dog is newly arranged in the virtual space, the virtual reality object of the dog is arranged in a layer 02 different from the layer 01 in which the virtual reality object has already been arranged. An actual presentation video is generated (c). When the display start condition for the layer 02 is satisfied, a video in which the layer 01 and the layer 02 are combined is displayed on the display unit 140.

このようにレイヤー毎に映像を生成して表示するため、仮想現実の提示を制御することが容易となる。 In this way, since the video is generated and displayed for each layer, it is easy to control the presentation of virtual reality.

なお、図33、34の構成とすると更に好ましい。図33に係る仮想現実サービス提供サーバ7100において、仮想現実更新管理部3132は、各レイヤーの順序を示すレイヤー順序情報を生成する。仮想現実更新管理部3132は、通信部2110で受信されたユーザ状態情報に基づいて特定される仮想空間におけるユーザの目の位置に対応する視点位置と、仮想現実オブジェクト配置部3140が配置して仮想現実オブジェクト挙動制御部5110が制御する仮想現実オブジェクトの仮想空間内での位置とに基づいて、各仮想現実オブジェクトが含まれているレイヤーの順序を求めてレイヤー順序情報を生成する。レイヤー順序情報は、通信部2110より仮想現実提示装置700に送信される。 33 and 34 are more preferable. In the virtual reality service providing server 7100 according to FIG. 33, the virtual reality update management unit 3132 generates layer order information indicating the order of each layer. The virtual reality update management unit 3132 includes a viewpoint position corresponding to the position of the user's eyes in the virtual space specified based on the user state information received by the communication unit 2110, and a virtual reality object placement unit 3140 arranged by the virtual reality update management unit 3132. Based on the position in the virtual space of the virtual reality object controlled by the real object behavior control unit 5110, the order of the layers including each virtual reality object is obtained to generate layer order information. The layer order information is transmitted from the communication unit 2110 to the virtual reality presentation device 700.

仮想現実提示装置700において、表示制御部130は、レイヤー順序管理部134を備える。通信部230で受信されたレイヤー順序情報はレイヤー順序管理部134に出力される。レイヤー順序管理部134は、通信部230で受信されたレイヤー順序情報に基づいて、レイヤーの順序を管理する。映像合成処理部133は、レイヤー順序管理部134が管理するレイヤーの順序に基づいて複数のレイヤーの映像を合成し、表示部140に表示させる制御を行う。 In the virtual reality presentation device 700, the display control unit 130 includes a layer order management unit 134. The layer order information received by the communication unit 230 is output to the layer order management unit 134. The layer order management unit 134 manages the layer order based on the layer order information received by the communication unit 230. The video composition processing unit 133 performs control to synthesize videos of a plurality of layers based on the order of the layers managed by the layer order management unit 134 and display them on the display unit 140.

このように、レイヤーの順序を示すレイヤー順序情報が仮想現実提示装置700へ送信されて、当該レイヤー順序情報で示されるレイヤー順序に従って、各レイヤーの映像を合成して仮想現実提示用の合成映像を生成することで、適切に仮想現実オブジェクトの映像をユーザに提示することが可能となる。 In this way, layer order information indicating the layer order is transmitted to the virtual reality presentation device 700, and in accordance with the layer order indicated by the layer order information, the images of the respective layers are combined to generate a composite video for virtual reality presentation. By generating, it is possible to appropriately present the video of the virtual reality object to the user.

なお、当該レイヤー間で仮想現実オブジェクトを移動させる機能を備える構成とすると更に良好である。仮想空間更新管理部3132は、複数のレイヤーにそれぞれ配置している仮想現実オブジェクトを他のレイヤーに移動させる処理を行う。当該処理を行うことで、複数のレイヤーにばらばらに配置されている仮想現実オブジェクトを少数のレイヤーに纏めて再配置したり、複数の仮想現実オブジェクトが配置されているレイヤーから一部の仮想現実オブジェクトを抽出して他のレイヤーに配置する構成としても良い。 Note that it is more preferable to have a function of moving the virtual reality object between the layers. The virtual space update management unit 3132 performs a process of moving virtual reality objects respectively arranged in a plurality of layers to other layers. By performing this process, you can rearrange virtual reality objects that are arranged separately on multiple layers into a small number of layers, or select some virtual reality objects from the layer on which multiple virtual reality objects are arranged. It is good also as a structure which extracts and arrange | positions to another layer.

表示映像生成処理部2140は、レイヤー毎に描画処理を行って仮想現実提示用の映像を生成するため、レイヤー数が増えると描画処理に必要となるリソースが増加する。従って、一纏めにできる仮想現実オブジェクトを同一のレイヤー内に纏める処理を行うことで、不要なレイヤーを削除し、レイヤー数を抑えることができる。 Since the display video generation processing unit 2140 generates a virtual reality presentation video by performing rendering processing for each layer, resources required for the rendering processing increase as the number of layers increases. Therefore, by performing a process of collecting virtual reality objects that can be grouped into the same layer, unnecessary layers can be deleted and the number of layers can be reduced.

なお、この場合、映像表示判定処理部720における判定結果を仮想現実サービス提供サーバ7100に送信する構成としても良い。仮想空間更新管理部3132は、当該判定結果に基づいて仮想現実オブジェクトを他のレイヤーに移動する更新処理を行う。例えば、仮想空間更新管理部3132は、映像表示判定処理部720で、新たに仮想空間に配置された仮想現実オブジェクトの映像の表示を開始すると判定された場合に、新規仮想現実オブジェクト用のレイヤーに配置されている当該仮想現実オブジェクトを既存の仮想現実オブジェクトが配置されているレイヤーに移動する処理を行う。当該構成とすることで、表示が開始された仮想現実オブジェクトは、それまでの仮想現実オブジェクトと一緒に纏めて描画されることになる。 In this case, the determination result in the video display determination processing unit 720 may be transmitted to the virtual reality service providing server 7100. The virtual space update management unit 3132 performs update processing for moving the virtual reality object to another layer based on the determination result. For example, when the video display determination processing unit 720 determines that the video display determination processing unit 720 starts to display the video of the virtual reality object newly arranged in the virtual space, the virtual space update management unit 3132 sets the layer for the new virtual reality object. A process of moving the arranged virtual reality object to the layer where the existing virtual reality object is arranged is performed. With this configuration, the virtual reality objects whose display has been started are drawn together with the virtual reality objects so far.

なお、仮想空間更新管理部3132は、仮想現実の提示の終了に係る仮想現実オブジェクトを、終了用レイヤーに移し替える構成とすると、当該仮想現実オブジェクトだけをユーザの状態に応じて終了させることが可能となるため更に好ましい。このような場合も、仮想空間更新管理部3132は、レイヤー順序情報を生成して仮想現実提示装置700へ送信する。また、仮想空間更新管理部3132は、当該レイヤーに関する表示終了条件を送信し、映像表示条件設定部710は、当該表示終了条件を設定する。映像表示判定処理部720は、当該映像表示条件設定部710に設定されている当該終了用のレイヤーの映像表示終了条件と、検知されたユーザ状態等を比較することで、当該レイヤーの表示を終了するかを判定する。当該判定の結果、ユーザ状態等が映像表示終了条件を満たしている、すなわち、当該レイヤーの表示を終了すると判定した場合に、映像合成処理部133は、合成する複数のレイヤーの中から当該終了すると判定されたレイヤーについては合成を行わず、他のレイヤーの映像を合成して表示部140に表示する制御を行う。また、映像表示判定処理部720は、当該レイヤーの表示を終了したことを示す表示終了通知情報を生成する。通信部230は、当該表示終了通知情報を仮想現実サービス提供サーバ7100に送信する。 If the virtual space update management unit 3132 is configured to transfer the virtual reality object related to the end of the presentation of the virtual reality to the end layer, only the virtual reality object can be ended according to the state of the user. Is more preferable. Also in such a case, the virtual space update management unit 3132 generates layer order information and transmits it to the virtual reality presentation device 700. In addition, the virtual space update management unit 3132 transmits a display end condition regarding the layer, and the video display condition setting unit 710 sets the display end condition. The video display determination processing unit 720 ends the display of the layer by comparing the video display end condition of the end layer set in the video display condition setting unit 710 with the detected user state and the like. Judge whether to do. As a result of the determination, when it is determined that the user state or the like satisfies the video display end condition, that is, the display of the layer is to be ended, the video composition processing unit 133 terminates the process from among a plurality of layers to be combined. The determined layer is not synthesized, and control is performed to synthesize videos of other layers and display them on the display unit 140. In addition, the video display determination processing unit 720 generates display end notification information indicating that the display of the layer has ended. The communication unit 230 transmits the display end notification information to the virtual reality service providing server 7100.

当該表示終了通知情報を受信した仮想現実サービス提供サーバ7100において、仮想空間更新管理部3132は、当該表示終了通知情報で示される表示が終了したレイヤーに配置されている仮想現実オブジェクトを仮想空間内から消去する処理を行う。当該処理によって、仮想空間に配置されていた仮想現実オブジェクトの消去が完了する。 In the virtual reality service providing server 7100 that has received the display end notification information, the virtual space update management unit 3132 displays a virtual reality object arranged in the layer for which the display indicated by the display end notification information is ended from the virtual space. Process to delete. By this processing, the erasure of the virtual reality object arranged in the virtual space is completed.

なお、上記説明では、仮想空間に配置される仮想現実オブジェクトが通常用レイヤー、新規配置用レイヤー、表示終了用レイヤー、の3つのレイヤーのいずれかのレイヤーに関連付けられる構成について説明したがこれに限定されるものではない。すなわち、上記説明では、仮想現実オブジェクト配置部3140は、新たに仮想現実コンテンツ読み出し部4110で読み出された仮想現実オブジェクトを新規配置用レイヤーに配置し、仮想現実提示装置700側で当該レイヤーの映像が通常用レイヤーの映像と合成されて表示が開始された場合に、仮想空間更新管理部3132は、通常用レイヤーに配置されている仮想現実オブジェクトを通常用レイヤーに移し替える処理を行う。また、表示終了に係る仮想現実オブジェクトがある場合は、仮想空間更新管理部3132は、通常用レイヤーに配置されている終了に係る仮想現実オブジェクトを終了用レイヤーに移動する処理を行う。当該状態において仮想現実提示装置700より表示終了通知情報が受信された場合に、当該終了用レイヤーに配置している終了に係る仮想現実オブジェクトを仮想空間から消去する。   In the above description, the configuration in which the virtual reality object placed in the virtual space is associated with any one of the three layers of the normal layer, the new placement layer, and the display end layer has been described. Is not to be done. That is, in the above description, the virtual reality object placement unit 3140 places the virtual reality object newly read by the virtual reality content reading unit 4110 on the new placement layer, and the virtual reality presentation device 700 side displays the video of the layer. When the display is started after being synthesized with the video for the normal layer, the virtual space update management unit 3132 performs a process of transferring the virtual reality object arranged in the normal layer to the normal layer. If there is a virtual reality object related to the end of display, the virtual space update management unit 3132 performs a process of moving the virtual reality object related to the end arranged in the normal layer to the end layer. When display end notification information is received from the virtual reality presentation device 700 in this state, the virtual reality object related to the end arranged in the end layer is deleted from the virtual space.

これに対し、新たに追加される各仮想現実オブジェクトをそれぞれ異なるレイヤーに配置する構成としても良いし、ユーザからの距離に応じてレイヤーを管理する構成としても良い。例えば、ユーザからの距離Lが0m<L≦5mの位置にある仮想現実オブジェクトをレイヤー01と関連付け、5m<L≦10mの位置にある仮想現実オブジェクトをレイヤー02と関連付け、10m<L≦30mの位置にある仮想現実オブジェクトをレイヤー03と関連付け、30m<L≦100mの位置にある仮想現実オブジェクトをレイヤー04と関連付け、100m<Lの位置にある仮想現実オブジェクトをレイヤー05と関連付ける。 On the other hand, it is good also as a structure which arrange | positions each newly added virtual reality object in a respectively different layer, and is good also as a structure which manages a layer according to the distance from a user. For example, a virtual reality object at a position where the distance L from the user is 0 m <L ≦ 5 m is associated with the layer 01, and a virtual reality object at a position of 5 m <L ≦ 10 m is associated with the layer 02, and 10 m <L ≦ 30 m. The virtual reality object at the position is associated with the layer 03, the virtual reality object at the position of 30m <L ≦ 100m is associated with the layer 04, and the virtual reality object at the position of 100m <L is associated with the layer 05.

ここで、ユーザ自身の移動や仮想現実オブジェクト挙動制御部5110による挙動制御によって仮想現実オブジェクトが仮想空間内を移動することで、ユーザと各仮想現実オブジェクトの位置関係は変化していく。従って、仮想空間更新管理部3132は、所定の周期で各レイヤーと各仮想現実オブジェクトとの関連付けを変更する処理を行う。 Here, when the virtual reality object moves in the virtual space by the user's own movement or behavior control by the virtual reality object behavior control unit 5110, the positional relationship between the user and each virtual reality object changes. Accordingly, the virtual space update management unit 3132 performs a process of changing the association between each layer and each virtual reality object at a predetermined cycle.

図35は、当該各レイヤーと仮想現実オブジェクトとの関連付けを管理する管理ファイルの一例である。仮想空間更新管理部3132は、当該管理ファイルにおいて、各レイヤーに関連付けられた仮想現実オブジェクトをレイヤー間で移動させることでレイヤーに関連付けられた仮想現実オブジェクトを更新する。表示映像生成処理部2140は、各レイヤー毎に当該レイヤーに含まれる仮想現実オブジェクトだけを描画したレイヤー別映像を生成する。 FIG. 35 is an example of a management file for managing the association between each layer and the virtual reality object. The virtual space update management unit 3132 updates the virtual reality object associated with the layer by moving the virtual reality object associated with each layer between the layers in the management file. The display video generation processing unit 2140 generates a video for each layer in which only the virtual reality object included in the layer is drawn for each layer.

なお、上記説明では、1つの仮想空間内に複数のレイヤーを設定する場合について説明したが、本実施形態はこれに限定されるものではない。仮想空間生成部3131は、レイヤー毎に仮想空間を生成し、仮想現実オブジェクト配置部3140は、新しいレイヤーの仮想空間に仮想現実オブジェクトを配置する。すなわち、各レイヤーが独立した仮想空間を表しており、従って仮想空間生成部3131は、新たに仮想現実オブジェクトが読み出されて配置される場合に新たな仮想空間を生成する。従って、仮想空間生成部3131は、複数の仮想空間を生成し、各仮想空間をレイヤーで識別する。表示映像生成処理部2140は、現在生成されている各レイヤーの仮想空間をそれぞれ独立して描画することでレイヤー毎の仮想現実オブジェクトの映像を生成する。 Although the case where a plurality of layers are set in one virtual space has been described in the above description, the present embodiment is not limited to this. The virtual space generation unit 3131 generates a virtual space for each layer, and the virtual reality object placement unit 3140 places a virtual reality object in the virtual space of a new layer. That is, each layer represents an independent virtual space, and therefore the virtual space generation unit 3131 generates a new virtual space when a virtual reality object is newly read and arranged. Therefore, the virtual space generation unit 3131 generates a plurality of virtual spaces and identifies each virtual space by a layer. The display image generation processing unit 2140 generates an image of the virtual reality object for each layer by independently drawing the virtual space of each layer that is currently generated.

複数の仮想空間をレイヤーとしてそれぞれ仮想現実オブジェクトが配置され、仮想空間毎に描画処理を行うため、複数の描画処理部を用意しておくことで、同時に複数レイヤーの映像を生成することができる。 Since virtual reality objects are arranged using a plurality of virtual spaces as layers, and drawing processing is performed for each virtual space, a plurality of layers can be generated simultaneously by preparing a plurality of drawing processing units.

<実施形態8>
実施形態7では、仮想現実サービス提供サーバにおいて、仮想現実提示用の映像がユーザの状態に基づいて生成され、仮想現実提示装置に送信されて表示される形態を取る。通常、ユーザ状態は仮想現実提示装置で生成され、無線ネットワークを介して仮想現実サービス提供サーバに送信され、当該ユーザ状態に基づいて制御される視点位置や視線方向に従って仮想現実提示用の映像が生成される。従って、仮想現実提示装置でユーザ状態が検知されてから、当該ユーザ状態に基づいて生成された仮想現実提示用の映像が表示部で表示されるまでにはタイムラグが発生する。
<Embodiment 8>
In the seventh embodiment, the virtual reality service providing server takes a form in which a virtual reality presentation video is generated based on the state of the user, transmitted to the virtual reality presentation device, and displayed. Usually, a user state is generated by a virtual reality presentation device, transmitted to a virtual reality service providing server via a wireless network, and a virtual reality presentation image is generated according to a viewpoint position and a line-of-sight direction controlled based on the user state. Is done. Therefore, a time lag occurs after the virtual reality presentation device detects the user state and displays the virtual reality presentation video generated based on the user state on the display unit.

このタイムラグの間にユーザ状態に大きな変更がなければ特に問題はないが、ユーザが大きく頭を傾けたり移動したりした場合に、映像生成に用いられるユーザ状態と、表示時点のユーザ状態とに乖離が生じてしまう。従って、生成された仮想現実提示用の映像をそのまま表示した場合に、現実の世界との融合がうまく機能しない場合がある。本実施形態8に係る仮想現実提示システムでは、ユーザ状態の変化に伴う仮想現実用の映像と現実の世界との乖離を抑える制御をおこなうことを特徴としている。 If there is no significant change in the user status during this time lag, there is no problem, but if the user tilts or moves greatly, there is a difference between the user status used for video generation and the user status at the time of display. Will occur. Therefore, when the generated video for presenting virtual reality is displayed as it is, the fusion with the real world may not function well. The virtual reality presentation system according to the eighth embodiment is characterized in that control is performed to suppress the divergence between the virtual reality video and the real world as the user state changes.

図35は、本実施形態8に係る仮想現実提示装置800の構成を示すブロック図である。仮想現実提示装置800は、ユーザ状態検知部110と、音声入力部210と、表示制御部130と、表示部140と、装置側仮想現実提示制御部220と、通信部230と、周囲状況検知部310と、仮想現実提示用データ記憶部410と、音声再生制御部440と、音声出力部450と、映像表示開始条件設定部710と、映像表示判定処理部720と、ユーザ状態記憶部810と、を備える。表示制御部130は、新たに映像補正処理部135を備える。 FIG. 35 is a block diagram illustrating a configuration of a virtual reality presentation device 800 according to the eighth embodiment. The virtual reality presentation device 800 includes a user state detection unit 110, a voice input unit 210, a display control unit 130, a display unit 140, a device-side virtual reality presentation control unit 220, a communication unit 230, and an ambient condition detection unit. 310, virtual reality presentation data storage unit 410, audio reproduction control unit 440, audio output unit 450, video display start condition setting unit 710, video display determination processing unit 720, user state storage unit 810, Is provided. The display control unit 130 newly includes a video correction processing unit 135.

ユーザ状態検知部110は、検知したユーザ状態の検知タイミングを示す検知タイミング情報を含めてユーザ状態情報を生成する。ユーザ状態記憶部810は、ユーザ状態検知部110で検知されたユーザ状態を時系列状に記憶管理する。 The user state detection unit 110 generates user state information including detection timing information indicating the detection timing of the detected user state. The user status storage unit 810 stores and manages the user status detected by the user status detection unit 110 in time series.

通信部230は、当該検知時刻情報を含むユーザ状態情報を仮想現実サービス提供サーバへ送信する。また、通信部230は、当該ユーザ状態情報に基づいて生成された映像データや音声データを受信する。当該映像データや音声データには、どの検知タイミングで検知されたユーザ状態に基づいて生成された映像データ又は音声データであるかを示す使用検知タイミング識別情報が含まれる。 The communication unit 230 transmits user state information including the detected time information to the virtual reality service providing server. The communication unit 230 receives video data and audio data generated based on the user state information. The video data and audio data include use detection timing identification information indicating video data or audio data generated based on a user state detected at which detection timing.

映像補正処理部135は、映像復号化処理部132で復号化された映像に対する補正処理を行う。具体的に、当該映像生成に用いられたユーザ状態を使用検知タイミング識別情報から特定し、最新の検知タイミングにおけるユーザ状態との差分を算出する。映像補正処理部135は、復号化された映像に対して、当該映像生成に用いられたユーザ状態と最新のユーザ状態の変化に対応する映像補正処理を行う。 The video correction processing unit 135 performs correction processing on the video decoded by the video decoding processing unit 132. Specifically, the user state used for the video generation is specified from the use detection timing identification information, and the difference from the user state at the latest detection timing is calculated. The video correction processing unit 135 performs video correction processing on the decoded video corresponding to the change in the user state used for the video generation and the latest user state.

例えば、ユーザが右方向に動いている場合、全体の景色は相対的に左側に流れていく。従って、表示部140に表示する映像も現実の景色の流れに合わせて左側に動いていかなければ現実の世界と仮想現実提示用の映像との調和がとれない。映像補正処理部135は、上記ユーザ状態の変化に伴って、復号化された映像の表示位置を補正する処理を行う。 For example, when the user is moving in the right direction, the entire landscape flows relatively to the left side. Therefore, unless the video displayed on the display unit 140 moves to the left side in accordance with the flow of the real scenery, the real world and the virtual reality presentation video cannot be harmonized. The video correction processing unit 135 performs processing for correcting the display position of the decoded video in accordance with the change in the user state.

映像補正処理部135は、映像生成に用いられたユーザ状態と最新のユーザ状態の差分に基づいて、表示部140における表示領域の変更量を算出する。具体的には、映像補正処理部135は、上記ユーザ状態の差分に基づいて表示部140における表示領域のずれを示す補正ベクトルを算出する。映像補正処理部135は、復号化された映像の各画素座標に当該補正ベクトルを加算することで表示位置を変更した補正後映像を生成する。 The video correction processing unit 135 calculates the change amount of the display area in the display unit 140 based on the difference between the user state used for video generation and the latest user state. Specifically, the video correction processing unit 135 calculates a correction vector indicating the shift of the display area in the display unit 140 based on the difference between the user states. The video correction processing unit 135 generates a corrected video in which the display position is changed by adding the correction vector to each pixel coordinate of the decoded video.

なお、ユーザの動きに連動して、仮想現実オブジェクトの表示位置がどの程度どの方向に移動するかはユーザの位置と仮想現実オブジェクトとの相対位置関係に応じて異なる。例えば、ユーザから遠い位置に配置されている仮想現実オブジェクトは、現実の景色と融合させるためにはユーザの移動に対して大きく表示位置が変更されないのに対し、ユーザの近くにいる仮想現実オブジェクトは、相対的に表示位置が大きく変更されることになる。従って、映像補正処理部135は、各レイヤーに含まれる仮想現実オブジェクトまでの距離を示す情報である仮想現実オブジェクト距離情報を入力し、当該仮想現実オブジェクト距離情報に基づいて表示位置の変更ベクトルを算出する構成とすることが好ましい。当該仮想現実オブジェクト距離情報は、映像データと共に仮想現実サービス提供サーバより送信される。 Note that how much the display position of the virtual reality object moves in conjunction with the movement of the user differs depending on the relative positional relationship between the user position and the virtual reality object. For example, a virtual reality object arranged at a position far from the user does not change its display position greatly in response to the movement of the user in order to fuse it with a real scene, whereas a virtual reality object near the user Therefore, the display position is relatively changed. Accordingly, the video correction processing unit 135 inputs virtual reality object distance information that is information indicating the distance to the virtual reality object included in each layer, and calculates a display position change vector based on the virtual reality object distance information. It is preferable to adopt a configuration to do so. The virtual reality object distance information is transmitted from the virtual reality service providing server together with the video data.

なお、映像補正はレイヤー毎の映像に対して行われるため、ユーザの現在位置から当該レイヤーまでの距離を示すレイヤー距離情報を入力する構成としても良い。1つのレイヤーに複数の仮想現実オブジェクトが含まれている場合、仮想現実オブジェクト毎に表示位置補正を行うことができず、レイヤー単位で補正を行うことになるため、仮想現実オブジェクトまでの個々の距離ではなく、レイヤーまでの距離とする方が適切な場合があるためである。レイヤーまでの距離は、例えば当該レイヤーに含まれる仮想現実オブジェクトの平均距離としても良いし、レイヤーに含まれる複数の仮想現実オブジェクトの中から代表仮想現実オブジェクトを設定しておき、当該代表仮想現実オブジェクトまでの距離をレイヤーまでの距離としても良い。 Since video correction is performed on video for each layer, layer distance information indicating the distance from the current position of the user to the layer may be input. When multiple virtual reality objects are included in one layer, display position correction cannot be performed for each virtual reality object, and correction is performed in units of layers, so individual distances to virtual reality objects This is because it may be more appropriate to set the distance to the layer. The distance to the layer may be, for example, the average distance of the virtual reality objects included in the layer, or a representative virtual reality object is set from a plurality of virtual reality objects included in the layer, and the representative virtual reality object is set. The distance to the layer may be the distance to the layer.

なお、レイヤーまでの距離ではなく、レイヤーの代表位置座標に関する情報を入力し、ユーザ状態の変化に伴う補正量を算出して表示位置の変更を行っても良いし、仮想現実オブジェクトまでの距離ではなく、当該仮想現実オブジェクトの位置座標に関する情報を入力し、ユーザ状態の変化に伴う補正量を算出して表示位置の変更を行っても良い。 Note that instead of the distance to the layer, information related to the representative position coordinates of the layer may be input, and the display position may be changed by calculating the correction amount associated with the change in the user state, or the distance to the virtual reality object Alternatively, the display position may be changed by inputting information related to the position coordinates of the virtual reality object and calculating a correction amount associated with a change in the user state.

なお、表示位置を算出した補正ベクトルに従って全体的にスライドすることで、表示部140で表示される範囲の映像を生成することに加えて、より高度な補正を行っても良い。例えば、ユーザ状態の変化に伴って仮想現実オブジェクトの縦横比を変更したり、大きさを拡大・縮小する補正処理を行う構成としても良い。 In addition to generating an image of the range displayed on the display unit 140 by sliding the entire display according to the correction vector for which the display position has been calculated, more advanced correction may be performed. For example, a configuration may be used in which a correction process for changing the aspect ratio of the virtual reality object or enlarging / reducing the size is performed in accordance with a change in the user state.

図37は、本実施形態8に係る仮想現実提示システム8000の構成を示すブロック図である。仮想現実提示システム8000は、仮想現実提示装置800と、仮想現実サービス提供サーバ8100と、音声解析サーバ2200と、仮想現実コンテンツ記憶DB2300と、契約者情報記憶DB3200と、を備える。 FIG. 37 is a block diagram illustrating a configuration of a virtual reality presentation system 8000 according to the eighth embodiment. The virtual reality presentation system 8000 includes a virtual reality presentation device 800, a virtual reality service providing server 8100, a voice analysis server 2200, a virtual reality content storage DB 2300, and a contractor information storage DB 3200.

仮想現実サービス提供サーバ8100は、通信部2110と、音声コンテキスト取得部2120と、サーバ側仮想現実提示制御部2130と、表示映像生成処理部2140と、画像解析処理部3110と、仮想空間設定部3130と、仮想現実オブジェクト配置部3140と、仮想現実コンテンツ読み出し部4110と、再生音声生成処理部4120と、仮想現実オブジェクト挙動制御部5110と、付随情報生成処理部8110と、を備える。 The virtual reality service providing server 8100 includes a communication unit 2110, an audio context acquisition unit 2120, a server-side virtual reality presentation control unit 2130, a display video generation processing unit 2140, an image analysis processing unit 3110, and a virtual space setting unit 3130. A virtual reality object placement unit 3140, a virtual reality content reading unit 4110, a reproduction sound generation processing unit 4120, a virtual reality object behavior control unit 5110, and an accompanying information generation processing unit 8110.

表示映像生成処理部2140は、通信部2110で受信されたユーザ状態情報に基づいて仮想現実提示用の映像を生成する。表示映像生成処理部2140は、ユーザ状態情報で示されるユーザ状態に基づいて視点位置や視線方向を特定し、当該特定した視点位置や視線方向に基づいて、仮想空間に配置されている仮想現実オブジェクトをレイヤー毎に描画することで仮想現実提示用の映像をレイヤー毎に生成する。 The display video generation processing unit 2140 generates a virtual reality presentation video based on the user state information received by the communication unit 2110. The display video generation processing unit 2140 specifies the viewpoint position and the line-of-sight direction based on the user state indicated by the user state information, and the virtual reality object arranged in the virtual space based on the specified viewpoint position and line-of-sight direction By drawing for each layer, a virtual reality presentation video is generated for each layer.

ここで、表示映像生成処理部2140は、仮想現実提示装置800が備える表示部140の表示領域よりも大きめの映像を生成する。例えば、表示部140が1920ピクセル×1080ピクセルの表示領域を有する表示パネルであった場合に、仮想現実提示装置800は、2110ピクセル×1260ピクセルの映像を生成する。具体的には、表示映像生成処理部2140は、イメージプレーンに投影した映像の中から、表示部140における表示領域よりも所定のサイズ大きい映像を切り取るクリッピング処理を実行する。このように大き目の映像を生成することで、仮想現実提示装置800における映像補正処理で発生する補正ベクトルに沿った映像のスライド処理に対応可能となる。 Here, the display video generation processing unit 2140 generates a video larger than the display area of the display unit 140 included in the virtual reality presentation device 800. For example, when the display unit 140 is a display panel having a display area of 1920 pixels × 1080 pixels, the virtual reality presentation device 800 generates an image of 2110 pixels × 1260 pixels. Specifically, the display video generation processing unit 2140 performs a clipping process of cutting out a video having a predetermined size larger than the display area on the display unit 140 from the video projected on the image plane. By generating a large image in this way, it is possible to deal with a video slide process along a correction vector generated in the video correction process in the virtual reality presentation device 800.

表示映像生成処理部2140は、映像生成に用いたユーザ状態情報に含まれる検知タイミング識別情報を付与して映像データを生成する。すなわち、表示映像生成処理部2140は、映像生成に用いたユーザ状態情報を判別可能な状態で仮想現実提示用の映像を生成する。 The display video generation processing unit 2140 generates video data by adding detection timing identification information included in the user state information used for video generation. That is, the display video generation processing unit 2140 generates a virtual reality presentation video in a state where the user status information used for video generation can be determined.

再生音声生成処理部4120は、通信部2110で受信されたユーザ状態情報に基づいて仮想現実提示用の音声を生成する。ここで、再生音声生成処理部4120は、音声生成に用いたユーザ状態情報に含まれる検知タイミング識別情報を付与して音声データを生成する。すなわち、再生音声生成処理部4120は、音声生成に用いたユーザ状態情報を判別可能な状態で仮想現実提示用の音声を生成する。 The reproduction sound generation processing unit 4120 generates sound for virtual reality presentation based on the user state information received by the communication unit 2110. Here, the reproduction audio generation processing unit 4120 generates the audio data by adding the detection timing identification information included in the user state information used for the audio generation. That is, the reproduction sound generation processing unit 4120 generates sound for virtual reality presentation in a state where the user state information used for sound generation can be determined.

付随情報生成処理部8110は、仮想現実提示装置8100における映像補正処理に用いる各種付随情報を生成する。付随情報生成処理部8110は、表示映像生成処理部2140で生成される各レイヤーの映像について、当該レイヤーの順序を示すレイヤー順序情報、各レイヤーまでの距離や代表位置座標を示すレイヤー情報、各レイヤーに含まれる仮想現実オブジェクトまでの距離や位置座標を示す仮想現実オブジェクト情報を、当該付随情報として生成する。通信部2110は、当該生成された付随情報を仮想現実提示装置800に送信する。 The accompanying information generation processing unit 8110 generates various accompanying information used for video correction processing in the virtual reality presentation device 8100. The accompanying information generation processing unit 8110 includes, for each layer video generated by the display video generation processing unit 2140, layer order information indicating the order of the layers, layer information indicating the distance to each layer and representative position coordinates, and each layer The virtual reality object information indicating the distance and position coordinates to the virtual reality object included in is generated as the accompanying information. The communication unit 2110 transmits the generated accompanying information to the virtual reality presentation device 800.

仮想現実提示装置800において通信部230は当該付随情報を受信する。付随情報にレイヤー順序情報が含まれている場合は、通信部230はレイヤー順序情報をレイヤー順序管理部134へ出力する。付随情報にレイヤー情報や仮想現実オブジェクト情報が含まれている場合は、通信部230は、これらの情報を映像補正処理部135に出力する。 In the virtual reality presentation device 800, the communication unit 230 receives the accompanying information. When the layer order information is included in the accompanying information, the communication unit 230 outputs the layer order information to the layer order management unit 134. If the accompanying information includes layer information or virtual reality object information, the communication unit 230 outputs these information to the video correction processing unit 135.

以上のように、本実施形態8に係る仮想現実提示システムでは、仮想現実サービス提供サーバ側で仮想現実提示用の映像が生成され、仮想現実提示装置側で所定の補正処理が行われた上でユーザに提示される。 As described above, in the virtual reality presentation system according to the eighth embodiment, the virtual reality presentation video is generated on the virtual reality service providing server side, and predetermined correction processing is performed on the virtual reality presentation apparatus side. Presented to the user.

一般的に、ユーザ状態の検知レートと、映像生成レート、映像表示レートは異なる。また、ユーザ状態が検知されてから、当該ユーザ状態に基づく映像が表示されるまでに映像生成処理や通信処理に伴うタイムラグが発生する。当該タイムラグの間にユーザの状態が変化すると、過去のユーザ状態に基づいて生成された映像が現実の景色と融合できなくなる可能性がある。そのため、生成された映像が受信された後に、ユーザ状態の変化に対応する補正処理を行って現実の景色との融合を維持する表示制御を行った上で表示部に表示する。当該構成とすることで、例えばユーザの頭部が動いても、表示部に表示される仮想現実オブジェクトは、仮想現実の世界の中で同一の位置を保つように表示されるため、ユーザは仮想現実の世界を疑うことなく感知し続けることができる。 In general, the user state detection rate is different from the video generation rate and the video display rate. In addition, a time lag associated with video generation processing and communication processing occurs from when the user state is detected to when the video based on the user state is displayed. If the state of the user changes during the time lag, there is a possibility that the video generated based on the past user state cannot be merged with the actual scenery. For this reason, after the generated video is received, correction processing corresponding to the change in the user state is performed, and display control is performed to maintain the fusion with the actual scenery, and then the display is displayed on the display unit. With this configuration, for example, even if the user's head moves, the virtual reality object displayed on the display unit is displayed so as to maintain the same position in the virtual reality world. You can continue to sense the real world without doubt.

なお、上記説明では映像について補正処理を行う場合について説明したが、音声についても同様の処理を行っても良い。すなわち、音声再生制御部440内に音声補正処理部を別途備え、当該ユーザ状態変化に伴って、各チャンネルに分配する音声を補正する処理を行う。但し、聴覚に対する人間の位置分解能はそれほど高くなく、ユーザ状態を検知してから音声が再生されるまでにおけるユーザ状態の変化程度では、問題となることは少ないため、音声再生に関しては当該補正を行わない構成とすることも可能である。ユーザ状態が更新されて通信部230より仮想現実サービス提供サーバ8100に送信された場合に、仮想現実サービス提供サーバ8100の再生音声生成処理部4120で最新のユーザ状態に基づいて各チャンネルの音声データが生成される。そのため聴覚における位置分解能に対して十分追随することができる。一方、視覚における位置分解能は遥かに精細であるため、僅かなユーザ状態の変化であっても、仮想現実オブジェクトの揺れがユーザに感知されてしまうため、より高いレートで補正処理を行う。 In the above description, the case where the correction process is performed on the video has been described, but the same process may be performed on the sound. That is, an audio correction processing unit is separately provided in the audio reproduction control unit 440, and a process of correcting audio distributed to each channel is performed in accordance with the user state change. However, the human position resolution with respect to hearing is not so high, and there is little problem with the change in the user state from when the user state is detected until the sound is played back. It is also possible to adopt a configuration without this. When the user status is updated and transmitted from the communication unit 230 to the virtual reality service providing server 8100, the reproduction audio generation processing unit 4120 of the virtual reality service providing server 8100 converts the audio data of each channel based on the latest user status. Generated. Therefore, it is possible to sufficiently follow the positional resolution in hearing. On the other hand, since the visual position resolution is much finer, even if there is a slight change in the user state, the vibration of the virtual reality object is perceived by the user, so that correction processing is performed at a higher rate.

<実施形態9>
私達人間は、五感で感知する現実の世界における客観的な情報に基づいて行動しながらも、希望や欲望と言った感情によって現実の世界を歪曲して認識することがある。例えば、現実的にはあり得ないことであっても願うことでそれが実現することを心の中で期待する。
<Ninth Embodiment>
While we act based on objective information in the real world perceived by the five senses, we sometimes distort and recognize the real world by feelings such as hope and desire. For example, even if it is impossible in reality, I hope in my heart that it will be realized by wishing.

仮想現実の世界とは、現実の世界では起こりえない出来事を現実の世界で起こりえたように再現することを特徴としている。従って、人間が持つ祈りや願いと言った行動に対応する形で仮想現実の世界を提示することで、ユーザは自身の祈りや願いが通じたと感じることになり、自然と仮想現実の世界に入り込むことができる。 The virtual reality world is characterized by reproducing events that cannot occur in the real world as if they had occurred in the real world. Therefore, by presenting a virtual reality world that corresponds to human behavior such as prayers and wishes, users will feel that their prayers and wishes have been communicated, and naturally enter the virtual reality world. be able to.

例えば、あるユーザが、既に亡くなってしまった祖父にもう一度会いたいという願いを持っていたとしよう。死人が生き返らないという残酷的な事実を私達人間は皆、客観的に認識しつつも、心のどこかで蘇ることを期待している。このような場合、ユーザは目を閉じ心の中で「もう一度祖父に会いたい」と呟き、願い、祈る。そして目の前に祖父が現れたとき、ユーザは祈りが通じたと感じるため、その祖父の姿が例え仮想的に創られた姿であったとしても、それが現実の世界に現れた真実のものであると錯覚しやすくなる。本実施形態9にかかる仮想現実提示システムは、このような人間の心の隙間を利用することで、仮想現実の世界をユーザに提示することを特徴とする。 For example, suppose a user has a desire to meet a grandfather who has already died. While all of us humanly recognize the cruel fact that the dead will not come back to life, we expect them to be revived somewhere in our hearts. In such a case, the user closes his eyes and asks, wishes and prays in his heart, "I want to meet my grandfather again." And when the grandfather appears in front of the user, the user feels that the prayer has passed, so even if the grandfather's figure is created virtually, it is the real thing that appeared in the real world It becomes easy to make an illusion. The virtual reality presentation system according to the ninth embodiment is characterized in that the virtual reality world is presented to the user by using such a gap between human hearts.

本実施形態9に係る仮想現実提示装置は、図12を援用して説明する。ユーザ状態検知部110は、少なくともユーザの顔の一部又は全部を撮影する内部カメラ111を備え、当該内部カメラ111で撮影された映像に基づいて、映像表示判定処理部120は、仮想現実提示用の映像の表示を開始するかどうかの判定処理を行う。 The virtual reality presentation device according to the ninth embodiment will be described with reference to FIG. The user state detection unit 110 includes an internal camera 111 that captures at least a part or all of the user's face, and based on the video captured by the internal camera 111, the video display determination processing unit 120 is for virtual reality presentation. Judgment processing of whether or not to start the display of the video.

ここで、映像表示判定処理部120は、ユーザが深く目を閉じているかどうかを判定基準として判定処理を行う。すなわち、映像表示開始条件設定部420は、ユーザが所定の基準よりも深く目を所定の時間閉じていることを映像表示開始条件として設定する。 Here, the video display determination processing unit 120 performs the determination process based on whether or not the user has closed eyes deeply. That is, the video display start condition setting unit 420 sets, as the video display start condition, that the user closes his eyes deeper than a predetermined reference for a predetermined time.

通常人間が祈ったり願ったりするときは、目を深く瞑って眉間にしわを寄せ、頭部前方に意識を集中させる。従って、映像表示判定処理部120は、内部カメラ111で撮影されたユーザの顔の映像に基づいて、単に目が開いているか閉じているかだけではなく、ユーザが所定の基準以上深く目を瞑っているかを判定する。例えば、映像表示判定処理部120は、内部カメラ111で撮影されたユーザの目の領域の画像と深く目を瞑った状態の目の画像とのマッチング処理を行い、所定の相関値以上の相関が得られているかを判定する。当該判定の結果、所定の基準値以上の相関が得られている場合に、ユーザは深く目を瞑っていると判定する。 Normally when people pray or pray, they meditate deeply and wrinkle between the eyebrows to focus their consciousness in front of the head. Therefore, the video display determination processing unit 120 is based not only on whether the eyes are open or closed based on the video of the user's face taken by the internal camera 111, but the user meditates deeply beyond a predetermined reference. It is determined whether or not. For example, the video display determination processing unit 120 performs a matching process between the image of the user's eye image captured by the internal camera 111 and the image of the eye in a state where the eyes are deeply meditated, and a correlation greater than or equal to a predetermined correlation value is obtained It is determined whether it is obtained. As a result of the determination, when a correlation equal to or greater than a predetermined reference value is obtained, it is determined that the user is deeply meditating.

当該判定の結果、所定の期間以上ユーザが深く目を瞑っていると判定された場合に、表示制御部130は、仮想現実提示用の映像表示を開始する制御を行い、表示部140は、仮想現実提示用の映像を表示する。 As a result of the determination, when it is determined that the user has deeply closed the eyes for a predetermined period or longer, the display control unit 130 performs control to start displaying video for presenting virtual reality, and the display unit 140 Displays a video for presenting reality.

同様に、音声再生判定処理部430も同様の判定処理を行い、音声再生制御部440が当該判定の結果に基づいて仮想現実提示用の音声の再生を開始する制御を行い、音声出力部450より仮想現実提示用の音声が出力される。 Similarly, the audio reproduction determination processing unit 430 performs similar determination processing, and the audio reproduction control unit 440 performs control for starting reproduction of audio for virtual reality presentation based on the determination result. Audio for virtual reality presentation is output.

以上のように、本実施形態9に係る仮想現実提示装置において、映像表示開始判定処理部120は、ユーザ状態検知部110で撮影された映像に基づいて、ユーザが深く目を閉じているかを判定し、表示制御部130は、ユーザが深く目を閉じていると判定された場合に、表示部140に仮想現実提示用の映像を表示することを開始する。 As described above, in the virtual reality presentation device according to the ninth embodiment, the video display start determination processing unit 120 determines whether the user has closed eyes deeply based on the video captured by the user state detection unit 110. Then, the display control unit 130 starts displaying the virtual reality presentation video on the display unit 140 when it is determined that the user has closed eyes deeply.

当該構成とすることで、ユーザの祈りや願いが通じたと言う形で仮想現実の世界を提示することが可能となる。なお、音声入力部210で入力された音声のコンテキストに基づいて、仮想現実サービス提供サーバ側で適切な仮想現実コンテンツが選択されてユーザに仮想現実の世界が提示される構成とすると良い。 With this configuration, it is possible to present the virtual reality world in the form that the user's prayers and wishes have been communicated. It is preferable that the virtual reality service providing server selects an appropriate virtual reality content based on the voice context input by the voice input unit 210 and presents the virtual reality world to the user.

例えば、音声入力部210で「祖父に会いたい」と言った音声が入力されたとする。この場合、契約者情報記憶DBに記憶されている当該ユーザの契約者情報に基づいて、予め仮想現実オブジェクト化して仮想現実コンテンツ記憶DBに記憶されている当該ユーザの祖父の姿を現した仮想現実オブジェクトを読み出して仮想空間に配置する。また、仮想現実コンテンツ記憶DBには、当該祖父の肉声データを予め記憶しておくと良い。当該祖父の姿を示す仮想現実オブジェクトの映像が描画されて仮想現実提示用映像データが生成され、また、当該祖父の音声データを読み出して各チャンネルに分配されることで仮想現実提示用音声データが生成される。これらのデータは仮想現実提示装置に送信され、映像表示開始判定処理部120や音声再生開始判定処理部430における判定処理に従って、当判定基準をクリアした場合にユーザに対する提示が開始される。 For example, it is assumed that a voice saying “I want to meet my grandfather” is input from the voice input unit 210. In this case, based on the contractor information of the user stored in the contractor information storage DB, a virtual reality representing the appearance of the grandfather of the user stored in the virtual reality content storage DB in advance as a virtual reality object. Read the object and place it in the virtual space. The virtual reality content storage DB may store the grandfather's real voice data in advance. The virtual reality presentation video data representing the appearance of the grandfather is drawn to generate virtual reality presentation video data, and the audio data of the virtual reality presentation is obtained by reading the grandfather audio data and distributing it to each channel. Generated. These data are transmitted to the virtual reality presentation device, and the presentation to the user is started when the determination criterion is cleared according to the determination processing in the video display start determination processing unit 120 and the audio reproduction start determination processing unit 430.

なお、上記構成では、ユーザ状態検知部110である内部カメラ111が少なくともユーザの目を含む領域を撮影することでユーザ状態を検知する場合について説明したがこれに限定されるものではない。例えば、図38に示す仮想現実提示装置900のように、ユーザの脳波を検知する脳波センサ114やユーザの脈拍数や血流量、血圧、発汗等の状態を検知する生体センサ115を備える構成としても良い。 In the above configuration, the case where the internal camera 111 serving as the user state detection unit 110 detects the user state by capturing an area including at least the eyes of the user has been described, but the present invention is not limited to this. For example, as in a virtual reality presentation device 900 shown in FIG. 38, a configuration including an electroencephalogram sensor 114 that detects a user's brain wave and a biological sensor 115 that detects a user's pulse rate, blood flow, blood pressure, sweating, and the like. good.

通常、ユーザが祈る場合は、目を閉じ、頭の前頭部に意識を集中する。当該行動によって、前頭葉部分の血流量が増加し、アルファー波が放出される。脳波センサ−114は、当該アルファー波を検知することでユーザが祈りや願いを行っていると判定する。また、これらのセンサからの検知結果と内部カメラ111による目の閉じ具合などとを複合して映像表示開始判定を行っても良い。 Usually, when a user prays, he closes his eyes and concentrates his consciousness on the front of the head. This action increases the blood flow in the frontal lobe and emits alpha waves. The electroencephalogram sensor-114 determines that the user is praying or wishing by detecting the alpha wave. Further, the video display start determination may be performed by combining the detection results from these sensors and the closing state of the eyes by the internal camera 111.

なお、ユーザが深く目を閉じているかを検知する検知手段としては、ユーザの目の周囲部分の高さを図るレーザ干渉計を用いることも可能である。深く目を閉じる場合は、目の周囲に深い皺ができるため、当該皺を検出することでユーザが深く目を閉じているかどうかを検知することができる。また、目の周囲の皺の数や深さを検知することでユーザが深く目を閉じているかを検知する構成としても良い。内部カメラ111で撮影されたユーザの目を含む領域の画像の中で、マッチング処理によって皺の部分を検知し、当該皺の数や皺の長さ、皺の部分と隣接する部分との間の輝度の違いなどから皺の深さを検知する。映像表示開始判定処理部120は、当該皺の数や皺の長さ、皺の深さなどを、基準となる皺の数や皺の長さ、皺の深さと比較することで、ユーザの状態が仮想現実の提示を開始するための条件を満たしているかを判定する。当該構成としても良い。 Note that a laser interferometer that measures the height of the peripheral portion of the user's eyes can be used as detection means for detecting whether the user has closed his eyes deeply. When the eyes are closed deeply, a deep eyelid is formed around the eyes. Therefore, it is possible to detect whether the user has closed the eyes deeply by detecting the eyelid. Moreover, it is good also as a structure which detects whether the user has closed eyes deeply by detecting the number and depth of the eyelid around eyes. In the image of the area including the user's eyes photographed by the internal camera 111, the wrinkle portion is detected by matching processing, and the number of the wrinkles, the length of the wrinkles, and the portion between the wrinkle portion and the adjacent portion The depth of the ridge is detected from the difference in brightness. The video display start determination processing unit 120 compares the number of wrinkles, the length of the wrinkles, the depth of the wrinkles, and the like with the number of wrinkles, the length of the wrinkles, and the depth of the wrinkles, so that the user state Determines whether the conditions for starting the presentation of virtual reality are satisfied. It is good also as the said structure.

<実施形態10>
私達人間は、生まれながらに有している感覚器官を用いて現実の世界で生じる様々な事象を感知し、現実の世界で行動を行うことでこの現実の世界を生きている。すなわち、人間は、五感を使って外部より情報を入力し、入力した情報を脳で処理し、処理結果を行動と言う形で出力する生物であると言える。
<Embodiment 10>
We humans live in this real world by sensing various events that occur in the real world using the sensory organs we have born and acting in the real world. That is, humans can be said to be organisms that input information from outside using the five senses, process the input information in the brain, and output the processing results in the form of actions.

このことは、人間が有する視覚や聴覚を欺くことで、人工的に創り出した仮想現実の世界を現実の世界であるように錯覚させることができることを意味している。仮想現実提示装置は、このようなユーザインタフェース装置である。 This means that by deceiving human vision and hearing, the virtual reality world created artificially can be illusioned as if it were the real world. The virtual reality presentation device is such a user interface device.

仮想現実提示装置によって、ユーザに提示される人工的な世界である仮想現実の世界と現実の世界とは一部が共通している。従って、仮想現実の世界に対する現実の世界からの乖離度を表すパラメータを新たに導入することが可能となる。本明細書では当該パラメータを仮想現実度と称する。仮想現実度は0〜100の数値で表され、仮想現実度0は、ユーザに何も提示されておらず、ユーザが感知する世界が現実の世界そのものであることを示しており、仮想現実度100は、ユーザが感知する世界が現実の世界から完全に乖離している理想的な状態を示している。すなわち、仮想現実度100は、仮想現実提示装置が現実の世界からの情報を完全に遮断し、ユーザが感知する全ての情報が人工的に創り出された情報によるものであることを示している。   The virtual reality world, which is an artificial world presented to the user by the virtual reality presentation device, is partially in common with the real world. Accordingly, it is possible to newly introduce a parameter representing the degree of deviation from the real world with respect to the virtual reality world. In this specification, the parameter is referred to as virtual reality. The virtual reality is represented by a numerical value of 0 to 100. The virtual reality 0 indicates that nothing is presented to the user and the world sensed by the user is the real world itself. Reference numeral 100 denotes an ideal state where the world perceived by the user is completely separated from the real world. That is, the virtual reality degree 100 indicates that the virtual reality presentation device completely blocks information from the real world, and all the information sensed by the user is based on artificially created information.

図68は、当該仮想現実度を説明する図である。ユーザはソファーが2つ置かれている部屋にいるとする。仮想現実提示装置が何も表示しない場合、ユーザが感知する景色は現実世界Aの景色である(a)。ここで、仮想現実提示装置が犬の映像を表示した場合(b)、ユーザが感知する景色はソファーに犬が寝ている景色であり、現実の世界Aとは異なる仮想現実の世界Bの世界を見ていることになる。仮想現実提示装置がライオンの映像を表示した場合(c)、ユーザが感知する景色はソファーにライオンが寝ている景色であり、現実の世界Aとは異なる仮想現実の世界Cの世界を見ていることになる。 FIG. 68 is a diagram for explaining the virtual reality degree. Assume that the user is in a room with two sofas. When the virtual reality presentation device displays nothing, the scenery sensed by the user is the scenery of the real world A (a). Here, when the virtual reality presentation device displays the image of the dog (b), the scenery sensed by the user is the scenery where the dog is sleeping on the sofa, and the world B of the virtual reality world B different from the real world A Will be watching. When the virtual reality presentation device displays an image of a lion (c), the view sensed by the user is a view of the lion sleeping on the sofa, and sees a world of a virtual reality world C different from the real world A. Will be.

仮想現実の世界Bは現実の世界とは異なる人工的な世界であるが、現実の世界において、犬がソファーに寝ていると言う事象は比較的起こりえることである。これに対し、自宅のソファーにライオンが寝ていると言う事象は比較的起こりえないことであり、仮想現実の世界Cは仮想現実の世界Bよりも仮想現実度が高いと言うことになる。 The virtual reality world B is an artificial world different from the real world, but in the real world, an event that a dog is sleeping on a sofa is relatively likely to occur. On the other hand, the phenomenon that the lion is sleeping on the sofa at home is relatively unlikely, and the virtual reality world C is higher in virtual reality than the virtual reality world B.

私達人間が生きる現実の世界は、物理的、社会的制約を受けている。例えば、質量のある物質は光速を超えることができないという物理的制約から惑星間旅行は実現が困難であるし、エネルギー保存の法則が支配すると言った物理的制約から生身の体で空を自由に飛ぶことはできない。 The real world where we live is subject to physical and social constraints. For example, it is difficult to realize interplanetary travel due to the physical restriction that a substance with mass cannot exceed the speed of light, and the physical body said that the law of conservation of energy governs the sky in the living body freely. I can't fly.

また、物理的には可能な事象であっても、現実の人間社会に平穏と秩序を与えるために設定されている倫理規範や各法律などにより、人間の行動は社会的な制約を受けている。このように、人間は自由を謳歌する立場でありながら、現実の世界では様々な制約を受ける条件的自由を享受しているに過ぎない。   Even if it is a physically possible event, human behavior is socially restricted by ethical norms and laws set to give peace and order to the real human society. . Thus, while human beings are in a position to enjoy freedom, in the real world they only enjoy conditional freedom subject to various restrictions.

仮想現実提示装置は、このように私達が常識として捉えている制約を取り外し、現実の世界では体験できない世界をユーザに提示させることにその存在価値が見い出せる。従って、現実の世界より大きく乖離している仮想現実度の高い仮想現実の世界をユーザに提示させることができるほど、その存在価値が高いと言う指標が成り立つ。 The virtual reality presenting apparatus can find its existence value by removing the restriction that we regard as common sense in this way and letting the user present a world that cannot be experienced in the real world. Therefore, an indicator that the existence value is so high that the user can be presented with a virtual reality world with a high degree of virtual reality greatly deviating from the real world.

その一方で、仮想現実提示装置が提示する仮想現実の世界をユーザが現実の世界であると錯覚できなければ、例え仮想現実度の高い仮想現実の世界をユーザに提示したところでそれは単なる映像や音声でしかなく、仮想現実の世界の構築に寄与するものではない。従って、仮想現実提示装置がユーザに仮想現実の世界を提示している場合において、自身が感知している仮想現実の世界が現実の世界であると錯覚している度合いを示すパラメータを新たに導入することが可能となる。本明細書では、当該錯覚している度合いを錯覚度と称する。 On the other hand, if the user cannot imagine that the virtual reality world presented by the virtual reality presentation device is the real world, the virtual reality world with a high degree of virtual reality is presented to the user. However, it does not contribute to the construction of a virtual reality world. Therefore, when the virtual reality presentation device presents the virtual reality world to the user, a new parameter indicating the degree of illusion that the virtual reality world sensed by itself is the real world has been introduced. It becomes possible to do. In the present specification, the degree of the illusion is referred to as the illusion degree.

図69は、仮想現実提示装置がユーザに仮想現実の世界を提示している場合において、ユーザの錯覚度の時間変化を示す図である。錯覚度には閾値T0を設定することができ、錯覚度が閾値Th0を超えている場合は、ユーザは現在自身が感知している世界が現実の世界であると錯覚していることを示しており、閾値Th0を下回っている場合は、ユーザは現在自身が感知している世界が現実の世界ではない人工的な世界であると認識していることを示している。 FIG. 69 is a diagram illustrating a temporal change in the illusion degree of the user when the virtual reality presentation device presents the virtual reality world to the user. A threshold T0 can be set for the illusion degree. If the illusion degree exceeds the threshold Th0, the user indicates that the world that he / she currently senses is an illusion. If the threshold value is less than the threshold Th0, the user recognizes that the world that the user is currently sensing is an artificial world that is not a real world.

図69において、T1のタイミングまでは仮想現実提示装置が犬の映像を表示しており、ユーザは犬がソファーに座っているという仮想現実の世界を感知している。ユーザの錯覚度は閾値Th0を超えているためユーザは自身が見ている景色が現実の世界であると錯覚している。ここでT1のタイミングで仮想現実提示装置が象の映像に切り替えたとする。ユーザは象がソファーに立っているという仮想現実の世界を感知しているが、錯覚度が閾値Th0を下回っているため、ユーザは当該見えている象が現実の世界にいる象ではなく、映像の象であると認識している。 In FIG. 69, the virtual reality presentation device displays a dog image until the timing of T1, and the user senses the virtual reality world where the dog is sitting on the sofa. Since the illusion degree of the user exceeds the threshold Th0, the user has an illusion that the scenery he / she sees is the real world. Here, it is assumed that the virtual reality presentation device switches to an elephant image at the timing of T1. The user perceives the virtual reality world where the elephant is standing on the sofa, but since the illusion is below the threshold Th0, the user is not an elephant in the real world but the video It is recognized as an elephant.

このように、一般的に仮想現実度が高いほどユーザの錯覚度は下がる傾向にある。しかしながら、仮想現実度が高い仮想現実の世界であっても、段階的に仮想現実度を上げていくことでユーザの錯覚度を落とさずに提示することが可能となる。 As described above, generally, the higher the virtual reality degree, the lower the illusion degree of the user. However, even in a virtual reality world with a high virtual reality, it is possible to present the virtual illusion in stages without reducing the illusion of the user.

例えば、「恐竜のいる世界ツアー」という仮想現実サービスをユーザに提供する場合において、目の前に大型恐竜の映像を急に表示するとユーザはそれが偽物の映像であると直ちに認識してしまう。一方、遠く離れた場所に見えるように恐竜の映像を表示しておき、徐々にユーザに近づいていくように表示させたり、最初はトカゲの映像を表示しておき、時間をかけてゆっくりと恐竜に連続的に変化させたりすることで、錯覚度を高く維持することが可能となる。 For example, when a virtual reality service called “world tour with dinosaurs” is provided to a user, if a video of a large dinosaur is suddenly displayed in front of the user, the user immediately recognizes that it is a fake video. On the other hand, a dinosaur image is displayed so that it can be seen in a distant place, and it is displayed to gradually approach the user, or a lizard image is displayed at first, and slowly over time. It is possible to maintain a high illusion degree by continuously changing the illusion.

このように、ユーザが仮想現実の世界に入り込むためには、錯覚度を高く維持しつつ、仮想現実の世界をユーザに提示する必要があるが、従来の技術ではこのような観点についての制御がなされておらず、一方的に人工的な映像を表示するに留まっていた。従って、ユーザは、現実の世界に表された映像を楽しむことができる一方で、それを作り物であると認識した上で楽しんでいるにすぎず、提示された仮想現実の世界を現実の世界であると錯覚し、仮想現実の世界に入り込むと言った体験をすることができなかった。 As described above, in order for a user to enter the virtual reality world, it is necessary to present the virtual reality world to the user while maintaining a high illusion degree. It wasn't done, and it was only unilaterally displaying artificial images. Therefore, while the user can enjoy the image represented in the real world, he / she only enjoys it after recognizing it as a product, and the presented virtual reality world is realized in the real world. I had an illusion that I couldn't have the experience of entering the virtual reality world.

本実施形態では上記課題を鑑み、仮想現実の世界を現実の世界であるように錯覚するように仮想現実の世界の提示を制御することを特徴とする。以下、図面を参照して詳細に説明する。以下の説明において同一の符号が付された部分は実質的に同一の機能を有している。また、発明の明確化のため重複部分は適宜説明が省略されている。 In the present embodiment, in view of the above-described problems, the presentation of the virtual reality world is controlled so as to make an illusion that the virtual reality world is a real world. Hereinafter, it will be described in detail with reference to the drawings. In the following description, parts denoted by the same reference numerals have substantially the same functions. For the sake of clarification of the invention, explanations of overlapping parts are omitted as appropriate.

図40は本発明の実施形態10に係る仮想現実提示システム1000の構成を示すブロック図である。仮想現実提示システム1000は、ユーザ状態検知部1010と、提示可能仮想現実度算出部1020と、映像生成処理部1030と、映像表示部1040とを備える。 FIG. 40 is a block diagram showing the configuration of the virtual reality presentation system 1000 according to the tenth embodiment of the present invention. The virtual reality presentation system 1000 includes a user state detection unit 1010, a presentable virtual reality calculation unit 1020, a video generation processing unit 1030, and a video display unit 1040.

ユーザ状態検知部1010は、当該仮想現実提示システム1000からの仮想現実の提示を受けているユーザの状態を検知する。ユーザ状態検知部1010は、例えばユーザの加速度を検知する加速度センサや、ユーザの傾きを検知する傾きセンサ、ユーザの位置を検出するGPS受信機などで構成される。 The user state detection unit 1010 detects the state of the user who is receiving the virtual reality presentation from the virtual reality presentation system 1000. The user state detection unit 1010 includes, for example, an acceleration sensor that detects the user's acceleration, an inclination sensor that detects the user's inclination, and a GPS receiver that detects the user's position.

提示可能仮想現実度算出部1020は、ユーザに提示可能な仮想現実の仮想現実度を算出する。ここで、仮想現実(VR:Vertual Reality)とは、コンピュータグラフィックス(CG:Computer Graphics)や音響効果を組み合わせることで、人工的に創り出される現実感(リアリティー)のある世界を言う。仮想現実度は、ユーザが存在する現実の世界と、仮想現実提示システム1000が提示する仮想現実の世界との乖離度を示しており、実施形態10では0〜100のいずれかの値で示される。 The presentable virtual reality calculation unit 1020 calculates the virtual reality of virtual reality that can be presented to the user. Here, virtual reality (VR) refers to a world with reality created artificially by combining computer graphics (CG) and sound effects. The virtual reality degree indicates the degree of divergence between the real world where the user exists and the virtual reality world presented by the virtual reality presentation system 1000. In the tenth embodiment, the virtual reality degree is indicated by any value from 0 to 100. .

映像生成処理部1030は、ユーザ状態検知部1010で検知されたユーザの状態に基づいて、提示可能仮想現実度算出部1020で算出された仮想現実度に収まるように仮想現実提示用の映像を生成する。 The video generation processing unit 1030 generates a video for virtual reality presentation so as to be within the virtual reality calculated by the presentable virtual reality calculation unit 1020 based on the user status detected by the user status detection unit 1010. To do.

仮想現実提示用の映像とは、例えば仮想現実オブジェクトを含む映像である。仮想現実オブジェクトとは、人為的に設定される仮想的な空間である仮想空間に配置されることで、仮想現実の世界に表される仮想的な人物や建築物などを指す。当該仮想空間が、ユーザの周囲の現実の空間に対応するように設定されることで、ユーザに仮想現実の世界が提示される。 The virtual reality presentation video is, for example, a video including a virtual reality object. The virtual reality object refers to a virtual person or a building represented in the virtual reality world by being arranged in a virtual space that is a virtual space artificially set. By setting the virtual space so as to correspond to the real space around the user, the virtual reality world is presented to the user.

各種の仮想現実オブジェクトは、外観形状を規定する3Dポリゴンデータや、当該ポリゴンデータで形成される形状の表面に張り付けられるテキスチャーデータなどを含むモデルデータで構成される。また、仮想現実オブジェクトを動作させるための関節ポイントデータや骨格データ等を含む構成とするとより好ましい。関節ポイントデータとポリゴンデータの頂点とが関連付けされており、関節ポイントの位置や角度を変更することで、関連付けされているポリゴンデータの頂点の位置が変更されることになり、仮想現実オブジェクトの外観形状が変化する。また、テキスチャーデータも複数種類用意されており、各テキスチャーデータは識別番号で識別される。選択されたテキスチャーがポリゴン表面に張り付けられることで、仮想現実オブジェクトの映像が生成される。 Each type of virtual reality object is composed of model data including 3D polygon data defining the appearance shape, texture data pasted on the surface of the shape formed by the polygon data, and the like. Moreover, it is more preferable that the configuration includes joint point data, skeleton data, and the like for operating the virtual reality object. The joint point data and the vertex of the polygon data are associated, and changing the position and angle of the joint point changes the position of the vertex of the associated polygon data, and the appearance of the virtual reality object The shape changes. A plurality of types of texture data are also prepared, and each texture data is identified by an identification number. An image of the virtual reality object is generated by pasting the selected texture onto the polygon surface.

映像生成処理部1030は、ユーザ状態検知部1010で検知されたユーザの状態に基づいて、現実の世界の景色と適合するように仮想現実提示用の映像を生成する。 The video generation processing unit 1030 generates a video for virtual reality presentation based on the user state detected by the user state detection unit 1010 so as to match the real world scene.

映像表示部1040は、映像生成処理部1030で生成された仮想現実提示用の映像を表示する。 The video display unit 1040 displays the virtual reality presentation video generated by the video generation processing unit 1030.

以上のように、本実施形態10に係る仮想現実提示システムによれば、ユーザに提示される仮想現実の世界における現実の世界との乖離度合を制御しながら仮想現実の世界を提示することで、自身が見ている景色は現実の世界の景色であるとユーザが錯覚した状態を維持することを特徴としている。従って、ユーザは、仮想現実の世界に入り込んで現実の世界では物理的・社会的に不可能な世界を体験することが可能となる。 As described above, according to the virtual reality presentation system according to the tenth embodiment, by presenting the virtual reality world while controlling the degree of deviation from the real world in the virtual reality world presented to the user, It is characterized by maintaining the illusion of the user that the scenery he / she sees is a real world scenery. Accordingly, the user can enter the virtual reality world and experience a world physically and socially impossible in the real world.

なお、本実施形態10に係る仮想現実提示システム1000は、図41に示す構成とすると更に良好である。図41に示す仮想現実提示システム1000bは、仮想現実コンテンツ記憶部1050と、提示中仮想現実度算出部1060と、を更に備える。 It should be noted that the virtual reality presentation system 1000 according to the tenth embodiment is more favorable when configured as shown in FIG. The virtual reality presentation system 1000b illustrated in FIG. 41 further includes a virtual reality content storage unit 1050 and a presenting virtual reality calculation unit 1060.

仮想現実コンテンツ記憶部1050は、仮想現実コンテンツを記憶する。仮想現実コンテンツとは、仮想現実の世界を創り出すために使用されるデータ等の総称であり、少なくとも仮想現実オブジェクトの外観を規定するモデルデータを含む。当該モデルデータは、外観形状を規定するポリゴンデータや、外観形状表面に張り付けるテキスチャーデータなどから構成される。また、仮想現実コンテンツには、仮想現実の世界を創り出すために用いられる背景音楽データ、仮想現実オブジェクトが発する音声データ、仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御プログラム、仮想現実の世界の時間的変化(ストーリー性)を制御する仮想現実制御プログラムなどが含まれる。 The virtual reality content storage unit 1050 stores virtual reality content. The virtual reality content is a generic term for data used to create a virtual reality world, and includes at least model data that defines the appearance of a virtual reality object. The model data includes polygon data that defines the appearance shape, texture data that is pasted on the surface of the appearance shape, and the like. Virtual reality content includes background music data used to create a virtual reality world, audio data generated by a virtual reality object, a virtual reality object behavior control program that controls the behavior of a virtual reality object, Virtual reality control programs that control temporal changes (story characteristics) are included.

提示中仮想現実度算出部1060は、現在提示中である仮想現実の世界に係る仮想現実度を算出する。例えば、提示中仮想現実度算出部1060は、映像生成処理部1030が生成する仮想現実提示用の映像として映し出される仮想現実オブジェクトの種類や、当該映像に含まれる仮想現実オブジェクトの数、当該仮想現実提示用の映像の情報量などに基づいて、現在提示中である仮想現実の世界の仮想現実度を算出する。 The presenting virtual reality calculation unit 1060 calculates the virtual reality related to the virtual reality world currently being presented. For example, the presenting virtual reality calculation unit 1060 displays the types of virtual reality objects displayed as the virtual reality presentation video generated by the video generation processing unit 1030, the number of virtual reality objects included in the video, the virtual reality Based on the information amount of the video for presentation, the virtual reality degree of the virtual reality world currently being presented is calculated.

例えば、提示中仮想現実度算出部1060は、映像生成処理部1030が生成する仮想現実提示用の映像として映し出されている各仮想現実オブジェクトにそれぞれ割り当てられた仮想現実度の総和を取ることで現在提示中である仮想現実の世界の仮想現実度を算出する。 For example, the presenting virtual reality calculation unit 1060 obtains the sum of the virtual reality assigned to each virtual reality object displayed as the virtual reality presentation video generated by the video generation processing unit 1030. Calculate the virtual reality of the virtual reality world being presented.

また、例えば、提示中仮想現実度算出部1060は、映像表示部140が備える表示領域(表示総画素数)に対して、映像生成処理部1030が生成する仮想現実提示用の映像の画素数の割合によって現在提示中の仮想現実の世界の仮想現実度を算出する。 Further, for example, the presenting virtual reality calculation unit 1060 indicates the number of pixels of the virtual reality presentation video generated by the video generation processing unit 1030 with respect to the display area (total number of display pixels) included in the video display unit 140. The virtual reality of the virtual reality world currently being presented is calculated according to the ratio.

提示可能仮想現実度算出部1020は、提示中仮想現実度算出部1060で算出された現在提示中の仮想現実の世界に係る仮想現実度を基準として、所定の値を加算・減算・乗算・除算する所定の計算式に基づいて提示可能な仮想現実の世界に係る仮想現実度を算出する。映像生成処理部1030は、生成する仮想現実提示用の映像の仮想現実度が、当該算出された提示可能な仮想現実の世界に係る仮想現実度以下となるように、仮想現実提示用の映像を生成する。 The presentable virtual reality calculation unit 1020 adds, subtracts, multiplies, and divides a predetermined value on the basis of the virtual reality related to the world of the virtual reality being presented calculated by the presenting virtual reality calculation unit 1060 The virtual reality degree related to the virtual reality world that can be presented is calculated based on a predetermined calculation formula. The video generation processing unit 1030 displays the virtual reality presentation video so that the virtual reality degree of the virtual reality presentation video to be generated is equal to or less than the virtual reality degree of the calculated virtual reality world that can be presented. Generate.

人間の脳は、緩やかな変化には鈍感であるという特徴がある。一部が異なる2つの画像を切り替えた場合に、人間はその違いを適切に認識することができるが、数十秒程度の時間をかけて緩やかに2つの画像を変化させていく場合は、その違いを認識することができないという特徴がある。 The human brain is insensitive to gradual changes. When two images with different parts are switched, humans can recognize the difference appropriately. However, when two images are gradually changed over a period of several tens of seconds, There is a feature that the difference cannot be recognized.

これは、生物の脳は、生存競争に生き残るために状況判断を行うことを特徴として進化してきたからである。人間は、五感、すなわち、味覚、触覚、視覚、聴覚、嗅覚を用いて外界で生じる事象を検知し、検知した情報を脳で処理して次の行動を行う生物である。人間の脳は、現在見聞きして感知している状況と、直近の過去に感知した状況との差分から状況判断をするように構成されている。従って、時間が経過するほど感知した周囲状況の細部が記憶から外れていくため、緩やかに変化させることで、最初の状況から大きな違いを生じていたとしても、その違いを人間の脳は適切に捕捉できないと言う特徴を有する。 This is because the brains of living organisms have evolved with the characteristic of making situation judgments in order to survive the survival competition. A human being is a living organism that detects events that occur in the outside world using the five senses, that is, taste, touch, vision, hearing, and smell, and processes the detected information in the brain to perform the next action. The human brain is configured to judge the situation from the difference between the situation that is currently observed and sensed and the situation that was sensed in the past. Therefore, as the time passes, the details of the surrounding situation that have been sensed become out of memory, so even if there is a big difference from the initial situation by slowly changing it, the human brain will appropriately It has the feature that it cannot be captured.

言うまでもなく、人間は地球が誕生したから38億年に渡る長い生存競争の現代における最終勝者である。生存競争において最も大切なことは、次にどのように行動するかを適切に特定することであり、私達人間は地球上の生物の中で、私達人間が考えるよりも遥かにこの状況判断能力に特化してきた生物である。 Needless to say, human beings are the final winners of the 3.8 billion year long survival competition since the earth was born. The most important thing in the survival competition is to appropriately identify how to act next, and we human beings judge this situation far more than we think in life on earth. A creature that has specialized in ability.

状況判断において、10秒前の状況と1秒前の状況とでは、後者の方が圧倒的に重要な情報を持っている。その一方で、状況の時間的な移り変わりを適切に把握することも重要となる。そこで、人間の脳は、感知した情報の細部を時間と共に忘却し、その状況をコンセプトと言う形に情報圧縮して時系列変化に対応する。従って、仮想現実の世界についても時系列変化を緩やかにすることで、現在感知している仮想現実の世界に対する心理的障害を生ずることなく仮想現実の世界に入り込むことができる。このことは、およそ非現実的な夢を見ていながらも、夢を見ている当人にとってはその夢の世界が、現実の世界ではなく夢の世界であると認識できないと言うことと共通である。従って、本発明は、素晴らしい夢の世界の体験をよりリアルな現実の世界に重ねた仮想現実の世界として実現することが可能となる。 In the situation judgment, the latter has overwhelmingly important information in the situation 10 seconds ago and the situation 1 second ago. On the other hand, it is also important to properly grasp the changes in the situation over time. Therefore, the human brain forgets the details of the sensed information with time, and compresses the information into a form called a concept to cope with time-series changes. Accordingly, by slowing down the time series change in the virtual reality world, it is possible to enter the virtual reality world without causing a psychological obstacle to the currently sensed virtual reality world. This is in common with saying that a person who is dreaming about an unrealistic dream cannot recognize that the dream world is not a real world but a dream world. is there. Therefore, the present invention can be realized as a virtual reality world in which a wonderful dream world experience is superimposed on a more realistic real world.

仮想現実提示システム1000bは、このような人間の脳が本質的に持つ特徴を利用している。すなわち、仮想現実度の高い世界であって現実の世界からの乖離が激しい仮想現実の世界をユーザに提示する場合においても、現実の世界から緩やかに変化させて仮想現実の世界を形作って行くことでユーザは自身が感知している世界が現実の世界から仮想現実の世界へ移っていることを認識させないようにすることを特徴としている。 The virtual reality presentation system 1000b uses such characteristics inherent in the human brain. In other words, even when presenting users with a virtual reality world that has a high degree of virtual reality and is far from the real world, the virtual reality world should be shaped by gradually changing from the real world. The user is characterized by preventing the user from recognizing that the world that the user senses is moving from the real world to the virtual reality world.

すなわち、長い進化の過程を経て、現実の世界で起こり得る状況変化に適切に対応できるように進化した人間の脳に対して、その高い判断能力を生み出す原理の逆手を取って、ユーザの判断能力が適切に機能しないように仮想現実の世界を提示する。 In other words, a user's ability to make judgments by taking the opposite of the principle that creates a high judgment ability of the human brain that has evolved so that it can respond appropriately to the situation changes that can occur in the real world through a long process of evolution. Present the virtual reality world so that does not function properly.

現在提示中の仮想現実の世界に係る仮想現実度を基準として、当該提示中の仮想現実度から所定の差分を与えることで仮想現実度を現在提示可能な仮想現実度であるとして求める。そして、当該求めた提示可能な仮想現実度に収まる様に仮想現実提示用の映像を生成することで、ユーザが感知する世界は現実の世界から緩やかに仮想現実の世界へと移行していく。 The virtual reality is obtained as a virtual reality that can be presented at present by giving a predetermined difference from the virtual reality that is being presented with reference to the virtual reality that is related to the virtual reality that is currently being presented. Then, by generating the virtual reality presentation video so as to be within the obtained presentable virtual reality level, the world sensed by the user gradually shifts from the real world to the virtual reality world.

当該仮想現実度に基づく制御が行われることで、一見すると現実的にはあり得ないように思われる仮想現実の世界であっても、現実の世界から仮想現実の世界への移行の不連続性を抑えることができる。従って、現実の世界における状況判断に特化した人間の脳の処理機構の盲点に入り込むことにより、顕在的な意識下において仮想現実の世界をバーチャルであるとユーザが認識することを妨げる効果を奏することができる。   By performing control based on the virtual reality level, discontinuity in the transition from the real world to the virtual reality world, even in a virtual reality world that seems impossible at first glance Can be suppressed. Therefore, by entering the blind spot of the human brain processing mechanism specializing in situation determination in the real world, there is an effect that prevents the user from recognizing that the virtual reality world is virtual under the obvious consciousness. be able to.

また、本実施形態10に係る仮想現実提示システム1000は、図42に示す構成とすると更に良好である。図42に示す仮想現実提示システム1000cは、音声生成処理部1070と、音声出力部1080と、を更に備える。 Further, the virtual reality presentation system 1000 according to the tenth embodiment is more favorable when configured as shown in FIG. The virtual reality presentation system 1000c illustrated in FIG. 42 further includes an audio generation processing unit 1070 and an audio output unit 1080.

音声生成処理部1070は、仮想現実コンテンツ記憶部1050より仮想現実提示用の音声データを読み出して、当該音声出力部1080より出力する仮想現実提示用の音声を生成する。より好ましくは、音声生成処理部1070は、ユーザ状態検知部1010で検知されたユーザの状態に基づいて、提示可能仮想現実度算出部1020で算出された仮想現実度に収まるように仮想現実提示用の音声を生成する。 The sound generation processing unit 1070 reads the virtual reality presentation sound data from the virtual reality content storage unit 1050 and generates the virtual reality presentation sound output from the sound output unit 1080. More preferably, the voice generation processing unit 1070 is for virtual reality presentation so as to be within the virtual reality calculated by the presentable virtual reality calculation unit 1020 based on the user status detected by the user status detection unit 1010. Generate the voice of

例えば、音声生成処理部1070は、仮想現実コンテンツ記憶部1050より読み出した仮想現実提示用の音声データを、ユーザ状態検知部1010で検知されたユーザ状態に基づいて、複数のチャンネルの音声データに分配する。 For example, the audio generation processing unit 1070 distributes the audio data for virtual reality presentation read from the virtual reality content storage unit 1050 to the audio data of a plurality of channels based on the user status detected by the user status detection unit 1010. To do.

音声出力部1080は、音声生成処理部1070で生成された音声を出力する。音声出力部1080は、具体的には複数チャンネルを有するスピーカであり、音声生成処理部1070で生成された各チャンネルのデジタル音声信号にDA変換処理を行ってアナログ音声信号に変換し、空気振動に変換して外部へ放音する。 The sound output unit 1080 outputs the sound generated by the sound generation processing unit 1070. The audio output unit 1080 is specifically a speaker having a plurality of channels. The digital audio signal of each channel generated by the audio generation processing unit 1070 is converted to an analog audio signal by performing DA conversion processing, and is subjected to air vibration. Convert and emit to the outside.

仮想現実提示用の映像とリンクする形で仮想現実提示用の音声が出力されることで、ユーザが外界の状況を感知する視覚と聴覚の両方に対して錯覚を起こさせることで、ユーザが容易に仮想現実の世界に入り込むことを可能とする。   The virtual reality presentation sound is output in a form linked to the virtual reality presentation video, so that the user has an illusion of both visual and auditory perception of the outside world, making it easy for the user It is possible to enter the virtual reality world.

なお、提示可能仮想現実度算出部1020や提示中仮想現実度算出部1060は、映像生成処理部1030が生成する仮想現実提示用の映像と音声生成処理部1070が生成する仮想現実提示用の音声のそれぞれに仮想現実度を割り当てても良いし、両方を纏めて仮想現実度を割り当てても良い。   The presentable virtual reality calculation unit 1020 and the presenting virtual reality calculation unit 1060 include a virtual reality presentation video generated by the video generation processing unit 1030 and a virtual reality presentation audio generated by the audio generation processing unit 1070. Virtual reality may be assigned to each of these, or virtual reality may be assigned together.

例えば、提示可能仮想現実度算出部1020は、提示可能な仮想現実提示用の映像に係る仮想現実度に対して仮想現実度70を割り当て、提示可能な仮想現実提示用の音声に係る仮想現実度に対して仮想現実度20を割り当てる。映像生成処理部1030は、生成する映像に係る仮想現実度が70以下となるように仮想現実提示用の映像を生成し、音声生成処理部1070は、生成する音声に係る仮想現実度が20以下となるように、仮想現実提示用の音声を生成する。 For example, the presentable virtual reality calculation unit 1020 assigns the virtual reality 70 to the virtual reality related to the presentable virtual reality presentation video, and the virtual reality related to the presentable virtual reality presentation sound. Is assigned a virtual reality degree of 20. The video generation processing unit 1030 generates a virtual reality presentation video so that the virtual reality related to the generated video is 70 or less, and the audio generation processing unit 1070 has a virtual reality related to the generated audio of 20 or less. The voice for virtual reality presentation is generated so that

また、例えば、提示可能仮想現実度算出部1020は、提示可能な仮想現実の世界に係る仮想現実度として纏めて仮想現実度80を割り当てる。映像生成処理部1030と音声生成処理部1070は、これら2つの生成部で生成される仮想現実提示用の映像と音声で形作られる仮想現実の世界の仮想現実度が80以下となるように、仮想現実用の映像や音声をそれぞれ生成する。 Further, for example, the presentable virtual reality calculation unit 1020 assigns the virtual reality 80 collectively as the virtual reality related to the presentable virtual reality world. The video generation processing unit 1030 and the audio generation processing unit 1070 are configured so that the virtual reality in the virtual reality world formed by the virtual reality presentation video and audio generated by these two generation units is 80 or less. Realistic video and audio are generated respectively.

図43は、当該仮想現実度を纏めて割り当てる場合における仮想現実提示システムの構成を示すブロック図である。仮想現実提示システム1000dは、ユーザ状態検知部1010と、提示可能仮想現実度算出部1020と、提示中仮想現実度算出部1060と、仮想現実提示用データ生成処理部1090と、仮想現実提示部1100とを備える。 FIG. 43 is a block diagram showing a configuration of a virtual reality presentation system in a case where the virtual reality degrees are assigned collectively. The virtual reality presentation system 1000d includes a user state detection unit 1010, a presentable virtual reality calculation unit 1020, a presenting virtual reality calculation unit 1060, a virtual reality presentation data generation processing unit 1090, and a virtual reality presentation unit 1100. With.

仮想現実提示用データ生成処理部1090は、映像生成処理部1030と音声生成処理部1070とを備える。仮想現実提示用データ生成処理部1090は、仮想現実提示部1100で提示される仮想現実の世界に係る仮想現実度が、提示可能仮想現実度算出部1020で算出された提示可能な仮想現実の世界に係る仮想現実度に収まるように、仮想現実コンテンツ記憶部1050に記憶されている仮想現実コンテンツを読み出して、仮想現実提示用の映像や音声を生成する。 The virtual reality presentation data generation processing unit 1090 includes a video generation processing unit 1030 and an audio generation processing unit 1070. The virtual reality presentation data generation processing unit 1090 includes the presentable virtual reality world in which the virtual reality related to the virtual reality world presented by the virtual reality presentation unit 1100 is calculated by the presentable virtual reality calculation unit 1020. The virtual reality content stored in the virtual reality content storage unit 1050 is read so as to be within the virtual reality level according to the above, and video and audio for virtual reality presentation are generated.

このように、提示可能仮想現実度算出部1020は、仮想現実提示用の映像データや音声データを生成する仮想現実提示用データ生成処理部1090に対して現在割当可能な仮想現実度を提示可能な仮想現実の世界に係る仮想現実度として算出する。 In this way, the presentable virtual reality calculation unit 1020 can present the virtual reality that can be currently assigned to the virtual reality presentation data generation processing unit 1090 that generates video data and audio data for virtual reality presentation. Calculated as a virtual reality degree related to the virtual reality world.

提示中仮想現実度算出部1060は、仮想現実提示用データ生成処理部1090で生成された仮想現実提示用のデータに基づいて、現在提示中の仮想現実の世界に係る仮想現実度を算出する。 Based on the virtual reality presentation data generated by the virtual reality presentation data generation processing unit 1090, the presenting virtual reality calculation unit 1060 calculates the virtual reality related to the virtual reality currently being presented.

仮想現実提示部1100は、仮想現実提示用データ生成処理部1090で生成された各種データを所定の出力形式で出力することで仮想現実の世界をユーザに提示する。仮想現実提示部1100は、映像表示部1040と、音声出力部1080とを備えるが、ユーザの触覚を錯覚させるように構成する場合は振動出力部などの別途機構が設けられていても良い。 The virtual reality presentation unit 1100 presents the virtual reality world to the user by outputting various data generated by the virtual reality presentation data generation processing unit 1090 in a predetermined output format. The virtual reality presentation unit 1100 includes a video display unit 1040 and an audio output unit 1080. However, when configured to make the user's haptic illusion, a separate mechanism such as a vibration output unit may be provided.

また、提示される仮想現実の世界において映像と音声は連動していることが多いため、音声については仮想現実度を考慮せず、音声出力部1080は、仮想現実度を考慮して生成される仮想現実提示用の映像と関連付けられた音声を出力する構成としても良い。   In addition, since video and audio are often linked in the virtual reality world to be presented, the audio output unit 1080 is generated in consideration of virtual reality without considering virtual reality. A configuration may be adopted in which audio associated with the virtual reality presentation video is output.

なお、上述した仮想現実提示システム1000を構成する全ての機能が、ユーザが装着する仮想現実提示装置に備えられていても良いし、一部の機能が外部に設けられた情報処理サーバによって備えられていても良い。その場合、仮想現実提示装置と情報処理サーバは、通信部をそれぞれ備え、映像データやユーザ状態情報等の送受信を行う。
ユーザの状態を検知するユーザ状態検知手段と、
Note that all the functions constituting the virtual reality presentation system 1000 described above may be provided in a virtual reality presentation device worn by the user, or some functions may be provided by an information processing server provided outside. May be. In that case, the virtual reality presentation device and the information processing server each include a communication unit, and transmit and receive video data, user state information, and the like.
User status detection means for detecting the user status;

<実施形態11>
本発明は、ユーザに提示される仮想現実の世界について、仮想現実度と言う第1のパラメータを導入し、当該仮想現実度の時間変化が所定の値以内に収まる様に仮想現実の世界の提示を制御することで、自らが感知している世界がリアルではなくバーチャルであることをユーザが認識することを防いでいる。
<Embodiment 11>
The present invention introduces a first parameter called virtual reality for the virtual reality world presented to the user, and presents the virtual reality world so that the temporal change of the virtual reality falls within a predetermined value. By controlling this, the user is prevented from recognizing that the world he / she senses is not real but virtual.

ここで、仮想現実度の時間変化をどの程度急激に行うかが新たな問題となる。仮想現実提示システムに対する評価指標を考察した場合、未来都市や幻想都市と言った現実からより乖離した仮想現実の世界をユーザにそれがバーチャルであることを悟らせることなく提示できることがより優れた仮想現実提示システムとなる。 Here, the issue of how rapidly the virtual reality changes with time is a new problem. When considering the evaluation index for the virtual reality presentation system, it is better to be able to present the virtual reality world that is more distant from the reality such as future city and fantasy city without realizing that it is virtual It becomes a reality presentation system.

従って、可能ならば、仮想現実度0である現実の世界から始まって、できるだけ早く高い仮想現実度の仮想現実の世界をユーザに提示できることが好ましい。その一方で、仮想現実度の上昇比が大きすぎると、ユーザは感知している世界が現実の世界ではなくバーチャルである仮想現実の世界であることを認識してしまう可能性が高くなる。すなわち、ユーザが錯覚している仮想現実の世界が破断してしまう。 Therefore, if possible, it is preferable that a virtual reality world with a high virtual reality degree can be presented to the user as soon as possible, starting from a real world having a virtual reality degree of zero. On the other hand, if the increase ratio of the virtual reality level is too large, the user is more likely to recognize that the perceived world is not the real world but the virtual reality world. That is, the virtual reality world in which the user has an illusion is broken.

本実施形態11に係る仮想現実提示システムは、仮想現実度の時間変化を適切に管理することで、最適な仮想現実の世界をユーザに提示できることを特徴としている。 The virtual reality presentation system according to the eleventh embodiment is characterized in that an optimal virtual reality world can be presented to the user by appropriately managing the temporal change of the virtual reality.

図44は、本実施形態11に係る仮想現実提示システム2000の構成を示すブロック図である。仮想現実提示システム2000は、ユーザ状態検知部1010と、映像生成処理部1020と、提示可能仮想現実度算出部1030と、映像表示部1040と、仮想現実コンテンツ記憶部1050と、提示中仮想現実度算出部1060と、錯覚度算出部2010と、を備える。 FIG. 44 is a block diagram showing a configuration of the virtual reality presentation system 2000 according to the eleventh embodiment. The virtual reality presentation system 2000 includes a user state detection unit 1010, a video generation processing unit 1020, a presentable virtual reality calculation unit 1030, a video display unit 1040, a virtual reality content storage unit 1050, and a virtual reality being presented. A calculation unit 1060 and an illusion degree calculation unit 2010 are provided.

錯覚度算出部2010は、ユーザ状態検知部1010で検知されるユーザの状態に基づいて、当該ユーザの現在の錯覚度を算出する。ここで、錯覚度とは、ユーザが感知している仮想現実の世界を現実の世界であると錯覚している度合いを示す第2のパラメータである。 The illusion degree calculation unit 2010 calculates the current illusion degree of the user based on the user state detected by the user state detection unit 1010. Here, the illusion degree is a second parameter indicating the degree of illusion that the virtual reality world sensed by the user is the real world.

錯覚度は、0〜100のいずれかの値で示される。例えば、図40(b)の景色を見たユーザは、ソファーに座っているように表示されている犬が現実に当該ソファーに座っている犬であると信じて疑わない場合に、錯覚度は100となる。 The illusion degree is indicated by any value from 0 to 100. For example, when the user who sees the view of FIG. 40B believes that the dog displayed as sitting on the sofa is actually a dog sitting on the sofa, the illusion degree is 100.

一方、図40(c)の景色を見たユーザは、ソファーにライオンが座っていると言う日常からかけ離れた光景から、自身が見ている景色はバーチャルではないかと言う疑念を抱く。従って、ユーザは、自身が感知している世界が現実の世界であると完全に錯覚しているわけではなく、心のどこかで仮想現実の世界であると感じていることからユーザの錯覚度は100を下回り、例えば40程度となる。 On the other hand, the user who has seen the scenery in FIG. 40 (c) has a suspicion that the scenery he / she sees is virtual, from a scene far from the daily life that a lion is sitting on the sofa. Therefore, the user's sense of illusion is not entirely illusion that the world he / she perceives is a real world, but a virtual reality world somewhere in his / her heart. Is less than 100, for example, about 40.

ここで、ユーザの錯覚度は0にはならない。このことが仮想現実の世界を成り立たせる鍵である。この点について詳しく説明する。 Here, the illusion degree of the user does not become zero. This is the key to realizing the virtual reality world. This point will be described in detail.

私達人間の大人は、これまでの人生の中で過去の経験則に当てはまらない信じ難い経験と言うものを多少なりとも有している。「ウソだろ?」、「そんなバカな!」、「ありえない!」「マジで?」、「信じられない・・・」、「勘弁してくれよ・・・」、「最悪だ・・」「最高だ!」、と言った言葉を人生で発したことが無い大人はいないと断言しても過言ではない。これは、何を意味しているか。   We human adults have somehow incredible experiences that do not fit in the past rule of thumb in life. "That's a lie?", "That stupid!", "I can't!" "Seriously?", "I can't believe ...", "Please give me ...", "Worst ..." It ’s no exaggeration to say that there is no adult who has never spoken a word in life. What does this mean?

私達人間は、自身の人生で培ったこれまでの経験知のデータベースを脳内に構築しており、視覚や聴覚を通じて感知する外界の状況をこれまでの経験知と比較するマッチング処理を行って現在自身が置かれている状況を把握している。 We humans have built a database of past experience knowledge cultivated in their own lives, and perform matching processing to compare the external situation detected through vision and hearing with previous experience knowledge. I know what I am currently in.

社会秩序の確立されたこの世界においては、人間が感知する状況は類似状況の繰り返しであり、そのような状況が経験知として脳内に刷り込まれていく。しかしながら、突発的にこれまで経験をしたこともない状況に置かれることがある。そのような場合に、人間は自身が現在感知している状況が、自身が脳内に構築している経験知と照合できない場合に上記言葉を思わず発することになる。 In this world where the social order is established, the situation perceived by humans is a repetition of similar situations, and such situations are imprinted in the brain as empirical knowledge. However, you may be in a situation where you have never experienced it before. In such a case, the human will utter the above words when the situation that he / she currently senses cannot be compared with the experience knowledge he / she has built in the brain.

このように、人間の大人は、人生においては本能的に自身の常識や経験知とは整合しない、又は説明のつかない事象が自身に起こり得るということを経験則として知っている。このような場合に、自身の経験知と自身が感知している状況とが一致していないからと言って、思考を停止してしまっては、自身の生存競争に負けると言うことを人間は本能的に知っている。 In this way, human adults know, as a rule of thumb, that in life, events that are instinctively inconsistent with their common sense and experience knowledge may occur in themselves. In such a case, human beings say that if they stop thinking because they do not agree with their own knowledge and experience, they will lose their survival competition. I know instinctively.

例えば、山を歩いているときに巨大な熊と遭遇した場合、人間は「ウソだろ?勘弁してくれよ・・」と呟く。自身にそのような経験がなく、想定の範囲外だからである。しかしながら、そのような危機的な状況に対して人間の脳は、生存するために、イレギュラーな状況からの離脱に向けて様々な回避策を想起し、最善と思われる行動を取ろうとする。 For example, when walking on a mountain and encountering a huge bear, a human asks, "Is it a lie? This is because he has no such experience and is outside the scope of his assumptions. However, in order to survive in such a critical situation, the human brain recalls various workarounds and attempts to take the action that seems to be the best in order to escape from the irregular situation.

このように、人間の大人は、非日常的な事象が起こり得ることを体験的に知っている。自身の経験知に当てはまらない状況に置かれていると言うことは、現在の状況に対する適切な対処方法を知っておらず、従って生存の危機レベルが上がっていることを意味している。生存競争に対して最も優れている私達人間は、この危機的な状況に対して、最悪なケースを想定して行動する思考回路を本質的に有している。 Thus, human adults know empirically that extraordinary events can occur. Saying that you are in a situation that does not fit your own knowledge means that you do not know the proper way to deal with the current situation, and therefore the level of survival is rising. The human beings who are the best in survival competition essentially have thought circuits that act in the worst case for this critical situation.

このことが、仮想現実の世界を体験しているユーザの錯覚度が0に落ちない理由となる。すなわち、仮想現実の世界とは現実の世界から乖離した世界であり、言わば非日常的な世界である。そのような世界を感知した場合に、例え自身が感知している現状が「ありえない」と思ったとしても、最悪のケースを想定して生存確率を高めようとする人間の本能が「信じ難い。でも、現実かもしれない。」と言う余地を残してくれる。だから仮想現実の世界が成り立つのである。 This is the reason why the illusion degree of the user experiencing the virtual reality world does not fall to zero. In other words, the virtual reality world is a world that deviates from the real world, that is, an extraordinary world. When we sense such a world, even if we think that our current situation is “impossible,” the human instinct that tries to increase the survival probability in the worst case is “unbelievable. But it may be reality. " Therefore, the virtual reality world is established.

なお、上記説明では人間の大人の錯覚度が0に落ちない理由について説明したが、人間の子供にも錯覚度は0に落ちない理由がある。人間の子供は、自身が生存競争における弱者であることを本能的に理解している。また、経験知も積み重なっていないため、視覚や聴覚を通じて感知するものをそのまま捉える傾向がある。子供が目新しいことに対して素直なのはこのためである。 In the above description, the reason why the illusion degree of a human adult does not fall to 0 has been described, but there is also a reason why the illusion degree does not fall to 0 for a human child. Human children instinctively understand that they are weak in the survival competition. In addition, since there is no accumulation of experience, there is a tendency to capture what is perceived through vision and hearing. This is why children are obedient to novelty.

経験知のデータベースが構築できていないから、マッチング処理だけでは生存確率を上げられないことを本能的に理解しており、五感を通じて得られる情報を加工・歪曲することなくそのまま捉えて次の行動を取るという状況判断を行う。従って、仮想現実提示システムによって仮想現実の世界を提示する場合、自身の五感を信用して子供はそのまま見聞きしている世界をありのまま受け入れる。従って、錯覚度は大人の場合よりも高くなる。これが、私達人間は大人になった後よりも子供時代の方がゲームやテーマパーク、アニメーションと言ったものにより高い興味を示す理由である。ゲームやテーマパークが提示する刺激的な世界をありのまま受け入れるためである。 Since we have not built an empirical knowledge database, we instinctively understand that it is not possible to increase the survival probability only by matching processing, and the next action can be taken as it is without processing / distorting the information obtained through the five senses. Judge the situation to take. Therefore, when presenting the virtual reality world by the virtual reality presentation system, the child accepts the world that the child sees and hears as it is, trusting his senses. Therefore, the illusion degree is higher than that of an adult. This is why we human beings are more interested in games, theme parks, and animations in childhood than in adulthood. This is to accept the exciting world presented by games and theme parks.

従って、図40(c)の景色を見た大人は、部屋の中にライオンがいるという非日常的な事象に疑いの念をどこかで抱きつつも、それが現実であった場合に自身が食い殺されると言うワーストケースに対してリスクヘッジを行う心理が働き、このライオンを完全には無視できない。すなわち、仮想現実の世界を現実の世界であると一部錯覚しており錯覚度は0ではない一定の数値がでる。子供は、自身が見る現在の景色をそのままに理解し、目の前にライオンがいると錯覚するため、こちらも錯覚度に0ではない一定の数値がでる。 Therefore, an adult who has seen the scenery in FIG. 40 (c) has some doubts about the extraordinary event that a lion is in the room, but he / she is unaware of it. The psychology of risk hedging works against the worst case of being killed, and this lion cannot be completely ignored. In other words, the virtual reality world is partly illusioned to be the real world, and the illusion degree is not zero. The child understands the current scenery that he sees as it is and has the illusion that there is a lion in front of him.

本実施形態11に係る仮想現実提示システム2000において、錯覚度算出部2010は、ユーザ状態に基づいて錯覚度を算出している。ユーザが仮想現実の世界を錯覚している場合とそうでない場合とでは、ユーザの状態に差がでるため、当該ユーザの状態に基づいて当該ユーザの錯覚具合を推定し、錯覚度というパラメータの値を算出することが可能となる。 In the virtual reality presentation system 2000 according to the eleventh embodiment, the illusion degree calculation unit 2010 calculates the illusion degree based on the user state. Since there is a difference in the user's state between when the user has an illusion of virtual reality and when it is not, the illusion degree of the user is estimated based on the state of the user, and the value of the parameter called illusion degree Can be calculated.

本実施形態11に係る仮想現実提示システム2000において、ユーザ状態検知部1010は、傾きセンサ1011と、加速度センサ1012と、方位センサ1013と、位置センサ1014と、内部カメラ1015と、脳波センサ1016と、血圧センサ1017と、脈拍センサ1018と、発汗センサ1019とを備える。 In the virtual reality presentation system 2000 according to the eleventh embodiment, the user state detection unit 1010 includes a tilt sensor 1011, an acceleration sensor 1012, an orientation sensor 1013, a position sensor 1014, an internal camera 1015, an electroencephalogram sensor 1016, A blood pressure sensor 1017, a pulse sensor 1018, and a sweat sensor 1019 are provided.

傾きセンサ1011は、仮想現実提示システム2000を構成する仮想現実提示装置を装着しているユーザの頭部の傾きを検知し、傾き情報を取得する。加速度センサ1012は、当該ユーザの頭に係る加速度を検知し、加速度情報を取得する。方位センサ1013は、ユーザの向いている方角を検出し、方位情報を取得する。方位センサ1013は、例えば電子コンパスを用いることが可能である。 The tilt sensor 1011 detects the tilt of the head of the user wearing the virtual reality presentation device constituting the virtual reality presentation system 2000 and acquires tilt information. The acceleration sensor 1012 detects acceleration related to the user's head and acquires acceleration information. The direction sensor 1013 detects the direction in which the user is facing and acquires direction information. The direction sensor 1013 can use an electronic compass, for example.

位置センサ1014は、ユーザの現在位置を検出する。位置センサ1014としては、例えばGPS受信機を用いることが可能である。 The position sensor 1014 detects the current position of the user. As the position sensor 1014, for example, a GPS receiver can be used.

内部カメラ1015は、ユーザの顔の一部又は全部を撮影してユーザ表情画像を取得する。   The internal camera 1015 captures part or all of the user's face to acquire a user facial expression image.

脳波センサ1016は、ユーザの脳波を検知する。脳波センサ1016は、ユーザの脳から放出されている脳波の種類、脳波の強さ、脳波の放出位置等を検知する。血圧センサ1017はユーザの血圧を測定する。脈拍センサ1018は、ユーザの心拍数を計測する。発汗センサ1019はユーザの発汗量を検出する。 The electroencephalogram sensor 1016 detects the user's electroencephalogram. The electroencephalogram sensor 1016 detects the type of electroencephalogram emitted from the user's brain, the intensity of the electroencephalogram, the electroencephalogram emission position, and the like. The blood pressure sensor 1017 measures the blood pressure of the user. The pulse sensor 1018 measures the user's heart rate. The sweat sensor 1019 detects the amount of sweat of the user.

脳波センサ1016、血圧センサ1017、脈拍センサ1018、発汗センサ1019は、ユーザの生体反応を検知するセンサ群であるため、以下の説明では生体反応センサと称することがある。生体反応センサには、ユーザの体温を測定する体温センサや呼吸頻度を検知する呼吸センサなど、他のセンサが含まれていても良い。 Since the electroencephalogram sensor 1016, blood pressure sensor 1017, pulse sensor 1018, and sweat sensor 1019 are a group of sensors that detect a user's biological reaction, they may be referred to as a biological reaction sensor in the following description. The biological reaction sensor may include other sensors such as a body temperature sensor that measures a user's body temperature and a respiration sensor that detects respiration frequency.

映像生成処理部1030は、傾きセンサ1011で取得される傾き情報、加速度センサ1012で取得される加速度情報、方位センサ1013で取得される方位情報などの情報を組み合わせてユーザの目の位置の変化及び視線方向の変化を特定し、当該特定した目の位置や視線方向に応じた仮想現実提示用の映像を生成する。映像生成処理部1030は提示可能仮想現実度算出部1020で算出された仮想現実度に収まるように仮想現実提示用の映像を生成する。映像表示部1040は、当該生成された仮想現実提示用の映像を表示する。 The image generation processing unit 1030 combines information such as inclination information acquired by the inclination sensor 1011, acceleration information acquired by the acceleration sensor 1012, direction information acquired by the direction sensor 1013, and the like, A change in the line-of-sight direction is specified, and a virtual reality presentation video corresponding to the specified eye position and line-of-sight direction is generated. The video generation processing unit 1030 generates a virtual reality presentation video so as to be within the virtual reality calculated by the presentable virtual reality calculation unit 1020. The video display unit 1040 displays the generated video for presenting virtual reality.

錯覚度算出部2010は、内部カメラ1015で撮影されるユーザの表情や生体反応センサで検知されるユーザの生体反応に基づいて、ユーザの現在の錯覚度を算出する。 The illusion degree calculation unit 2010 calculates the current illusion degree of the user based on the facial expression of the user photographed by the internal camera 1015 and the biological reaction of the user detected by the biological reaction sensor.

例えば、錯覚度算出部2010は、内部カメラ1015で撮影される画像に基づいて特定されるユーザの視線方向が、映像表示部1040で表示されている仮想現実提示用の映像に向かっているかを特定する。例えば、仮想現実提示用の映像として仮想現実オブジェクトが映像表示部1040に表示されている場合において、内部カメラ1015で撮影される映像に基づいて特定されるユーザの視線方向が当該仮想現実オブジェクトを捕捉している割合を算出する。当該仮想現実オブジェクトを捕捉している割合が高いほどユーザの錯覚度が高いものとして、当該錯覚度を算出する。 For example, the illusion degree calculation unit 2010 specifies whether the user's line-of-sight direction specified based on the image captured by the internal camera 1015 is toward the virtual reality presentation video displayed on the video display unit 1040. To do. For example, when a virtual reality object is displayed on the video display unit 1040 as a virtual reality presentation video, the user's line-of-sight direction specified based on the video shot by the internal camera 1015 captures the virtual reality object. Calculate the percentage that you are doing. The illusion degree is calculated assuming that the higher the ratio of capturing the virtual reality object, the higher the illusion degree of the user.

また、例えば、仮想現実提示用の映像が表示された後に、脳波センサ1016で検知されるα波が増加傾向にある場合に錯覚度が高いものとして当該錯覚度を算出し、β波が増加傾向にある場合に、錯覚度が低いものとして当該錯覚度を算出する。 Further, for example, after the virtual reality presentation video is displayed, when the α wave detected by the electroencephalogram sensor 1016 tends to increase, the illusion degree is calculated to be high, and the β wave tends to increase. The illusion degree is calculated assuming that the illusion degree is low.

また、例えば、仮想現実提示用の映像が表示された後に、血圧センサ1017で検知される血圧の上昇、脈拍センサ1018で検知される心拍数の上昇、発汗センサ1019で検知される発汗量の増加、が継続して観測された場合に、ユーザは仮想現実の世界に対して興奮しており錯覚度が高いものとして、当該錯覚度を算出する。 Further, for example, after a virtual reality presentation image is displayed, an increase in blood pressure detected by the blood pressure sensor 1017, an increase in heart rate detected by the pulse sensor 1018, and an increase in the amount of sweat detected by the sweat sensor 1019. Are continuously observed, the user is excited about the virtual reality world and the illusion degree is high, and the illusion degree is calculated.

なお、上述した算出方式は一例であって、ユーザの状態と錯覚度との関連性を導く算出式が適宜設定されていれば良い。例えば、上記錯覚度算出部2010は、ユーザ状態検知部1010に含まれるセンサのいくつかにおける検知結果を所定の算出式に代入することで錯覚度を算出する構成としても良い。 Note that the above-described calculation method is an example, and it is only necessary to appropriately set a calculation formula that leads to the relationship between the user state and the illusion degree. For example, the illusion degree calculation unit 2010 may be configured to calculate the illusion degree by substituting detection results of some of the sensors included in the user state detection unit 1010 into a predetermined calculation formula.

また、ユーザの移動やユーザに係る加速度や傾きの変化が大きいほど錯覚度が低くなるように当該錯覚度を算出しても良い。映像生成処理部1030はユーザの動きに連動して、仮想現実オブジェクトの位置が仮想現実の世界の中で移動しないように、表示位置を制御する。しかしながら、ユーザの移動が大きいと、当該制御にズレが生じてしまい、ユーザの目には仮想現実オブジェクトがスライドしたように見えてしまう場合がある。このような本来静止している物体が僅かであってもスライドすることは、現実の世界で起こり得る事象から外れるため、作られた映像ではないかという疑念を抱くきっかけとなる。そのため、ユーザが移動している場合や急激な加速度が加わる場合には、錯覚度算出部2010は、錯覚度を低く算出する構成としても良い。 In addition, the illusion degree may be calculated so that the illusion degree decreases as the user's movement or the change in acceleration or inclination related to the user increases. The video generation processing unit 1030 controls the display position so that the position of the virtual reality object does not move in the virtual reality world in conjunction with the movement of the user. However, if the user's movement is large, the control may be shifted, and the virtual reality object may appear to slide to the user's eyes. Even if such an object that is originally stationary is a little, it slides out of an event that can occur in the real world, and therefore it raises the suspicion that it is a created image. Therefore, when the user is moving or when rapid acceleration is applied, the illusion degree calculation unit 2010 may be configured to calculate the illusion degree low.

また、ユーザ状態検知部1010として上述した各センサを全て備えている必要はなく、一部のセンサが備え付けられていても良いし、体温センサや振動センサなど他のセンサがユーザ状態検知部1010として備え付けられていても良い。 In addition, it is not necessary to provide all the above-described sensors as the user state detection unit 1010, and some sensors may be provided, and other sensors such as a body temperature sensor and a vibration sensor may be used as the user state detection unit 1010. It may be provided.

また、上述の各センサはユーザが装着する仮想現実提示装置に備え付けられていても良いし、仮想現実の提示を受けているユーザの周囲の壁面などに備え付けられていても良い。 Each sensor described above may be provided in a virtual reality presentation device worn by the user, or may be provided on a wall surface around the user who is receiving the virtual reality presentation.

提示可能仮想現実度算出部1020は、提示中仮想現実度算出部1060で算出された現在提示している仮想現実の世界に係る仮想現実度を基準として、錯覚度算出部2010で算出された錯覚度に基づいて決定される値を加算、減算、乗算、除算のいずれかを実行することで現在提示可能な仮想現実の世界に係る仮想現実度を算出する。 The presentable virtual reality calculation unit 1020 has the illusion calculated by the illusion degree calculation unit 2010 with reference to the virtual reality related to the present virtual reality world calculated by the presenting virtual reality calculation unit 1060. The virtual reality degree related to the virtual reality world that can be presented at present can be calculated by adding, subtracting, multiplying, or dividing the value determined based on the degree.

例えば、提示中仮想現実度算出部1060で算出された現在提示している仮想現実の世界に係る仮想現実度をX、錯覚度算出部2010で算出された現在のユーザの錯覚度をY、提示可能仮想現実度算出部1020が算出する現在提示可能な仮想現実の世界に係る仮想現実度をZとした場合に、提示可能仮想現実度算出部1020は、以下の数式1を用いてZを算出する。
(数式1)Z=X+(Y−50)/10
For example, X represents the virtual reality related to the currently presented virtual reality calculated by the presenting virtual reality calculation unit 1060, Y represents the illusion degree of the current user calculated by the illusion degree calculation unit 2010, When the virtual reality degree related to the currently presentable virtual reality world calculated by the possible virtual reality degree calculation unit 1020 is Z, the presentable virtual reality degree calculation unit 1020 calculates Z using the following Equation 1. To do.
(Formula 1) Z = X + (Y-50) / 10

映像生成処理部1030は、提示可能仮想現実度算出部1020で算出された提示可能な仮想現実の世界に係る仮想現実度Zに収まる様に仮想現実提示用の映像を生成する。映像表示部1040は、当該生成された映像を表示する。 The video generation processing unit 1030 generates a virtual reality presentation video so as to be within the virtual reality Z related to the presentable virtual reality world calculated by the presentable virtual reality calculation unit 1020. The video display unit 1040 displays the generated video.

以上のように、本実施形態11に係る仮想現実提示システムによれば、ユーザの意識が仮想現実の世界から剥がれ落ちてしまわないように、ユーザの状態に応じながらユーザに提示される仮想現実の世界が適切に制御される。従って、長時間に渡ってユーザは仮想現実の世界を堪能できると共に、より現実の世界から乖離した魅力的な仮想現実の世界をユーザに提示することが可能となる。 As described above, according to the virtual reality presentation system according to the eleventh embodiment, the virtual reality presented to the user according to the state of the user so that the user's consciousness does not fall off from the virtual reality world. The world is properly controlled. Therefore, the user can enjoy the virtual reality world for a long time, and can present the user with an attractive virtual reality world that is more distant from the real world.

なお、提示中の仮想現実の世界に係る仮想現実度や提供可能な仮想現実の世界に係る仮想現実度の算出は、リアルタイムに行う構成とせずに、所定の周期間隔で算出する構成としても良い。提示可能な仮想現実度が算出されると、映像生成処理部1030は、次の算出タイミングで新たに提示可能な仮想現実の世界に係る仮想現実度が算出されるまで、当該算出済みの最新の提示可能な仮想現実の世界に係る仮想現実度を用いて映像を生成する構成としても良い。 Note that the calculation of the virtual reality related to the virtual reality world being presented and the virtual reality related to the available virtual reality world may be calculated at a predetermined periodic interval instead of being configured in real time. . When the virtual reality that can be presented is calculated, the video generation processing unit 1030 calculates the latest virtual reality that has been calculated until the virtual reality related to the virtual reality that can be newly presented at the next calculation timing. It is good also as a structure which produces | generates an image | video using the virtual reality degree which concerns on the virtual reality world which can be shown.

<実施形態12>
私達人間は、片方の目で外界の景色を網膜に写しこんで2次元映像を取得し、視差のある両方の目でそれぞれ取得した2次元映像を脳内で処理することで3次元空間を把握する。仮想現実提示装置は、この現実の世界である3次元空間に仮想的な物体や人物があたかも存在しているかのように映像を表示する必要がある。
<Twelfth embodiment>
We humans capture the scenes of the outside world with one eye to acquire a 2D image, and process the 2D images acquired with both parallax eyes in the brain to create a 3D space. To grasp. The virtual reality presentation device needs to display an image as if a virtual object or person exists in the three-dimensional space that is the real world.

図45は、本実施形態12に係る仮想現実提示システム3000の構成を示すブロック図である。仮想現実提示システム3000は、ユーザ状態検知部1010と、提示可能仮想現実度算出部1020と、映像生成処理部1030と、映像表示部1040と、仮想現実コンテンツ記憶部1050と、提示中仮想現実度算出部1060と、仮想現実提示制御部3010と、仮想空間生成処理部3020と、仮想現実オブジェクト配置処理部3030と、視点制御部3040と、を備える。映像生成処理部1030は、描画処理部1031を備える。 FIG. 45 is a block diagram illustrating a configuration of a virtual reality presentation system 3000 according to the twelfth embodiment. The virtual reality presentation system 3000 includes a user state detection unit 1010, a presentable virtual reality calculation unit 1020, a video generation processing unit 1030, a video display unit 1040, a virtual reality content storage unit 1050, and a virtual reality being presented. A calculation unit 1060, a virtual reality presentation control unit 3010, a virtual space generation processing unit 3020, a virtual reality object arrangement processing unit 3030, and a viewpoint control unit 3040 are provided. The video generation processing unit 1030 includes a drawing processing unit 1031.

仮想現実提示制御部3010は、ユーザに対して仮想現実の提示を開始する処理や仮想現実の提示を終了する制御を行う。仮想現実提示制御部3010は、仮想現実の提示を開始すると決定した場合に、仮想現実生成処理部3020に当該提示する仮想現実用に新たな仮想空間の生成を指示する。また、仮想現実提示制御部3010は、当該提示する仮想現実に係る仮想現実オブジェクトの配置指示を出す。 The virtual reality presentation control unit 3010 performs processing for starting presentation of virtual reality to the user and control for ending presentation of virtual reality. When the virtual reality presentation control unit 3010 determines to start presentation of virtual reality, the virtual reality presentation control unit 3010 instructs the virtual reality generation processing unit 3020 to generate a new virtual space for the virtual reality to be presented. In addition, the virtual reality presentation control unit 3010 issues an instruction to arrange a virtual reality object related to the virtual reality to be presented.

仮想空間生成処理部3020は、仮想現実提示制御部3010から仮想空間生成指示を受けた場合に、仮想現実提示用の情報空間である仮想空間を生成する。具体的には、仮想空間生成処理部3020は、所定の広さを有する座標空間を仮想空間として生成する。 When receiving a virtual space generation instruction from the virtual reality presentation control unit 3010, the virtual space generation processing unit 3020 generates a virtual space that is an information space for virtual reality presentation. Specifically, the virtual space generation processing unit 3020 generates a coordinate space having a predetermined area as a virtual space.

仮想現実オブジェクト配置処理部3030は、仮想現実提示制御部3010から仮想現実オブジェクト配置指示を受けた場合に、仮想現実コンテンツ記憶部1050より仮想現実オブジェクトを読み出して、仮想空間生成処理部3020が生成した仮想空間に配置する。仮想現実オブジェクト配置処理部3030は、提示可能仮想現実度算出部1020が算出した仮想現実度に収まる様に仮想現実オブジェクトを仮想現実コンテンツ記憶部1050から読み出して仮想空間に配置する。 When the virtual reality object placement processing unit 3030 receives a virtual reality object placement instruction from the virtual reality presentation control unit 3010, the virtual reality object placement processing unit 3030 reads the virtual reality object from the virtual reality content storage unit 1050 and generates the virtual space generation processing unit 3020. Place in the virtual space. The virtual reality object placement processing unit 3030 reads the virtual reality object from the virtual reality content storage unit 1050 and places it in the virtual space so as to be within the virtual reality calculated by the presentable virtual reality calculation unit 1020.

仮想現実コンテンツ記憶部1050が記憶する各仮想現実オブジェクトには仮想現実度が割り当てられている。図46は、当該仮想現実オブジェクトと仮想現実度との対応関係を示す管理テーブルの一例である。各仮想現実オブジェクトは、一意に割り当てられている識別番号で識別され、各仮想現実オブジェクトに仮想現実度が割り当てられている。例えば、恐竜のティラノザウルスは現実の世界にいない存在なので、当該ティラノザウルスをモデル化した仮想現実オブジェクトには相対的に高い仮想現実度が付与されている。一方、柴犬は、現実の世界にもいる存在なので、相対的に低い仮想現実度が付与されている。 A virtual reality degree is assigned to each virtual reality object stored in the virtual reality content storage unit 1050. FIG. 46 is an example of a management table showing the correspondence between the virtual reality object and the virtual reality level. Each virtual reality object is identified by an identification number assigned uniquely, and a virtual reality degree is assigned to each virtual reality object. For example, since the dinosaur Tyrannosaurus does not exist in the real world, a relatively high virtual reality is given to the virtual reality object that models the Tyrannosaurus. On the other hand, Shiba Inu is also present in the real world, so it has a relatively low virtual reality.

例えば、提示可能仮想現実度算出部3030において、算出された提示可能な仮想現実度が70であったとする。仮想現実オブジェクト配置処理部3030は、仮想現実コンテンツ記憶部1050に記憶されている仮想現実オブジェクトの中から合計が70以下となる様に仮想現実オブジェクトを読み出して仮想空間に配置する。 For example, assume that the presentable virtual reality degree calculated by the presentable virtual reality degree calculation unit 3030 is 70. The virtual reality object arrangement processing unit 3030 reads out the virtual reality objects from the virtual reality objects stored in the virtual reality content storage unit 1050 so that the total is 70 or less and arranges them in the virtual space.

視点制御部3040は、ユーザ状態検知部1010で検知されたユーザの状態に基づいて、仮想空間生成処理部3020が生成した仮想空間において、ユーザの目の位置及び視線方向に対応する視点位置座標と視線方向とを制御する。視点制御部3040は、ユーザ状態検知部1010で検知されたユーザ頭部の傾きの変化や加速度の変化から、ユーザの目の位置及び視線方向に対応する視点位置座標と視線方向とをそれぞれ算出して更新する。   Based on the user state detected by the user state detection unit 1010, the viewpoint control unit 3040 includes viewpoint position coordinates corresponding to the user's eye position and line-of-sight direction in the virtual space generated by the virtual space generation processing unit 3020. Control gaze direction. The viewpoint control unit 3040 calculates viewpoint position coordinates and a line-of-sight direction corresponding to the user's eye position and line-of-sight direction from the change in the inclination of the user's head and the change in acceleration detected by the user state detection unit 1010, respectively. Update.

描画処理部1031は、仮想空間に配置されている仮想現実オブジェクトの映像を仮想現実提示用の映像として生成する。具体的には、描画処理部1031は、視点制御部3040で制御される仮想空間内に置かれる視点位置座標と視線方向に基づいて、当該仮想空間に配置されている仮想現実オブジェクトをイメージプレーンに投影する投影処理によって2次元映像を取得する。描画処理部1031は、投影後の映像を映像表示部1040における表示領域に合わせて切り取るクリッピング処理を行い、仮想現実オブジェクトの輝度を補正するシェーディング処理や仮想現実オブジェクトの表面にテキスチャーデータを貼り付けるテキスチャーマッピング処理、仮想現実オブジェクトの一部を隠す陰面処理などの各種処理を行うことで仮想現実提示用の映像を生成する。 The drawing processing unit 1031 generates a video of the virtual reality object arranged in the virtual space as a virtual reality presentation video. Specifically, the rendering processing unit 1031 uses, as an image plane, a virtual reality object arranged in the virtual space based on the viewpoint position coordinates and the line-of-sight direction placed in the virtual space controlled by the viewpoint control unit 3040. A two-dimensional image is acquired by a projection process for projection. The drawing processing unit 1031 performs a clipping process for cutting the projected video in accordance with the display area in the video display unit 1040, and performs a shading process for correcting the luminance of the virtual reality object or a texture for pasting texture data on the surface of the virtual reality object. A video for virtual reality presentation is generated by performing various processes such as a mapping process and a hidden surface process for hiding a part of the virtual reality object.

映像表示部1040は、描画処理部1031で描画された仮想現実オブジェクトの映像を表示する。 The video display unit 1040 displays a video of the virtual reality object drawn by the drawing processing unit 1031.

以上のように、本実施形態12に係る仮想現実提示システムによれば、提示可能な仮想現実度に収まる様に仮想現実オブジェクトが選択されて仮想空間に配置され、当該配置されている仮想現実オブジェクトの映像が仮想現実提示用の映像として表示される。従って、ユーザが感知する仮想現実の世界と現実の世界との乖離を、仮想現実度と対応付けられた仮想現実オブジェクトを選択することで制御することができる。   As described above, according to the virtual reality presentation system according to the twelfth embodiment, a virtual reality object is selected and arranged in the virtual space so as to be within the virtual reality that can be presented, and the arranged virtual reality object Is displayed as a virtual reality presentation video. Therefore, the difference between the virtual reality world sensed by the user and the real world can be controlled by selecting the virtual reality object associated with the virtual reality degree.

なお、上記説明では仮想現実度算出部1020が算出する提示可能な仮想現実の世界に係る仮想現実度はユーザの状態に応じて変更される構成が好ましい。例えば、ユーザが激しく運動している場合、映像表示部1040で表示される仮想現実提示用の映像の表示制御が追随できず、ユーザが感知する現実の世界と人工的に創り出される仮想現実の世界との整合が取れなくなる可能性が高まる。すなわち、ユーザ状態検知部1010で検知されるユーザの状態変化に基づいて、視点制御部3040が視点位置座標及び視線方向を順次更新し、更新後の視点位置座標及び視線方向に基づいて仮想現実オブジェクトが描画されて映像が生成されるが、映像生成に要する処理時間の間にユーザの状態が大きく変化してしまうため、現在のユーザ状態に基づいていない映像が表示されてしまう可能性がある。 In the above description, it is preferable that the virtual reality degree related to the presentable virtual reality world calculated by the virtual reality degree calculation unit 1020 is changed according to the state of the user. For example, when the user is exercising intensely, the display control of the virtual reality presentation video displayed on the video display unit 1040 cannot follow, and the virtual world that is artificially created by the user and the real world that the user senses. There is a high possibility that it will not be consistent with. That is, the viewpoint control unit 3040 sequentially updates the viewpoint position coordinates and the line-of-sight direction based on the user state change detected by the user state detection unit 1010, and the virtual reality object based on the updated viewpoint position coordinates and the line-of-sight direction Is drawn and a video is generated, but the user's state changes greatly during the processing time required to generate the video, so that a video that is not based on the current user state may be displayed.

そこで、図47に示す仮想現実提示システム3000bのように、提示可能仮想現実度算出部1020は、ユーザ状態検知部1010で検知されるユーザの状態に基づいて、提示可能な仮想現実度を算出する構成とすることが好ましい。例えば、提示可能仮想現実度算出部1020は、ユーザ状態検知部1010で検知されるユーザの頭部に加わる加速度やユーザの移動速度等に基づいて、提示可能な仮想現実度を算出する。例えば、ユーザの頭部に加わる加速度が大きいほど相対的に低い仮想現実度が提示可能であると算出する。   Therefore, as in the virtual reality presentation system 3000b illustrated in FIG. 47, the presentable virtual reality calculation unit 1020 calculates the presentable virtual reality based on the user state detected by the user state detection unit 1010. A configuration is preferable. For example, the presentable virtual reality calculation unit 1020 calculates the presentable virtual reality based on the acceleration applied to the user's head detected by the user state detection unit 1010, the user's moving speed, and the like. For example, it is calculated that a relatively low virtual reality can be presented as the acceleration applied to the user's head increases.

また、例えば、提示可能仮想現実度算出部1020は、ユーザの脳波の強さに基づいて、脳が活発に機能してほど相対的に低い仮想現実度が提示可能であると算出する。脳の活動が停滞している場合の方が、仮想現実の世界と現実の世界との違いを認識する判断力が落ちているため、高い仮想現実の世界を提示することが可能であるためである。例えば、提示可能仮想現実度算出部1020は、脳波のうち、θ波やδ波が所定の閾値以上検知されている場合に、相対的に高い仮想現実度が提示可能であると算出する。 Also, for example, the presentable virtual reality calculation unit 1020 calculates that a relatively low virtual reality can be presented as the brain actively functions based on the strength of the user's brain waves. This is because it is possible to present a higher virtual reality world because the judgment of recognizing the difference between the virtual reality world and the real world is lower when the brain activity is stagnant. is there. For example, the presentable virtual reality calculation unit 1020 calculates that a relatively high virtual reality can be presented when a θ wave or a δ wave is detected in a brain wave at a predetermined threshold or more.

なお、どのように提示可能な仮想現実度を算出するかの算出式は、適宜選択して利用することが可能である。ユーザ毎に違いがあるため、当該算出式(算出方法)はユーザ毎に設定されていても良い。 Note that the calculation formula for calculating the virtual reality that can be presented can be selected and used as appropriate. Since there is a difference for each user, the calculation formula (calculation method) may be set for each user.

また、実施形態11で説明した錯覚度と組み合わせて提示可能な仮想現実度を算出する構成とすると更に良好である。 In addition, it is even better to calculate a virtual reality that can be presented in combination with the illusion degree described in the eleventh embodiment.

なお、ユーザがどの様な仮想現実の世界を体験したいかは、ユーザ毎やユーザのその時の気分によって異なる。そこで、図48に示す仮想現実提示システム3000cの構成とすると更に良好である。図48に示す仮想現実提示システムは、仮想現実サービス要求入力部3050と、契約者情報記憶部3060とを備える。 Note that what kind of virtual reality the user wants to experience differs depending on the user and the mood of the user at that time. Therefore, the configuration of the virtual reality presentation system 3000c shown in FIG. 48 is even better. The virtual reality presentation system shown in FIG. 48 includes a virtual reality service request input unit 3050 and a contractor information storage unit 3060.

仮想現実サービス要求入力部3050は、要求する仮想現実サービスを特定する情報を入力する。例えば、ユーザは自身が受けたい仮想現実サービスを仮想現実サービス要求入力部3050より入力する。ここで、仮想現実サービスとは、仮想現実の提示に係るサービスであって、仮想現実提示システム3000cがユーザに提供するサービスである。 The virtual reality service request input unit 3050 inputs information for specifying the requested virtual reality service. For example, the user inputs a virtual reality service that the user wants to receive from the virtual reality service request input unit 3050. Here, the virtual reality service is a service related to the presentation of virtual reality and is a service provided to the user by the virtual reality presentation system 3000c.

契約者情報記憶部3060は、各ユーザの情報を纏めた契約者情報を記憶する。各ユーザは、仮想現実サービスの提供を受けるに当たり、予め仮想現実サービス提供業者と契約を結んでおり、当該契約内容が契約者情報に登録されている。 The contractor information storage unit 3060 stores contractor information that summarizes information of each user. Each user has a contract with a virtual reality service provider in advance to receive provision of the virtual reality service, and the contents of the contract are registered in the contractor information.

図49は、契約者情報の一部を示している。各ユーザが利用可能な仮想現実サービスが契約者情報に登録されている。 FIG. 49 shows a part of the contractor information. A virtual reality service that can be used by each user is registered in the contractor information.

仮想現実サービス要求入力部3050より仮想現実サービスの要求が入力された場合に、仮想現実提示制御部3010は、契約者情報記憶部3060に記憶されている契約者情報を参照して、当該要求されている仮想現実サービスを当該ユーザに提供可能であるかを判定する。当該判定の結果、当該ユーザに対して要求されている仮想現実サービスの提供を行うと判定した場合に、仮想現実提示制御部3010は、仮想空間生成部3020と仮想現実オブジェクト配置部3030にそれぞれ対応する処理の開始指示を出す。 When a request for a virtual reality service is input from the virtual reality service request input unit 3050, the virtual reality presentation control unit 3010 refers to the contractor information stored in the contractor information storage unit 3060 and is requested. It is determined whether or not the virtual reality service can be provided to the user. As a result of the determination, when it is determined that the requested virtual reality service is provided to the user, the virtual reality presentation control unit 3010 corresponds to the virtual space generation unit 3020 and the virtual reality object placement unit 3030, respectively. An instruction to start the process is issued.

図50は、仮想現実提示システム3000cにおいて、仮想現実コンテンツ記憶部1050が記憶する仮想現実オブジェクトを管理する管理ファイルの一例である。各仮想現実サービスにおいて、それぞれ用いられる仮想現実オブジェクトが記憶されており、当該仮想現実オブジェクトに仮想現実度が関連付けられている。   FIG. 50 is an example of a management file for managing virtual reality objects stored in the virtual reality content storage unit 1050 in the virtual reality presentation system 3000c. Each virtual reality service stores a virtual reality object to be used, and a virtual reality degree is associated with the virtual reality object.

仮想現実オブジェクト配置部3030は、仮想現実提示制御部3010からの指示された仮想現実サービスに関連付けられている仮想現実オブジェクトを、提示可能な仮想現実度の範囲内で読み出して仮想空間に配置する。 The virtual reality object placement unit 3030 reads the virtual reality object associated with the virtual reality service instructed from the virtual reality presentation control unit 3010 within the range of virtual reality that can be presented, and places the virtual reality object in the virtual space.

このように、ユーザが要求する仮想現実サービスについて、仮想現実度を制御しながらユーザに仮想現実の世界を提示することができる。 Thus, the virtual reality service requested by the user can be presented to the user in the virtual reality world while controlling the virtual reality.

<実施形態13>
仮想現実提示システムは、物理的・社会的に制約がある現実の世界を拡張した仮想現実の世界をユーザに提示することでユーザの生活を豊かにすることを目的としている。ここで、ユーザは、現実の世界と共に表示される仮想現実提示用の映像の両方を視ることで仮想現実の世界を感知するため、現実の世界の景色と仮想現実提示用の映像の相性によって、仮想現実度が変化することが好ましい。
<Embodiment 13>
The virtual reality presentation system is intended to enrich the user's life by presenting the user with a virtual reality world that is an extension of the physical world with physical and social constraints. Here, the user senses the virtual reality world by viewing both of the virtual reality presentation images displayed together with the real world, and therefore, depending on the compatibility between the real world scenery and the virtual reality presentation images. It is preferable that the virtual reality changes.

例えば、恐竜である仮想現実オブジェクトを仮想空間に配置して、当該恐竜の映像を表示する場合において、ユーザが自宅にいる場合に目の前に恐竜が現れた場合はおよそ現実の光景からかけ離れているため仮想現実度は高くなる。一方、ユーザが動物園にいる場合、ライオンの隣に恐竜が見えたとしても、比較的「あり得る光景」であるため、仮想現実度は相対的に低くなる。 For example, when a virtual reality object that is a dinosaur is placed in a virtual space and a video of the dinosaur is displayed, if the dinosaur appears in front of the user when at home, it is far from the real scene. Therefore, the virtual reality becomes high. On the other hand, when the user is at the zoo, even if a dinosaur is seen next to the lion, it is a relatively “possible sight”, so the virtual reality is relatively low.

このように、仮想現実提示システムが同一の映像を表示する場合であっても、ユーザが感じる仮想現実の世界の仮想現実度は周囲の状況に応じて異なってくることになる。そのため、仮想現実度を制御しながら仮想現実の世界を提示する場合には、当該ユーザの周囲環境に応じて仮想現実提示用の映像や音楽が決定されることが好ましいことになる。 As described above, even when the virtual reality presentation system displays the same video, the virtual reality degree of the virtual reality world felt by the user varies depending on the surrounding situation. Therefore, when presenting the virtual reality world while controlling the virtual reality, it is preferable that the virtual reality presentation video and music are determined according to the surrounding environment of the user.

図51は、本実施形態13に係る仮想現実提示システム4000の構成を示すブロック図である。仮想現実提示システム4000は、ユーザ状態検知部1010と、提示可能仮想現実度算出部1020と、映像生成処理部1030と、映像表示部1040と、仮想現実コンテンツ記憶部1050と、提示中仮想現実度算出部1060と、仮想現実提示制御部3010と、仮想空間生成処理部3020と、仮想現実オブジェクト配置処理部3030と、視点制御部3040と、周囲状況検知部4010と、周囲状況特定部4020と、を備える。 FIG. 51 is a block diagram illustrating a configuration of a virtual reality presentation system 4000 according to the thirteenth embodiment. The virtual reality presentation system 4000 includes a user state detection unit 1010, a presentable virtual reality calculation unit 1020, a video generation processing unit 1030, a video display unit 1040, a virtual reality content storage unit 1050, and a virtual reality being presented. A calculation unit 1060, a virtual reality presentation control unit 3010, a virtual space generation processing unit 3020, a virtual reality object placement processing unit 3030, a viewpoint control unit 3040, an ambient condition detection unit 4010, an ambient condition identification unit 4020, Is provided.

周囲状況検知部4010は、ユーザの周囲の状況を検知する。周囲状況検知部4010は、例えば、ユーザの周囲の景色を撮影するカメラで構成され、当該カメラでユーザの周囲を撮影することでユーザの周囲の状況を検知する。 The surrounding situation detection unit 4010 detects the surrounding situation of the user. The ambient condition detection unit 4010 includes, for example, a camera that captures scenery around the user, and detects the environment around the user by capturing the user's surroundings with the camera.

周囲状況特定部4020は、周囲状況検知部4010における検知結果に基づいて、ユーザの周囲の状況を特定する。具体的には、周囲状況特定部4020は、ユーザの周囲の状況を予め登録された複数の分類のいずれかであるとして特定する。ユーザの周囲の状況の候補として「自宅内」「屋外」「公園」「駅」「トイレ」「一人」「道路」「動物園」「テーマパーク」「浜辺」「山中」「プール」「都会」「田舎」などが予め登録されており、周囲状況特定部4020は、周囲状況検知部4010における検知結果と、これらの登録されている状況との相関値を求めることで、相関値が最も高かった状況が現在のユーザの周囲状況であると特定する。 The surrounding situation specifying unit 4020 specifies the surrounding situation of the user based on the detection result in the surrounding situation detection unit 4010. Specifically, the surrounding situation specifying unit 4020 specifies the surrounding situation of the user as one of a plurality of previously registered classifications. “Home”, “Outdoor”, “Park”, “Station”, “Toilet”, “One person”, “Road”, “Zoo”, “Theme park”, “Hamabe”, “Yamanaka”, “Pool”, “Urban”, “ “Countryside” is registered in advance, and the surrounding situation specifying unit 4020 obtains a correlation value between the detection result in the surrounding situation detection unit 4010 and these registered situations, so that the correlation value is the highest. Identifies the current user's surroundings.

仮想現実コンテンツ記憶部1050は、仮想現実オブジェクトを、状況別に仮想現実度と関連付けて記憶する。図52は、当該仮想現実オブジェクトと、状況別の仮想現実度との関連付けを示す管理ファイルの一例である。仮想現実オブジェクトは、状況別に仮想現実度と関連付けられている。 The virtual reality content storage unit 1050 stores virtual reality objects in association with virtual reality for each situation. FIG. 52 is an example of a management file indicating the association between the virtual reality object and the virtual reality for each situation. The virtual reality object is associated with the virtual reality level for each situation.

例えばV0003で識別される仮想現実オブジェクトは、空想上の生物であるブルードラゴンをモデリングした仮想現実オブジェクトである。恐竜に似た空想上の生物であるため、自宅内にいるよりは、野外にいている方が「あり得る」ため仮想現実度は低く、中でも公園や動物園にいている方がより「あり得る」ため、仮想現実度は更に低く設定されている。 For example, the virtual reality object identified by V0003 is a virtual reality object that models a blue dragon that is a fantasy creature. Because it is an imaginary creature that resembles a dinosaur, virtual reality is low because it is `` possible '' if you are outdoors, rather than being at home, especially if you are in a park or zoo For this reason, the virtual reality is set lower.

仮想現実オブジェクト配置部3030は、提示可能仮想現実度算出部1020で算出された仮想現実度に収まる様に仮想現実コンテンツ記憶部1050より仮想現実オブジェクトを読み出して仮想空間に配置する。ここで、仮想現実オブジェクト配置部3030は、配置する仮想現実オブジェクトに関連付けられた仮想現実度であって、周囲状況特定部4020で特定されたユーザの周囲の状況に関連付けられている仮想現実度の合計が上記提示可能な仮想現実度を超えないように仮想現実オブジェクトを選択する。 The virtual reality object placement unit 3030 reads the virtual reality object from the virtual reality content storage unit 1050 and places it in the virtual space so as to be within the virtual reality calculated by the presentable virtual reality calculation unit 1020. Here, the virtual reality object placement unit 3030 is a virtual reality degree associated with the virtual reality object to be placed, and the virtual reality degree associated with the situation around the user identified by the ambient situation identification unit 4020. A virtual reality object is selected so that the total does not exceed the presentable virtual reality.

以上のように本実施形態13に係る仮想現実提示システムによれば、ユーザの周囲の状況に応じて適切な仮想現実オブジェクトが選択されて仮想空間に配置されるため、現実の世界に溶け込むように仮想現実オブジェクトが感知される。従って、ユーザは仮想現実の世界に入り込みやすくなる。 As described above, according to the virtual reality presentation system according to the thirteenth embodiment, an appropriate virtual reality object is selected according to the situation around the user and placed in the virtual space. A virtual reality object is sensed. Accordingly, the user can easily enter the virtual reality world.

なお、本実施形態13に係る仮想現実提示システムは、図53に示す構成とすると更に良好である。仮想現実提示システム4000bは、ユーザ状態検知部1010と、提示可能仮想現実度算出部1020と、映像生成処理部1030と、映像表示部1040と、仮想現実コンテンツ記憶部1050と、提示中仮想現実度算出部1060と、音声生成処理部1070と、音声出力部1080と、仮想現実提示制御部3010と、仮想空間生成処理部3020と、仮想現実オブジェクト配置処理部3030と、視点制御部3040と、周囲状況検知部4010と、周囲状況特定部4020と、画像解析処理部4030と、光源制御部4040と、モデルデータ配置処理部4050と、を備える。 Note that the virtual reality presentation system according to the thirteenth embodiment is more favorable when configured as shown in FIG. The virtual reality presentation system 4000b includes a user state detection unit 1010, a presentable virtual reality calculation unit 1020, a video generation processing unit 1030, a video display unit 1040, a virtual reality content storage unit 1050, and a virtual reality being presented. Calculation unit 1060, audio generation processing unit 1070, audio output unit 1080, virtual reality presentation control unit 3010, virtual space generation processing unit 3020, virtual reality object placement processing unit 3030, viewpoint control unit 3040, and surroundings A situation detection unit 4010, an ambient situation identification unit 4020, an image analysis processing unit 4030, a light source control unit 4040, and a model data arrangement processing unit 4050 are provided.

周囲状況検知部4010は、ユーザの前方を撮影して前方景色画像を取得する前方カメラ4011と、ユーザの両側や後方などユーザの周辺を撮影して周辺景色画像を取得する周辺カメラ4012などから構成される。   The ambient condition detection unit 4010 includes a front camera 4011 that captures the front of the user and acquires a forward scenery image, and a peripheral camera 4012 that captures the periphery of the user such as both sides and the rear of the user and acquires a peripheral scenery image. Is done.

画像解析処理部4030は、周囲状況検知部4010が備える前方カメラ4011や周辺カメラ4012で撮影された画像を解析して所定のパラメータを抽出する。具体的に、画像解析処理部4030は、物体特定処理部4031と、光学成分抽出処理部4032と、物体識別処理部4033と、モデルデータ生成処理部4034と、を備える。 The image analysis processing unit 4030 analyzes images captured by the front camera 4011 and the peripheral camera 4012 included in the ambient condition detection unit 4010 and extracts predetermined parameters. Specifically, the image analysis processing unit 4030 includes an object identification processing unit 4031, an optical component extraction processing unit 4032, an object identification processing unit 4033, and a model data generation processing unit 4034.

物体特定処理部4031は、前方カメラ4011で取得された前方景色画像や周辺カメラ4012で取得された周辺景色画像に写る物体を特定する。具体的には、物体特定処理部4031は、これらの画像の隣接画素を比較することで、当該画像に写る各物体の境界を特定する境界特定処理を行い、画像に含まれている複数の物体を特定する。 The object identification processing unit 4031 identifies an object that appears in the front scene image acquired by the front camera 4011 or the peripheral scene image acquired by the peripheral camera 4012. Specifically, the object specification processing unit 4031 performs boundary specification processing for specifying the boundary of each object appearing in the image by comparing adjacent pixels of these images, and a plurality of objects included in the image Is identified.

光学成分抽出処理部4032は、前方カメラ4011で取得された前方景色画像や周辺カメラ4012で取得された周辺景色画像に基づいてユーザの周囲の明るさ(照度)や光源の位置に関する情報を抽出する。 The optical component extraction processing unit 4032 extracts information related to the brightness (illuminance) of the user and the position of the light source based on the front scene image acquired by the front camera 4011 and the peripheral scene image acquired by the peripheral camera 4012. .

物体識別処理部4033は、物体特定処理部4031で特定された物体が何であるかを識別する。例えば、物体識別処理部4033は、データベースに記憶されている各物体の画像と、物体特定処理部4031で特定された各物体とのマッチング処理を行うことで、ユーザ状態検知部4010で撮影された画像に含まれる物体が何であるのかを特定する。   The object identification processing unit 4033 identifies what the object specified by the object specification processing unit 4031 is. For example, the object identification processing unit 4033 performs a matching process between the image of each object stored in the database and each object specified by the object specifying processing unit 4031, and is captured by the user state detecting unit 4010. Identify what the object is in the image.

モデルデータ生成処理部4034は、物体特定処理部4031で特定された各物体の外観形状を規定するモデルデータを生成する。モデルデータ生成処理部4034は、複数のカメラでそれぞれ撮影された画像に含まれる同一物体の位置差分に基づいて、ユーザの周囲に存在する各物体を3Dポリゴンでモデル化するで当該モデルデータを生成する。   The model data generation processing unit 4034 generates model data that defines the appearance shape of each object specified by the object specification processing unit 4031. The model data generation processing unit 4034 generates the model data by modeling each object existing around the user with a 3D polygon based on the position difference of the same object included in images captured by a plurality of cameras. To do.

周囲状況特定部4020は、物体識別処理部4033で識別されたユーザの周囲に存在する物体に基づいて、ユーザの周囲の状況がどのような状況であるかを特定する。周囲状況特定部4020は、例えば、周囲状況特定部4020は、図54に示すような周囲状況と、当該状況に関連する物体との対応関係を纏めた管理ファイルを記憶している。周囲状況特定部4020は、当該管理ファイルを参照し、物体識別処理部4033で識別された物体が最も多く含まれる状況を、当該ユーザの周囲の状況であると特定する。 The surrounding situation specifying unit 4020 specifies what kind of situation the user is surrounding based on the objects existing around the user identified by the object identification processing unit 4033. The ambient situation specifying unit 4020 stores, for example, a management file that summarizes the correspondence between the ambient situation as shown in FIG. 54 and the objects related to the situation. The ambient situation identification unit 4020 refers to the management file and identifies the situation that includes the largest number of objects identified by the object identification processing unit 4033 as the situation around the user.

光源制御部4040は、光学成分抽出部4032で抽出された光源の位置や照度に関する情報に基づいて、仮想空間生成処理部3020が生成している仮想空間内における光源の位置や照度を制御する。 The light source control unit 4040 controls the position and illuminance of the light source in the virtual space generated by the virtual space generation processing unit 3020 based on the information on the position and illuminance of the light source extracted by the optical component extraction unit 4032.

モデルデータ配置処理部4050は、モデルデータ生成処理部4034で生成されたユーザの周囲に存在する物体や人物などのモデルデータを仮想空間生成部3020が生成している仮想空間に配置する。ここで、モデルデータ配置処理部4050は、仮想現実オブジェクト配置処理部3030が仮想現実オブジェクトを配置する仮想空間とは異なるレイヤーに当該モデルデータを配置することがより好ましい。 The model data arrangement processing unit 4050 arranges model data such as an object or a person existing around the user generated by the model data generation processing unit 4034 in the virtual space generated by the virtual space generation unit 3020. Here, it is more preferable that the model data arrangement processing unit 4050 arranges the model data in a layer different from the virtual space in which the virtual reality object arrangement processing unit 3030 arranges the virtual reality object.

すなわち、仮想空間生成処理部3020は、仮想現実オブジェクト配置用の第1レイヤーと現実の物体のモデルデータ配置用の第2レイヤーの複数レイヤーの仮想空間を生成する。仮想現実オブジェクト配置処理部3030は、仮想現実コンテンツ記憶部1050より読み出した仮想現実オブジェクトを仮想空間の第1レイヤーに配置し、モデルデータ配置処理部4050は、モデルデータ生成処理部4034で生成された現実の世界の物体のモデルデータを第2レイヤーに配置する。このように、異なるレイヤーに配置しておくことで、後続の描画処理における陰面処理を簡易化できる。 That is, the virtual space generation processing unit 3020 generates a virtual space of a plurality of layers of a first layer for virtual reality object placement and a second layer for placement of model data of a real object. The virtual reality object arrangement processing unit 3030 arranges the virtual reality object read from the virtual reality content storage unit 1050 in the first layer of the virtual space, and the model data arrangement processing unit 4050 is generated by the model data generation processing unit 4034. The model data of the object in the real world is arranged in the second layer. As described above, the hidden surface processing in the subsequent drawing processing can be simplified by arranging the layers in different layers.

描画処理部1031は、仮想空間の第1レイヤーに配置されている仮想現実オブジェクトを描画することで、仮想現実提示用の映像を生成する。具体的に、描画処理部1031は、視点制御部3040で制御される視点位置及び視線方向に基づいて仮想空間の第1レイヤーに配置されている仮想現実をイメージプレーンに投影することで、仮想現実オブジェクトの2次元画像を取得する。 The drawing processing unit 1031 generates a virtual reality presentation video by drawing a virtual reality object arranged in the first layer of the virtual space. Specifically, the rendering processing unit 1031 projects the virtual reality arranged in the first layer of the virtual space on the image plane based on the viewpoint position and the line-of-sight direction controlled by the viewpoint control unit 3040. Obtain a two-dimensional image of the object.

同様に、描画処理部1031は、仮想空間の第2レイヤーに配置されている現実の物体のモデルデータを第1レイヤーの投影処理に用いる視点位置及び視線方向に基づいて上記イメージプレーンに投影することで、現実の物体の投影画像を生成する。描画処理部1031は、仮想現実オブジェクトの2次元画像のうち、上記現実の物体の投影画像であって、仮想現実オブジェクトよりもユーザ側に位置する物体の投影画像で隠す陰面処理を行う。 Similarly, the drawing processing unit 1031 projects the model data of the real object arranged in the second layer of the virtual space onto the image plane based on the viewpoint position and the line-of-sight direction used for the first layer projection processing. Thus, a projection image of a real object is generated. The drawing processing unit 1031 performs hidden surface processing that is a projection image of the above-described real object in the two-dimensional image of the virtual reality object and is hidden by the projection image of the object positioned on the user side with respect to the virtual reality object.

続いて、描画処理部1031は、映像表示部1040に対応する解像度に合わせて上記投影処理で得られた2次元画像を所定の大きさに切り取るクリッピング処理を行う。 Subsequently, the drawing processing unit 1031 performs a clipping process that cuts the two-dimensional image obtained by the projection process into a predetermined size in accordance with the resolution corresponding to the video display unit 1040.

続いて、描画処理部1031は、仮想現実オブジェクトの2次元画像にテキスチャーを貼り付けるテキスチャーマッピング処理を行う。 Subsequently, the drawing processing unit 1031 performs a texture mapping process for pasting the texture to the two-dimensional image of the virtual reality object.

続いて、描画処理部1031は、光源制御部3040で制御される光源の位置及び照度に基づいて、仮想現実オブジェクトの2次元画像の表面の輝度を調整するシェーディング処理を行う。 Subsequently, the drawing processing unit 1031 performs a shading process for adjusting the luminance of the surface of the two-dimensional image of the virtual reality object based on the position and illuminance of the light source controlled by the light source control unit 3040.

描画処理部1031は、必要に応じてアンチエリアシング処理や、当該描画処理の間におけるユーザ状態の変化に基づく表示位置の補正処理等を行うことで仮想現実提示用の映像を生成する。映像表示部1040は、上記処理を経て得られた仮想現実提示用の映像を表示する。 The drawing processing unit 1031 generates an image for virtual reality presentation by performing anti-aliasing processing, display position correction processing based on a change in user state during the drawing processing, and the like as necessary. The video display unit 1040 displays the virtual reality presentation video obtained through the above processing.

音声生成処理部1070は、仮想現実提示制御部3010で決定された仮想現実サービスに対応する仮想現実提示用の音声データを仮想現実コンテンツ記憶部1050より読み出し、各音声チャンネルに分配する分配処理や音声レベルを増幅する増幅処理を行うことで、各音声チャンネルから出力する仮想現実提示用の音声データを生成する。 The audio generation processing unit 1070 reads the virtual reality presentation audio data corresponding to the virtual reality service determined by the virtual reality presentation control unit 3010 from the virtual reality content storage unit 1050 and distributes the audio data to each audio channel. By performing amplification processing for amplifying the level, audio data for virtual reality presentation output from each audio channel is generated.

音声生成処理部1070は、当該分配処理を行うに当たり、仮想空間に配置されている仮想現実オブジェクトの位置座標と視点制御部3040が制御する視点位置座標との相対ベクトルに基づいて音声データを複数の音声チャネルに分配して立体音響を再現する構成とすると良い。 In performing the distribution process, the sound generation processing unit 1070 converts a plurality of sound data based on a relative vector between the position coordinates of the virtual reality object arranged in the virtual space and the viewpoint position coordinates controlled by the viewpoint control unit 3040. It is preferable to distribute the sound channels and reproduce the three-dimensional sound.

音声出力部1080は、音声生成処理部1070で生成された各音声チャンネルの音声データをアナログ電気信号に変換した後に、空気振動に変換して外部へ放音することで、音声を出力する。 The audio output unit 1080 outputs audio by converting the audio data of each audio channel generated by the audio generation processing unit 1070 into an analog electric signal, and then converting it into air vibration and releasing the sound to the outside.

なお、同一の仮想現実オブジェクトであってもユーザの近くに配置されている場合とユーザの遠くに配置されている場合とではユーザが受け取る印象が異なる。例えば、現実の世界ではありえないドラゴンの仮想現実オブジェクトをユーザの前方3mの位置に配置した場合における仮想現実の世界は高い仮想現実度を有することになるが、ユーザの50m先にドラゴンを配置した場合は、ユーザからは良く見えないため仮想現実度は低くなる。 Note that even if the same virtual reality object is arranged near the user, the impression received by the user differs depending on whether it is arranged near the user. For example, when a virtual reality object of a dragon that cannot be in the real world is arranged at a position 3 m ahead of the user, the virtual reality world has a high virtual reality, but when a dragon is arranged 50 m ahead of the user The virtual reality is low because it is not visible to the user.

従って、仮想現実オブジェクト配置部3030は、提示可能仮想現実度算出部1020で算出される仮想現実度に収まる様にユーザからの距離を制御して仮想現実コンテンツ記憶部1050から読み出した仮想現実オブジェクトを仮想空間に配置する。 Therefore, the virtual reality object placement unit 3030 controls the distance from the user so as to be within the virtual reality calculated by the presentable virtual reality calculation unit 1020, and reads the virtual reality object read from the virtual reality content storage unit 1050. Place in the virtual space.

例えば、仮想現実提示制御部3010が提供を開始すると決定した仮想現実サービスが「ドラゴンを狩ろう」という仮想現実サービスであり、提示可能仮想現実度算出部1020が設定する提示可能な仮想現実度の初期値が50であるとする。ここで、仮想現実オブジェクトであるドラゴンについてユーザの3m先に配置した場合の仮想現実度が70、10m先に配置した場合の仮想現実度が50、20m先に配置した場合の仮想現実度が40であるとする。 For example, the virtual reality service determined by the virtual reality presentation control unit 3010 to start providing is a virtual reality service “Let's hunt the dragon”, and the presentable virtual reality degree set by the presentable virtual reality calculation unit 1020 Assume that the initial value is 50. Here, the virtual reality when the dragon, which is a virtual reality object, is placed 3 m ahead of the user is 70, the virtual reality is 50 when the user is placed 10 meters away, and the virtual reality 40 is 40 meters when placed 20 meters away. Suppose that

この場合、仮想現実オブジェクト配置処理部3030は、仮想現実提示制御部3010から指示された仮想現実サービスに係る仮想現実オブジェクトである当該ドラゴンのモデルデータを仮想現実コンテンツ記憶部1050より読み出して仮想空間に配置する。ここで、仮想現実オブジェクト配置処理部3030は、読み出した仮想現実オブジェクトを仮想空間に配置した場合の仮想現実度が、提示可能な仮想現実度である50を下回る様に、ユーザ位置から10m以上の距離の場所に仮想現実オブジェクトを配置する。このように、仮想現実オブジェクト配置処理部3030は、提示可能な仮想現実度を満たすように、仮想現実オブジェクトの仮想空間内での配置位置を決定する構成とすると更に良好である。 In this case, the virtual reality object placement processing unit 3030 reads out the model data of the dragon, which is a virtual reality object related to the virtual reality service instructed from the virtual reality presentation control unit 3010, from the virtual reality content storage unit 1050 and stores it in the virtual space. Deploy. Here, the virtual reality object arrangement processing unit 3030 has a virtual reality degree of 10 m or more from the user position so that the virtual reality degree when the read virtual reality object is arranged in the virtual space is less than 50, which is the virtual reality degree that can be presented. Place a virtual reality object at a distance. As described above, it is more preferable that the virtual reality object arrangement processing unit 3030 is configured to determine the arrangement position of the virtual reality object in the virtual space so as to satisfy the presentable virtual reality.

なお、上記ユーザ位置は、ユーザ状態検知部1010で検知されるユーザ状態に基づいて視点制御部3040で更新される視点位置をそのままユーザ位置として使用することができる。 As the user position, the viewpoint position updated by the viewpoint control unit 3040 based on the user state detected by the user state detection unit 1010 can be used as it is as the user position.

また、仮想現実コンテンツ記憶部1050は、仮想現実オブジェクトの各々に設定されている仮想現実度と対応付けて仮想現実オブジェクトを記憶する構成とすると更に良好である。仮想現実オブジェクト配置処理部3030は、提示可能仮想現実度算出部1020で算出された仮想現実度よりも低い仮想現実度と対応付けられている仮想現実オブジェクトを前記仮想現実コンテンツ記憶部1050より読み出して仮想空間生成処理部3020が生成する仮想空間に配置する。 It is further preferable that the virtual reality content storage unit 1050 is configured to store the virtual reality object in association with the virtual reality level set for each virtual reality object. The virtual reality object arrangement processing unit 3030 reads from the virtual reality content storage unit 1050 a virtual reality object associated with a virtual reality level lower than the virtual reality level calculated by the presentable virtual reality level calculation unit 1020. The virtual space generation processing unit 3020 arranges the virtual space.

なお、仮想現実オブジェクト配置処理部3030は、提示可能仮想現実度算出部1020で算出された仮想現実度から提示中仮想現実度算出部1060で算出された仮想現実度を減算することで求まる余剰仮想現実度よりも低い仮想現実度と対応付けられている仮想現実オブジェクトを仮想現実コンテンツ記憶部1050より読み出して仮想空間生成処理部3020が生成する仮想空間に配置する構成とすることが好ましい。 The virtual reality object placement processing unit 3030 obtains the surplus virtual obtained by subtracting the virtual reality calculated by the presenting virtual reality calculation unit 1060 from the virtual reality calculated by the presentable virtual reality calculation unit 1020. It is preferable that a virtual reality object associated with a virtual reality level lower than the reality level is read from the virtual reality content storage unit 1050 and arranged in the virtual space generated by the virtual space generation processing unit 3020.

また、仮想現実オブジェクト配置処理部3030は、提示可能な仮想現実の世界の仮想現実度が、現在提示中の仮想現実の世界の仮想現実度を下回っている場合に、仮想空間に配置中の仮想現実オブジェクトを前記仮想空間から削除することで、提示する仮想現実の世界の仮想現実度が提示可能な仮想現実の世界の仮想現実度に収まるようにする。提示可能仮想現実度算出部1020は、現在提示可能な仮想現実度を算出し、提示中仮想現実度算出部1060は、現在仮想空間に配置している仮想現実オブジェクトの合計仮想現実度を算出する。仮想現実オブジェクト配置処理部3030は、当該提示可能仮想現実度から提示中仮想現実度を減算した値がマイナスである場合に、提示中仮想現実度が提示可能仮想現実度を下回る様に、仮想空間に配置している仮想現実オブジェクトの中から削除する仮想現実オブジェクトを選択して仮想空間から削除する処理を行う。 The virtual reality object placement processing unit 3030 also displays the virtual reality being placed in the virtual space when the virtual reality in the virtual reality world that can be presented is lower than the virtual reality in the virtual reality world that is currently being presented. By deleting the real object from the virtual space, the virtual reality level of the virtual reality world to be presented falls within the virtual reality level of the virtual reality world that can be presented. The presentable virtual reality calculation unit 1020 calculates the presentable virtual reality, and the presenting virtual reality calculation unit 1060 calculates the total virtual reality of the virtual reality objects currently arranged in the virtual space. . When the value obtained by subtracting the presenting virtual reality from the presentable virtual reality is negative, the virtual reality object placement processing unit 3030 reduces the virtual space so that the presenting virtual reality is less than the presentable virtual reality. The virtual reality object to be deleted is selected from the virtual reality objects arranged in the virtual space object and deleted from the virtual space.

<実施形態14>
ユーザは仮想現実提示装置を装着して仮想現実の世界を体験する。ユーザが直接身に着ける仮想現実提示装置は、装着性や携帯性を高めるために軽量・小型であることが好ましい一方で、仮想現実の世界を提示するためには様々な制御や処理が発生する。本実施形態14に係る仮想現実提示システムは、これら仮想現実の世界を提示するために必要となる処理を複数の装置やシステムで分担することで、実際にユーザが装着する仮想現実提示装置の軽量・小型化を目的としている。
<Embodiment 14>
The user wears the virtual reality presentation device and experiences the virtual reality world. The virtual reality presentation device worn directly by the user is preferably lightweight and compact in order to improve wearability and portability, but various controls and processes are required to present the virtual reality world. . The virtual reality presentation system according to the fourteenth embodiment is a lightweight virtual reality presentation device that is actually worn by the user by sharing the processing necessary for presenting the virtual reality world with a plurality of devices and systems.・ It is aimed at miniaturization.

図55は、本実施形態14に係る仮想現実提示システムの構成を示すブロック図である。仮想現実提示システムは、仮想現実提示装置500と、仮想現実サービス提供システム5000とから構成される。 FIG. 55 is a block diagram illustrating a configuration of the virtual reality presentation system according to the fourteenth embodiment. The virtual reality presentation system includes a virtual reality presentation device 500 and a virtual reality service providing system 5000.

仮想現実サービス提供システム5000は、仮想現実の世界を提示するサービスである仮想現実サービスをユーザに対して提供するシステムであって、一台又は複数台の情報処理サーバやデータベースなどから構成される。 The virtual reality service providing system 5000 is a system that provides a user with a virtual reality service, which is a service that presents the virtual reality world, and includes one or a plurality of information processing servers and databases.

仮想現実サービス提供システム5000は、通信部5010と、仮想現実サービス提供制御部5020と、仮想現実オブジェクト挙動制御部5030と、レイヤー順序更新処理部5040と、レイヤー情報生成処理部5050と、提示可能仮想現実度算出部1020と、映像生成処理部1030と、仮想現実コンテンツ記憶部1050と、提示中仮想現実度算出部1060と、音声生成処理部1070と、仮想空間生成処理部3020と、仮想現実オブジェクト配置処理部3030と、視点制御部3040と、周囲状況特定部4020と、画像解析処理部4030と、光源制御部4040と、モデルデータ配置処理部4050と、を備える。   The virtual reality service providing system 5000 includes a communication unit 5010, a virtual reality service provision control unit 5020, a virtual reality object behavior control unit 5030, a layer order update processing unit 5040, a layer information generation processing unit 5050, a presentable virtual Reality calculation unit 1020, video generation processing unit 1030, virtual reality content storage unit 1050, presenting virtual reality calculation unit 1060, audio generation processing unit 1070, virtual space generation processing unit 3020, virtual reality object An arrangement processing unit 3030, a viewpoint control unit 3040, an ambient condition specifying unit 4020, an image analysis processing unit 4030, a light source control unit 4040, and a model data arrangement processing unit 4050 are provided.

通信部5010は、インターネット等の通信網を介して仮想現実提示装置500と通信を行う。通信部5010は、少なくともユーザの状態を示すユーザ状態情報を受信する受信部5011と、仮想現実提示用の映像データを送信する送信部5011とを備える。 The communication unit 5010 communicates with the virtual reality presentation device 500 via a communication network such as the Internet. The communication unit 5010 includes at least a receiving unit 5011 that receives user status information indicating the user status, and a transmitting unit 5011 that transmits video data for virtual reality presentation.

受信部5011は、ユーザの状態を示すユーザ状態情報と、ユーザの周囲を撮影した周囲景色画像とを受信する。ユーザ状態情報や周囲景色画像には、それぞれ当該ユーザ状態が検知されたタイミングを示すユーザ状態検知時刻情報(ユーザ状態検知タイミング情報)や、周囲景色画像が撮影されたタイミングを示す周囲景色画像撮影時刻情報(周囲状況検知タイミング情報)が含まれている。送信部5011は、仮想現実提示用の映像符号化データや仮想現実提示用の音声符号化データ、レイヤー情報、各種通知情報などを送信する。 The receiving unit 5011 receives user state information indicating a user's state and a surrounding scene image obtained by photographing the user's surroundings. The user state information and the surrounding scene image each include user state detection time information (user state detection timing information) indicating the timing when the user state is detected, and an ambient scene image shooting time indicating the timing when the surrounding scene image is captured. Information (ambient status detection timing information) is included. The transmission unit 5011 transmits video encoded data for virtual reality presentation, audio encoded data for virtual reality presentation, layer information, various notification information, and the like.

仮想現実サービス提供制御部5020は、仮想現実サービスの提供を制御する。具体的に仮想現実サービス提供制御部5020は、仮想現実コンテンツ記憶部1050に記憶されている仮想現実コンテンツの中から、提供する仮想現実サービスに係る制御プログラムを読み出して実行することで当該仮想現実サービスの提供を開始する。 The virtual reality service provision control unit 5020 controls provision of the virtual reality service. Specifically, the virtual reality service provision control unit 5020 reads out and executes a control program related to the virtual reality service to be provided from the virtual reality content stored in the virtual reality content storage unit 1050, thereby executing the virtual reality service. Start providing.

仮想現実コンテンツ記憶部1050は、仮想現実サービスを実現するためのデータである仮想現実コンテンツを記憶している。仮想現実コンテンツには、仮想現実オブジェクトの他、仮想現実サービスの進行を制御する仮想現実サービス制御プログラムや仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御プログラム、仮想現実提示用の音声データである仮想現実提示用音声データなどを記憶している。 The virtual reality content storage unit 1050 stores virtual reality content that is data for realizing a virtual reality service. The virtual reality content includes a virtual reality object, a virtual reality service control program that controls the progress of the virtual reality service, a virtual reality object behavior control program that controls the behavior of the virtual reality object, and audio data for virtual reality presentation. It stores voice data for virtual reality presentation.

仮想現実サービス提供制御部5020は、仮想現実サービスの提供を開始するにあたって、仮想現実サービスの提供開始を通知する仮想現実サービス提供開始通知情報を生成する。 When the provision of the virtual reality service is started, the virtual reality service provision control unit 5020 generates virtual reality service provision start notification information for notifying the start of provision of the virtual reality service.

図56は、当該仮想現実サービス提供開始通知情報の一例を示す図である。仮想現実サービス提供開始通知情報は、自サーバのアドレスである送信元アドレスと、送信先の仮想現実提示装置500のアドレスである送信先アドレスと、当該情報が仮想現実サービス提供開始通知情報であることを示す情報種別と、仮想現実提示装置500と仮想現実提示システム5000の間において当該仮想現実サービスに関連して発生する通信を他の通信と識別するために各パケットに付与する番号である通信識別番号と、提供に係る仮想現実サービスを識別する仮想現実サービス識別情報と、仮想現実サービスの提供において必要となる制御や処理で用いる仮想現実制御パラメータ情報などを含む。 FIG. 56 is a diagram illustrating an example of the virtual reality service provision start notification information. The virtual reality service provision start notification information includes a transmission source address that is the address of its own server, a transmission destination address that is an address of the virtual reality presentation device 500 that is the transmission destination, and the information is virtual reality service provision start notification information. And a communication identification that is a number assigned to each packet in order to distinguish communication generated between the virtual reality presentation device 500 and the virtual reality presentation system 5000 in relation to the virtual reality service from other communication It includes a number, virtual reality service identification information for identifying a virtual reality service to be provided, virtual reality control parameter information used in control and processing necessary for providing the virtual reality service, and the like.

仮想現実制御パラメータ情報としては、ユーザ状態としてどのような種類のユーザ状態を検知させるかを指定する検知ユーザ状態指定情報、検知されたユーザの状態を示すユーザ状態情報の送信頻度を示すユーザ状態送信頻度、撮影されたユーザの周囲の景色の画像である周囲景色画像の送信頻度、周囲景色画像の画像圧縮符号化形式を示す周囲景色画像符号化形式、表示する映像のフレームレートを示す映像フレームレート、仮想現実サービス提供システム5000から適宜送信される仮想現実提示用映像データの符号化形式を示す仮想現実提示用映像データ符号化形式、などの情報が含まれる。 As virtual reality control parameter information, detected user state specifying information for specifying what kind of user state is detected as the user state, and user state transmission indicating the transmission frequency of the user state information indicating the detected user state The frequency, the transmission frequency of the surrounding scenery image that is an image of the surrounding scenery of the photographed user, the surrounding scenery image encoding format indicating the image compression encoding format of the surrounding scenery image, and the video frame rate indicating the frame rate of the video to be displayed The virtual reality presentation video data encoding format indicating the encoding format of the virtual reality presentation video data appropriately transmitted from the virtual reality service providing system 5000 is included.

その他、仮想現実サービス提供制御部5020は、必要に応じて現在提供中の仮想現実サービスの提供の終了を通知する仮想現実サービス提供終了通知情報や当該仮想現実サービスにおける制御パラメータの変更を通知する制御パラメータ変更通知情報、などの各種情報を生成する。仮想現実サービス提供制御部5020で生成されたこれらの情報は、送信部5012より仮想現実提示装置500へ送信される。 In addition, the virtual reality service provision control unit 5020 controls the virtual reality service provision end notification information for notifying the end of provision of the currently provided virtual reality service or the control parameter change notification in the virtual reality service as necessary. Various information such as parameter change notification information is generated. These pieces of information generated by the virtual reality service provision control unit 5020 are transmitted from the transmission unit 5012 to the virtual reality presentation device 500.

仮想現実サービス提供制御部5020は、仮想現実サービスの提供を開始する場合に、仮想空間生成処理部3020と仮想現実オブジェクト配置処理部3030にそれぞれ仮想空間の生成指示及び仮想現実オブジェクトの配置指示を出す。 When the provision of the virtual reality service is started, the virtual reality service provision control unit 5020 issues a virtual space generation instruction and a virtual reality object arrangement instruction to the virtual space generation processing unit 3020 and the virtual reality object arrangement processing unit 3030, respectively. .

また、仮想現実サービス提供制御部5020は、仮想現実提示用の映像データの生成指示と仮想現実提示用の音声データの生成指示を映像生成処理部1030と音声生成処理部1070にそれぞれ出す。 In addition, the virtual reality service provision control unit 5020 issues an instruction to generate video data for virtual reality presentation and an instruction to generate audio data for virtual reality presentation to the video generation processing unit 1030 and the audio generation processing unit 1070, respectively.

仮想空間生成処理部3020は、仮想現実サービス提供制御部5020からの仮想空間生成指示に基づいて、当該仮想現実サービスに使用する仮想空間を生成する。仮想空間は、所定の広さを有する座標空間であって、現実の世界の空間と対応するように人工的に創り出される情報処理上の空間である。 The virtual space generation processing unit 3020 generates a virtual space used for the virtual reality service based on the virtual space generation instruction from the virtual reality service provision control unit 5020. The virtual space is a coordinate space having a predetermined area, and is an information processing space created artificially so as to correspond to a space in the real world.

仮想現実オブジェクト配置処理部3030は、仮想現実サービス提供制御部5020からの仮想現実オブジェクト配置指示に基づいて、当該仮想現実サービスに係る仮想現実オブジェクトを仮想現実コンテンツ記憶部1050より読み出して仮想空間生成処理部3020が生成した仮想空間に配置する。 Based on the virtual reality object placement instruction from the virtual reality service provision control unit 5020, the virtual reality object placement processing unit 3030 reads out the virtual reality object related to the virtual reality service from the virtual reality content storage unit 1050, and performs virtual space generation processing. Arranged in the virtual space generated by the unit 3020.

ここで、仮想現実オブジェクト配置処理部3030は、提示可能仮想現実度算出部1020が算出する現在提供可能な仮想現実の世界の仮想現実度に収まる様に、上記仮想現実オブジェクトを選択して仮想空間に配置する。 Here, the virtual reality object placement processing unit 3030 selects the virtual reality object so as to be within the virtual reality of the presently available virtual reality calculated by the presentable virtual reality calculation unit 1020 and selects the virtual space. To place.

また、仮想現実オブジェクト配置処理部3030は、配置する仮想現実オブジェクトが複数になる場合は、読み出した仮想現実オブジェクトを異なるレイヤーの仮想空間に配置する。 In addition, when there are a plurality of virtual reality objects to be arranged, the virtual reality object arrangement processing unit 3030 arranges the read virtual reality objects in the virtual spaces of different layers.

すなわち、仮想空間生成処理部3020は、原点を共通とする複数のレイヤーの仮想空間を生成し、仮想現実オブジェクト配置処理部3030は、仮想現実コンテンツ記憶部1050より読み出した複数の仮想現実オブジェクトをそれぞれ異なるレイヤーの仮想空間に配置する。 That is, the virtual space generation processing unit 3020 generates a virtual space of a plurality of layers having a common origin, and the virtual reality object arrangement processing unit 3030 receives the plurality of virtual reality objects read from the virtual reality content storage unit 1050, respectively. Place in a virtual space of different layers.

図57は、当該複数の仮想現実オブジェクトを仮想空間の異なるレイヤーにそれぞれ配置する場合を示している。象と犬とライオンの3つの仮想現実オブジェクトがそれぞれ原点を共通とする3つの異なるレイヤーの仮想空間に分けて配置されている。 FIG. 57 shows a case where the plurality of virtual reality objects are arranged in different layers of the virtual space. Three virtual reality objects, an elephant, a dog, and a lion, are arranged in three different layers of virtual space, each having a common origin.

視点制御部3040は、受信部5011で受信されたユーザ状態情報に基づいて、仮想空間生成処理部3020が生成した仮想空間において、ユーザの目の位置及び視線方向に対応する視点位置座標と視線方向とを制御する。視点制御部3040は、ユーザ状態情報に含まれる傾き情報や加速度情報に基づいて特定されるユーザ頭部の傾きの変化や加速度の変化から、ユーザの目の位置及び視線方向に対応する視点位置座標と視線方向とをそれぞれ算出して更新する。ここで、ユーザ状態情報には、対応するユーザ状態が検知されたタイミングを示すタイムスタンプであるユーザ状態検知時刻情報が含まれているため、視点制御部3040は、現在の視点位置座標及び視線方向が、どの時刻に検知されたユーザ状態に基づいて設定されている視点位置座標及び視線方向であるかを管理する。 The viewpoint control unit 3040, based on the user state information received by the receiving unit 5011, in the virtual space generated by the virtual space generation processing unit 3020, the viewpoint position coordinates and the line-of-sight direction corresponding to the user's eye position and line-of-sight direction. And control. The viewpoint control unit 3040 calculates viewpoint position coordinates corresponding to the user's eye position and line-of-sight direction from the change in the inclination and acceleration of the user's head specified based on the inclination information and acceleration information included in the user state information. And the line-of-sight direction are calculated and updated. Here, since the user state information includes user state detection time information that is a time stamp indicating the timing at which the corresponding user state is detected, the viewpoint control unit 3040 can display the current viewpoint position coordinates and the line-of-sight direction. Manages the viewpoint position coordinates and the line-of-sight direction set based on the user state detected at which time.

仮想現実オブジェクト挙動制御部5030は、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。仮想現実オブジェクト配置処理部3030によって仮想空間の各レイヤーにそれぞれ配置されている仮想現実オブジェクトの中には、例えば人間や動物の仮想現実オブジェクトのように動作可能なように構成されているものがある。仮想現実オブジェクト挙動制御部5030は、仮想現実コンテンツ記憶部1050の中から当該仮想現実オブジェクトの挙動制御プログラムを読み出して実行することで、仮想空間に配置されている仮想現実オブジェクトの外観形状を変化させたり、仮想現実オブジェクトを仮想空間内で移動させたりする。 The virtual reality object behavior control unit 5030 controls the behavior of the virtual reality object arranged in the virtual space. Some virtual reality objects arranged in each layer of the virtual space by the virtual reality object arrangement processing unit 3030 are configured to be operable like a virtual reality object of a human being or an animal, for example. . The virtual reality object behavior control unit 5030 changes the appearance shape of the virtual reality object arranged in the virtual space by reading out and executing the behavior control program of the virtual reality object from the virtual reality content storage unit 1050. Or moving a virtual reality object in the virtual space.

提示中仮想現実度算出部1060は、現在提示中の仮想現実の世界に係る仮想現実度を算出する。提示中仮想現実度算出部1060は、仮想現実オブジェクト配置処理部3030が仮想空間に配置する仮想現実オブジェクトの種類や配置位置、周囲状況特定部4020で特定されるユーザの周囲の状況などに基づいて、現在提示中の仮想現実の世界に係る仮想現実度を算出する。なお、複数レイヤーの仮想空間に複数の仮想現実オブジェクトが配置されている場合、提示中仮想現実度算出部1060は、これらの仮想現実オブジェクトに対応付けられた仮想現実度の総和をとることで提示中の仮想現実の世界に係る仮想現実度を算出する構成とすると良い。 The presenting virtual reality calculation unit 1060 calculates a virtual reality related to the virtual reality world currently being presented. The presenting virtual reality calculation unit 1060 is based on the type and arrangement position of the virtual reality object that the virtual reality object arrangement processing unit 3030 arranges in the virtual space, the situation around the user specified by the surrounding situation specifying unit 4020, and the like. The virtual reality degree related to the virtual reality world currently being presented is calculated. When a plurality of virtual reality objects are arranged in a virtual space of a plurality of layers, the presenting virtual reality calculation unit 1060 presents by summing the virtual reality associated with these virtual reality objects. It is preferable that the virtual reality related to the virtual reality world is calculated.

提示可能仮想現実度算出部1020は、現在ユーザに提示可能な仮想現実の世界に係る仮想現実度を算出する。提示可能仮想現実度算出部1020は、提示中仮想現実度算出部1060で算出された現在提示中の仮想現実の世界に係る仮想現実度を基準として、所定の値を加算・減算・乗算・除算することで、提示可能な仮想現実の世界に係る仮想現実度を算出すると良い。 The presentable virtual reality calculation unit 1020 calculates the virtual reality related to the virtual reality world that can be presented to the user at present. The presentable virtual reality calculation unit 1020 adds, subtracts, multiplies, and divides a predetermined value on the basis of the virtual reality related to the world of the virtual reality being presented calculated by the presenting virtual reality calculation unit 1060 By doing so, it is preferable to calculate the virtual reality related to the world of virtual reality that can be presented.

画像解析処理部4030は、受信部5012で受信されたユーザの周囲の景色を撮影した周囲景色画像に対する所定の解析処理を行うことで所定の情報を抽出する。周囲景色画像は、仮想現実提示装置500が備える複数のカメラで撮影された画像である。 The image analysis processing unit 4030 extracts predetermined information by performing predetermined analysis processing on the surrounding scenery image obtained by photographing the scenery around the user received by the receiving unit 5012. The surrounding scene image is an image taken by a plurality of cameras included in the virtual reality presentation device 500.

例えば、画像解析処理部4030は、当該周囲景色画像の中から光学成分を抽出し、ユーザの周囲の平均照度や光源の位置及び方向などの情報を光学成分情報として抽出する。 For example, the image analysis processing unit 4030 extracts an optical component from the surrounding scenery image, and extracts information such as the average illuminance around the user and the position and direction of the light source as optical component information.

また、画像解析処理部4030は、複数の周囲景色画像に含まれる各物体の位置の比較処理や、同一の周囲景色画像の隣接画素を比較する比較処理によって、周囲景色画像に含まれる各物体の位置や形状を特定する。画像解析処理部4030は、ユーザの周囲の現実世界に存在するこれらの物体等の位置や形状に基づいて、当該物体等の外観形状をモデル化してモデルデータを生成する。 In addition, the image analysis processing unit 4030 performs processing for comparing the positions of the objects included in the plurality of surrounding scenery images and comparison processing for comparing adjacent pixels of the same surrounding scenery image, so that each object included in the surrounding scenery image is compared. Specify the position and shape. The image analysis processing unit 4030 generates model data by modeling the external shape of the object or the like based on the position or shape of the object or the like existing in the real world around the user.

光源制御部4040は、画像解析処理部4030で抽出された光学成分情報に基づいて、仮想空間生成処理部3020が生成する上記仮想空間における光源の位置座標や光源の照度又は輝度を更新する。例えば、光源制御部4040は、画像解析処理部4030によって求められた周囲景色画像における平均輝度に基づいて、無限遠方の光源の照度又は輝度を設定する。また、画像解析処理部4030において周囲景色画像で現れる影の位置等に基づいて抽出された光学成分情報に基づいて、局所的な光源を新たに仮想空間内の対応する位置に配置する。その他、光源制御部4040は、画像解析処理部4030で抽出された光学成分情報に基づいて光源の色を設定しても良い。 The light source control unit 4040 updates the position coordinates of the light source and the illuminance or luminance of the light source in the virtual space generated by the virtual space generation processing unit 3020 based on the optical component information extracted by the image analysis processing unit 4030. For example, the light source control unit 4040 sets the illuminance or luminance of the light source at infinity based on the average luminance in the surrounding scene image obtained by the image analysis processing unit 4030. Also, a local light source is newly arranged at a corresponding position in the virtual space based on the optical component information extracted based on the position of the shadow appearing in the surrounding scene image in the image analysis processing unit 4030. In addition, the light source control unit 4040 may set the color of the light source based on the optical component information extracted by the image analysis processing unit 4030.

モデルデータ配置処理部4050は、画像解析処理部4030において生成されたユーザの周囲の現実世界に存在する物体等のモデルデータを仮想空間に配置する。モデルデータ配置処理部4050は、視点制御部3040で制御される視点位置及び視線方向に基づいて、周囲景色画像がどの位置からどの方向に向かって撮影された映像であるかを特定し、画像解析処理部4030で生成された各物体のモデルデータを仮想空間に配置する。 The model data arrangement processing unit 4050 arranges model data such as an object existing in the real world around the user generated by the image analysis processing unit 4030 in the virtual space. The model data arrangement processing unit 4050 identifies the image of the surrounding scene image taken from which position and in which direction based on the viewpoint position and the line-of-sight direction controlled by the viewpoint control unit 3040, and performs image analysis. The model data of each object generated by the processing unit 4030 is arranged in the virtual space.

ここで、仮想空間生成処理部3020は、当該現実の世界に存在する物体のモデルデータを配置するモデルデータ専用レイヤーの仮想空間を生成することが好ましい。モデルデータ配置処理部4050は、画像解析処理部4030で生成された現実の世界の物体のモデルデータを当該モデルデータ専用レイヤーの仮想空間に配置する。 Here, it is preferable that the virtual space generation processing unit 3020 generates a virtual space of a model data dedicated layer in which model data of an object existing in the real world is arranged. The model data arrangement processing unit 4050 arranges the model data of the real world object generated by the image analysis processing unit 4030 in the virtual space of the model data dedicated layer.

周囲状況特定部4020は、画像解析処理部4030における画像解析処理の結果に基づいて、ユーザの周囲の状況を特定する。例えば、周囲状況特定部4020は、ユーザの周囲の状況を「室内」、「室外」、「公園」、「駅」、「道路」、「自宅」、「山の中」、「浜辺」、「デパート」、「田園」、「グラウンド」、「学校」など、予め登録されているいずれかのカテゴリの中から選択することで、ユーザの周囲の状況を特定する。 The surrounding situation specifying unit 4020 specifies the surrounding situation of the user based on the result of the image analysis processing in the image analysis processing unit 4030. For example, the surrounding situation specifying unit 4020 displays the surrounding situation of the user as “indoor”, “outdoor”, “park”, “station”, “road”, “home”, “in the mountain”, “beach”, “ The situation around the user is specified by selecting from any of the categories registered in advance, such as “Department Store”, “Rural”, “Ground”, and “School”.

描画処理部1031は、仮想現実サービス提供制御部5020からの仮想現実提示用映像生成指示に基づいて、仮想空間に配置されている仮想現実オブジェクトを描画することで仮想現実提示用の映像を生成する。ここで、描画処理部1031は、仮想現実のレイヤー毎にそれぞれ描画処理を行うことでレイヤー毎の仮想現実提示用の映像を生成する。 The drawing processing unit 1031 generates a virtual reality presentation video by drawing a virtual reality object arranged in the virtual space based on a virtual reality presentation video generation instruction from the virtual reality service provision control unit 5020. . Here, the drawing processing unit 1031 generates a virtual reality presentation video for each layer by performing drawing processing for each virtual reality layer.

描画処理部1031は、仮想空間のレイヤーの一つとモデルデータ専用レイヤーを選択し、視点制御部3040で設定される現在の視点位置座標及び視線方向に基づいて、当該選択したレイヤーの仮想空間にそれぞれ配置されている仮想現実オブジェクトと現実の世界の物体のモデルとを、当該視点位置座標から視線方向前方に配置したイメージプレーンへ投影する投影処理を行う。描画処理部1031は、当該投影処理によって得られた2次元投影画像の中から現実の世界の物体のモデル部分を消去することで、選択したレイヤーに配置された仮想現実オブジェクトの2次元投影画像を取得する。 The drawing processing unit 1031 selects one of the layers in the virtual space and the model data dedicated layer, and in the virtual space of the selected layer based on the current viewpoint position coordinates and the line-of-sight direction set by the viewpoint control unit 3040, respectively. Projection processing is performed for projecting the virtual reality object and the model of the object in the real world onto the image plane arranged forward in the line-of-sight direction from the viewpoint position coordinates. The drawing processing unit 1031 deletes the model portion of the object in the real world from the two-dimensional projection image obtained by the projection processing, thereby obtaining the two-dimensional projection image of the virtual reality object arranged in the selected layer. get.

描画処理部1031は、上記投影処理で得られた2次元投影画像を所定の大きさに切り取るクリッピング処理を行う。ここで、描画処理部1031は、仮想現実提示装置500の表示パネルにおける解像度を上回る範囲で切り取ることを特徴とする。例えば、仮想現実提示装置500の表示パネルが1080画素×1920画素の解像度を有する場合、描画処理部1031は、2次元投影画像を1割増しの1188×2112で切り取るクリッピング処理を行う。なお、どの程度サイズを大きくして切り取るかはユーザ状態の変化の大きさに基づいて決定されていても良い。ユーザが静止している場合は、後続の補正処理が必要ではなく、大き目に切り取る必要がないためである。   The drawing processing unit 1031 performs a clipping process that cuts the two-dimensional projection image obtained by the projection process into a predetermined size. Here, the drawing processing unit 1031 is characterized by cutting out in a range exceeding the resolution of the display panel of the virtual reality presentation device 500. For example, when the display panel of the virtual reality presentation device 500 has a resolution of 1080 pixels × 1920 pixels, the drawing processing unit 1031 performs a clipping process of cutting the two-dimensional projection image by 1188 × 2112, which is 10% higher. It should be noted that how much the size is to be cut out may be determined based on the magnitude of change in the user state. This is because when the user is stationary, the subsequent correction process is not necessary, and it is not necessary to cut it out into large parts.

次に、描画処理部1031は、当該仮想現実オブジェクトのテキスチャーマッピングデータをクリッピング処理後の2次元投影画像に張り付けるテキスチャーマッピング処理を行う。   Next, the drawing processing unit 1031 performs a texture mapping process in which the texture mapping data of the virtual reality object is pasted on the two-dimensional projection image after the clipping process.

次に、描画処理部1031は、光源制御部4040で設定される光源に基づいて、上記2次元投影画像に陰影をつけるシェーディング処理を行う。描画処理部1031は、必要に応じてアンチエリアシング処理を行い、当該レイヤーの仮想現実提示用映像とする。 Next, the drawing processing unit 1031 performs a shading process for adding a shadow to the two-dimensional projection image based on the light source set by the light source control unit 4040. The drawing processing unit 1031 performs anti-aliasing processing as necessary to obtain a virtual reality presentation video for the layer.

ここで、描画処理部1031は、当該描画して生成したレイヤーの仮想現実提示用映像が、どの時刻のユーザ状態に基づいて描画された映像であるかを示す情報を付与して当該レイヤーの仮想現実提示用映像を生成する。描画処理に使用する視点位置座標及び視線方向は、視点制御部3040によって更新・設定されるが、現在使用する視点位置座標及び視線方向を設定する際に用いられたユーザ状態が検知された時刻を示すタイムスタンプであるユーザ状態検知時刻情報を付与して当該レイヤーの仮想現実提示用映像を生成する。 Here, the drawing processing unit 1031 assigns information indicating the time at which the virtual reality presentation video of the layer generated by drawing is a video drawn based on the user state, and the virtual processing of the layer is performed. Reality-presenting video is generated. The viewpoint position coordinates and the line-of-sight direction used for the drawing process are updated and set by the viewpoint control unit 3040. The time when the user state used when setting the currently used viewpoint position coordinates and the line-of-sight direction is detected is set. The user status detection time information, which is the time stamp shown, is given, and the virtual reality presentation video of the layer is generated.

描画処理部1031は、仮想空間生成処理部3020で生成されている各レイヤーの仮想空間を並列処理で描画することで、レイヤー毎の仮想現実提示用映像を生成する。 The drawing processing unit 1031 generates a virtual reality presentation video for each layer by drawing the virtual space of each layer generated by the virtual space generation processing unit 3020 by parallel processing.

映像符号化処理部1032は、描画処理部1031で生成された各レイヤーの仮想現実提示用映像を符号化してレイヤー別仮想現実提示用符号化映像データを生成する。当該レイヤー別仮想現実提示用符号化映像データは、送信部5011より仮想現実提示装置500に送信する。 The video encoding processing unit 1032 encodes the virtual reality presentation video of each layer generated by the drawing processing unit 1031 to generate layered virtual reality presentation encoded video data. The layer-by-layer virtual reality presentation encoded video data is transmitted from the transmission unit 5011 to the virtual reality presentation device 500.

レイヤー順序更新処理部5040は、仮想空間生成処理部3020が生成する仮想空間の各レイヤーの順序を更新する。描画処理部1031でレイヤー毎に描画が行われてレイヤー別の仮想現実提示用映像が生成されるため、最終的に仮想現実提示装置500において複数のレイヤー別仮想現実提示用映像を合成する必要がある。そのため、レイヤー順序更新処理部5040は、各仮想空間のレイヤーに順序を設定しておき、当該レイヤーの順序を更新する。 The layer order update processing unit 5040 updates the order of each layer in the virtual space generated by the virtual space generation processing unit 3020. Since the rendering processing unit 1031 performs rendering for each layer and generates virtual reality presentation videos for each layer, it is necessary to finally synthesize a plurality of virtual reality presentation videos for each layer in the virtual reality presentation device 500. is there. Therefore, the layer order update processing unit 5040 sets the order of the layers in each virtual space and updates the order of the layers.

レイヤーの順序は、ユーザの位置と仮想現実オブジェクトの位置との関係で決定される。すなわち、ユーザから近い方の仮想現実オブジェクトが配置されているレイヤーから順番にレイヤー順序が決定される。ユーザの位置は、適宜変化していくし、仮想現実オブジェクトの位置も仮想現実オブジェクト挙動制御部5030が行う挙動制御によって変化していく。そこで、レイヤー順序更新処理部5040は、受信部5011で受信されたユーザ状態情報に基づいて視点制御部3040によって制御されるユーザの視点位置座標と、仮想空間の各レイヤーにそれぞれ配置されている各仮想現実オブジェクトの位置座標とに基づいて、レイヤー順序を更新する。 The layer order is determined by the relationship between the position of the user and the position of the virtual reality object. That is, the layer order is determined in order from the layer where the virtual reality object closer to the user is arranged. The position of the user changes as appropriate, and the position of the virtual reality object also changes due to behavior control performed by the virtual reality object behavior control unit 5030. Therefore, the layer order update processing unit 5040 is arranged in the user's viewpoint position coordinates controlled by the viewpoint control unit 3040 based on the user state information received by the receiving unit 5011 and in each layer of the virtual space. The layer order is updated based on the position coordinates of the virtual reality object.

例えば、図58のように仮想空間のレイヤー1〜3に仮想現実オブジェクトA〜Cがそれぞれ配置されている場合において、状態1ではユーザに近い方から仮想現実オブジェクトA、B、Cの順番である。従って、レイヤー順序更新処理部5040は、レイヤー1,2,3の順序とする。ここで、ユーザが現実の世界で移動したことによって状態2の位置関係となった場合、ユーザに近い方から仮想現実オブジェクトはB,C、Aの順番である。従って、レイヤー順序更新処理部5040は、レイヤー順序をレイヤー2、3、1に変更することでレイヤー順序を管理する。 For example, in the case where virtual reality objects A to C are arranged in layers 1 to 3 of the virtual space as shown in FIG. 58, in the state 1, the virtual reality objects A, B, and C are in order from the side closer to the user. . Therefore, the layer order update processing unit 5040 assumes the order of layers 1, 2, and 3. Here, when the positional relationship of the state 2 is obtained due to the user moving in the real world, the virtual reality objects are in the order of B, C, and A from the side closer to the user. Accordingly, the layer order update processing unit 5040 manages the layer order by changing the layer order to layers 2, 3, and 1.

レイヤー情報生成処理部5050は、レイヤー順序更新処理部5040における更新処理に基づいて現在のレイヤー順序を示すレイヤー情報を生成する。レイヤー情報生成処理部5050は、レイヤーの順序を示すレイヤー順序情報の他、ユーザと各レイヤーとの位置関係を示す位置関係情報、各レイヤーに含まれる仮想現実オブジェクトの種類や数、各レイヤーの重要度などの情報を含めてレイヤー情報を生成することが好ましい。なお、位置関係情報は、ユーザの位置から各レイヤーにそれぞれ含まれる仮想現実オブジェクトまでの距離やベクトルを示す情報である。当該レイヤー情報は、レイヤー別の仮想現実提示用映像符号化データと共に送信部5012より仮想現実提示装置500に送信される。 The layer information generation processing unit 5050 generates layer information indicating the current layer order based on the update processing in the layer order update processing unit 5040. The layer information generation processing unit 5050 includes layer order information indicating the layer order, positional relationship information indicating the positional relationship between the user and each layer, the type and number of virtual reality objects included in each layer, and the importance of each layer. It is preferable to generate layer information including information such as degree. The positional relationship information is information indicating a distance and a vector from the user position to the virtual reality object included in each layer. The layer information is transmitted from the transmission unit 5012 to the virtual reality presentation device 500 together with the encoded video data for virtual reality presentation for each layer.

音声生成処理部1070は、仮想現実サービス提供制御部5020からの仮想現実提示用音声生成指示に基づいて、仮想現実コンテンツ記憶部1050より提供する仮想現実サービスに係る仮想現実提示用音声データを読み出し、チャンネル別の仮想現実提示用音声データを生成する。例えば、音声生成処理部1070は、視点制御部3040で設定される視点位置と、仮想現実オブジェクト配置処理部3030が配置する仮想現実オブジェクトの位置との相対関係に基づいて、仮想現実コンテンツ記憶部1050より読み出した仮想現実提示用の音声データを複数のチャンネルに分配することでチャンネル別仮想現実提示用音声データを生成する。 The voice generation processing unit 1070 reads the virtual reality presentation voice data related to the virtual reality service provided from the virtual reality content storage unit 1050 based on the virtual reality presentation voice generation instruction from the virtual reality service provision control unit 5020, Audio data for virtual reality presentation for each channel is generated. For example, the audio generation processing unit 1070 is based on the relative relationship between the viewpoint position set by the viewpoint control unit 3040 and the position of the virtual reality object arranged by the virtual reality object arrangement processing unit 3030. The virtual reality presentation audio data is generated by distributing the read virtual reality presentation audio data to a plurality of channels.

ここで、音声再生処理部1070は、仮想現実コンテンツ記憶部1050より複数の仮想現実提示用音声データを読み出し、それぞれ各チャンネルの音声データに分配した上で合成することでチャンネル別仮想現実提示用音声データを生成する。ここで、チャンネルとしては、5.1Ch、6.1Ch、7.1Chなど複数チャンネルの音声出力部530を仮想現実提示装置500側に設け、立体音響を実現できるようにしておくことが好ましい。 Here, the audio reproduction processing unit 1070 reads a plurality of virtual reality presentation audio data from the virtual reality content storage unit 1050, distributes each of the virtual reality presentation audio data to the audio data of each channel, and combines them, thereby synthesizing each channel virtual reality presentation audio. Generate data. Here, as a channel, it is preferable to provide a sound output unit 530 of a plurality of channels such as 5.1Ch, 6.1Ch, 7.1Ch on the virtual reality presentation device 500 side so as to realize three-dimensional sound.

また、音声生成処理部1070は、当該生成したチャンネル別仮想現実提示用音声データを所定の符号化形式で符号化することでチャンネル別仮想現実提示用音声符号化データを生成する。当該チャンネル別仮想現実提示用音声符号化データは、送信部5012より仮想現実提示装置500に送信される。 The voice generation processing unit 1070 generates the channel-specific virtual reality presentation speech encoded data by encoding the generated channel-specific virtual reality presentation speech data in a predetermined encoding format. The channel-specific virtual reality presentation speech encoded data is transmitted from the transmission unit 5012 to the virtual reality presentation device 500.

仮想現実提示装置500は、ユーザ状態検知部1010と、映像表示部1040と、音声出力部1080と、周囲状況検知部4010と、通信部510と、仮想現実提示制御部520と、を備える。 The virtual reality presentation device 500 includes a user state detection unit 1010, a video display unit 1040, an audio output unit 1080, an ambient state detection unit 4010, a communication unit 510, and a virtual reality presentation control unit 520.

ユーザ状態検知部1010は、ユーザの頭部の傾きを検知する傾きセンサ1011、ユーザの頭部の加速度を検知する加速度センサ1012、ユーザの方位を検知する方位センサ1013、ユーザの位置を検知する位置センサ1014、ユーザの表情を撮影する内部カメラ1015などで構成される。これらのセンサ等における検知結果は、検知時刻を示すタイムスタンプであるユーザ状態検知時刻情報と共にユーザ状態情報として纏められ、通信部510より仮想現実サービス提供システム5000に送信される。また、ユーザ状態情報の一部の情報は、映像表示部1040における映像補正処理に用いられる。 The user state detection unit 1010 includes an inclination sensor 1011 that detects the inclination of the user's head, an acceleration sensor 1012 that detects the acceleration of the user's head, an orientation sensor 1013 that detects the user's orientation, and a position that detects the position of the user. A sensor 1014, an internal camera 1015 for photographing a user's facial expression, and the like are included. Detection results of these sensors and the like are collected as user state information together with user state detection time information that is a time stamp indicating the detection time, and transmitted from the communication unit 510 to the virtual reality service providing system 5000. A part of the user status information is used for video correction processing in the video display unit 1040.

周囲状況検知部4010は、ユーザの視線に対応するユーザ前方を撮影する視線カメラ4011と、ユーザの両側や後方などユーザ周辺を撮影する周辺カメラ4012を含み、ユーザの周囲の状況を検知する。視線カメラ4011はユーザの左目と右目の位置にそれぞれ配置される。これらのカメラで撮影されて取得される周囲景色画像は、撮影時刻を示すタイムスタンプである周囲状況検知時刻情報と共に周囲状況情報として纏められ、通信部510より仮想現実サービス提供システム5000に送信される。 The ambient state detection unit 4010 includes a line-of-sight camera 4011 that captures the front of the user corresponding to the user's line of sight, and a peripheral camera 4012 that captures the user's periphery such as both sides and the back of the user, and detects the state of the user's surroundings. The line-of-sight cameras 4011 are arranged at positions of the user's left eye and right eye, respectively. Ambient scene images captured and acquired by these cameras are collected as ambient status information together with ambient status detection time information that is a time stamp indicating the shooting time, and transmitted from the communication unit 510 to the virtual reality service providing system 5000. .

通信部510は、仮想現実サービス提供システム5000とインターネット等の通信網を介して通信を行う。通信部510は、ユーザ状態検知部1010と周囲状況検知部4010でそれぞれ検知されたユーザ状態情報及び周囲状況情報を無線送信する無線送信部511と、仮想現実サービス提供システム5000より送信される仮想現実提示用映像符号化データやレイヤー情報、仮想現実提示用音声符号化データ、各種通知情報などを無線受信する無線受信部512を備える。 The communication unit 510 communicates with the virtual reality service providing system 5000 via a communication network such as the Internet. The communication unit 510 includes a wireless transmission unit 511 that wirelessly transmits user state information and ambient state information detected by the user state detection unit 1010 and the ambient state detection unit 4010, and virtual reality transmitted from the virtual reality service providing system 5000. A wireless receiving unit 512 that wirelessly receives presentation encoded video data, layer information, virtual reality presentation audio encoded data, various types of notification information, and the like.

映像表示部140は、映像関連データ記憶部141と、映像復号化処理部142と、映像補正処理部143と、映像合成処理部144と、表示領域選択部145と、表示パネル146とを備える。 The video display unit 140 includes a video related data storage unit 141, a video decoding processing unit 142, a video correction processing unit 143, a video composition processing unit 144, a display area selection unit 145, and a display panel 146.

映像関連データ記憶部141は、無線受信部512で無線受信された仮想現実提示用映像符号化データとレイヤー情報とを映像関連データとして一時的に記憶する。 The video related data storage unit 141 temporarily stores the virtual reality presentation video encoded data and the layer information wirelessly received by the wireless receiving unit 512 as video related data.

映像復号化処理部142は、映像関連データ記憶部141に格納されているレイヤー毎の仮想現実提示用映像符号化データに復号化処理を行い、仮想現実提示用映像データを取得する。 The video decoding processing unit 142 performs a decoding process on the virtual reality presentation video encoded data for each layer stored in the video related data storage unit 141, and acquires virtual reality presentation video data.

映像補正処理部143は、復号化されたレイヤー毎の仮想現実提示用映像データの位置補正をユーザ状態情報とレイヤー情報に含まれる位置関係情報に基づいて行う。映像生成処理部1030で生成される各仮想現実提示用映像データは、視点制御部3040がユーザ状態に基づいて制御する視点位置及び視線方向に基づいて生成される。ここで、ユーザの視点位置や視線方向は、仮想現実提示装置500と仮想現実サービス提供サーバ5000との間の通信ラグや描画処理や符号化処理、復号化処理等に要する時間の間に変化している可能性がある。そのため、映像補正処理部143は、生成された仮想現実提示用映像に所定の補正を行うことで、現在のユーザ状態に適合した映像となるように補正する。 The video correction processing unit 143 performs position correction of the decoded virtual reality presentation video data for each layer based on the user state information and the positional relationship information included in the layer information. Each virtual reality presentation video data generated by the video generation processing unit 1030 is generated based on the viewpoint position and the line-of-sight direction controlled by the viewpoint control unit 3040 based on the user state. Here, the user's viewpoint position and line-of-sight direction change during communication lag between the virtual reality presentation device 500 and the virtual reality service providing server 5000, and the time required for drawing processing, encoding processing, decoding processing, and the like. There is a possibility. For this reason, the video correction processing unit 143 performs a predetermined correction on the generated virtual reality presentation video to correct the video so as to match the current user state.

例えば、図59に示すようにレイヤー1とレイヤー2の2枚の仮想現実提示用映像があり、各レイヤーの位置関係情報で示される各レイヤーに含まれる仮想現実オブジェクトまでの相対位置ベクトル(x、y、z)は、それぞれ(+0.3、+2.2、−0.4)と(+2.1、+21.4、+0.6)であるとする。ここで、ユーザが−X方向に移動している場合、当該映像生成時と現在とでは視点位置及び視線方向が相違している。そこで、映像補正処理部143は、仮想現実提示用映像に付与されているユーザ状態検知時刻情報と現在の時刻との間で変化したユーザ状態に基づいて、映像に含まれる仮想現実オブジェクトの位置や大きさなどを補正する。視点位置及び視線方向の変化に伴って、仮想現実オブジェクトの映像をどの様に補正するかは、視点位置及び視線方向と仮想現実オブジェクトとの間の相対位置関係によって定まるため、映像補正処理部143は、レイヤー毎に仮想現実提示用映像に対して補正量を算出した上で補正処理を行う。 For example, as shown in FIG. 59, there are two virtual reality presentation videos of layer 1 and layer 2, and relative position vectors (x, x) to the virtual reality object included in each layer indicated by the positional relationship information of each layer. y, z) are (+0.3, +2.2, −0.4) and (+2.1, +21.4, +0.6), respectively. Here, when the user is moving in the −X direction, the viewpoint position and the line-of-sight direction are different between when the video is generated and at the present time. Therefore, the video correction processing unit 143 determines the position of the virtual reality object included in the video based on the user status detected between the user status detection time information given to the virtual reality presentation video and the current time. Correct the size. The video correction processing unit 143 determines how to correct the video of the virtual reality object according to the change in the viewpoint position and the line-of-sight direction, because it is determined by the relative positional relationship between the viewpoint position and the line-of-sight direction and the virtual reality object. Performs a correction process after calculating a correction amount for the virtual reality presentation video for each layer.

映像合成処理部144は、補正処理後の各レイヤーの仮想現実提示用映像を、レイヤー情報に含まれるレイヤー順序情報に従って重ね合わせることで合成する処理を行う。後方のレイヤーに含まれる仮想現実オブジェクトの映像は、前方のレイヤーに含まれる仮想現実オブジェクトによって重なり部分が隠される。 The video composition processing unit 144 performs a process of compositing the virtual reality presentation videos of each layer after the correction processing by superimposing them according to the layer order information included in the layer information. The video of the virtual reality object included in the rear layer is hidden by the virtual reality object included in the front layer.

表示領域選択部145は、合成処理後の仮想現実提示用映像の中から表示パネル146で表示する領域を選択する。各仮想現実提示用映像は、上記補正処理に対応できるように表示パネル146の解像度よりも大きい解像度の映像であるため、補正処理及び合成処理後の仮想現実提示用映像の中から表示パネル146で表示する範囲を選択する。 The display area selection unit 145 selects an area to be displayed on the display panel 146 from the virtual reality presentation video after the synthesis process. Since each virtual reality presentation video is a video having a resolution higher than the resolution of the display panel 146 so as to be compatible with the correction process, the virtual reality presentation video is displayed on the display panel 146 from the virtual reality presentation video after the correction process and the synthesis process. Select the range to display.

表示パネル146は、表示領域選択部145で選択された範囲の仮想現実提示用映像を表示する。表示パネル146は、ユーザの左目と右目の前方に配置される2枚のパネルであり、映像生成処理部1030ではこれら2つのパネル用にそれぞれ仮想現実提示用の映像が生成される。すなわち、視点制御部3040は、ユーザの左目と右目に対応する2つの視点位置座標及び視線方向を設定し、映像生成処理部1030は、これら2つの視点からそれぞれ描画して右目用の仮想現実提示用映像と左目用の仮想現実提示用映像を生成する。 The display panel 146 displays the virtual reality presentation video in the range selected by the display area selection unit 145. The display panel 146 is two panels arranged in front of the user's left eye and right eye, and the video generation processing unit 1030 generates a virtual reality presentation video for each of the two panels. That is, the viewpoint control unit 3040 sets two viewpoint position coordinates and line-of-sight directions corresponding to the left eye and right eye of the user, and the video generation processing unit 1030 draws from each of these two viewpoints and presents virtual reality for the right eye. Video for virtual reality and video for virtual reality presentation for the left eye are generated.

音声出力部1080は、無線受信部512で受信された仮想現実提示用音声符号化データに対して復号化処理を行い、各チャンネルの仮想現実提示用音声データをスピーカより放音することで音声を出力する。 The audio output unit 1080 performs a decoding process on the encoded audio data for virtual reality presentation received by the wireless reception unit 512, and outputs the audio by emitting the audio data for virtual reality presentation for each channel from the speaker. Output.

仮想現実提示制御部520は、仮想現実提示装置500側の仮想現実提示用の各処理を制御する。仮想現実提示制御部520は、無線受信部512で受信された各種通知情報やパラメータ変更情報などに基づいて、ユーザ状態や周囲状況の検知周期や映像表示のフレームレート、送受信におけるデータの符号化・復号化形式等を設定する。例えば、仮想現実提示制御部520は、仮想現実サービス提供開始情報に含まれる仮想現実制御パラメータ情報の検知ユーザ状態指定情報に基づいてユーザ状態検知部1010で検知させるユーザ状態の種類を設定したり、ユーザ状態検知頻度に基づいて、ユーザ状態検知部1010で検知させるユーザ状態の検知頻度を設定したりする。 The virtual reality presentation control unit 520 controls each process for virtual reality presentation on the virtual reality presentation device 500 side. Based on various notification information and parameter change information received by the wireless reception unit 512, the virtual reality presentation control unit 520 encodes the user status and the surrounding situation detection period, the frame rate of the video display, the data encoding / transmission / transmission Set the decryption format. For example, the virtual reality presentation control unit 520 sets the type of user state to be detected by the user state detection unit 1010 based on the detection user state designation information of the virtual reality control parameter information included in the virtual reality service provision start information, Based on the user state detection frequency, a user state detection frequency to be detected by the user state detection unit 1010 is set.

また、仮想現実提示制御部520は、仮想現実提示装置500のバッテリー残量や温度、リソース消費量や無線通信速度などの状態を監視し、これらの情報をレポートに纏めて仮想現実サービス提供サーバ5000に送信する。当該レポートは仮想現実サービス提供制御部5020に送られて、各種制御に利用される。 Further, the virtual reality presentation control unit 520 monitors the state of the virtual reality presentation device 500 such as the remaining battery level, temperature, resource consumption, wireless communication speed, and the like, and collects this information in a report to provide a virtual reality service providing server 5000. Send to. The report is sent to the virtual reality service provision control unit 5020 and used for various controls.

図60は、仮想現実提示装置500の斜め前方と斜め後方からの外観斜視図である。仮想現実提示装置500は、ユーザが頭部に装着するヘッドマウントディスプレイ(HMD:Head mount Display)装置であって、透過型のディスプレイを通して外界の様子を観察できるように構成されている。仮想現実提示装置500は、フレーム501と、フロントパネル502と、を少なくとも備える。 FIG. 60 is an external perspective view of the virtual reality presentation device 500 from obliquely forward and obliquely rearward. The virtual reality presentation device 500 is a head mount display (HMD) device that a user wears on his / her head, and is configured so that the appearance of the outside world can be observed through a transmissive display. The virtual reality presentation device 500 includes at least a frame 501 and a front panel 502.

フレーム501は、仮想現実提示装置500の筐体であり、内部には、CPU(Central Processing Unit)等の情報処理プロセッサ、RAM(Random Access Memory)、ROM(Read only memory)、無線通信処理プロセッサ、バッテリーなどが配置されている。また、必要に応じて映像を描画する専用の映像処理プロセッサなどが合わせて配置されている。フレーム501は、大きく分けてライトフレーム501a、レフトフレーム501b、センターフレーム501cから構成される。   A frame 501 is a housing of the virtual reality presentation device 500, and includes an information processing processor such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read only memory), a wireless communication processing processor, A battery etc. are arranged. In addition, a dedicated video processor or the like that draws video as necessary is also arranged. The frame 501 is roughly divided into a right frame 501a, a left frame 501b, and a center frame 501c.

ライトフレーム501a及び501bは、ユーザの左右の耳にそれぞれ接続する筐体部材であり、それぞれ一端の内側にアナログ電気信号を空気振動に変換して音声を出力するスピーカ181a、181bが配置され、他端がセンターフレーム501cと接続されている。   The light frames 501a and 501b are case members that are connected to the left and right ears of the user, respectively, and speakers 181a and 181b that convert analog electric signals into air vibrations and output sound are arranged inside one end, respectively. The end is connected to the center frame 501c.

ライトフレーム501a及び501bの端部には、それぞれ傾きを検知する傾きセンサ1011a、1011bと、加速度を検知する加速度センサ1012a、1012bが配置されている。また、ライトフレーム501a及びレフトフレーム501bの外側には、周囲の景色を撮影する周辺カメラ4012a、4012bがそれぞれ配置されている。   At the ends of the light frames 501a and 501b, inclination sensors 1011a and 1011b for detecting inclination and acceleration sensors 1012a and 1012b for detecting acceleration are arranged, respectively. In addition, peripheral cameras 4012a and 4012b for photographing surrounding scenery are arranged outside the right frame 501a and the left frame 501b, respectively.

センターフレーム501cは、両端がそれぞれライトフレーム501a、レフトフレーム501bに接続されており、センターフレーム501cの下方にフロントパネル502が接続されている。   Both ends of the center frame 501c are connected to the right frame 501a and the left frame 501b, respectively, and the front panel 502 is connected below the center frame 501c.

センターフレーム501cの中央付近と両端付近には、傾きを検知する傾きセンサ1011c、1011d、1011eと、加速度を検知する加速度センサ1012c、1012d、1012eがそれぞれ配置されている。   Near the center and near both ends of the center frame 501c, tilt sensors 1011c, 1011d, and 1011e that detect tilt and acceleration sensors 1012c, 1012d, and 1012e that detect acceleration are arranged, respectively.

センターフレーム501cのユーザ側であって、ユーザの左右の目の位置には、ユーザの顔の一部又は全部の表情を撮影する内部カメラ1015a、1015bが配置されている。内部カメラ1015a、1015bは、少なくともユーザの目の位置を含む領域を撮影してユーザ表情映像をユーザ状態情報として生成する。 On the user side of the center frame 501c, internal cameras 1015a and 1015b for photographing a part or all of the facial expression of the user's face are arranged at the positions of the left and right eyes of the user. The internal cameras 1015a and 1015b capture at least a region including the position of the user's eyes and generate a user facial expression video as user state information.

センターフレーム501cの前方側であって、ユーザの左右の目の位置には、ユーザの視界と対応する景色を撮影する視線カメラ4011a、4011bが配置されている。視線カメラ4011a、4011bは、センターフレーム501cの前方側に、ユーザの左右の目の間隔に対応する距離だけ離れた位置に配置されている。 Line-of-sight cameras 4011a and 4011b for photographing a scene corresponding to the user's field of view are arranged in front of the center frame 501c and at the positions of the left and right eyes of the user. The line-of-sight cameras 4011a and 4011b are arranged on the front side of the center frame 501c at positions separated by a distance corresponding to the distance between the left and right eyes of the user.

フロントパネル502は、仮想現実提示装置500を頭部に装着した状態でユーザの目の前方に来る位置に配置される。仮想現実提示装置500において、フロントパネル502は透過型ディスプレイであり、右目の前方と左目の前方にそれぞれ映像を表示する表示領域であるライト表示パネル146aとレフト表示パネル146bとが配置される。   The front panel 502 is disposed at a position in front of the user's eyes with the virtual reality presentation device 500 mounted on the head. In the virtual reality presentation device 500, the front panel 502 is a transmissive display, and a right display panel 146a and a left display panel 146b, which are display areas for displaying images, are arranged in front of the right eye and the front of the left eye, respectively.

図61は、仮想現実提示装置500のライト表示パネル146a付近の断面図を示している。センターフレーム501cの下方には、フロントパネル502が配置されており、センターフレーム501cの下部には光源146−1が配置されている。   61 shows a cross-sectional view of the vicinity of the light display panel 146a of the virtual reality presentation device 500. FIG. A front panel 502 is disposed below the center frame 501c, and a light source 146-1 is disposed below the center frame 501c.

光源146−1より放射された可視光はフロントパネル502側へ照射される。フロントパネル502は、導光板146−2とLCD146−3とが合わさった構成であり、光源146−1より放射された可視光が導光板146−2でユーザ側へ反射され、表示制御されたLCD146−3を透過することで仮想現実提示用の映像が表示される。 Visible light emitted from the light source 146-1 is irradiated to the front panel 502 side. The front panel 502 has a configuration in which the light guide plate 146-2 and the LCD 146-3 are combined, and the visible light emitted from the light source 146-1 is reflected to the user side by the light guide plate 146-2, and the display-controlled LCD 146 is controlled. The virtual reality presentation video is displayed by passing through -3.

なお、仮想現実提示装置500は図62に示す構成としても良い。図62に示す仮想現実提示装置500は、光源146−1と導光板146−2との間にLCD146−3が配置されている。従って、外部からの光は、LCD146−3を透過することなくユーザの目に照射されるため、外部の景色の明るさが暗くなることを防ぐことができる。 Note that the virtual reality presentation device 500 may be configured as shown in FIG. In the virtual reality presentation device 500 shown in FIG. 62, an LCD 146-3 is disposed between the light source 146-1 and the light guide plate 146-2. Therefore, since the light from the outside is irradiated to the eyes of the user without passing through the LCD 146-3, it is possible to prevent the brightness of the external scenery from becoming dark.

また、図63に示すように外界からの光である外部光の照射量を制御するLCD146−4が配置されていても良い。LCD146−3で仮想現実オブジェクトの映像を表示しても、外界からの光が混ざってしまい、仮想現実オブジェクトの像が透けてしまうため、LCD145において仮想現実オブジェクトの位置における外部光を遮断することで、仮想現実オブジェクトが透けて見えると言ったことを防ぐことができる。 In addition, as shown in FIG. 63, an LCD 146-4 for controlling the irradiation amount of external light that is light from the outside may be arranged. Even if the image of the virtual reality object is displayed on the LCD 146-3, the light from the outside world is mixed and the image of the virtual reality object is seen through, so that the external light at the position of the virtual reality object is blocked on the LCD 145. It is possible to prevent the virtual reality object from being seen through.

なお、導光板146−2の位置は、図64に示すように、ユーザの目に入射される外部光が通過しない位置に配置されていると更に良好である。図64の構成では、外部光のコントラストを更に向上させることが可能である。 As shown in FIG. 64, the light guide plate 146-2 is better positioned so that external light incident on the user's eyes does not pass through. In the configuration of FIG. 64, the contrast of external light can be further improved.

また、図65に示すように、外部光を制御するLCD146−4が配置されていても良い。外部光は、LCD146−4を透過してユーザの目に到達する一方、光源146−1から出た光は、LCD146−3を透過し、導光板146−2で反射されてユーザの目に到達する。 Further, as shown in FIG. 65, an LCD 146-4 for controlling external light may be arranged. The external light passes through the LCD 146-4 and reaches the user's eyes, while the light emitted from the light source 146-1 passes through the LCD 146-3 and is reflected by the light guide plate 146-2 to reach the user's eyes. To do.

なお、LCD146−4は、電圧制御によって外部から透過してくる光量を制御できるものであればどのようなものを用いても良い。例えば、電圧を印加することで結晶方向を変化させて乱反射を増加させるディスプレイを用いることも可能である。 Any LCD 146-4 may be used as long as it can control the amount of light transmitted from the outside by voltage control. For example, it is possible to use a display that changes the crystal direction by applying a voltage to increase irregular reflection.

また、図66に示すようにプロジェクション機構を表示パネル146として使用することも可能である。フロントパネル502の上部に位置するセンターフレーム501cの内部にプロジェクション機構が表示パネル146として配置されている。 In addition, as shown in FIG. 66, a projection mechanism can be used as the display panel 146. A projection mechanism is arranged as a display panel 146 inside a center frame 501c located at the top of the front panel 502.

センターフレーム501cの内部上方に配置されている光源146−1より照射された白色光は、レンズ群146−7aによって集光された後、ポラライジングコンバータ(PLC)146−7bによって偏光成分が一方向に整えられたのち、第1反射ミラー146−7cによって垂直方向に反射される。第1反射ミラー146−7cで反射された白色光は、R反射ダイクロイックミラー146−7dによって赤色の光成分(R成分)だけが水平方向へ反射され、他の成分の光は、R反射ダイクロイックミラー146−7dを透過する。   The white light emitted from the light source 146-1 disposed above the center frame 501c is collected by the lens group 146-7a and then polarized by the polarizing converter (PLC) 146-7b in one direction. Then, the light is reflected in the vertical direction by the first reflecting mirror 146-7c. In the white light reflected by the first reflecting mirror 146-7c, only the red light component (R component) is reflected in the horizontal direction by the R reflecting dichroic mirror 146-7d, and the light of the other components is reflected by the R reflecting dichroic mirror. 146-7d is transmitted.

R反射ダイクロイックミラー146−7dを透過した光は、G反射ダイクロイックミラー146−7eで緑色の光成分(G成分)だけが水平方向に反射され、残りの青色の光成分(B成分)はG反射ダイクロイックミラー146−7eを透過する。   From the light transmitted through the R reflecting dichroic mirror 146-7d, only the green light component (G component) is reflected in the horizontal direction by the G reflecting dichroic mirror 146-7e, and the remaining blue light component (B component) is reflected by G. It passes through the dichroic mirror 146-7e.

G反射ダイクロイックミラー146−7eを透過したB成分の光は、第2反射ミラー146−7fで水平方向に反射され、更に第3反射ミラー146−7gで垂直上方へ反射され、第1液晶パネル146−7hを透過した後にクロスダイクロプリズム146−7jに入射される。   The B component light that has passed through the G reflecting dichroic mirror 146-7e is reflected in the horizontal direction by the second reflecting mirror 146-7f, and further reflected vertically upward by the third reflecting mirror 146-7g. After passing through -7h, the light enters the cross dichroic prism 146-7j.

一方、R反射ダイクロイックミラー146−7dで反射されたR成分の光は、第4反射ミラー146−7kによって垂直方向に反射され、第2液晶パネル146−7mを透過した後にクロスダイクロプリズム146−7jに入射される。また、G反射ダイクロイックミラー146−7eで反射されたG成分の光は、第3液晶パネル146−7nを透過した後にクロスダイクロプリズム146−7jに入射される。   On the other hand, the R component light reflected by the R reflecting dichroic mirror 146-7d is reflected in the vertical direction by the fourth reflecting mirror 146-7k, passes through the second liquid crystal panel 146-7m, and then cross-dichroic prism 146-7j. Is incident on. The G component light reflected by the G reflecting dichroic mirror 146-7e passes through the third liquid crystal panel 146-7n and then enters the cross dichroic prism 146-7j.

クロスダイクロプリズム146−7jは、分離されてそれぞれ液晶パネルを通過したR成分、G成分、B成分の3つの光を合成して水平方向に反射する。クロスダイクロプリズム146−7jより出力された合成光は、ガルバノミラー146−7pによって垂直方向に反射され、照射窓146−7qよりフロントパネル402へ照射される。ガルバノミラー146−7pは、クロスダイクロプリズム146−7jより出力された合成光を水平方向(y方向)に走査しながら反射する。   The cross dichroic prism 146-7j combines the three light components R, G, and B that have been separated and passed through the liquid crystal panel, and reflects them in the horizontal direction. The combined light output from the cross dichroic prism 146-7j is reflected in the vertical direction by the galvanometer mirror 146-7p, and is irradiated to the front panel 402 from the irradiation window 146-7q. The galvanometer mirror 146-7p reflects the combined light output from the cross dichroic prism 146-7j while scanning in the horizontal direction (y direction).

フロントパネル502のうち、照射窓146−7qの下方には導光板146−2が配置されており、当該導光板146−2によってユーザ方向に反射された光がフロントパネル502で屈折して平行光となってユーザの目の中へ入射される。ガルバノミラー146−7pによって水平方向に光が操作されているため、導光板146−2で反射される光は垂直方向(z方向)に走査される。   In the front panel 502, a light guide plate 146-2 is disposed below the irradiation window 146-7q, and the light reflected by the light guide plate 146-2 toward the user is refracted by the front panel 502 to be parallel light. And enters the user's eyes. Since the light is operated in the horizontal direction by the galvanometer mirror 146-7p, the light reflected by the light guide plate 146-2 is scanned in the vertical direction (z direction).

なお、図66における各部材は、x方向すなわち紙面垂直方向に長細い構成をとっており、右目用の映像におけるx方向の一列を纏めて表示する。当該一列の映像がガルバノミラー146−7pによってy方向に走査されて順次表示されることで、xz平面の2次元画像がフロントパネル402に映し出されることになる。同様に、左目の上部にも同一のプロジェクション機構が配置されており、フロントパネル502の左目前方に左目用の映像が映し出される。このように、右目用プロジェクション機構と左目用プロジェクション機構によって表示部が形成される。なお、左目用プロジェクション機構と右目用プロジェクション機構は共通化されていても良い。   Note that each member in FIG. 66 has a configuration that is long and thin in the x direction, that is, the direction perpendicular to the paper surface, and collectively displays a line in the x direction in the right-eye image. The one row of images is scanned in the y direction by the galvanometer mirror 146-7p and sequentially displayed, so that a two-dimensional image in the xz plane is displayed on the front panel 402. Similarly, the same projection mechanism is arranged at the upper part of the left eye, and a left-eye image is displayed in front of the left eye of the front panel 502. In this way, the display unit is formed by the right-eye projection mechanism and the left-eye projection mechanism. Note that the left-eye projection mechanism and the right-eye projection mechanism may be shared.

また、図67のように、仮想現実提示装置500は、非透過型HMD装置であっても良い。この場合、視線カメラ4011で撮影された映像に仮想現実提示用の映像を合成した映像を表示パネル146に表示する。 As shown in FIG. 67, the virtual reality presentation device 500 may be a non-transparent HMD device. In this case, an image obtained by synthesizing a video for virtual reality presentation with an image captured by the line-of-sight camera 4011 is displayed on the display panel 146.

この場合、仮想現実オブジェクトの表示位置では、視線カメラで撮影された映像を下位レイヤー、仮想現実オブジェクトの映像を上位レイヤーとして2つの映像を合成して映像が表示パネルで表示される。 In this case, at the display position of the virtual reality object, two videos are combined and displayed on the display panel with the video captured by the line-of-sight camera as the lower layer and the video of the virtual reality object as the upper layer.

例えば、仮想現実オブジェクトが表示される所定の座標(x、y)において、映像生成処理部1030で生成される仮想現実オブジェクトの映像の画素データが(Y1、U1、V1)であり、当該座標における視線カメラ4011で撮影された映像の画素データが(Y2、U2、V2)であったとする。仮想現実オブジェクトの配置位置が視線カメラ4011で撮影された映像に写る物体よりもユーザ側にある場合は、表示パネル146a、146bにおける当該座標で表される画素データは(Y1,U1、V1)となり、一方、視線カメラ4011で撮影された映像に写る物体が、仮想現実オブジェクトの配置位置よりもユーザ側になる場合は、表示パネル146a、146bにおける当該座標で表される画素データは(Y2,U2,V2)となる。 For example, at predetermined coordinates (x, y) at which the virtual reality object is displayed, the pixel data of the video of the virtual reality object generated by the video generation processing unit 1030 is (Y1, U1, V1). It is assumed that the pixel data of the video imaged by the visual line camera 4011 is (Y2, U2, V2). When the arrangement position of the virtual reality object is closer to the user than the object captured in the video captured by the line-of-sight camera 4011, the pixel data represented by the coordinates on the display panels 146a and 146b is (Y1, U1, V1). On the other hand, when the object shown in the video imaged by the line-of-sight camera 4011 is closer to the user than the arrangement position of the virtual reality object, the pixel data represented by the coordinates on the display panels 146a and 146b is (Y2, U2 , V2).

以上のように、本実施形態14に係る仮想現実提示システムでは、仮想現実の提示に伴って発生する一部の処理を処理能力の高い仮想現実サービス提供サーバに担当させることで、より高度な仮想現実の世界の提示を可能としている。 As described above, in the virtual reality presentation system according to the fourteenth embodiment, a virtual reality service providing server having a high processing capability is in charge of a part of the processing that occurs along with the presentation of virtual reality, so that more advanced virtual It is possible to present the real world.

なお、上述した分担は一例であり、仮想現実サービス提供システム5000側の一部の機能を仮想現実提示装置500が備えていても良い。例えば、人間の聴覚は視覚ほど位置分解能が無いため、予め仮想現実提示用の音声データを仮想現実提示装置500側に記憶させ、仮想現実サービス提供システム5000からの指示に基づいて当該音声データを読み出し、ユーザ状態に基づいて複数チャンネルに分配する分配処理や音声レベルを調整する増幅処理を行った後にスピーカより放音する。 Note that the above-described sharing is an example, and the virtual reality presentation device 500 may include some functions on the virtual reality service providing system 5000 side. For example, since the human auditory sense does not have the positional resolution as much as the visual sense, audio data for virtual reality presentation is stored in advance on the virtual reality presentation device 500 side, and the audio data is read based on an instruction from the virtual reality service providing system 5000. Then, after performing distribution processing for distributing to a plurality of channels and amplification processing for adjusting the sound level based on the user state, sound is emitted from the speaker.

また、上述したレイヤー順序情報は送信されない構成としても良い。描画処理部1031がレイヤー順序に従って順番にレイヤー別仮想現実提示用映像データを生成し、映像符号化処理部1032で符号化された上で仮想現実提示装置500に送信される。映像合成処理部144は、当該送信されてきた順序に従ってレイヤー別仮想現実提示用映像を重ね合わせることで、レイヤー情報を必要とせずに合成することが可能となる。 The layer order information described above may not be transmitted. The rendering processing unit 1031 generates video data for virtual reality presentation by layer in order according to the layer order, and is encoded by the video encoding processing unit 1032 and transmitted to the virtual reality presentation device 500. The video composition processing unit 144 can synthesize the virtual reality presentation videos for each layer in accordance with the order of transmission, without requiring layer information.

<実施形態15>
人間は、五感、すなわち、味覚、触覚、視覚、聴覚、嗅覚によって自身の周囲で生じる事象を感知し、感知した情報を脳で処理して未来の行動を行う生物である。従って、仮想現実感提示装置を用いて人間が備えるこれらの感覚を欺き、錯覚を起こさせることで、ユーザを現実の世界から仮想現実の世界へ導くことができる。
<Embodiment 15>
A human being is a living organism that senses events around itself by the five senses, that is, taste, touch, sight, hearing, and smell, and processes the sensed information in the brain to perform future actions. Therefore, by deceiving these human senses using the virtual reality presentation device and causing an illusion, the user can be guided from the real world to the virtual reality world.

しかしながら、人為的に創り出される仮想現実の世界と現実の世界との境界が狭まれば狭まるほど、ユーザは、仮想現実の世界から現実の世界に戻った後でも、今まで自分が体感していた世界が仮想現実の世界であるということを認識できないことになる。 However, the narrower the boundary between the artificially created virtual reality world and the real world, the more users have experienced before returning to the real world from the virtual reality world. You will not be able to recognize that the world is a virtual reality world.

例えば、ユーザが気に入っているアイドルXを仮想空間に配置し、現実の世界に連動した状態で当該仮想空間内のアイドルXの挙動を制御することでアイドルXと交流ができる仮想現実の世界を提示する場合について検討してみる。 For example, a virtual reality world that can interact with the idol X by placing the idol X that the user likes in the virtual space and controlling the behavior of the idol X in the virtual space while being linked to the real world is presented. Let's consider the case.

当該サービスは、現実の世界ではユーザが合うことも話すことも叶わないアイドルXを仮想現実の世界に配置し、ユーザと触れ合う機会を提供するものである。従って、仮想現実サービス提供システムは、基本的にはユーザが喜ぶことをするように、仮想空間内に配置したアイドルXの挙動を制御する。例えば、仮想空間内のアイドルXが、当該ユーザに告白すると言った挙動を取ることでユーザは夢のような時間を過ごすことができる。   The service provides an opportunity to contact the user by placing an idol X in the virtual reality world where the user cannot meet or speak in the real world. Therefore, the virtual reality service providing system basically controls the behavior of the idle X arranged in the virtual space so that the user is pleased. For example, the user can spend time like a dream by taking a behavior that the idol X in the virtual space confesses to the user.

当然のことながら、当該アイドルは、仮想空間内に配置されたバーチャルなアイドルXであって、現実の世界におけるアイドルXがこのユーザに告白をしているわけではない。しかし、高度に制御された仮想現実の世界に入り込んでいるユーザは、現実のアイドルXが自分に告白してくれたものとして疑わない。 As a matter of course, the idol is a virtual idol X arranged in the virtual space, and the idol X in the real world does not confess to this user. However, a user who enters the highly controlled virtual reality world does not doubt that the real idol X has confessed to him.

後日、現実の世界で友人に「俺、あのアイドルXから告白されて付き合うことになったんだ。」なんてうっかり喋ってしまっては目も当てられない。また、告白してくれたのに一向に会いに来てくれない当該アイドルXの現実の事務所にこのユーザが押し掛けると言った事態が発生する可能性がある。ユーザが「あの時付き合ってくれるって言ったじゃないか!」と問うたところで、ユーザに告白したのは仮想現実の世界の中に創られたアイドルXであり、現実のアイドルXではない。「何を仰っているのか私にはわからないのですが・・。」となることは明白である。 Later, in the real world, a friend said, “I was confessed by that idol X and I was going to get along.” In addition, there is a possibility that a situation may occur in which the user pushes against the actual office of the idol X who has confessed but never came to see him. When the user asked, “You told me you would go out at that time!”, The confession to the user was the idol X created in the virtual reality world, not the real idol X. It's clear that I don't know what you're talking about.

仮想現実感提示装置は、現実の世界では物理的制約や社会的制約で実現できない事象を仮想現実の世界に創り出してユーザを引き込むことにその最大の意義がある。従って、現実の世界よりも素晴らしい世界として創り出された仮想現実の世界に入り込んでいるユーザの感情は高揚しており、現実の世界に戻った後であっても自分が感知していた世界が仮想現実であったという事実を受け入れることを拒む場合が想定される。上記ケースでは、自分が憧れていたアイドルXが告白してくれたと言う最高の体験がバーチャルであったと言う残酷な現実のギャップが大きすぎるために、第三者がそのことを説明してもユーザは心理的に拒絶する場合がある。 The virtual reality presentation device has the greatest significance in attracting users by creating an event in the virtual reality world that cannot be realized by physical or social constraints in the real world. Therefore, the feelings of users entering the virtual reality world created as a wonderful world than the real world are uplifting, and even after returning to the real world, the world that was perceived by the user is virtual There may be cases where you refuse to accept the fact that it was reality. In the above case, since the cruel reality gap that the best experience that Idol X that I had admired confessed was virtual was too large, even if a third party explains that, the user May reject psychologically.

このように、ユーザに提示する仮想現実の世界をより素晴らしいものとするためには、現実の世界との境界を無くす方向に技術開発を行う必要があると言う一方で、仮想現実の世界と現実の世界との境界が無くなれば無くなるほど、仮想現実の素晴らしい世界と現実の世界とのギャップを心理的に受け入れることができず、その後の現実の世界の生活に支障をきたす可能性があると言った二律背反の課題が発生していた。 In this way, in order to make the virtual reality world presented to the user even more wonderful, it is necessary to develop technology in a direction that eliminates the boundary with the real world, while the virtual reality world and the real It is said that the more the boundary with the world of the world disappears, the more the gap between the wonderful world of virtual reality and the real world cannot be psychologically accepted, and there is a possibility that it will hinder the life of the real world after that. There was a problem of antinomy.

本実施形態は、上記課題を鑑み、過去に体験した仮想現実の世界が、現実の世界ではなかったと言う事実をユーザが心理的に受容できない場合に、当該受容させることを担保する仮想現実提示システム及び仮想現実提示方法としたものである。以下、本実施形態について図面を参照して詳細に説明する。以下の説明において同一の符号が付された部分は実質的に同一の機能を有している。また、発明の明確化のため重複部分は適宜説明が省略されている。 In view of the above problems, the present embodiment is a virtual reality presentation system that ensures that the virtual reality world experienced in the past is accepted when the user cannot psychologically accept the fact that the virtual reality world is not the real world. And a virtual reality presentation method. Hereinafter, the present embodiment will be described in detail with reference to the drawings. In the following description, parts denoted by the same reference numerals have substantially the same functions. For the sake of clarification of the invention, explanations of overlapping parts are omitted as appropriate.

図70は、本発明の実施形態15に係る仮想現実サービスに係わる人物や組織の関係を示した概念図である。仮想現実サービスを提供する仮想現実サービス提供会社と、当該仮想現実サービスを使用(利用)するユーザとの間には、予め仮想現実サービス使用契約が結ばれている。ユーザは、仮想現実サービスを利用する場合に、仮想現実サービス提供会社との間で仮想現実サービス使用契約を結び、サービス使用に伴う対価として定額制又は従量制で料金を支払う。 FIG. 70 is a conceptual diagram showing the relationship between persons and organizations related to the virtual reality service according to the fifteenth embodiment of the present invention. A virtual reality service use contract is made in advance between a virtual reality service provider that provides the virtual reality service and a user who uses (uses) the virtual reality service. When using a virtual reality service, a user concludes a virtual reality service usage contract with a virtual reality service provider, and pays a fee on a flat rate basis or a pay-as-you-go basis as a price associated with the use of the service.

ここで、仮想現実(VR:Vertual Reality)とは、コンピュータグラフィックス(CG:Computer Graphics)や音響効果を組み合わせることで、人工的に創り出される現実感(リアリティー)のある世界を言い、仮想現実サービスとは、このような仮想現実の世界をユーザに体験させるサービスである。人間は、五感を用いて自身の周囲で生じる事象を感知し、感知した情報を脳で処理して状況把握を行う。従って、人間が有する感覚を欺くように映像を表示したり音声を出力したりことで、仮想現実の世界を創り出すことができる。仮想現実の世界は、仮想現実提示用の映像を表示したり仮想現実提示用の音声を出力したりすることで人工的に創り出される世界であるため、様々な形態の仮想現実サービスが存在する。 Here, virtual reality (VR) refers to a world with reality created artificially by combining computer graphics (CG) and sound effects, and is a virtual reality service. Is a service that allows the user to experience such a virtual reality world. Humans sense events that occur around them using the five senses, and process the sensed information in the brain to grasp the situation. Therefore, a virtual reality world can be created by displaying images and outputting sounds so as to deceive human senses. Since the virtual reality world is a world that is artificially created by displaying video for virtual reality presentation or outputting audio for virtual reality presentation, there are various forms of virtual reality services.

図71は、仮想現実サービス提供会社が管理する契約者情報(ユーザ情報)の一例である。仮想現実サービス提供会社は、仮想現実サービス使用契約を締結しているユーザの個人情報(契約者個人情報)や、当該ユーザが契約しているプランやそのプランに含まれるサービス内容などを纏めた契約者情報をデータベースに記憶して管理している。また、ユーザを一意に識別するユーザIDや、ユーザ認証に用いる接続パスワードなども当該契約者情報に含まれている。 FIG. 71 is an example of contractor information (user information) managed by the virtual reality service provider. The virtual reality service provider provides a contract that summarizes the personal information (contractor's personal information) of the user who has signed a virtual reality service use contract, the plan that the user has contracted, and the service content included in the plan. Information is stored and managed in a database. Further, the contractor information includes a user ID for uniquely identifying a user, a connection password used for user authentication, and the like.

仮想現実サービス提供会社は、予め複数のプランを用意しており、プラン毎に料金や仮想現実サービスの内容が異なる。例えば、図761において、ユーザAは、「アイドルXとお喋りができるサービス」という内容のプランに契約を行っている。 The virtual reality service provider prepares a plurality of plans in advance, and the fee and the contents of the virtual reality service differ for each plan. For example, in FIG. 761, the user A makes a contract with a plan with the content “service that can talk to the idol X”.

なお、このプランのサービス内容は、現実の世界でアイドルXとお喋りができると言う内容のサービスではなく、このアイドルXを仮想現実の世界の中に創り出し、当該仮想現実の世界の中に創り出された当該アイドルXと仮想現実の世界の中でお喋りができるという内容のサービスである。 The service content of this plan is not a service that says that you can talk to the idol X in the real world, but this idol X is created in the virtual reality world and created in the virtual reality world. In addition, it is a service that can talk to the idol X and the virtual reality world.

当然のことながら、現実の世界のアイドルXは、時間的・物理的制約等から現実の世界の中でユーザとお喋りを行うことは困難である。しかしながら、当該アイドルXと会話を楽しむという体験をしたいファンは多数存在する。そこで、仮想現実サービス提供会社は、アイドルXが現れる仮想現実の世界を創り出し、当該仮想現実の世界内でユーザに現実感を持たせた状態で、仮想現実の世界内でのアイドルXとユーザがお喋りをできる機会を提供する。 Naturally, it is difficult for the idol X in the real world to talk to the user in the real world due to time and physical constraints. However, there are many fans who want to experience the conversation with the idol X. Therefore, the virtual reality service provider creates a virtual reality world in which the idol X appears, and in the state where the user has a sense of reality in the virtual reality world, the idol X and the user in the virtual reality world Provide an opportunity to talk.

このようなサービスを提供するためには、アイドルXの仮想現実オブジェクトを作成しておく必要がある。仮想現実オブジェクトについては後述する。アイドルXは肖像権を有するため、仮想現実サービス提供会社が勝手にアイドルXの仮想現実オブジェクトを作成して使用することは肖像権違反となる。従って、仮想現実サービス提供会社は、アイドルXと直接又はアイドルXが所属する事務所と人物データ使用許可契約を結ぶ。当該契約を結んだうえで、仮想現実サービス提供会社は、自社又は外部の仮想現実コンテンツ制作会社を用いて、当該アイドルXの仮想現実オブジェクトを構成するデータを作成し、使用可能な状態でデータベースに格納しておく。 In order to provide such a service, it is necessary to create an idle X virtual reality object. The virtual reality object will be described later. Since the idol X has a portrait right, it is illegal for the virtual reality service provider to create and use the virtual reality object of the idol X without permission. Accordingly, the virtual reality service providing company concludes a person data use permission contract with the idol X directly or with the office to which the idol X belongs. After signing the contract, the virtual reality service provider uses its own or external virtual reality content production company to create data that constitutes the virtual reality object of the idle X, and stores it in the database in a usable state. Store it.

ユーザBは、仮想現実サービス提供会社が提供する「仮想空間の世界における家庭教師サービス」と言うサービス内容のプランに契約している。当該プランに含まれるサービスは、歴史上の人物が現れる仮想現実の世界を創り出し、当該歴史上の人物に当該人物が偉業を残した分野の授業をユーザに行うと言う内容のサービスである。 User B has a contract for a service content plan “Teacher Service in the Virtual Space World” provided by a virtual reality service provider. The service included in the plan is a service in which a virtual reality world in which a historical person appears is created, and a class is given to the user in a field in which the person left a feat in the historical person.

仮想現実の世界に現れた歴史上の人物が授業を行ってくれることで、現実の世界にいる教師が授業を行う場合と比較して、ユーザはより高揚した状態で授業を受けることができるため、より高い学習効率で学ぶことが可能となる。 Because historical figures appearing in the virtual reality world take classes, users can take classes in a more uplifted state compared to teachers in the real world. It becomes possible to learn with higher learning efficiency.

また、ユーザCは、仮想現実サービス提供会社が提供する「花瓶によって装飾された仮想空間の世界を創り出す」といったサービス内容のプランに契約している。当該プランに含まれるサービスは、ユーザが自宅にいている場合に、所定の位置に花瓶を配置した仮想現実の世界を創り出すと言ったサービスである。花の手入れ等を行う時間が取れないユーザが、当該サービスを受けることで、ユーザには、棚の上に花瓶が置かれている風景が見えているため、現実の世界で花を買わなくても彩り溢れた部屋で過ごすという体験が可能となる。 In addition, the user C contracts with a service content plan provided by a virtual reality service provider, such as “create a virtual space world decorated with vases”. The service included in the plan is a service that creates a virtual reality world in which a vase is placed at a predetermined position when the user is at home. Users who do not have time to care for flowers, etc. receive the service, so users can see the scenery where the vase is placed on the shelf, so they do not have to buy flowers in the real world The experience of spending time in a colorful room is also possible.

また、ユーザDは、仮想現実サービス提供会社が提供する「ペットを飼える」といったサービス内容のプランに契約している。当該プランに含まれるサービスは、ユーザが自宅にいている場合に、ペットのいる仮想現実の世界を創り出すと言ったサービスである。住宅の規則や世話の時間等の関係で実際にペットを飼うことができないユーザが、当該サービスを受けることで、ユーザには、部屋の中で動き回るペットが見えているため、現実の世界でペットを飼うことができなくても、ペットのいる空間を体験することが可能となる。また、当該ペットは現実のペットではなく、仮想現実の世界に創り出されたペットである。従って、ライオンや恐竜、その他ユニコーンなど架空上の動物をペットとして飼うと言った体験が可能となる。 Further, the user D is contracted with a service content plan such as “Keep pets” provided by the virtual reality service provider. The service included in the plan is a service that is said to create a virtual reality world where a pet is present when the user is at home. When a user who cannot actually keep a pet due to housing rules, care time, etc. receives this service, the user can see the pet moving around in the room, so the pet in the real world Even if you can't keep a pet, you can experience a space with pets. The pet is not a real pet, but a pet created in a virtual reality world. Therefore, the experience of keeping fictional animals such as lions, dinosaurs and other unicorns as pets becomes possible.

図72は、本実施形態15に係る仮想現実提示システム1000の構成を示すブロック図である。仮想現実提示システム1000は、仮想現実提示装置100と、仮想現実サービス提供サーバ200と、契約者情報データベース300と、仮想現実コンテンツ記憶部400と、提供済仮想現実関連データ記憶データベース500と、を備える。本明細書では、仮想現実提示装置100は、ユーザが頭部に装着するヘッドマウントディスプレイ(HMD:Human Mounted Display)装置であるとして説明する。仮想現実サービス提供サーバ200は、ユーザが装着する仮想現実提示装置100(100a〜100c)と、インターネット等の通信網10を介して接続されている。 FIG. 72 is a block diagram illustrating a configuration of a virtual reality presentation system 1000 according to the fifteenth embodiment. The virtual reality presentation system 1000 includes a virtual reality presentation device 100, a virtual reality service providing server 200, a contractor information database 300, a virtual reality content storage unit 400, and a provided virtual reality related data storage database 500. . In the present specification, the virtual reality presentation device 100 will be described as a head mounted display (HMD) device that a user wears on the head. The virtual reality service providing server 200 is connected to a virtual reality presentation device 100 (100a to 100c) worn by a user via a communication network 10 such as the Internet.

仮想現実提示装置100は、ユーザが頭部に装着するヘッドマウントディスプレイ装置であって、少なくとも仮想現実オブジェクトの映像を表示する表示パネルと、仮想現実サービス提供サーバ200と通信を行う通信部と、を備える。仮想現実提示装置100は、仮想現実サービス提供サーバ200から送信された仮想現実提示用の映像データに基づいて、仮想現実オブジェクトを含む映像を表示パネルに表示することで、ユーザに仮想現実の世界を提示する。 The virtual reality presentation device 100 is a head mounted display device worn by a user on the head, and includes at least a display panel that displays a video of a virtual reality object, and a communication unit that communicates with the virtual reality service providing server 200. Prepare. The virtual reality presentation device 100 displays the video including the virtual reality object on the display panel based on the virtual reality presentation video data transmitted from the virtual reality service providing server 200, thereby allowing the user to see the virtual reality world. Present.

図73は、仮想現実提示装置100を装着しているユーザがいる現実の世界と、仮想現実提示装置100の表示パネルに表示されている仮想現実提示用映像と、ユーザに提示される仮想現実の世界、すなわちユーザが感知している仮想現実の世界とを示している。 FIG. 73 shows the real world where the user wearing the virtual reality presentation device 100 is present, the virtual reality presentation video displayed on the display panel of the virtual reality presentation device 100, and the virtual reality presented to the user. It shows the world, that is, the virtual reality world perceived by the user.

ユーザは、現実には犬のいない部屋に立って前方のソファーを見ている。ここで、仮想現実提示装置100の表示パネルには仮想現実オブジェクトである犬の映像が表示されている。ユーザの目には、現実の世界であるソファーの風景と表示パネルに表示されている犬の映像が融合した犬がソファーに座っているという仮想現実の世界が見えている。 The user is actually standing in a room without a dog and looking at the front sofa. Here, a video of a dog that is a virtual reality object is displayed on the display panel of the virtual reality presentation device 100. The user can see a virtual reality world where a dog sitting on the sofa is a fusion of the scenery of the sofa, which is the real world, and the image of the dog displayed on the display panel.

この犬は、仮想現実提示装置100を装着しているユーザにしか見えていない。従って、他人は、犬のいない現実の世界の中で生きているのに対し、このユーザは、犬のいる創り出された仮想現実の世界の中で生きていることになる。 This dog can only be seen by the user wearing the virtual reality presentation device 100. Thus, while others live in a real world without dogs, this user lives in a virtual reality world created with dogs.

なお、仮想現実提示装置100は、音声再生機能を備えており、当該仮想現実オブジェクトである犬の鳴き声を再生することで、視覚と聴覚とを刺激してユーザに仮想現実の世界を提示する構成とすることが、仮想現実の世界における現実感を高めることができるため好ましい。この場合、当該仮想現実オブジェクトを含む仮想現実提示用映像データに加えて、仮想現実の世界を形作るための音声データである仮想現実提示用音声データが仮想現実サービス提供サーバ200より送信されてくる。 Note that the virtual reality presentation device 100 has an audio reproduction function, and reproduces the dog's cry as the virtual reality object, thereby stimulating vision and hearing and presenting a virtual reality world to the user. Is preferable because it can enhance a sense of reality in the virtual reality world. In this case, in addition to the virtual reality presentation video data including the virtual reality object, virtual reality presentation audio data that is audio data for forming the virtual reality world is transmitted from the virtual reality service providing server 200.

仮想現実サービス提供サーバ200は、仮想現実提示装置100の表示パネルに仮想現実オブジェクトの映像を表示させることで、仮想現実サービスを提供する。なお、仮想現実サービス提供サーバ200は、当該仮想現実オブジェクトを描画して仮想現実提示用映像データを作成し、当該仮想現実提示用映像データを仮想現実提示装置100に送信する構成としても良いし、当該仮想現実オブジェクトのモデルデータを仮想現実提示装置100に送信し、仮想現実提示装置100側で当該モデルデータを描画した上で表示パネルに当該仮想現実オブジェクトの映像を表示させる構成としても良い。 The virtual reality service providing server 200 provides a virtual reality service by displaying a video of a virtual reality object on the display panel of the virtual reality presentation device 100. The virtual reality service providing server 200 may draw the virtual reality object to create virtual reality presentation video data, and transmit the virtual reality presentation video data to the virtual reality presentation device 100. The virtual reality object model data may be transmitted to the virtual reality presentation device 100, and the virtual reality presentation device 100 may draw the model data and display the video of the virtual reality object on the display panel.

仮想現実コンテンツ記憶データベース400は、仮想現実コンテンツを記憶するデータベースである。ここで、仮想現実コンテンツとは、仮想現実の世界を創り出すために使用されるデータ等の総称であり、少なくとも仮想現実オブジェクト(データ)と、仮想現実オブジェクト制御プログラムとを含む。図74は、仮想現実コンテンツの構造を示している。 The virtual reality content storage database 400 is a database that stores virtual reality content. Here, the virtual reality content is a general term for data used for creating a virtual reality world, and includes at least a virtual reality object (data) and a virtual reality object control program. FIG. 74 shows the structure of virtual reality content.

仮想現実オブジェクトとは、仮想現実の世界に配置される仮想的な人物や建築物などを指す。仮想現実オブジェクトは、仮想現実の世界に配置されるオブジェクトの種類に応じて、人物オブジェクト、動物オブジェクト、非動物オブジェクト、その他のオブジェクトに分類される。各仮想現実オブジェクトには、その仮想現実オブジェクトを一意に識別するためのオブジェクトID(仮想現実オブジェクト識別番号)が割り当てられている。 The virtual reality object refers to a virtual person or a building that is arranged in the virtual reality world. Virtual reality objects are classified into human objects, animal objects, non-animal objects, and other objects according to the types of objects arranged in the virtual reality world. Each virtual reality object is assigned an object ID (virtual reality object identification number) for uniquely identifying the virtual reality object.

人物オブジェクトとは、現実の人物や想像上・空想上の人物、歴史上の人物や創作上の人物などのオブジェクトであり、少なくとも動作が可能であり、また、好ましくは喋る(音声を出力する)ことが可能であると言う特徴を有する。 A person object is an object such as a real person, an imaginary / imaginary person, a historical person, a creative person, etc., and is at least operable, and preferably speaks (outputs sound). It has the feature that it is possible.

動物オブジェクトは、現実の動物や、想像上・空想上の動物、創作上の動物などのオブジェクトであり、動作が可能であると言う特徴を有する。また、動物オブジェクトの一部は、吠る(音声を出力する)と言った構成とすることが可能である。仮想現実の世界に配置される仮想的な動物であるため、人間と同様に言葉を喋る構成とすることも可能である。 The animal object is an object such as a real animal, an imaginary / fantasy animal, or a creative animal, and has a feature that it can operate. In addition, a part of the animal object can be configured to speak (output a sound). Since it is a virtual animal placed in the virtual reality world, it is possible to adopt a configuration that speaks like a human.

非動物オブジェクトは、植物や、家具、建物などのオブジェクトであり基本的に動作が無い物体である。但し、植物は、現実の世界で吹いている風に連動して一部動く構成としても良い。 Non-animal objects are objects such as plants, furniture, buildings, and the like that basically do not move. However, the plant may be configured to partially move in conjunction with the wind blowing in the real world.

その他のオブジェクトは、例えば映像エフェクトや音響効果などであり仮想現実の世界にリアリティーを持たせるためのオブジェクトである。その他のオブジェクトは、仮想現実の世界を創り出すために単体で用いられても良いし、人物オブジェクトや動物オブジェクト等と組み合わせて用いられても良い。 The other objects are, for example, video effects, sound effects, and the like, which are objects for giving reality to the virtual reality world. Other objects may be used alone to create a virtual reality world, or may be used in combination with a person object, an animal object, or the like.

各種の仮想現実オブジェクトは、モデルデータや基礎音声データなどから構成される。モデルデータは、仮想現実オブジェクトの外観形状を規定するポリゴンデータや、ポリゴン表面に張り付けられるテキスチャーデータなどから構成される。 Various virtual reality objects are composed of model data, basic audio data, and the like. The model data includes polygon data that defines the appearance shape of the virtual reality object, texture data that is pasted on the polygon surface, and the like.

図75は、仮想現実オブジェクトを管理する管理ファイルの一例である。各仮想現実オブジェクトには一意に識別する識別番号が割り当てられており、複数の種別によって分類されている。例えば、種別1は、仮想現実オブジェクトの大まかな区分けを示しており、種別2は、現実のもの(人物)か空想上のもの(人物)であるかを示しており、種別3はオブジェクトに含まれる人物等の性別を示している。例えば、管理番号No000012の格納アドレスxx010110101・・・には、寝ている雌のライオンの映像データが記憶されている。 FIG. 75 is an example of a management file for managing virtual reality objects. Each virtual reality object is assigned an identification number that uniquely identifies it, and is classified according to a plurality of types. For example, type 1 indicates a rough division of the virtual reality object, type 2 indicates whether it is a real thing (person) or an imaginary thing (person), and type 3 is included in the object This shows the gender of the person. For example, video data of a sleeping female lion is stored in the storage address xx010110101 of the management number No. 000012.

図76は、仮想現実オブジェクトの一種であるオブジェクトIDナンバー:No000009の動物オブジェクトのモデルデータの一例を示している。モデル映像データは、当該仮想現実オブジェクトの外観形状を規定する3Dポリゴンデータと、当該ポリゴンデータで形成される形状の表面に張り付けられるテキスチャーデータと、を含む。また、仮想現実オブジェクトを動作させるための関節ポイントデータや骨格データ等を含む構成とするとより好ましい。関節ポイント同士は、骨格で結合されており、各関節ポイントは、いくつかのポリゴン頂点と連結されている。関節ポイントの位置座標や角度は制御可能であって、当該関節ポイントを変化させることで仮想現実オブジェクトの外観形状が変化する。 FIG. 76 shows an example of model data of an animal object having an object ID number: No000009 which is a kind of virtual reality object. The model video data includes 3D polygon data that defines the appearance shape of the virtual reality object, and texture data that is pasted on the surface of the shape formed by the polygon data. Moreover, it is more preferable that the configuration includes joint point data, skeleton data, and the like for operating the virtual reality object. The joint points are connected by a skeleton, and each joint point is connected to several polygon vertices. The position coordinates and angles of the joint points can be controlled, and the appearance shape of the virtual reality object changes by changing the joint points.

仮想現実オブジェクトを構成する音声基礎データは、当該仮想現実オブジェクトが発する音声の基礎となるデータである。例えば、仮想現実オブジェクトが実在の人間を元にして創り出された人物オブジェクトである場合、当該実在の人物の肉声より抽出した声質、ピッチ、音声波形、音素等のデータである。これらの音声基礎データが音声合成処理によって合成されてユーザに提示されることで、当該人物オブジェクトが実際に喋っているようにユーザに感知される。なお、音声基礎データの抽出方法(収録方法)は、様々な切り口で抽出することが可能であり、音声発音データと音声表情データとに分類する形で抽出しても良いし、他の分類方法で抽出しても良い。当該抽出方法は、実施される音声合成処理のアルゴリズムによって決定される。 The sound basic data constituting the virtual reality object is data serving as the basis of the sound emitted by the virtual reality object. For example, when the virtual reality object is a person object created based on a real person, the data is voice quality, pitch, voice waveform, phoneme, etc. extracted from the real voice of the real person. These voice basic data are synthesized by voice synthesis processing and presented to the user, so that the user senses that the person object is actually speaking. Note that the basic voice data extraction method (recording method) can be extracted at various angles, and may be extracted in the form of voice pronunciation data and voice expression data, or other classification methods. It may be extracted with. The extraction method is determined by a speech synthesis algorithm to be performed.

仮想現実コンテンツに含まれる仮想現実オブジェクト制御プログラムは、上述した仮想現実オブジェクトの制御に関連するプログラムであって、図77に示すように複数のレベルのプログラムに分類される。 The virtual reality object control program included in the virtual reality content is a program related to the above-described control of the virtual reality object, and is classified into a plurality of levels of programs as shown in FIG.

メイン制御プログラムは、仮想現実サービスの全体の流れを制御する。図761に示した仮想現実サービスのサービス内容に対応しており、仮想現実サービスの提供を開始する場合に、ユーザの契約内容に対応するメイン制御プログラムを読み出して実行することで仮想現実サービスの提供を開始する。 The main control program controls the overall flow of the virtual reality service. The virtual reality service is provided by reading out and executing the main control program corresponding to the user's contract contents when the provision of the virtual reality service is started, corresponding to the service contents of the virtual reality service shown in FIG. To start.

サブ制御プログラムは、メイン制御プログラムから適宜読み出されて仮想現実の世界に配置される仮想現実オブジェクトの選択や配置位置、配置構成等を制御する。 The sub-control program is appropriately read from the main control program and controls selection, arrangement position, arrangement configuration, and the like of the virtual reality object arranged in the virtual reality world.

オブジェクト挙動制御プログラムは、サブ制御プログラムによって読み出されて仮想現実の世界に配置されているオブジェクトの挙動を制御する。例えば、オブジェクトが人物オブジェクトである場合は、腕を上げる、笑ったり泣いたりと表情を変える、ジャンプすると言った各動作に対応するオブジェクト挙動制御プログラムが用意されている。仮想現実の世界の状況に合わせてサブ制御プログラムが適当なオブジェクト挙動制御プログラムを選択し、当該オブジェクト挙動制御プログラムが実行されることで、仮想現実の世界に配置されている仮想現実オブジェクトが、当該選択されたオブジェクト挙動制御プログラムに対応した動作を行う。 The object behavior control program controls the behavior of the objects read by the sub-control program and arranged in the virtual reality world. For example, when the object is a person object, an object behavior control program corresponding to each operation such as raising an arm, changing a facial expression such as laughing or crying, or jumping is prepared. The sub-control program selects an appropriate object behavior control program according to the situation of the virtual reality world, and when the object behavior control program is executed, the virtual reality object placed in the virtual reality world becomes The operation corresponding to the selected object behavior control program is performed.

一例として、ユーザが「アイドルXと1時間お喋りコース」と言うプランの契約を行っていたとする。仮想現実サービス提供サーバ200は、当該ユーザに仮想現実サービスの提供を開始すると判断した場合に、当該ユーザの契約している当該プランに対応するメイン制御プログラムを仮想現実コンテンツ記憶データベース400より読み出して実行する。このように、メイン制御プログラムは、提供する仮想現実サービスの全体の流れを制御するプログラムである。 As an example, it is assumed that the user has made a contract of a plan called “Idle X and 1 hour talk course”. When the virtual reality service providing server 200 determines to start providing the virtual reality service to the user, the virtual reality service providing server 200 reads the main control program corresponding to the plan with which the user has a contract from the virtual reality content storage database 400 and executes it. To do. Thus, the main control program is a program that controls the overall flow of the virtual reality service to be provided.

当該メイン制御プログラムによって、関連する複数のサブ制御プログラムが読み出され、仮想現実オブジェクト選択に関するサブ制御プログラムが実行されることで仮想現実オブジェクトが選択される。ここでは、アイドルXの仮想現実オブジェクトが選択され、仮想現実コンテンツ記憶データベース400の中から読み出される。 A plurality of related sub-control programs are read out by the main control program, and a virtual reality object is selected by executing a sub-control program related to virtual reality object selection. Here, the virtual reality object of idle X is selected and read from the virtual reality content storage database 400.

サブ制御プログラムは、仮想現実コンテンツ記憶データベース400の中から読み出された仮想現実オブジェクトであるアイドルXの仮想空間内での初期配置位置や配置角度を決定し、仮想空間内に当該アイドルXを配置する。仮想現実サービス提供サーバ200は、サブ制御プログラムによって仮想空間内に配置された仮想現実オブジェクトであるアイドルXを描画して二次元の映像データを生成し、所定の符号化処理を行った上で仮想現実提示装置100に送信する。仮想現実提示装置100は、当該符号化された映像データを復号して映像を表示パネルに表示することで、アイドルXの映像が表示パネルに表示される。 The sub-control program determines an initial arrangement position and an arrangement angle in the virtual space of the idle X that is a virtual reality object read from the virtual reality content storage database 400, and arranges the idle X in the virtual space. To do. The virtual reality service providing server 200 draws an idle X that is a virtual reality object arranged in the virtual space by the sub-control program, generates two-dimensional video data, performs a predetermined encoding process, and then performs virtual processing. It transmits to the reality presentation device 100. The virtual reality presentation device 100 decodes the encoded video data and displays the video on the display panel, whereby the video of idle X is displayed on the display panel.

サブ制御プログラムは、仮想現実提示装置100を装着しているユーザの状態等に基づいて、当該仮想現実オブジェクトの挙動を制御するオブジェクト挙動制御プログラムを適宜読み出して実行する。読み出されたオブジェクト挙動制御プログラムが実行されることで、仮想現実オブジェクトが動作し、仮想現実提示装置100の表示パネルには、当該オブジェクト挙動制御プログラムによって動作制御されている仮想現実オブジェクトの映像が表示される。 The sub control program appropriately reads and executes an object behavior control program for controlling the behavior of the virtual reality object based on the state of the user wearing the virtual reality presentation device 100 and the like. By executing the read object behavior control program, the virtual reality object operates, and a video of the virtual reality object whose operation is controlled by the object behavior control program is displayed on the display panel of the virtual reality presentation device 100. Is displayed.

また、サブ制御プログラムの中には、仮想現実オブジェクトの人格に関連するプログラムが設けられている。当該人格に関連するサブ制御プログラムを特に人格制御プログラムと称することがある。仮想現実提示装置100からのフィードバック等に基づいて異なる人格制御プログラムが読み出され、当該人格制御プログラムに応じて仮想現実オブジェクト挙動制御プログラムが選択され、当該選択された仮想現実オブジェクト挙動制御プログラムが実行されることで仮想現実オブジェクトが動作する。 In the sub control program, a program related to the personality of the virtual reality object is provided. The sub-control program related to the personality may be particularly referred to as a personality control program. Different personality control programs are read based on feedback from the virtual reality presentation device 100, the virtual reality object behavior control program is selected according to the personality control program, and the selected virtual reality object behavior control program is executed. As a result, the virtual reality object operates.

例えば、上述のアイドルXの仮想現実オブジェクトの人格制御プログラムとして、「通常状態1〜10」、「怒り状態1〜5」、「喜び状態1〜5」、「哀しみ状態1〜5」、「楽しみ状態1〜5」、「ツンデレ状態1〜3」の33種類の人格制御プログラムが仮想現実コンテンツとして仮想現実コンテンツ記憶データベース400に記憶されているとする。 For example, as the personality control program for the virtual reality object of the above-mentioned idle X, “normal state 1 to 10”, “anger state 1 to 5”, “joy state 1 to 5”, “sad state 1 to 5”, “fun” It is assumed that 33 types of personality control programs of “states 1 to 5” and “tsundere states 1 to 3” are stored in the virtual reality content storage database 400 as virtual reality content.

現在の仮想現実オブジェクトであるアイドルXの人格を制御する人格制御プログラムとして、「通常状態1」の人格制御プログラムが選択されているとする。この状態で、ユーザが仮想現実提示装置100を介して「X、おはよう!」と声をかけたとき、人格制御プログラムは対応する仮想現実オブジェクト挙動プログラムを読み出して実行することで、仮想現実の世界の中のアイドルXはにっこり笑って「おはよう。」と音声を発する挙動を示す。 It is assumed that the personality control program of “normal state 1” is selected as the personality control program for controlling the personality of the idol X that is the current virtual reality object. In this state, when the user calls “X, good morning!” Via the virtual reality presentation device 100, the personality control program reads out and executes the corresponding virtual reality object behavior program, so that the virtual reality world is read. The idol X in the laughing smiles and utters a voice saying "Good morning."

一方、ツンデレ状態2の人格制御プログラムが選択されている場合、ユーザが仮想現実提示装置100を介して「X、おはよう!」と声をかけたときは、当該ツンデレ状態2の人格制御プログラムによって、異なる仮想現実オブジェクト挙動制御プログラムが読み出され、少し焦った表情で「あ、挨拶なんてしないんだからね、バカ!」という音声を発する挙動を示す。 On the other hand, when the personality control program in the tsundere state 2 is selected, when the user calls “X, good morning!” Via the virtual reality presentation device 100, the personality control program in the tsundere state 2 A different virtual reality object behavior control program is read out, and shows a behavior that emits a voice saying “Oh, I don't greet you!

このように、人格制御プログラムによって、入力に対するレスポンスが決定され、仮想現実オブジェクト挙動制御プログラムによって、仮想現実オブジェクトの挙動が制御される。仮想現実提示装置100を装着したユーザには、これらの制御が行われた仮想現実オブジェクトの映像や音声が提示される。 Thus, the response to the input is determined by the personality control program, and the behavior of the virtual reality object is controlled by the virtual reality object behavior control program. The user wearing the virtual reality presentation device 100 is presented with video and audio of the virtual reality object for which these controls are performed.

提示済仮想現実関連データ記憶データベース500は、仮想現実提示装置100がユーザに提示した仮想現実の世界を再現可能な状態で、当該仮想現実の世界の構築に係るデータを仮想現実関連データとして記憶する。より具体的には、提示済仮想現実関連データ記憶データベース500は、仮想現実提示装置100の表示パネルに表示された仮想現実オブジェクトの映像を再現可能な状態で、当該映像に関連するデータを記憶する。提示済仮想現実関連データ記憶データベース500は、当該映像に関連するデータとして、表示パネルに表示された映像をMPEG2やH.264と言った動画像符号方式で符号化したデータを記憶しても良い。また、提示済仮想現実関連データ記憶データベース500は、仮想現実オブジェクト制御プログラムの実行履歴を当該映像に関連するデータとして記憶しても良い。当該実行履歴に従って、再度仮想現実オブジェクト制御プログラムを再度実行することで、仮想現実提示装置100の表示パネルに表示された仮想現実提示用映像を再現することができるためである。 The presented virtual reality related data storage database 500 stores data relating to the construction of the virtual reality world as virtual reality related data in a state where the virtual reality world presented to the user by the virtual reality presentation device 100 can be reproduced. . More specifically, the presented virtual reality related data storage database 500 stores data related to the video in a state where the video of the virtual reality object displayed on the display panel of the virtual reality presentation device 100 can be reproduced. . The presented virtual reality-related data storage database 500 stores the video displayed on the display panel as data related to the video. Data encoded by a moving image encoding method such as H.264 may be stored. The presented virtual reality related data storage database 500 may store the execution history of the virtual reality object control program as data related to the video. This is because the virtual reality presentation video displayed on the display panel of the virtual reality presentation device 100 can be reproduced by executing the virtual reality object control program again according to the execution history.

以上説明したように、本実施形態15に係る仮想現実提示システム1000は、仮想現実サービスに係る仮想現実の世界をユーザに提示する仮想現実提示装置100と、当該仮想現実の世界の構築に使用する仮想現実提示用映像データを少なくとも生成して仮想現実提示装置100へ送信する仮想現実サービス提供サーバ200と、仮想現実提示装置100がユーザに提示した仮想現実の世界を再現可能な状態で、当該仮想現実の世界の構築に係るデータを仮想現実関連データとして記憶する提示済仮想現実関連データ記憶データベース500とを少なくとも具備する。 As described above, the virtual reality presentation system 1000 according to the fifteenth embodiment is used to construct the virtual reality presentation apparatus 100 that presents the virtual reality world related to the virtual reality service to the user and the virtual reality world. A virtual reality service providing server 200 that generates at least virtual reality presentation video data and transmits it to the virtual reality presentation device 100, and the virtual reality world that can be reproduced by the virtual reality presentation device 100 in a state where the virtual reality world can be reproduced. It includes at least a presented virtual reality related data storage database 500 that stores data relating to the construction of the real world as virtual reality related data.

当該構成とすることで、仮想現実の世界を体験した後に現実の世界に戻ってきたユーザが、現実の世界と仮想現実の世界との境界を認識することができず、自分が体験した世界は、現実の世界ではなく仮想現実の世界であったと認めることができない場合に、改めてユーザが体験した仮想現実の世界を再現することでユーザを適切に現実の世界に戻すことができる。 With this configuration, users who have returned to the real world after experiencing the virtual reality world cannot recognize the boundary between the real world and the virtual reality world, When it is not possible to recognize that it is not the real world but the virtual reality world, the user can be appropriately returned to the real world by reproducing the virtual reality world experienced by the user again.

より具体的には、本実施形態15において、仮想現実提示装置100は、ユーザが頭部に装着するヘッドマウントディスプレイ装置の形態を取る。当該ヘッドマウントディスプレイ装置は、少なくとも映像を表示する表示パネルが配置され、ユーザの視覚を欺くことでユーザを仮想現実の世界に引き込むことを可能とする。本実施形態15に係る仮想現実サービス提供システムは、当該ヘッドマウントディスプレイ装置100の表示パネルに仮想現実オブジェクトの映像を表示させる仮想現実サービス提供サーバ200と、ヘッドマウントディスプレイ装置100の表示パネルに表示された仮想現実オブジェクトの映像を再現可能な状態で、当該映像に関連するデータを記憶する提供済仮想現実関連データ記憶データベース500と、を備える。 More specifically, in the fifteenth embodiment, the virtual reality presentation device 100 takes the form of a head-mounted display device that the user wears on the head. The head-mounted display device includes at least a display panel that displays an image, and allows the user to be drawn into the virtual reality world by deceiving the user's vision. The virtual reality service providing system according to the fifteenth embodiment is displayed on a virtual reality service providing server 200 that displays a video of a virtual reality object on the display panel of the head mounted display device 100 and the display panel of the head mounted display device 100. And a provided virtual reality related data storage database 500 that stores data related to the video in a state where the video of the virtual reality object can be reproduced.

当該構成によれば、仮想現実を体験した後に、仮想現実と現実との境界に錯誤を生じた場合であっても、データベースに記憶している関連データに基づいてユーザが当時見ていた仮想現実オブジェクトの映像をユーザに明示的に再度提示することで、現実と信じていた世界が仮想現実の世界であったと言う事実を受け入れさせることができる。 According to this configuration, after experiencing virtual reality, even if there is an error in the boundary between virtual reality and reality, the virtual reality that the user was viewing at that time based on the related data stored in the database By explicitly presenting the object video to the user again, it is possible to accept the fact that the world believed to be real was the world of virtual reality.

なお、仮想現実提示システム1000は、図78に示すように履歴情報記憶サーバ600と、仮想現実再現処理サーバ700とを備える構成とすると更に好ましい。 It is more preferable that the virtual reality presentation system 1000 includes a history information storage server 600 and a virtual reality reproduction processing server 700 as shown in FIG.

履歴情報記憶サーバ600は、ユーザが使用した仮想現実サービス、すなわち、ユーザに提供された仮想現実サービスの履歴を仮想現実サービス履歴情報として記憶する。ここで、履歴情報記憶サーバ600に記憶される仮想現実サービス履歴情報は、所謂ログである。 The history information storage server 600 stores the virtual reality service used by the user, that is, the history of the virtual reality service provided to the user, as virtual reality service history information. Here, the virtual reality service history information stored in the history information storage server 600 is a so-called log.

仮想現実コンテンツ記憶データベース400には、複数種類の仮想現実サービスに係る仮想現実コンテンツが記憶されており、仮想現実サービス提供サーバ200は、仮想現実コンテンツ記憶データベース400より提供する仮想現実サービスに係る各種データを読み出して所定の加工処理を行い、仮想現実提示用の映像データや音声データを順次生成する。履歴情報記憶サーバ600は、ユーザを識別する識別情報(ユーザID)と当該ユーザに仮想現実サービス提供サーバ200が提供した仮想現実サービスを識別する仮想現実サービス識別情報との対応関係を時系列に纏めた提供済み仮想現実サービス履歴情報を記憶する。 The virtual reality content storage database 400 stores virtual reality content related to a plurality of types of virtual reality services, and the virtual reality service providing server 200 stores various data related to virtual reality services provided from the virtual reality content storage database 400. Are read out and subjected to predetermined processing to sequentially generate video data and audio data for virtual reality presentation. The history information storage server 600 summarizes the correspondence between the identification information (user ID) for identifying the user and the virtual reality service identification information for identifying the virtual reality service provided to the user by the virtual reality service providing server 200 in time series. The provided virtual reality service history information is stored.

図79は、履歴情報記憶サーバ600が記憶する仮想現実サービス履歴情報の一例を示している。仮想現実サービス履歴情報には、仮想現実サービスの提供を受けたユーザを識別するユーザ識別情報と、当該ユーザに提供した仮想現実サービスを識別する仮想現実サービス識別情報と、当該仮想現実サービスを提供した日時を示す日時情報と、が関連付けられた状態で時系列に纏められている。 FIG. 79 shows an example of virtual reality service history information stored in the history information storage server 600. The virtual reality service history information includes user identification information for identifying a user who has been provided with the virtual reality service, virtual reality service identification information for identifying a virtual reality service provided to the user, and the virtual reality service. The date and time information indicating the date and time is grouped in a time series in a state of being associated with each other.

仮想現実サービス提供サーバ200には、仮想現実絵サービスを提供するユーザを識別するユーザ識別情報と、当該ユーザに提供した仮想現実サービスを識別する仮想現実サービス識別情報とを少なくとも対応付けて時系列に記録した仮想現実サービス履歴情報の生成処理及び更新処理を行う仮想現実サービス履歴情報更新処理部を備える。 In the virtual reality service providing server 200, user identification information for identifying a user who provides a virtual reality picture service and virtual reality service identification information for identifying a virtual reality service provided to the user are associated with each other in time series. A virtual reality service history information update processing unit for generating and updating the recorded virtual reality service history information is provided.

当該履歴情報記憶サーバ600に記憶される仮想現実サービス履歴情報だけでは、ユーザに提示された仮想現実の世界を再現することはできない。仮想現実サービスに係る仮想現実オブジェクトは複数存在するため、どの種類の仮想現実オブジェクトをどのように用いて仮想現実の世界を構築したかを特定できないためである。 Only the virtual reality service history information stored in the history information storage server 600 cannot reproduce the virtual reality world presented to the user. This is because there are a plurality of virtual reality objects related to the virtual reality service, and it is impossible to specify which type of virtual reality object is used to build the virtual reality world.

仮想現実再現処理サーバ700は、通常のパーソナルコンピュータ20や仮想現実提示装置100よりインターネット等の通信網10を介して履歴開示要求を受信する。当該履歴開示要求は、ユーザがこれまでに使用した仮想現実サービスのログ(使用履歴)の開示を要求するパケットであり、少なくともユーザIDと、認証用のパスワードが含まれる。 The virtual reality reproduction processing server 700 receives a history disclosure request from the normal personal computer 20 or the virtual reality presentation device 100 via the communication network 10 such as the Internet. The history disclosure request is a packet for requesting disclosure of a virtual reality service log (usage history) used so far by the user, and includes at least a user ID and a password for authentication.

当該履歴開示要求を受信した場合、仮想現実再現処理サーバ700は、契約者情報記憶データベース300に記憶されているユーザIDとパスワードの組が当該履歴開示要求に含まれるユーザIDとパスワードの組と一致しているかの認証処理を行う。 When the history disclosure request is received, the virtual reality reproduction processing server 700 matches the user ID and password pair stored in the contractor information storage database 300 with the user ID and password pair included in the history disclosure request. Perform authentication processing to see if you are doing it.

認証が取れた場合、仮想現実再現処理サーバ700は、履歴情報記憶サーバ600より上記仮想現実サービス履歴情報を読み出して履歴開示要求の送信元端末へ返信する。当該返信後に、再現を要求する仮想現実の世界に係る提供済み仮想現実サービスを指定する情報を含む提示済み仮想現実再現要求を受信した場合、仮想現再現処理サーバ700は、当該要求で指定されている提供済み仮想現実サービスに係る仮想現実関連データを提示済仮想現実関連データ記憶データベース500より読み出し、仮想現実提示装置100の表示パネルに表示していた仮想現実提示用映像を再現して要求元端末に送信する。 When the authentication is successful, the virtual reality reproduction processing server 700 reads the virtual reality service history information from the history information storage server 600 and returns it to the transmission source terminal of the history disclosure request. When the presented virtual reality reproduction request including information designating the provided virtual reality service related to the virtual reality world requesting the reproduction is received after the reply, the virtual current reproduction processing server 700 is designated by the request. The virtual reality related data related to the provided virtual reality service is read from the presented virtual reality related data storage database 500, and the virtual reality presentation video displayed on the display panel of the virtual reality presentation device 100 is reproduced to obtain the request source terminal. Send to.

ユーザは、コンピュータ20等の端末を介して、当時自身が目にしていた映像をそのまま確認することができるため、自身が体験した世界は仮想現実の世界であったと言うことを認識せざるを得ないことになる。従って、第3者がユーザを単に説得する場合と比較して、より確実に仮想現実であったことを認識させることが可能となる。 Since the user can directly check the video that he / she saw at that time through a terminal such as the computer 20, he / she has to recognize that the world he / she has experienced is a virtual reality world. There will be no. Therefore, it is possible to recognize that it was a virtual reality more reliably than a case where a third party simply persuades the user.

なお、仮想現実サービスの中には、ストーリー性を有し、1つの仮想現実サービスを複数回に渡って体験するタイプの仮想現実サービスがある。従って、再現を要求する仮想現実の世界を指定するためには、提供済み仮想現実サービスを指定するだけでは不十分な場合があり、仮想現実サービスの提供を受けた時間帯を指定するなどより詳細に指定する必要がある。 Among virtual reality services, there is a type of virtual reality service that has story characteristics and allows one virtual reality service to be experienced multiple times. Therefore, it may not be sufficient to specify the virtual reality service that has been provided in order to specify the virtual reality world that requires reproduction. Must be specified.

そこで履歴情報記憶サーバ600は、ユーザに提示された仮想現実の世界を時系列に纏めた仮想現実履歴情報を記憶する構成とすると更に良好である。この場合、仮想現実サービス提供サーバ200は、ユーザに提示する仮想現実の世界を識別する仮想現実識別番号(仮想現実識別情報)を割り当てる仮想現実識別番号割当部(仮想現実識別情報割当部)を具備する。 Therefore, it is further preferable that the history information storage server 600 is configured to store virtual reality history information in which the virtual reality world presented to the user is summarized in time series. In this case, the virtual reality service providing server 200 includes a virtual reality identification number allocation unit (virtual reality identification information allocation unit) that allocates a virtual reality identification number (virtual reality identification information) that identifies the virtual reality world presented to the user. To do.

仮想現実サービス提供サーバ200は、ユーザに仮想現実サービスを提供する場合に、当該仮想現実サービスに係る仮想現実の世界に対して当該仮想現実の世界を一意に識別する仮想現実識別番号を割り当てる。すなわち、仮想現実サービス提供サーバ200が提供可能な各仮想現実サービスは、当該仮想現実サービスに一意に割り当てられている仮想現実サービス識別情報で識別され、当該仮想現実サービスの提供に際し、ユーザに提示される仮想現実の世界毎に当該仮想現実の世界を識別する仮想現実識別番号が仮想現実識別番号割当部によって割り当てられる。 When providing a virtual reality service to a user, the virtual reality service providing server 200 assigns a virtual reality identification number that uniquely identifies the virtual reality world to the virtual reality world related to the virtual reality service. That is, each virtual reality service that can be provided by the virtual reality service providing server 200 is identified by the virtual reality service identification information uniquely assigned to the virtual reality service, and is presented to the user when the virtual reality service is provided. For each virtual reality world, a virtual reality identification number for identifying the virtual reality world is assigned by the virtual reality identification number assigning unit.

各仮想現実サービスは、当該仮想現実サービスを利用したい各ユーザに対して提供可能であり、また、同一の仮想現実サービスを複数回に渡って利用可能である。一方、同一の仮想現実サービスであったとしても、当該仮想現実サービスに係る仮想現実の世界がどのような仮想現実の世界となるかはすべて異なる。例えば、「アイドルXとお喋りをしよう」という仮想現実サービスを使用する場合、ユーザの目の前には仮想現実オブジェクトであるアイドルXの姿が映し出されるが、ユーザが当該アイドルXにかける音声のコンテキストのよってアイドルXからの反応が変化するため、アイドルXに告白しと付き合うことになった仮想現実の世界となる場合もあれば、アイドルXとケンカ別れをした仮想現実の世界となる場合もあるためである。 Each virtual reality service can be provided to each user who wants to use the virtual reality service, and the same virtual reality service can be used multiple times. On the other hand, even if they are the same virtual reality service, the virtual reality world related to the virtual reality service is all different. For example, when using the virtual reality service “Let's talk with idol X”, the appearance of idol X, which is a virtual reality object, is displayed in front of the user. As a result, the reaction from the idol X changes, so it may become a virtual reality world that has been associated with the confession to the idol X, or it may become a virtual reality world that quarrels with the idol X. Because.

そこで、ユーザからの仮想現実サービス利用要求などに基づいて、当該ユーザに仮想現実サービスの提供を開始すると判断した場合に、仮想現実識別番号割当部は、当該提供する仮想現実サービスによって創り出される仮想現実の世界に対して、当該仮想現実の世界を一意に識別する仮想現実識別番号を予め割り当てる。 Therefore, when it is determined that the provision of the virtual reality service to the user is started based on a virtual reality service use request from the user, the virtual reality identification number assigning unit creates the virtual reality created by the provided virtual reality service. A virtual reality identification number that uniquely identifies the virtual reality world is assigned to the world in advance.

仮想現実関連データ記憶データベース500は、当該仮想現実の世界の構築に使用される各種データが仮想現実関連データとして記憶するが、上記仮想現実識別番号と対応付けた状態で当該仮想現実関連データを記憶しておく。当該構成とすることで、後日仮想現実識別番号を指定することで、当該仮想現実識別番号に対応付けられた仮想現実関連データが読み出されて、仮想現実の世界を再現することができる。 The virtual reality related data storage database 500 stores various data used for construction of the virtual reality world as virtual reality related data, but stores the virtual reality related data in a state associated with the virtual reality identification number. Keep it. With this configuration, by designating the virtual reality identification number at a later date, the virtual reality related data associated with the virtual reality identification number can be read and the virtual reality world can be reproduced.

履歴情報記憶サーバ600は、ユーザを識別する識別情報と、ユーザに提示された仮想現実の世界に割り当てられた仮想現実識別情報との対応関係を時系列に纏めた仮想現実履歴情報を記憶する。図80は、仮想現実履歴情報の一例を示している。仮想現実履歴情報には、ユーザに提示される仮想現実の世界を識別する仮想現実識別番号と、当該仮想現実識別番号で識別される仮想現実の世界の提示を受けるユーザを識別するユーザIDと、当該仮想現実の世界に係る仮想現実サービスを識別する仮想現実サービス識別番号と、当該仮想現実の世界が当該仮想現実サービスのどの章(チャプター)に係る仮想現実の世界であるかを示すチャプター情報と、当該仮想現実の世界の提示を受けるユーザの位置及び時刻(時間帯)をそれぞれ示す位置情報や時刻情報などが纏められている。 The history information storage server 600 stores virtual reality history information in which correspondences between identification information for identifying a user and virtual reality identification information assigned to the virtual reality world presented to the user are summarized in time series. FIG. 80 shows an example of virtual reality history information. The virtual reality history information includes a virtual reality identification number that identifies the virtual reality world presented to the user, a user ID that identifies the user who receives the presentation of the virtual reality world identified by the virtual reality identification number, A virtual reality service identification number for identifying a virtual reality service related to the virtual reality world, and chapter information indicating which chapter (chapter) of the virtual reality service the virtual reality world is related to; The position information and time information indicating the position and time (time zone) of the user who receives the presentation of the virtual reality world are collected.

なお、この場合も当該履歴情報記憶サーバ600に記憶される仮想現実履歴情報だけでは、ユーザに提示された仮想現実の世界を再現することはできない。ユーザに対して仮想現実の世界を再現するためには、当該仮想現実履歴情報に含まれる仮想現実識別番号を指定して、仮想現実関連データ記憶データベース500より当該仮想現実識別番号に対応付けられた仮想現実関連データを読み出して仮想現実提示用映像や仮想現実提示用音声を再生成する必要がある。 In this case as well, the virtual reality world presented to the user cannot be reproduced only with the virtual reality history information stored in the history information storage server 600. In order to reproduce the virtual reality world for the user, the virtual reality identification number included in the virtual reality history information is designated and associated with the virtual reality identification number from the virtual reality related data storage database 500. It is necessary to read virtual reality related data and regenerate virtual reality presentation video and virtual reality presentation audio.

<実施形態16>
図81は、本実施形態16に係る仮想現実提示装置100の斜め前方と斜め後方からの外観斜視図である。ヘッドマウントディスプレイ装置である仮想現実提示装置100は、フレーム101と、フロントパネル102と、を少なくとも備える。
<Embodiment 16>
FIG. 81 is an external perspective view of the virtual reality presentation device 100 according to the sixteenth embodiment from obliquely forward and obliquely rearward. A virtual reality presentation device 100 that is a head-mounted display device includes at least a frame 101 and a front panel 102.

フレーム101は、仮想現実提示装置100の筐体であり、内部には、情報処理プロセッサ、RAM(Random Access Memory)、ROM(Read only memory)、バッテリーなどが配置されている。また、必要に応じて映像を描画する専用の映像処理プロセッサなどが合わせて配置されている。フレーム101は、大きく分けてライトフレーム101a、レフトフレーム101b、センターフレーム101cから構成される。 The frame 101 is a housing of the virtual reality presentation device 100, and an information processing processor, a RAM (Random Access Memory), a ROM (Read only memory), a battery, and the like are arranged therein. In addition, a dedicated video processor or the like that draws video as necessary is also arranged. The frame 101 is roughly divided into a right frame 101a, a left frame 101b, and a center frame 101c.

ライトフレーム101a及び101bは、左右の耳にそれぞれ接続する部材であり、それぞれ一端の内側にアナログ電気信号を空気振動に変換して音声を出力するスピーカ171a、171bが配置され、他端がセンターフレーム101cと接続されている。 The light frames 101a and 101b are members connected to the left and right ears, respectively. Speakers 171a and 171b that convert an analog electric signal into air vibration and output sound are arranged inside one end, and the other end is a center frame. 101c.

また、ライトフレーム101a及びレフトフレーム101bの一端の外側に周囲の音声を集音する周辺マイクロフォン132a、132bが配置されている。また、ライトフレーム101aの内側の前端下方には、ユーザが発した音声を集音するユーザマイクロフォン131を備える。ユーザマイクロフォン131や周辺マイクロフォン132a、132bで集音された音声は、AD変換でデジタル信号に変換され、情報処理プロセッサに出力される。 In addition, peripheral microphones 132a and 132b that collect surrounding sounds are arranged outside one ends of the right frame 101a and the left frame 101b. In addition, a user microphone 131 that collects a voice uttered by the user is provided below the front end inside the light frame 101a. The sound collected by the user microphone 131 and the peripheral microphones 132a and 132b is converted into a digital signal by AD conversion and output to the information processing processor.

ライトフレーム101a及び101bの端部には、それぞれ傾きを検知する傾きセンサ111a、111bと、加速度を検知する加速度センサ112a、112bが配置されている。また、ライトフレーム101a及びレフトフレーム101bの外側には、周囲の景色を撮影する周辺カメラ122a、122bがそれぞれ配置されている。 At the ends of the light frames 101a and 101b, inclination sensors 111a and 111b for detecting inclination and acceleration sensors 112a and 112b for detecting acceleration are arranged, respectively. In addition, peripheral cameras 122a and 122b that capture surrounding scenery are respectively arranged outside the right frame 101a and the left frame 101b.

センターフレーム101cは、両端がそれぞれライトフレーム101a、レフトフレーム101bに接続されており、センターフレーム101cの下方にフロントパネル102が接続されている。 Both ends of the center frame 101c are connected to the right frame 101a and the left frame 101b, respectively, and the front panel 102 is connected to the lower side of the center frame 101c.

センターフレーム101cの中央付近と両端付近には、傾きを検知する傾きセンサ111c、111d、111eと、加速度を検知する加速度センサ112c、112d、112eがそれぞれ配置されている。また、センターフレーム101cの前方側であって、ユーザの左右の目の位置には、ユーザの視界と対応する景色を撮影する視線カメラ121a、122bが配置されている。視線カメラ121a、121bは、センターフレーム101cの前方側に、ユーザの左右の目の間隔に対応する距離だけ離れた位置に配置されている。 Near the center and near both ends of the center frame 101c, tilt sensors 111c, 111d, and 111e that detect tilt and acceleration sensors 112c, 112d, and 112e that detect acceleration are arranged, respectively. In addition, line-of-sight cameras 121a and 122b that capture a scene corresponding to the user's field of view are disposed on the front side of the center frame 101c and on the left and right eyes of the user. The line-of-sight cameras 121a and 121b are disposed on the front side of the center frame 101c at positions separated by a distance corresponding to the distance between the left and right eyes of the user.

フロントパネル102は、仮想現実提示装置100を頭部に装着した状態でユーザの目の前方に来る位置に配置される。本実施形態16に係る仮想現実提示装置100において、フロントパネル102は透過型ディスプレイであり、右目の前方と左目の前方にそれぞれ映像を表示する表示領域であるライト表示パネル(第1映像表示部)151aとレフト表示パネル(第2映像表示部)151bとが配置される。 The front panel 102 is disposed at a position in front of the user's eyes with the virtual reality presentation device 100 mounted on the head. In the virtual reality presentation device 100 according to the sixteenth embodiment, the front panel 102 is a transmissive display, and is a light display panel (first video display unit) that is a display area that displays images in front of the right eye and in front of the left eye. 151a and a left display panel (second video display unit) 151b are arranged.

ライト表示パネル151aとレフト表示パネル151bは、導光板と液晶パネル(LCD)が重ね合わされた構造を取る。液晶パネルは、透明電極(透明導電膜)、偏光板(偏光フィルム)、液晶層、ガラス基板、カラーフィルタ等が積層された構造をとる。 The right display panel 151a and the left display panel 151b have a structure in which a light guide plate and a liquid crystal panel (LCD) are overlapped. The liquid crystal panel has a structure in which a transparent electrode (transparent conductive film), a polarizing plate (polarizing film), a liquid crystal layer, a glass substrate, a color filter, and the like are laminated.

図82は、仮想現実提示装置100のライト表示パネル151a付近の断面図を示している。センターフレーム101cの下方には、フロントパネル102が配置されており、センターフレーム101cの下部には光源152が配置されている。 82 shows a cross-sectional view of the vicinity of the light display panel 151a of the virtual reality presentation device 100. FIG. A front panel 102 is disposed below the center frame 101c, and a light source 152 is disposed below the center frame 101c.

光源152より放射された可視光はフロントパネル102側へ照射される。フロントパネル102は、導光板153とLCD154とが合わさった構成であり、光源152より放射された可視光が導光板153でユーザ側へ反射され、表示制御されたLCD154を透過することで映像が表示される。 Visible light emitted from the light source 152 is irradiated to the front panel 102 side. The front panel 102 has a configuration in which the light guide plate 153 and the LCD 154 are combined. The visible light emitted from the light source 152 is reflected to the user side by the light guide plate 153 and is transmitted through the display-controlled LCD 154 to display an image. Is done.

図83は、本実施形態16に係る仮想現実提示システム2000の機能構成を示すブロック図である。仮想現実提示システム2000は、仮想現実提示装置100と、仮想現実サービス提供サーバ200と、契約者情報記憶DB300と、仮想現実コンテンツ記憶DB400と、提示済仮想現実関連データ記憶データベース500と、を備え、仮想現実提示装置100と仮想現実サービス提供サーバ200はインターネット等の通信網を介して相互に接続されている。 FIG. 83 is a block diagram illustrating a functional configuration of the virtual reality presentation system 2000 according to the sixteenth embodiment. The virtual reality presentation system 2000 includes a virtual reality presentation device 100, a virtual reality service providing server 200, a contractor information storage DB 300, a virtual reality content storage DB 400, and a presented virtual reality related data storage database 500. The virtual reality presentation device 100 and the virtual reality service providing server 200 are connected to each other via a communication network such as the Internet.

仮想現実提示装置100は、ユーザ状態検知部110と、周囲状況検知部120と、音声入力部130と、表示制御部140と、表示部150と、音声再生制御部160と、音声出力部170と、仮想現実提示制御部180と、通信部190と、を備える。 The virtual reality presentation device 100 includes a user state detection unit 110, an ambient condition detection unit 120, a voice input unit 130, a display control unit 140, a display unit 150, a voice reproduction control unit 160, and a voice output unit 170. The virtual reality presentation control unit 180 and the communication unit 190 are provided.

ユーザ状態検知部110は、仮想現実提示装置である仮想現実提示装置100を使用しているユーザの状態を検知する。ユーザ状態検知部110として、仮想現実提示装置100は、傾きを検知する傾きセンサ111と、加速度を検知する加速度センサ112と、を備える。傾きセンサ111で生成された傾き情報や加速度センサ112で生成された加速度情報は、それぞれユーザの状態を示すユーザ状態情報として通信部190より仮想現実サービス提供サーバ200へ送信される。 The user state detection unit 110 detects the state of a user who is using the virtual reality presentation device 100 that is a virtual reality presentation device. As the user state detection unit 110, the virtual reality presentation device 100 includes an inclination sensor 111 that detects inclination and an acceleration sensor 112 that detects acceleration. The inclination information generated by the inclination sensor 111 and the acceleration information generated by the acceleration sensor 112 are transmitted from the communication unit 190 to the virtual reality service providing server 200 as user state information indicating the state of the user.

周囲状況検知部120は、仮想現実提示装置100を使用しているユーザの周囲の状況を検知する。具体的には、周囲状況検知部120は、外部環境の映像を取得することで周囲の状況を検知する。周囲状況検知部120として、仮想現実提示装置100は、ユーザの視線と対応した景色を撮影する視線カメラ121と、ユーザの両側や後方など視線カメラ121では撮影できない範囲の景色を撮影する周辺カメラ122と、を備える。視線カメラ121で撮影されたユーザ前方の景色の映像や周辺カメラ122で撮影されたユーザの周囲の映像は、それぞれ適宜圧縮等の符号化が行われた上で、周囲状況情報として通信部190より仮想現実サービス提供サーバ200へ送信される。 The surrounding state detection unit 120 detects the surrounding state of the user who is using the virtual reality presentation device 100. Specifically, the surrounding situation detection unit 120 detects the surrounding situation by acquiring an image of the external environment. As the surrounding state detection unit 120, the virtual reality presentation device 100 includes a line-of-sight camera 121 that captures a scene corresponding to the user's line of sight, and a peripheral camera 122 that captures a range of scenes that cannot be captured by the line-of-sight camera 121, such as the user's sides or the back. And comprising. The video of the scenery in front of the user captured by the line-of-sight camera 121 and the video of the surroundings of the user captured by the peripheral camera 122 are each appropriately encoded such as compression, and then transmitted from the communication unit 190 as the surrounding state information. It is transmitted to the virtual reality service providing server 200.

音声入力部130は、音声を集音してアナログ電気信号に変換し、AD変換処理を行って音声デジタル信号に変換することで音声を入力する。音声入力部130として、仮想現実提示装置100は、ユーザが発した音声を集音するユーザマイクロフォン131と、周辺の音声を集音する周辺マイクロフォン132とを備える。 The voice input unit 130 collects voice, converts it into an analog electric signal, performs AD conversion processing, and converts it into a voice digital signal, thereby inputting the voice. As the voice input unit 130, the virtual reality presentation device 100 includes a user microphone 131 that collects voices uttered by a user and a peripheral microphone 132 that collects peripheral voices.

ユーザの音声を効率良く集音できるよう、ユーザマイクロフォン131は、仮想現実提示装置100の内側(ユーザ側)に配置され、一方、周辺マイクロフォン132は、ユーザの外部環境からの音声を効率良く集音できるよう、仮想現実提示装置100の外側に配置される。周辺マイクロフォン132は、ユーザが仮想現実提示装置100を装着していない状態で聞こえる音声を集音できるよう、仮想現実提示装置100における耳の位置付近に配置されていることが好ましい。ユーザマイクロフォン131や周辺マイクロフォン132は、音声を集音してアナログ電気信号に変換し、AD変換処理を行って音声デジタル信号に変換することで音声を入力する。当該入力された音声は、必要に応じて音声符号化が行われた後、それぞれユーザ音声情報及び周囲音声情報として通信部190より仮想現実サービス提供サーバ200に送信される。 The user microphone 131 is arranged inside the virtual reality presentation device 100 (user side) so that the user's voice can be collected efficiently, while the peripheral microphone 132 efficiently collects the voice from the user's external environment. It is arranged outside the virtual reality presentation device 100 so that it can. The peripheral microphone 132 is preferably arranged in the vicinity of the position of the ear in the virtual reality presentation device 100 so that the user can collect sound that can be heard when the virtual reality presentation device 100 is not worn. The user microphone 131 and the peripheral microphone 132 collect sound and convert it into an analog electric signal, and perform AD conversion processing to convert it into a sound digital signal, thereby inputting the sound. The input speech is subjected to speech encoding as necessary, and then transmitted to the virtual reality service providing server 200 from the communication unit 190 as user speech information and ambient speech information, respectively.

表示制御部140は、通信部190で受信される各種データのうち、仮想現実サービス提供サーバ200で生成された仮想現実提示映像データを入力し、当該入力した仮想現実提示用映像データに基づいて仮想現実オブジェクトの映像を仮想現実提示用映像として表示部150に表示する制御を行う。 The display control unit 140 inputs virtual reality presentation video data generated by the virtual reality service providing server 200 among various data received by the communication unit 190, and performs virtual processing based on the input virtual reality presentation video data. Control is performed to display the video of the real object on the display unit 150 as a virtual reality presentation video.

表示部150は、表示制御部140からの制御に基づいて仮想現実提示用映像を表示する。表示部150に表示される仮想現実提示用映像は、仮想現実感をユーザに感じさせるための仮想現実オブジェクトの静止画像や動画像などの映像である。表示部150として、仮想現実提示装置100には、ライト表示パネル151aとレフト表示パネル151bが設けられており、それぞれ視差が加えられた仮想現実提示用映像を表示する。 The display unit 150 displays the virtual reality presentation video based on the control from the display control unit 140. The virtual reality presentation video displayed on the display unit 150 is a video such as a still image or a moving image of a virtual reality object for making the user feel virtual reality. As the display unit 150, the virtual reality presentation device 100 is provided with a right display panel 151a and a left display panel 151b, and each displays a virtual reality presentation video with parallax added thereto.

音声再生制御部160は、通信部190で受信される各種データのうち、仮想現実サービス提供サーバ200で生成された仮想現実提示用音声データを入力し、当該入力した仮想現実提示用音声データに基づいて仮想現実オブジェクトが発する音声や仮想現実の世界を構築するための背景音楽などを音声出力部170より出力する制御を行う。 The audio reproduction control unit 160 inputs virtual reality presentation audio data generated by the virtual reality service providing server 200 among various data received by the communication unit 190, and based on the input virtual reality presentation audio data. Then, the audio output unit 170 performs control to output audio generated by the virtual reality object, background music for constructing the virtual reality world, and the like.

ここで、バーチャルな現象が引き起こす音声をリアルな現象が引き起こしている音声としてユーザに認識させるためには、音声発生源である仮想現実オブジェクトの位置から音声が伝達されているようにユーザに認識させることが仮想現実の世界にユーザを引き込むうえで好ましい。そこで、音声再生制御部160は、5.1Chや6.1Ch、7.1Chと言った立体音響に対応する形で音声データを再生することが好ましい。   Here, in order to make the user recognize the sound caused by the virtual phenomenon as the sound caused by the real phenomenon, the user is recognized as if the sound is transmitted from the position of the virtual reality object that is the sound generation source. This is preferable in attracting users to the virtual reality world. Therefore, it is preferable that the audio reproduction control unit 160 reproduces the audio data in a form corresponding to the three-dimensional sound such as 5.1Ch, 6.1Ch, or 7.1Ch.

音声出力部170は、音声再生制御部160からの再生制御に従って音声を出力する。音声出力部170として、仮想現実提示装置100は、ライトフレーム101a及びレフトフレーム101bの後端付近に配置されるスピーカ171a、171bを備えており、音声再生制御部160で再生された音声データにDA変換を行い、アナログ電気信号に変換し、更に空気振動に変換して外部へ放音する。   The audio output unit 170 outputs audio according to the reproduction control from the audio reproduction control unit 160. As the audio output unit 170, the virtual reality presentation device 100 includes speakers 171 a and 171 b arranged near the rear ends of the right frame 101 a and the left frame 101 b, and DA is added to the audio data reproduced by the audio reproduction control unit 160. Conversion is performed to convert it into an analog electric signal, which is further converted into air vibration and emitted to the outside.

仮想現実提示制御部180は、仮想現実提示装置100でユーザに仮想現実を提示する処理を制御する。仮想現実提示制御部180は、通信部190で仮想現実サービスの開始を指示する仮想現実サービス提供開始通知情報が受信された場合に、仮想現実を提示するための制御を開始する。 The virtual reality presentation control unit 180 controls processing for presenting virtual reality to the user by the virtual reality presentation device 100. The virtual reality presentation control unit 180 starts control for presenting virtual reality when the communication unit 190 receives virtual reality service provision start notification information instructing the start of the virtual reality service.

具体的に、仮想現実提示制御部180は、当該仮想現実サービス提供開始通知情報に基づいて、ユーザ状態検知部110、周囲状況検知部120、音声入力部130にそれぞれユーザ状態情報、周囲状況情報、音声情報の取得開始を指示すると共に通信部190に当該情報を仮想現実サービス提供サーバ200に定期的に送信するよう指示する。また、仮想現実提示制御部180は、表示制御部140に表示部150に映像を表示する制御の開始を指示し、音声再生制御部160に音声出力部170より出力する音声の再生制御の開始を指示する。 Specifically, based on the virtual reality service provision start notification information, the virtual reality presentation control unit 180 provides user status information, ambient status information, and voice status information to the user status detection unit 110, the ambient status detection unit 120, and the voice input unit 130, respectively. Instruct to start acquisition of audio information and instruct the communication unit 190 to periodically transmit the information to the virtual reality service providing server 200. Further, the virtual reality presentation control unit 180 instructs the display control unit 140 to start control of displaying video on the display unit 150, and starts playback control of audio output from the audio output unit 170 to the audio playback control unit 160. Instruct.

通信部190は、仮想現実提示制御部180からの制御に従って、ユーザ状態検知部110で検知されたユーザ状態を示すユーザ状態情報、周囲状況検知部120で検知されたユーザの周囲の状況を示す周囲状況情報、音声入力部130で入力された音声を示す音声情報、をそれぞれ仮想現実サービス提供サーバ200に送信する。また、通信部190は、仮想現実サービス提供サーバ200より受信した仮想現実提示用映像データと仮想現実提示用音声データをそれぞれ表示制御部140と音声再生処理部160へ出力する。   In accordance with control from the virtual reality presentation control unit 180, the communication unit 190 includes user state information indicating the user state detected by the user state detection unit 110, and surroundings indicating the user's surroundings detected by the surrounding state detection unit 120 The situation information and the voice information indicating the voice input by the voice input unit 130 are transmitted to the virtual reality service providing server 200, respectively. Further, the communication unit 190 outputs the virtual reality presentation video data and the virtual reality presentation audio data received from the virtual reality service providing server 200 to the display control unit 140 and the audio reproduction processing unit 160, respectively.

次に、仮想現実サービス提供サーバ200について説明する。仮想現実サービス提供サーバ200は、通信部210と、音声解析処理部220と、画像解析処理部230と、仮想現実サービス提供制御部240と、仮想現実オブジェクト挙動制御部250と、表示映像生成処理部260と、再生音声生成処理部270と、を備える。 Next, the virtual reality service providing server 200 will be described. The virtual reality service providing server 200 includes a communication unit 210, an audio analysis processing unit 220, an image analysis processing unit 230, a virtual reality service provision control unit 240, a virtual reality object behavior control unit 250, and a display video generation processing unit. 260 and a reproduction sound generation processing unit 270.

通信部210は、インターネット等の通信網を介して各ユーザが装着している仮想現実提示装置100と通信を行う。通信部210は、仮想現実提示装置100より、ユーザの状態を示すユーザ状態情報、ユーザの周囲の状況を示す周囲状況情報、ユーザが発した音声や周囲の音声を示す音声情報を受信する。通信部210は、音声情報を音声解析処理部220に出力し、周囲状況情報を画像解析処理部230に出力し、ユーザ状態情報を表示映像再生処理部260及び再生音声生成処理部270へそれぞれ出力する。 The communication unit 210 communicates with the virtual reality presentation device 100 worn by each user via a communication network such as the Internet. The communication unit 210 receives, from the virtual reality presentation device 100, user status information indicating the user status, ambient status information indicating the user's surroundings, voice information generated by the user and voice information indicating the surrounding sounds. The communication unit 210 outputs audio information to the audio analysis processing unit 220, outputs ambient state information to the image analysis processing unit 230, and outputs user state information to the display video reproduction processing unit 260 and the reproduction audio generation processing unit 270, respectively. To do.

音声解析処理部220は、通信部210で受信された音声情報を入力し、当該音声情報に含まれる音声を解析することでユーザが発した音声のコンテキストや感情要素を抽出する処理を行う。音声解析処理部220は、抽出した音声のコンテキストや感情要素に関する情報を仮想現実サービス提供制御部240と仮想現実オブジェクト挙動制御部250にそれぞれ出力する。また、音声解析処理部220は、仮想現実提示装置100の音声入力部130で入力された周囲の音声の音声レベルやユーザの音声の音声レベルを特定し、再生音声生成処理部270に出力する。   The voice analysis processing unit 220 receives the voice information received by the communication unit 210 and analyzes the voice included in the voice information to extract the context and emotional elements of the voice uttered by the user. The voice analysis processing unit 220 outputs information about the extracted voice context and emotional elements to the virtual reality service provision control unit 240 and the virtual reality object behavior control unit 250, respectively. In addition, the voice analysis processing unit 220 specifies the voice level of the surrounding voice and the voice level of the user's voice input by the voice input unit 130 of the virtual reality presentation device 100, and outputs them to the playback voice generation processing unit 270.

画像解析処理部230は、通信部210で受信された周囲状況情報を入力し、当該周囲状況情報に含まれる画像(映像)を解析することでユーザの周囲にある物体の位置関係や周囲の明るさなどの情報を抽出する。画像解析処理部230は、抽出した物体の位置関係や明るさなどの情報を仮想現実オブジェクト挙動制御部250と、表示映像生成処理部260にそれぞれ出力する。 The image analysis processing unit 230 receives the ambient situation information received by the communication unit 210 and analyzes an image (video) included in the ambient situation information to thereby determine the positional relationship of objects around the user and the brightness of the surroundings. Extract information such as size. The image analysis processing unit 230 outputs information such as the positional relationship and brightness of the extracted objects to the virtual reality object behavior control unit 250 and the display video generation processing unit 260, respectively.

仮想現実サービス提供制御部240は、仮想現実サービスの提供を開始する処理や終了する処理を行う。仮想現実サービス提供制御部240は、自サーバ200のリソース等を考慮に入れながら仮想現実サービスに関するスケジューリングを行っており、契約者情報記憶データベース300に記憶されている契約者情報を参照してユーザに仮想現実サービスの提供を開始するかどうかを決定する。また、当該契約者情報で示されるユーザが契約しているプランに基づいて、現在提供中の仮想現実サービスを終了するかどうかを決定する。 The virtual reality service provision control unit 240 performs processing for starting provision of the virtual reality service and processing for ending. The virtual reality service provision control unit 240 performs scheduling related to the virtual reality service in consideration of the resources of the server 200 and the like, and refers to the contractor information stored in the contractor information storage database 300 to the user. Decide whether to start providing virtual reality services. Further, based on the plan contracted by the user indicated by the contractor information, it is determined whether or not to end the currently provided virtual reality service.

仮想現実サービス提供制御部240は、ユーザに仮想現実サービスを提供するかどうかを決定するに当たり、通信部210を介して仮想現実提示装置100に仮想現実サービスの開始を指示する。当該指示に基づいて仮想現実提示装置100より受信した音声情報や周囲状況情報に基づいて、ユーザが仮想現実サービスを享受できる状況にいるかを判定し、当該判定結果に基づいて仮想現実サービスの提供の開始を決定する。 The virtual reality service provision control unit 240 instructs the virtual reality presentation device 100 to start the virtual reality service via the communication unit 210 when determining whether to provide the virtual reality service to the user. Based on the voice information and surrounding situation information received from the virtual reality presentation device 100 based on the instruction, it is determined whether the user can enjoy the virtual reality service, and the virtual reality service is provided based on the determination result. Decide to start.

仮想現実サービス提供制御部240は、仮想現実サービスの提供の開始を決定した場合に、仮想現実コンテンツ記憶データベース400より当該提供する仮想現実サービスに係る仮想現実コンテンツを読み出し、仮想空間に仮想現実オブジェクトを配置する。 When the virtual reality service provision control unit 240 determines the start of provision of the virtual reality service, the virtual reality service provision control unit 240 reads the virtual reality content related to the virtual reality service to be provided from the virtual reality content storage database 400, and places the virtual reality object in the virtual space. Deploy.

仮想空間は、例えばユーザの位置を原点とするXYZの直交座標かRθZの極座標で表される仮想上の空間であり、画像解析処理部230における解析処理で把握された周囲の物体の位置関係に合わせて仮想現実オブジェクトを位置する。 The virtual space is a virtual space represented by, for example, XYZ orthogonal coordinates or RθZ polar coordinates with the user's position as the origin, and the positional relationship of surrounding objects grasped by the analysis processing in the image analysis processing unit 230. In addition, the virtual reality object is positioned.

仮想現実オブジェクト挙動制御部250は、音声解析処理部220で抽出された音声のコンテキストや感情情報、また、画像解析処理部230で抽出された物体の動き等に基づいて仮想現実オブジェクトの挙動を制御する。具体的には、仮想現実オブジェクトの形状を変形させる制御を行ったり、仮想現実オブジェクトから発する音声を制御したりする。   The virtual reality object behavior control unit 250 controls the behavior of the virtual reality object based on the voice context and emotion information extracted by the voice analysis processing unit 220 and the movement of the object extracted by the image analysis processing unit 230. To do. Specifically, control for deforming the shape of the virtual reality object is performed, or sound emitted from the virtual reality object is controlled.

具体的には、仮想現実オブジェクト挙動制御部250は、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する挙動制御プログラムを、音声解析処理部220や画像解析処理部230における解析結果に基づいて仮想現実コンテンツ記憶データベース400の中から選択し、当該選択した挙動制御プログラムを実行することで仮想現実オブジェクトの形状を順次変形させていく。 Specifically, the virtual reality object behavior control unit 250 creates a behavior control program for controlling the behavior of the virtual reality object arranged in the virtual space based on the analysis results in the voice analysis processing unit 220 and the image analysis processing unit 230. Then, the virtual reality content storage database 400 is selected, and the selected behavior control program is executed to sequentially change the shape of the virtual reality object.

表示映像生成処理部260は、仮想現実提示装置100の表示部150で表示される映像を生成する。具体的に、表示映像生成処理部260は、仮想現実オブジェクト挙動制御部250で制御される仮想現実オブジェクトの表示パネル上での表示位置をユーザ状態情報に基づいて決定し、当該決定した表示位置に仮想現実オブジェクトが表示されている映像を生成する。また、表示映像生成処理部260は、画像解析処理部230で抽出されたユーザの周囲の明るさ又は仮想現実オブジェクトが配置される位置における明るさ(照度)に基づいて、仮想現実オブジェクトの明るさ(照度)を補正する光学補正処理を行い、当該補正処理後の仮想現実オブジェクトを上記決定した表示位置に表示する映像を生成する。表示映像生成処理部260は、生成した映像をMPEG2やH.264/AVC等の所定の符号化方式で符号化を行った上で通信部210に出力する。 The display video generation processing unit 260 generates a video displayed on the display unit 150 of the virtual reality presentation device 100. Specifically, the display video generation processing unit 260 determines a display position on the display panel of the virtual reality object controlled by the virtual reality object behavior control unit 250 based on the user state information, and sets the display position to the determined display position. A video in which a virtual reality object is displayed is generated. The display video generation processing unit 260 also determines the brightness of the virtual reality object based on the brightness around the user extracted by the image analysis processing unit 230 or the brightness (illuminance) at the position where the virtual reality object is placed. An optical correction process for correcting (illuminance) is performed, and an image for displaying the virtual reality object after the correction process at the determined display position is generated. The display video generation processing unit 260 converts the generated video into MPEG2 or H.264. The data is output to the communication unit 210 after being encoded by a predetermined encoding method such as H.264 / AVC.

再生音声生成処理部270は、仮想現実提示装置100の音声出力部170より出力される音声を生成する。再生音声生成処理部270は、仮想現実オブジェクト挙動制御部250で制御された仮想現実オブジェクトが発する音声を、ユーザと仮想現実オブジェクトとの間の位置関係から各チャンネルで出力される音声を生成する。また、再生音声生成処理部270は、音声解析処理部220で得られた周囲の音声レベルに合わせて、生成する音声の音声レベルを補正する音声レベル補正処理を行う構成とすると更にリアリティーが高まるため好ましい。再生音声生成処理部270は、仮想現実オブジェクト挙動制御部250で制御された仮想現実オブジェクトが発する音声に、当該音声レベル補正処理を行うことで、仮想現実提示装置100の音声出力部170より出力する音声を生成する。再生音声生成処理部270は、生成した音声をMPEG3やCELP等の所定の符号化方式で符号化を行った上で通信部210に出力する。 The reproduction sound generation processing unit 270 generates sound output from the sound output unit 170 of the virtual reality presentation device 100. The reproduction sound generation processing unit 270 generates sound output from the virtual reality object controlled by the virtual reality object behavior control unit 250 and output from each channel based on the positional relationship between the user and the virtual reality object. Further, if the playback sound generation processing unit 270 is configured to perform a sound level correction process for correcting the sound level of the sound to be generated in accordance with the surrounding sound level obtained by the sound analysis processing unit 220, the reality is further increased. preferable. The reproduction sound generation processing unit 270 performs the sound level correction processing on the sound emitted from the virtual reality object controlled by the virtual reality object behavior control unit 250, and outputs the sound from the sound output unit 170 of the virtual reality presentation device 100. Generate audio. The reproduction sound generation processing unit 270 encodes the generated sound using a predetermined encoding method such as MPEG3 or CELP, and then outputs the encoded sound to the communication unit 210.

通信部210は、仮想現実サービス提供制御部240から仮想現実提示装置100における仮想現実の提示を指示する各種制御情報(通知情報)を入力し、仮想現実提示装置100に送信する。また、通信部210は、表示映像生成処理部260と再生音声生成処理部270よりそれぞれ入力した仮想現実提示用の映像データと音声データを仮想現実提示装置100に送信する。また、通信部210は、仮想現実提示装置100より受信したユーザ状態情報、周囲状況情報、音声情報をそれぞれ対応する各部に出力する。 The communication unit 210 inputs various control information (notification information) instructing presentation of virtual reality in the virtual reality presentation device 100 from the virtual reality service provision control unit 240, and transmits it to the virtual reality presentation device 100. In addition, the communication unit 210 transmits the virtual reality presentation video data and audio data respectively input from the display video generation processing unit 260 and the reproduction audio generation processing unit 270 to the virtual reality presentation device 100. In addition, the communication unit 210 outputs the user state information, the surrounding state information, and the voice information received from the virtual reality presentation device 100 to each corresponding unit.

提示済み仮想現実関連データ記憶データベース500は、表示映像生成処理部260で生成される映像データと再生音声生成処理部270で生成される音声データとを当該仮想現実サービスの提示に係るユーザと対応付けて記憶する。これらの生成される映像データと音声データがユーザに対して表示又は出力されることでユーザは仮想現実の世界を感知することになるため、これらのデータを保管しておくことで、後日これらのデータにアクセスして読み出すことで、当時体験していた仮想現実の世界を再現することが可能となる。 The presented virtual reality related data storage database 500 associates the video data generated by the display video generation processing unit 260 and the audio data generated by the reproduction audio generation processing unit 270 with the user related to the presentation of the virtual reality service. And remember. Since the generated video data and audio data are displayed or output to the user, the user senses the virtual reality world. By accessing and reading the data, it is possible to reproduce the virtual reality world experienced at that time.

<実施形態17>
図84は、本実施形態17に係る仮想現実提示システム3000の構成を示すブロック図である。仮想現実提示システム3000は、仮想現実提示装置100と、契約者情報記憶DB300と、仮想現実コンテンツ記憶DB400と、提示済み仮想現実関連データ記憶DB500と、仮想現実サービス提供サーバ800を備える。
<Embodiment 17>
FIG. 84 is a block diagram illustrating a configuration of a virtual reality presentation system 3000 according to the seventeenth embodiment. The virtual reality presentation system 3000 includes a virtual reality presentation device 100, a contractor information storage DB 300, a virtual reality content storage DB 400, a presented virtual reality related data storage DB 500, and a virtual reality service providing server 800.

仮想現実サービス提供サーバ800は、通信部210と、音声解析処理部220と、画像解析処理部230と、仮想現実サービス提供制御部240と、仮想現実オブジェクト挙動制御部250と、表示映像生成処理部260と、音声生成処理部270と、仮想空間生成処理部810と、仮想現実オブジェクト配置処理部820と、視点制御部830と、光源制御部840と、モデルデータ配置処理部850と、レイヤー順序更新処理部860と、レイヤー情報生成処理部870と、を備える。   The virtual reality service providing server 800 includes a communication unit 210, an audio analysis processing unit 220, an image analysis processing unit 230, a virtual reality service provision control unit 240, a virtual reality object behavior control unit 250, and a display video generation processing unit. 260, sound generation processing unit 270, virtual space generation processing unit 810, virtual reality object arrangement processing unit 820, viewpoint control unit 830, light source control unit 840, model data arrangement processing unit 850, and layer order update A processing unit 860 and a layer information generation processing unit 870 are provided.

通信部210は、インターネット等の通信網を介して仮想現実提示装置100と通信を行う。通信部210は、少なくともユーザの状態を示すユーザ状態情報を受信する受信部と、仮想現実提示用の映像データを送信する送信部とを備える。 The communication unit 210 communicates with the virtual reality presentation device 100 via a communication network such as the Internet. The communication unit 210 includes at least a receiving unit that receives user status information indicating a user status, and a transmitting unit that transmits video data for virtual reality presentation.

通信部210は、ユーザの状態を示すユーザ状態情報と、ユーザの周囲を撮影した周囲景色画像と、ユーザが発した音声であるユーザ音声情報やユーザの周囲の音声である周囲音声情報などを受信する。また、通信部210は、仮想現実提示装置100における仮想現実の提示の制御に用いる各種情報を必要に応じて受信する。このような情報としては、仮想現実提示装置100のバッテリー残量やリソース消費量、回線速度などに関するレポート情報などが含まれる。 The communication unit 210 receives user state information indicating a user's state, a surrounding scene image obtained by photographing the user's surroundings, user voice information that is a voice uttered by the user, ambient voice information that is a voice around the user, and the like. To do. In addition, the communication unit 210 receives various types of information used for virtual reality presentation control in the virtual reality presentation device 100 as necessary. Such information includes report information related to the remaining battery capacity, resource consumption, line speed, etc. of the virtual reality presentation device 100.

通信部210で受信されるユーザ状態情報や周囲景色画像には、それぞれ当該ユーザ状態が検知されたタイミングを示すユーザ状態検知時刻情報(ユーザ状態検知タイミング情報)や、周囲景色画像が撮影されたタイミングを示す周囲景色画像撮影時刻情報(周囲状況検知タイミング情報)が含まれている。 The user status information and the surrounding scenery image received by the communication unit 210 include user status detection time information (user status detection timing information) indicating the timing when the user status is detected, and the timing when the surrounding scenery image is captured. A surrounding scene image photographing time information (ambient state detection timing information) is included.

通信部210は、仮想現実提示用の映像符号化データや仮想現実提示用の音声符号化データ、レイヤー情報、各種通知情報などを送信する。 The communication unit 210 transmits video encoded data for virtual reality presentation, audio encoded data for virtual reality presentation, layer information, various types of notification information, and the like.

音声解析処理部220は、通信部210で受信されたユーザ音声情報に対する音声解析処理を行うことで、ユーザが発した音声のコンテキストや感情要素を示す感情情報などを取得する。また、必要に応じて通信部210で受信された周囲音声情報に対する音声解析処理を行い、ユーザの周囲の状況を特定する。 The voice analysis processing unit 220 performs voice analysis processing on the user voice information received by the communication unit 210, thereby acquiring the emotion information indicating the context of the voice uttered by the user and emotion elements. Moreover, the voice analysis process is performed on the surrounding voice information received by the communication unit 210 as necessary, and the situation around the user is specified.

画像解析処理部230は、通信部210で受信されたユーザの周囲の景色を撮影した周囲景色画像に対する画像解析処理を行うことで所定の情報を抽出する。周囲景色画像は、仮想現実提示装置100が備える複数の視線カメラ121や周辺カメラ122で撮影された画像である。 The image analysis processing unit 230 extracts predetermined information by performing an image analysis process on the surrounding scenery image obtained by photographing the scenery around the user received by the communication unit 210. The surrounding scene image is an image taken by a plurality of line-of-sight cameras 121 and peripheral cameras 122 included in the virtual reality presentation device 100.

例えば、画像解析処理部230は、当該周囲景色画像の中から光学成分を抽出し、ユーザの周囲の平均照度や光源の位置及び方向などの情報を光学成分情報として抽出する。 For example, the image analysis processing unit 230 extracts an optical component from the surrounding scenery image, and extracts information such as the average illuminance around the user and the position and direction of the light source as optical component information.

また、画像解析処理部230は、複数の周囲景色画像に含まれる各物体の位置の比較処理や、同一の周囲景色画像の隣接画素を比較する比較処理によって、周囲景色画像に含まれる各物体の位置や形状を特定する。画像解析処理部230は、ユーザの周囲の現実世界に存在するこれらの物体等の位置や形状に基づいて、当該物体等の外観形状をモデル化してモデルデータを生成する。 In addition, the image analysis processing unit 230 compares each object position included in the surrounding scenery image by comparing the position of each object included in the plurality of surrounding scenery images and comparing the adjacent pixels of the same surrounding scenery image. Specify the position and shape. Based on the position and shape of these objects and the like that exist in the real world around the user, the image analysis processing unit 230 models the appearance shape of the objects and the like to generate model data.

また、画像解析処理部230は、一連の周囲景色画像に含まれるユーザの動作に基づいてユーザからの指示操作を検出する。例えば、仮想現実サービスの提供中断を示す操作として、視線カメラ121の前方で人差し指と小指を立てると言ったジェスチャーが予め割り当てられている。画像解析処理部230は、通信部210で受信された周囲景色画像に含まれるユーザの動作を予め定められた動作映像とのマッチング処理を行うことで特定し、ユーザからの指示操作を示す操作情報を抽出する。 Further, the image analysis processing unit 230 detects an instruction operation from the user based on the user's operation included in the series of surrounding scenery images. For example, as an operation indicating interruption of provision of the virtual reality service, a gesture such as raising the index finger and little finger in front of the line-of-sight camera 121 is assigned in advance. The image analysis processing unit 230 identifies the user's operation included in the surrounding scenery image received by the communication unit 210 by performing a matching process with a predetermined operation video, and indicates operation information indicating an instruction operation from the user To extract.

仮想現実サービス提供制御部240は、仮想現実サービスの提供を制御する。具体的に仮想現実サービス提供制御部240は、仮想現実コンテンツ記憶DB400に記憶されている仮想現実コンテンツの中から、提供する仮想現実サービスに係る制御プログラムを読み出して実行することで当該仮想現実サービスの提供を開始する。 The virtual reality service provision control unit 240 controls provision of the virtual reality service. Specifically, the virtual reality service provision control unit 240 reads out and executes a control program related to the virtual reality service to be provided from the virtual reality content stored in the virtual reality content storage DB 400, thereby executing the virtual reality service. Start offering.

仮想現実サービス提供制御部240は、音声解析処理部220で抽出された音声コンテキストや、画像解析処理部230で抽出された操作情報で示される内容が、仮想現実サービスの提供開始を要求するものであった場合に、当該ユーザに対する仮想現実サービスの提供開始処理を行う。 The virtual reality service provision control unit 240 requests that the voice context extracted by the voice analysis processing unit 220 or the operation information extracted by the image analysis processing unit 230 start provision of the virtual reality service. If there is, the virtual reality service provision start process is performed for the user.

仮想現実サービス提供制御部240は、契約者情報記憶DB300に記憶されている当該ユーザの契約者情報を参照し、当該ユーザに対して要求されている仮想現実サービスの提供を行うことができるかどうか、すなわち、当該ユーザは当該仮想現実サービスに対する正当な使用権限を有しているかを判定する。 Whether or not the virtual reality service provision control unit 240 can provide the requested virtual reality service to the user with reference to the contractor information of the user stored in the contractor information storage DB 300 That is, it is determined whether the user has a right to use the virtual reality service.

契約者情報記憶DB300には、各ユーザが利用可能な仮想現実サービスが契約者情報として記録されている。また、当該契約者情報には、各ユーザを識別するユーザIDと認証用パスワード、その他当該ユーザの個人情報などが合わせて記録されていると良い。仮想現実サービス提供制御部240は、音声解析処理部220や画像解析処理部230で抽出された情報で示されるユーザIDやパスワードが契約者情報に記憶されているユーザIDとパスワードとの組み合わせと一致するかの認証処理等を行うことで、要求されている仮想現実サービスの提供を行うことができるかどうかを判定する構成とすると秘匿性が上がるため更に良好である。 In the contractor information storage DB 300, a virtual reality service that can be used by each user is recorded as contractor information. Further, in the contractor information, a user ID for identifying each user, an authentication password, and other personal information of the user may be recorded together. The virtual reality service provision control unit 240 matches the combination of the user ID and password stored in the contractor information with the user ID and password indicated by the information extracted by the voice analysis processing unit 220 and the image analysis processing unit 230. It is even better if it is configured to determine whether or not the requested virtual reality service can be provided by performing authentication processing or the like.

当該判定の結果、要求されている仮想現実サービスの提供を行うことができる場合に、仮想現実サービス提供制御部240は、仮想現実サービスの提供開始を通知する仮想現実サービス提供開始通知情報を生成する。通信部210は、当該仮想現実サービス提供開始通知情報を仮想現実提示装置100に送信する。 As a result of the determination, if the requested virtual reality service can be provided, the virtual reality service provision control unit 240 generates virtual reality service provision start notification information for notifying the start of provision of the virtual reality service. . The communication unit 210 transmits the virtual reality service provision start notification information to the virtual reality presentation device 100.

図85は、当該仮想現実サービス提供開始通知情報の一例を示す図である。仮想現実サービス提供開始通知情報は、自サーバ800のアドレスである送信元アドレスと、送信先の仮想現実提示装置100のアドレスである送信先アドレスと、当該情報が仮想現実サービス提供開始通知情報であることを示す情報種別と、仮想現実提示装置100と仮想現実サービス提供サーバ800の間において当該仮想現実サービスに関連して発生する通信を他の通信と識別するために各パケットに付与する番号である通信識別番号と、提供する仮想現実サービスを識別する仮想現実サービス識別情報と、仮想現実サービスの提供において必要となる制御や処理で用いる仮想現実制御パラメータ情報などを含む。 FIG. 85 is a diagram illustrating an example of the virtual reality service provision start notification information. The virtual reality service provision start notification information includes the transmission source address that is the address of the server 800, the transmission destination address that is the address of the virtual reality presentation device 100 that is the transmission destination, and the information is the virtual reality service provision start notification information. And a number assigned to each packet in order to distinguish communication generated in relation to the virtual reality service between the virtual reality presentation device 100 and the virtual reality service providing server 800 from other communication. It includes a communication identification number, virtual reality service identification information for identifying a virtual reality service to be provided, virtual reality control parameter information used in control and processing necessary for provision of the virtual reality service, and the like.

仮想現実制御パラメータ情報としては、ユーザ状態としてどのような種類のユーザ状態を検知させるかを指定する検知ユーザ状態指定情報、検知されたユーザの状態を示すユーザ状態情報の送信頻度を示すユーザ状態送信頻度、撮影されたユーザの周囲の景色の画像である周囲景色画像の送信頻度、周囲景色画像の画像圧縮符号化形式を示す周囲景色画像符号化形式、表示する映像のフレームレートを示す映像フレームレート、仮想現実サービス提供サーバ800から適宜送信される仮想現実提示用映像データの符号化形式を示す仮想現実提示用映像データ符号化形式、などの情報が含まれる。仮想現実サービス提供制御部240は、提供する仮想現実サービスの種類やユーザが装着している仮想現実提示装置100の処理能力やリソース、通信回線速度などのレポート情報などに基づいて、これらのパラメータを決定し、当該決定したパラメータの値を仮想現実制御パラメータ情報として上記仮想現実サービス提供開始通知情報を生成する。 As virtual reality control parameter information, detected user state specifying information for specifying what kind of user state is detected as the user state, and user state transmission indicating the transmission frequency of the user state information indicating the detected user state The frequency, the transmission frequency of the surrounding scenery image that is an image of the surrounding scenery of the photographed user, the surrounding scenery image encoding format indicating the image compression encoding format of the surrounding scenery image, and the video frame rate indicating the frame rate of the video to be displayed The virtual reality presentation video data encoding format indicating the encoding format of the virtual reality presentation video data appropriately transmitted from the virtual reality service providing server 800 is included. The virtual reality service provision control unit 240 sets these parameters based on report information such as the type of virtual reality service to be provided, the processing capability and resources of the virtual reality presentation device 100 worn by the user, and the communication line speed. The virtual reality service provision start notification information is generated using the determined parameter value as virtual reality control parameter information.

その他、仮想現実サービス提供制御部240は、必要に応じて現在提供中の仮想現実サービスの提供の終了を通知する仮想現実サービス提供終了通知情報や当該仮想現実サービスにおける制御パラメータの変更を通知する制御パラメータ変更通知情報、などの各種情報を生成する。仮想現実サービス提供制御部240で生成されたこれらの情報は、通信部210より仮想現実提示装置100へ送信される。 In addition, the virtual reality service provision control unit 240 controls the virtual reality service provision end notification information for notifying the end of provision of the currently provided virtual reality service or the control parameter change notification in the virtual reality service as necessary. Various information such as parameter change notification information is generated. These pieces of information generated by the virtual reality service provision control unit 240 are transmitted from the communication unit 210 to the virtual reality presentation device 100.

なお、上述した仮想現実識別番号割当部の機能は当該仮想現実サービス提供制御部240の一機能として設定されていると良い。また、上述の通信識別番号を仮想現実識別番号として用いても良い。仮想現実提示装置100と仮想現実サービス提供サーバ700との間において当該仮想現実サービスに係る仮想現実の世界を構築するために送受信される各パケットに当該仮想現実識別番号が含まれているため、後述の仮想現実関連データ取得部880は、当該仮想現実識別番号毎に各仮想現実の世界の構築に用いられる各データを仮想現実関連データとして取得して提示済み仮想現実関連データ記憶DB500に格納する。 The function of the virtual reality identification number assigning unit described above may be set as one function of the virtual reality service provision control unit 240. Further, the communication identification number described above may be used as the virtual reality identification number. Since the virtual reality identification number is included in each packet transmitted and received in order to construct the virtual reality world related to the virtual reality service between the virtual reality presentation device 100 and the virtual reality service providing server 700, the description will be given later. The virtual reality related data acquisition unit 880 acquires each data used for construction of each virtual reality world for each virtual reality identification number as virtual reality related data, and stores it in the presented virtual reality related data storage DB 500.

仮想現実サービス提供制御部240は、仮想現実サービスの提供を開始する場合に、仮想空間生成処理部810と仮想現実オブジェクト配置処理部820にそれぞれ仮想空間の生成指示及び仮想現実オブジェクトの配置指示を出す。 The virtual reality service provision control unit 240 issues a virtual space generation instruction and a virtual reality object placement instruction to the virtual space generation processing unit 810 and the virtual reality object placement processing unit 820, respectively, when provision of the virtual reality service is started. .

また、仮想現実サービス提供制御部240は、仮想現実提示用の映像データの生成指示と仮想現実提示用の音声データの生成指示を表示映像生成処理部260と再生音声生成処理部270にそれぞれ出す。 In addition, the virtual reality service provision control unit 240 outputs a virtual reality presentation video data generation instruction and a virtual reality presentation audio data generation instruction to the display video generation processing unit 260 and the reproduction audio generation processing unit 270, respectively.

また、仮想現実サービス提供制御部240は、仮想現実関連データ取得部880に、ユーザに提供される仮想現実サービスに係る仮想現実の世界の構築に用いられるデータの取得指示を出す。 In addition, the virtual reality service provision control unit 240 instructs the virtual reality related data acquisition unit 880 to acquire data used to construct a virtual reality world related to the virtual reality service provided to the user.

仮想現実コンテンツ記憶DB400は、仮想現実サービスを実現するためのデータである仮想現実コンテンツを記憶している。仮想現実コンテンツには、仮想現実オブジェクトの他、仮想現実サービスの進行を制御する仮想現実サービス制御プログラムや仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御プログラム、仮想現実提示用の音声データである仮想現実提示用音声データなどを記憶している。 The virtual reality content storage DB 400 stores virtual reality content that is data for realizing a virtual reality service. The virtual reality content includes a virtual reality object, a virtual reality service control program that controls the progress of the virtual reality service, a virtual reality object behavior control program that controls the behavior of the virtual reality object, and audio data for virtual reality presentation. It stores voice data for virtual reality presentation.

仮想現実サービス提供制御部240は、仮想現実コンテンツ記憶DB400に記憶されている仮想現実サービス制御プログラムを実行することで、仮想現実サービスの開始や終了などの各種制御を行う。 The virtual reality service provision control unit 240 performs various controls such as the start and end of the virtual reality service by executing the virtual reality service control program stored in the virtual reality content storage DB 400.

仮想空間生成処理部810は、仮想現実サービス提供制御部240からの仮想空間生成指示に基づいて、当該仮想現実サービスに使用する仮想空間を生成する。仮想空間は、所定の広さを有する座標空間であって、現実の世界の空間と対応するように人工的に創り出される情報処理上の空間である。 The virtual space generation processing unit 810 generates a virtual space used for the virtual reality service based on a virtual space generation instruction from the virtual reality service provision control unit 240. The virtual space is a coordinate space having a predetermined area, and is an information processing space created artificially so as to correspond to a space in the real world.

仮想現実サービス提供制御部240は、開始する仮想現実サービスに対応する広さの仮想空間の生成指示を仮想空間生成処理部810に出し、仮想空間生成処理部810は、当該仮想空間生成指示で示される広さの仮想空間を生成する。 The virtual reality service provision control unit 240 issues a virtual space generation instruction corresponding to the virtual reality service to be started to the virtual space generation processing unit 810, and the virtual space generation processing unit 810 indicates the virtual space generation instruction. Generate a virtual space that is as large as possible.

仮想現実オブジェクト配置処理部820は、仮想現実サービス提供制御部240からの仮想現実オブジェクト配置指示に基づいて、当該仮想現実サービスに係る仮想現実オブジェクトを仮想現実コンテンツ記憶DB400より読み出して仮想空間生成処理部810が生成した仮想空間に配置する。 Based on the virtual reality object placement instruction from the virtual reality service provision control unit 240, the virtual reality object placement processing unit 820 reads out the virtual reality object related to the virtual reality service from the virtual reality content storage DB 400, and generates a virtual space generation processing unit. 810 is arranged in the generated virtual space.

ここで、仮想現実オブジェクト配置処理部820は、配置する仮想現実オブジェクトが複数になる場合は、読み出した仮想現実オブジェクトを異なるレイヤーの仮想空間に配置する。 Here, when there are a plurality of virtual reality objects to be arranged, the virtual reality object arrangement processing unit 820 arranges the read virtual reality objects in virtual spaces of different layers.

すなわち、仮想空間生成処理部810は、原点を共通とする複数のレイヤーの仮想空間を生成し、仮想現実オブジェクト配置処理部820は、仮想現実コンテンツ記憶DB400より読み出した複数の仮想現実オブジェクトをそれぞれ異なるレイヤーの仮想空間に配置する。 That is, the virtual space generation processing unit 810 generates a virtual space of a plurality of layers having a common origin, and the virtual reality object placement processing unit 820 differs from the plurality of virtual reality objects read from the virtual reality content storage DB 400. Place in the virtual space of the layer.

図86は、当該複数の仮想現実オブジェクトを仮想空間の異なるレイヤーにそれぞれ配置する場合を示している。象と犬とライオンの3つの仮想現実オブジェクトがそれぞれ原点を共通とする3つの異なるレイヤーの仮想空間に分けて配置されている。 FIG. 86 shows a case where the plurality of virtual reality objects are arranged in different layers of the virtual space. Three virtual reality objects, an elephant, a dog, and a lion, are arranged in three different layers of virtual space, each having a common origin.

視点制御部830は、通信部210で受信されたユーザ状態情報に基づいて、仮想空間生成処理部810が生成した仮想空間において、ユーザの目の位置及び視線方向に対応する視点位置座標と視線方向とを制御する。視点制御部830は、ユーザ状態情報に含まれる傾き情報や加速度情報に基づいて特定されるユーザ頭部の傾きの変化や加速度の変化から、ユーザの目の位置及び視線方向に対応する視点位置座標と視線方向とをそれぞれ算出して更新する。ここで、ユーザ状態情報には、対応するユーザ状態が検知されたタイミングを示すタイムスタンプであるユーザ状態検知時刻情報が含まれているため、視点制御部830は、現在の視点位置座標及び視線方向が、どの時刻に検知されたユーザ状態に基づいて設定されている視点位置座標及び視線方向であるかを管理する。 The viewpoint control unit 830, based on the user state information received by the communication unit 210, in the virtual space generated by the virtual space generation processing unit 810, the viewpoint position coordinates and the line-of-sight direction corresponding to the user's eye position and line-of-sight direction And control. The viewpoint control unit 830 determines the viewpoint position coordinates corresponding to the position of the user's eyes and the line-of-sight direction from the change in the inclination of the user head and the change in the acceleration specified based on the inclination information and the acceleration information included in the user state information. And the line-of-sight direction are calculated and updated. Here, since the user state information includes user state detection time information that is a time stamp indicating the timing at which the corresponding user state is detected, the viewpoint control unit 830 determines the current viewpoint position coordinates and the line-of-sight direction. Manages the viewpoint position coordinates and the line-of-sight direction set based on the user state detected at which time.

光源制御部840は、画像解析処理部230で抽出された光学成分情報に基づいて、仮想空間生成処理部810が生成する上記仮想空間における光源の位置座標や光源の照度又は輝度を更新する。例えば、光源制御部840は、画像解析処理部230によって求められた周囲景色画像における平均輝度に基づいて、無限遠方の光源の照度又は輝度を設定する。また、画像解析処理部230において周囲景色画像で現れる影の位置等に基づいて抽出された光学成分情報に基づいて、局所的な光源を新たに仮想空間内の対応する位置に配置する。その他、光源制御部840は、画像解析処理部230で抽出された光学成分情報に基づいて光源の色(色差情報)を設定しても良い。 The light source control unit 840 updates the position coordinates of the light source and the illuminance or luminance of the light source in the virtual space generated by the virtual space generation processing unit 810 based on the optical component information extracted by the image analysis processing unit 230. For example, the light source control unit 840 sets the illuminance or luminance of the light source at infinity based on the average luminance in the surrounding scene image obtained by the image analysis processing unit 230. Further, a local light source is newly arranged at a corresponding position in the virtual space based on the optical component information extracted based on the position of the shadow appearing in the surrounding scene image in the image analysis processing unit 230. In addition, the light source control unit 840 may set the color of the light source (color difference information) based on the optical component information extracted by the image analysis processing unit 230.

モデルデータ配置処理部850は、画像解析処理部230において生成されたユーザの周囲の現実世界に存在する物体等のモデルデータを仮想空間に配置する。モデルデータ配置処理部850は、視点制御部830で制御される視点位置及び視線方向に基づいて、周囲景色画像がどの位置からどの方向に向かって撮影された映像であるかを特定し、画像解析処理部230で生成された各物体のモデルデータを仮想空間に配置する。 The model data arrangement processing unit 850 arranges model data such as an object existing in the real world around the user generated by the image analysis processing unit 230 in the virtual space. The model data arrangement processing unit 850 identifies from which position to which direction the surrounding landscape image is captured based on the viewpoint position and the line-of-sight direction controlled by the viewpoint control unit 830, and performs image analysis. The model data of each object generated by the processing unit 230 is arranged in the virtual space.

ここで、仮想空間生成処理部810は、当該現実の世界に存在する物体のモデルデータを配置するモデルデータ専用レイヤーの仮想空間を生成することが好ましい。モデルデータ配置処理部850は、画像解析処理部230で生成された現実の世界の物体のモデルデータを当該モデルデータ専用レイヤーの仮想空間に配置する。 Here, it is preferable that the virtual space generation processing unit 810 generates a virtual space of a model data dedicated layer in which model data of an object existing in the real world is arranged. The model data arrangement processing unit 850 arranges the model data of the real world object generated by the image analysis processing unit 230 in the virtual space of the model data dedicated layer.

仮想現実オブジェクト挙動制御部250は、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。仮想現実オブジェクト配置処理部820によって仮想空間の各レイヤーにそれぞれ配置されている仮想現実オブジェクトの中には、例えば人間や動物の仮想現実オブジェクトのように動作可能なように構成されているものがある。仮想現実オブジェクト挙動制御部250は、仮想現実コンテンツ記憶DB400の中から当該仮想現実オブジェクトの挙動制御プログラムを読み出して実行することで、仮想空間に配置されている仮想現実オブジェクトの外観形状を変化させたり、仮想現実オブジェクトを仮想空間内で移動させたりする。 The virtual reality object behavior control unit 250 controls the behavior of the virtual reality object arranged in the virtual space. Some virtual reality objects arranged in each layer of the virtual space by the virtual reality object arrangement processing unit 820 are configured to be operable like a virtual reality object of a human being or an animal, for example. . The virtual reality object behavior control unit 250 reads and executes the behavior control program of the virtual reality object from the virtual reality content storage DB 400, thereby changing the appearance shape of the virtual reality object arranged in the virtual space. Or moving a virtual reality object in the virtual space.

表示映像生成処理部260は、仮想現実提示用の映像を生成する。表示映像生成処理部260は、描画処理部261と、映像符号化処理部262とを備える。 The display video generation processing unit 260 generates a virtual reality presentation video. The display video generation processing unit 260 includes a drawing processing unit 261 and a video encoding processing unit 262.

描画処理部261は、仮想現実サービス提供制御部240からの仮想現実提示用映像生成指示に基づいて、仮想空間に配置されている仮想現実オブジェクトを描画することで仮想現実提示用の映像を生成する。ここで、描画処理部261は、仮想現実のレイヤー毎にそれぞれ描画処理を行うことでレイヤー毎の仮想現実提示用の映像を生成する。 The drawing processing unit 261 generates a virtual reality presentation video by drawing a virtual reality object arranged in the virtual space based on the virtual reality presentation video generation instruction from the virtual reality service provision control unit 240. . Here, the drawing processing unit 261 generates a virtual reality presentation video for each layer by performing drawing processing for each virtual reality layer.

描画処理部261は、仮想空間のレイヤーの一つとモデルデータ専用レイヤーを選択し、視点制御部830で設定される現在の視点位置座標及び視線方向に基づいて、当該選択したレイヤーの仮想空間にそれぞれ配置されている仮想現実オブジェクトと現実の世界の物体のモデルとを、当該視点位置座標から視線方向前方に配置したイメージプレーンへ投影する投影処理を行う。描画処理部261は、当該投影処理によって得られた2次元投影画像の中から現実の世界の物体のモデル部分を消去することで、選択したレイヤーに配置された仮想現実オブジェクトの2次元投影画像を取得する。 The drawing processing unit 261 selects one of the layers in the virtual space and the model data dedicated layer, and in the virtual space of the selected layer based on the current viewpoint position coordinates and the line-of-sight direction set by the viewpoint control unit 830, respectively. Projection processing is performed for projecting the virtual reality object and the model of the object in the real world onto the image plane arranged forward in the line-of-sight direction from the viewpoint position coordinates. The drawing processing unit 261 deletes the model portion of the object in the real world from the two-dimensional projection image obtained by the projection processing, thereby obtaining the two-dimensional projection image of the virtual reality object arranged in the selected layer. get.

描画処理部261は、上記投影処理で得られた2次元投影画像を所定の大きさに切り取るクリッピング処理を行う。ここで、描画処理部261は、仮想現実提示装置100の表示パネルにおける解像度を上回る範囲で切り取ることを特徴とする。例えば、仮想現実提示装置100の表示パネルが1080画素×1920画素の解像度を有する場合、描画処理部261は、2次元投影画像を1割増しの1188×2112で切り取るクリッピング処理を行う。なお、どの程度サイズを大きくして切り取るかはユーザ状態の変化の大きさに基づいて決定されていても良い。ユーザが静止している場合は、後続の補正処理が必要ではなく、大き目に切り取る必要がないためである。   The drawing processing unit 261 performs clipping processing that cuts the two-dimensional projection image obtained by the projection processing into a predetermined size. Here, the drawing processing unit 261 is characterized by cutting out in a range exceeding the resolution of the display panel of the virtual reality presentation device 100. For example, when the display panel of the virtual reality presentation device 100 has a resolution of 1080 pixels × 1920 pixels, the drawing processing unit 261 performs a clipping process of cutting the two-dimensional projection image by 1188 × 2112, which is 10% higher. It should be noted that how much the size is to be cut out may be determined based on the magnitude of change in the user state. This is because when the user is stationary, the subsequent correction process is not necessary, and it is not necessary to cut it out into large parts.

次に、描画処理部261は、当該仮想現実オブジェクトのテキスチャーマッピングデータをクリッピング処理後の2次元投影画像に張り付けるテキスチャーマッピング処理を行う。   Next, the drawing processing unit 261 performs a texture mapping process for pasting the texture mapping data of the virtual reality object to the two-dimensional projection image after the clipping process.

次に、描画処理部261は、光源制御部840で設定される光源に基づいて、上記2次元投影画像に陰影をつけるシェーディング処理を行う。描画処理部261は、必要に応じてアンチエリアシング処理を行い、当該レイヤーの仮想現実提示用映像とする。 Next, the drawing processing unit 261 performs a shading process for applying a shadow to the two-dimensional projection image based on the light source set by the light source control unit 840. The drawing processing unit 261 performs anti-aliasing processing as necessary to obtain a virtual reality presentation video for the layer.

ここで、描画処理部261は、当該描画して生成したレイヤーの仮想現実提示用映像が、どの時刻のユーザ状態に基づいて描画された映像であるかを示す情報を付与して当該レイヤーの仮想現実提示用映像を生成する。描画処理に使用する視点位置座標及び視線方向は、視点制御部830によって更新・設定されるが、現在使用する視点位置座標及び視線方向を設定する際に用いられたユーザ状態が検知された時刻を示すタイムスタンプであるユーザ状態検知時刻情報を付与して当該レイヤーの仮想現実提示用映像を生成する。 Here, the drawing processing unit 261 assigns information indicating the time at which the virtual reality presentation video of the layer generated by drawing is a video drawn based on the user state, and the virtual processing of the layer is performed. Reality-presenting video is generated. The viewpoint position coordinates and the line-of-sight direction used for the drawing process are updated and set by the viewpoint control unit 830. The time when the user state used when setting the currently used viewpoint position coordinates and the line-of-sight direction is detected is set. The user status detection time information, which is the time stamp shown, is given, and the virtual reality presentation video of the layer is generated.

描画処理部261は、仮想空間生成処理部810で生成されている各レイヤーの仮想空間を並列処理で描画することで、レイヤー毎の仮想現実提示用映像を生成する。 The drawing processing unit 261 generates a virtual reality presentation video for each layer by drawing the virtual space of each layer generated by the virtual space generation processing unit 810 by parallel processing.

映像符号化処理部262は、描画処理部261で生成された各レイヤーの仮想現実提示用映像を符号化してレイヤー別仮想現実提示用符号化映像データを生成する。当該レイヤー別仮想現実提示用符号化映像データは、通信部210より仮想現実提示装置100に送信される。 The video encoding processing unit 262 encodes the virtual reality presentation video of each layer generated by the drawing processing unit 261 to generate layered virtual reality presentation encoded video data. The layered virtual reality presentation encoded video data is transmitted from the communication unit 210 to the virtual reality presentation device 100.

レイヤー順序更新処理部860は、仮想空間生成処理部810が生成する仮想空間の各レイヤーの順序を更新する。描画処理部261でレイヤー毎に描画が行われてレイヤー別の仮想現実提示用映像が生成されるため、最終的に仮想現実提示装置100において複数のレイヤー別仮想現実提示用映像を合成する必要がある。そのため、レイヤー順序更新処理部860は、各仮想空間のレイヤーに順序を設定しておき、当該レイヤーの順序を更新する。 The layer order update processing unit 860 updates the order of each layer in the virtual space generated by the virtual space generation processing unit 810. Since the rendering processing unit 261 performs rendering for each layer and generates virtual reality presentation videos for each layer, it is necessary to finally synthesize a plurality of virtual reality presentation videos for each layer in the virtual reality presentation device 100. is there. For this reason, the layer order update processing unit 860 sets the order of the layers in each virtual space, and updates the order of the layers.

レイヤーの順序は、ユーザの位置と仮想現実オブジェクトの位置との関係で決定される。すなわち、ユーザから近い方の仮想現実オブジェクトが配置されているレイヤーから順番にレイヤー順序が決定される。ユーザの位置は、適宜変化していくし、仮想現実オブジェクトの位置も仮想現実オブジェクト挙動制御部250が行う挙動制御によって変化していく。そこで、レイヤー順序更新処理部860は、通信部210で受信されたユーザ状態情報に基づいて視点制御部830によって制御されるユーザの視点位置座標(又はユーザ位置座標)と、仮想空間の各レイヤーにそれぞれ配置されている各仮想現実オブジェクトの位置座標とに基づいて、レイヤー順序を更新する。 The layer order is determined by the relationship between the position of the user and the position of the virtual reality object. That is, the layer order is determined in order from the layer where the virtual reality object closer to the user is arranged. The position of the user changes as appropriate, and the position of the virtual reality object also changes due to behavior control performed by the virtual reality object behavior control unit 250. Therefore, the layer order update processing unit 860 includes the viewpoint position coordinates (or user position coordinates) of the user controlled by the viewpoint control unit 830 based on the user state information received by the communication unit 210 and each layer in the virtual space. The layer order is updated based on the position coordinates of each virtual reality object arranged.

例えば、図87のように仮想空間のレイヤー1〜3に仮想現実オブジェクトA〜Cがそれぞれ配置されている場合において、状態1ではユーザに近い方から仮想現実オブジェクトA、B、Cの順番である。従って、レイヤー順序更新処理部860は、レイヤー1,2,3の順序とする。ここで、ユーザが現実の世界で移動したことによって状態2の位置関係となった場合、ユーザに近い方から仮想現実オブジェクトはB,C、Aの順番である。従って、レイヤー順序更新処理部860は、レイヤー順序をレイヤー2、3、1に変更することでレイヤー順序を管理する。 For example, in the case where virtual reality objects A to C are arranged in layers 1 to 3 of the virtual space as shown in FIG. 87, in state 1, the virtual reality objects A, B, and C are in order from the side closest to the user. . Therefore, the layer order update processing unit 860 assumes the order of layers 1, 2, and 3. Here, when the positional relationship of the state 2 is obtained due to the user moving in the real world, the virtual reality objects are in the order of B, C, and A from the side closer to the user. Therefore, the layer order update processing unit 860 manages the layer order by changing the layer order to layers 2, 3, and 1.

レイヤー情報生成処理部870は、レイヤー順序更新処理部860における更新処理に基づいて現在のレイヤー順序を示すレイヤー情報を生成する。レイヤー情報生成処理部870は、レイヤーの順序を示すレイヤー順序情報の他、ユーザと各レイヤーとの位置関係を示す位置関係情報、各レイヤーに含まれる仮想現実オブジェクトの種類や数、各レイヤーの重要度などの情報を含めてレイヤー情報を生成することが好ましい。なお、位置関係情報は、ユーザの位置から各レイヤーにそれぞれ含まれる仮想現実オブジェクトまでの距離やベクトルを示す情報である。当該レイヤー情報は、レイヤー別の仮想現実提示用映像符号化データと共に通信部210より仮想現実提示装置100に送信される。 The layer information generation processing unit 870 generates layer information indicating the current layer order based on the update processing in the layer order update processing unit 860. The layer information generation processing unit 870 includes layer order information indicating the layer order, positional relationship information indicating the positional relationship between the user and each layer, the type and number of virtual reality objects included in each layer, and the importance of each layer. It is preferable to generate layer information including information such as degree. The positional relationship information is information indicating a distance and a vector from the user position to the virtual reality object included in each layer. The layer information is transmitted from the communication unit 210 to the virtual reality presentation device 100 together with the encoded video data for virtual reality presentation for each layer.

再生音声生成処理部270は、仮想現実サービス提供制御部240からの仮想現実提示用音声生成指示に基づいて、仮想現実コンテンツ記憶DB400より提供する仮想現実サービスに係る仮想現実提示用音声データを読み出し、チャンネル別の仮想現実提示用音声データを生成する。 Based on the virtual reality presentation sound generation instruction from the virtual reality service provision control unit 240, the reproduction sound generation processing unit 270 reads the virtual reality presentation sound data related to the virtual reality service provided from the virtual reality content storage DB 400, Audio data for virtual reality presentation for each channel is generated.

例えば、再生音声生成処理部270は、視点制御部830で設定される視点位置と、仮想現実オブジェクト配置処理部820が配置する仮想現実オブジェクトの位置との相対関係に基づいて、仮想現実コンテンツ記憶DB400より読み出した仮想現実提示用の音声データを複数のチャンネルに分配することでチャンネル別仮想現実提示用音声データを生成する。 For example, the playback audio generation processing unit 270 uses the virtual reality content storage DB 400 based on the relative relationship between the viewpoint position set by the viewpoint control unit 830 and the position of the virtual reality object arranged by the virtual reality object arrangement processing unit 820. The virtual reality presentation audio data is generated by distributing the read virtual reality presentation audio data to a plurality of channels.

ここで、再生音声生成処理部270は、仮想現実コンテンツ記憶DB400より複数の仮想現実提示用音声データを読み出し、それぞれ各チャンネルの音声データに分配した上で合成することでチャンネル別仮想現実提示用音声データを生成する。ここで、チャンネルとしては、5.1Ch、6.1Ch、7.1Chなど複数チャンネルの音声出力部530を仮想現実提示装置100側に設け、立体音響を実現できるようにしておくことが好ましい。 Here, the reproduction sound generation processing unit 270 reads a plurality of virtual reality presentation sound data from the virtual reality content storage DB 400, distributes the sound data to the sound data of each channel, and synthesizes them, thereby synthesizing the virtual reality presentation sound for each channel. Generate data. Here, as a channel, it is preferable to provide a multi-channel audio output unit 530 such as 5.1Ch, 6.1Ch, 7.1Ch on the virtual reality presentation device 100 side so as to realize three-dimensional sound.

また、再生音声生成処理部270は、音声解析処理部220で解析される周囲音声情報からユーザの周囲環境の雑音レベルを抽出し、当該抽出した雑音レベルに基づいて、読み出した仮想現実提示用音声データに対して増幅処理を行う構成とすると更に良好である。 In addition, the reproduction sound generation processing unit 270 extracts the noise level of the user's surrounding environment from the surrounding sound information analyzed by the sound analysis processing unit 220, and reads the virtual reality presentation sound read based on the extracted noise level. It is even better if the data is amplified.

また、再生音声生成処理部270は、当該生成したチャンネル別仮想現実提示用音声データを所定の符号化形式で符号化することでチャンネル別仮想現実提示用音声符号化データを生成する。当該チャンネル別仮想現実提示用音声符号化データは、通信部210より仮想現実提示装置100に送信される。 In addition, the reproduction sound generation processing unit 270 generates sound data for virtual reality presentation for each channel by encoding the generated sound data for virtual reality presentation for each channel in a predetermined encoding format. The channel-specific virtual reality presentation speech encoded data is transmitted from the communication unit 210 to the virtual reality presentation device 100.

また、再生音声生成処理部270は、音声合成処理によって人工音声を生成し、当該音声データを符号化することで仮想現実提示用音声符号化データを生成しても良い。この場合、再生音声生成処理部270は、応答音声コンテキスト生成処理部と、音声合成処理部と、音声符号化処理部とを具備する。 Further, the reproduction voice generation processing unit 270 may generate the virtual reality presentation voice encoded data by generating the artificial voice by the voice synthesis process and encoding the voice data. In this case, the playback speech generation processing unit 270 includes a response speech context generation processing unit, a speech synthesis processing unit, and a speech encoding processing unit.

応答音声コンテキスト生成処理部は、通信部210で受信されたユーザ状態情報や、音声解析処理部220で抽出される音声コンテキストや感情要素に関する情報、画像解析処理部230による画像解析処理で抽出される各種情報に基づいて、現在仮想空間に配置されている仮想現実オブジェクトが発する応答音声の音声コンテキストを生成する。音声合成処理部は、仮想現実コンテンツ記憶データベース400に記憶されている当該仮想現実オブジェクトに関連付けられている音声基礎データ(音素データ)を上記生成された音声コンテキストに従って繋ぎ合わせた後に、所定のフィルタリング処理を行うことで、応答音声データを生成する。なお、応答コンテキスト生成処理部は、当該入力したユーザ状態情報や音声コンテキスト、感情要素の情報に基づいて、応答音声に係る感情要素に係る情報を更に生成し、音声合成処理部は、当該感情要素に係る情報に基づくフィルタ係数でフィルタリング処理を実行することでピッチや音声レベル、会話速度などを変化させた合成音声データを生成する構成とすると更に良好である。音声符号化処理部は、当該生成された合成音声データを仮想現実提示用音声データとし、CELPなどの符号化形式で音声符号化を行うことで仮想現実提示用音声符号化データを生成する。当該構成としても良い。 The response voice context generation processing unit is extracted by the user analysis information received by the communication unit 210, information about the voice context and emotion elements extracted by the voice analysis processing unit 220, and image analysis processing by the image analysis processing unit 230. Based on various kinds of information, a voice context of response voice generated by the virtual reality object currently arranged in the virtual space is generated. The speech synthesis processing unit joins the basic speech data (phoneme data) associated with the virtual reality object stored in the virtual reality content storage database 400 in accordance with the generated speech context, and then performs a predetermined filtering process. Is performed to generate response voice data. The response context generation processing unit further generates information related to the emotional element related to the response voice based on the input user state information, voice context, and emotional element information, and the voice synthesis processing unit It is further preferable that the synthesized voice data in which the pitch, the voice level, the conversation speed, and the like are generated by executing the filtering process with the filter coefficient based on the information related to the above-described information. The speech encoding processing unit uses the generated synthesized speech data as virtual reality presentation speech data, and generates speech encoding data for virtual reality presentation by performing speech encoding in an encoding format such as CELP. It is good also as the said structure.

仮想現実関連データ取得部880は、仮想現実提示装置100を装着しているユーザに提示される仮想現実の世界を実現するために用いられる各種データを仮想現実関連データとして取得する。 The virtual reality related data acquisition unit 880 acquires various data used for realizing the virtual reality world presented to the user wearing the virtual reality presentation device 100 as virtual reality related data.

例えば、仮想現実関連データ取得部880は、通信部210より仮想現実提示装置100へ送信される各種情報を監視しており、仮想現実提示用映像データや仮想現実提示用音声データと言った当該仮想現実提示装置100へ送信されるデータを取得する。   For example, the virtual reality related data acquisition unit 880 monitors various types of information transmitted from the communication unit 210 to the virtual reality presentation device 100, and the virtual reality presentation video data and the virtual reality presentation audio data. Data transmitted to the reality presentation device 100 is acquired.

仮想現実関連データ取得部880は、取得した仮想現実関連データを、提示済み仮想現実関連データ記憶DB500に格納する。提示済み仮想現実関連データ記憶DB500は、ユーザに提示された仮想現実の世界を実現するために用いられた各種情報を提示済み仮想現実関連データとして記憶・保管する。例えば、ユーザに提示された仮想現実サービスが「アイドルXと1時間デート」という仮想現実提示サービスであった場合、仮想現実関連データ記憶DB500には、当該アイドルXの仮想現実オブジェクトの映像や当該アイドルXの仮想現実オブジェクトより発せられた音声などのデータが仮想現実関連データとして記憶・保管される。提示済み仮想現実関連データ記憶DB500は、仮想現実関連データ取得部880で取得された仮想現実関連データを、提示済みの仮想現実の世界を再現するために用いるデータとして記憶・保管する。 The virtual reality related data acquisition unit 880 stores the acquired virtual reality related data in the presented virtual reality related data storage DB 500. The presented virtual reality related data storage DB 500 stores and stores various types of information used to realize the virtual reality world presented to the user as presented virtual reality related data. For example, when the virtual reality service presented to the user is a virtual reality presentation service of “Idle X and 1 hour date”, the virtual reality related data storage DB 500 stores the video of the virtual reality object of the idle X and the idle Data such as sound emitted from the X virtual reality object is stored and stored as virtual reality related data. The presented virtual reality related data storage DB 500 stores and stores the virtual reality related data acquired by the virtual reality related data acquisition unit 880 as data used to reproduce the world of the virtual reality that has been presented.

仮想現実関連データ取得部880で取得される仮想現実提示用映像データや仮想現実提示用音声データは、仮想現実提示装置でそれぞれ表示及び出力されるデータであり、仮想現実の世界を提示するために用いられる。従って、これらのデータを記憶保管しておくことで、後日、提示済み仮想現実関連データ記憶DB500よりこれらのデータを読み出して再生することで、同一の仮想現実の世界を再現することが可能である。 The virtual reality presentation video data and the virtual reality presentation audio data acquired by the virtual reality related data acquisition unit 880 are data displayed and output by the virtual reality presentation device, respectively, for presenting the virtual reality world. Used. Therefore, by storing and storing these data, it is possible to reproduce the same virtual reality world by reading and reproducing these data from the presented virtual reality related data storage DB 500 at a later date. .

仮想現実関連データ取得部880は、取得した各仮想現実の世界に係る各仮想現実関連データ毎に仮想現実識別情報と対応付けた状態で当該仮想現実関連データをデータベース500に格納する。 The virtual reality related data acquisition unit 880 stores the virtual reality related data in the database 500 in a state in which each virtual reality related data related to the acquired virtual reality world is associated with the virtual reality identification information.

仮想現実提示装置100は、ユーザ状態検知部110と、周囲状況検知部120と、音声入力部130と、表示制御部140と、表示部150と、音声再生制御部160と、音声出力部170と、仮想現実提示制御部180と、通信部190とを備える。 The virtual reality presentation device 100 includes a user state detection unit 110, an ambient condition detection unit 120, a voice input unit 130, a display control unit 140, a display unit 150, a voice reproduction control unit 160, and a voice output unit 170. The virtual reality presentation control unit 180 and the communication unit 190 are provided.

ユーザ状態検知部110は、ユーザの頭部の傾きを検知する傾きセンサ111と、ユーザの頭部の加速度を検知する加速度センサ112とを備える。なお、ユーザ状態検知部110としては、ユーザの方位を検知する方位センサや、ユーザの位置を検知する位置センサ、ユーザの体温や血圧、脈拍、脳波などの生体反応を検知する生体反応センサ、ユーザの表情を撮影する内部カメラなどで構成されていても良い。これらのセンサ等における検知結果は、検知時刻を示すタイムスタンプであるユーザ状態検知時刻情報と共にユーザ状態情報として纏められ、通信部190より仮想現実サービス提供サーバ800に送信される。また、ユーザ状態情報の一部の情報は、表示制御部140における映像補正処理に用いられる。 The user state detection unit 110 includes an inclination sensor 111 that detects the inclination of the user's head and an acceleration sensor 112 that detects the acceleration of the user's head. The user state detection unit 110 includes an orientation sensor that detects the user's orientation, a position sensor that detects the user's position, a biological reaction sensor that detects biological reactions such as the user's body temperature, blood pressure, pulse, and brain waves, and the user. It may be configured with an internal camera that shoots the facial expression. Detection results of these sensors and the like are collected as user status information together with user status detection time information that is a time stamp indicating the detection time, and transmitted from the communication unit 190 to the virtual reality service providing server 800. A part of the user status information is used for video correction processing in the display control unit 140.

周囲状況検知部120は、ユーザの視線に対応するユーザ前方を撮影する視線カメラ121と、ユーザの両側や後方などユーザ周辺を撮影する周辺カメラ122とを備える。視線カメラ121はユーザの左目と右目の位置にそれぞれ配置される。これらのカメラで撮影されて取得される周囲景色画像は、撮影時刻を示すタイムスタンプである周囲状況検知時刻情報と共に周囲状況情報として纏められ、通信部190より仮想現実サービス提供サーバ800に送信される。 The ambient condition detection unit 120 includes a line-of-sight camera 121 that captures the front of the user corresponding to the user's line of sight, and a peripheral camera 122 that captures the user's periphery such as both sides and the back of the user. The line-of-sight camera 121 is arranged at the position of the user's left eye and right eye, respectively. Ambient scene images captured and acquired by these cameras are collected as ambient status information together with ambient status detection time information that is a time stamp indicating the shooting time, and transmitted from the communication unit 190 to the virtual reality service providing server 800. .

音声入力部130は、ユーザの口元付近に設置され、ユーザが発する音声を集音してユーザ音声情報を入力するユーザマイク131と、ユーザの周囲である外部環境からの音声を集音して周囲音声情報を入力する周辺マイク132と、を備える。音声入力部130で入力される各音声情報は通信部190より仮想現実サービス提供サーバ800に送信される。 The voice input unit 130 is installed near the user's mouth, collects a voice uttered by the user and inputs user voice information, and collects a voice from an external environment around the user and collects the ambient sound. And a peripheral microphone 132 for inputting voice information. Each piece of audio information input by the audio input unit 130 is transmitted from the communication unit 190 to the virtual reality service providing server 800.

通信部190は、仮想現実サービス提供サーバ800とインターネット等の通信網を介して通信を行う。通信部190は、ユーザ状態検知部110で検知されたユーザ状態情報や周囲状況検知部120で検知された周囲状況情報、その他、音声入力部130で入力された音声情報を無線送信する無線送信部と、仮想現実サービス提供サーバ800より送信される仮想現実提示用映像符号化データやレイヤー情報、仮想現実提示用音声符号化データ、各種通知情報などを無線受信する無線受信部を備える。 The communication unit 190 communicates with the virtual reality service providing server 800 via a communication network such as the Internet. The communication unit 190 wirelessly transmits user status information detected by the user status detection unit 110, ambient status information detected by the ambient status detection unit 120, and other audio information input by the audio input unit 130. And a wireless reception unit for wirelessly receiving video encoded data for virtual reality presentation and layer information, audio encoded data for virtual reality presentation, various notification information, and the like transmitted from the virtual reality service providing server 800.

表示制御部140は、映像復号化処理部141と、映像補正処理部142と、映像合成処理部143と、表示領域選択部144と、を備える。 The display control unit 140 includes a video decoding processing unit 141, a video correction processing unit 142, a video composition processing unit 143, and a display area selection unit 144.

映像復号化処理部141は、通信部190で受信されたレイヤー毎の仮想現実提示用映像符号化データに復号化処理を行い、レイヤー毎の仮想現実提示用映像データを取得する。 The video decoding processing unit 141 performs a decoding process on the virtual reality presentation video encoded data for each layer received by the communication unit 190, and acquires virtual reality presentation video data for each layer.

映像補正処理部142は、復号化されたレイヤー毎の仮想現実提示用映像データの位置補正をユーザ状態検知部110で検知されたユーザ状態と通信部190で受信されたレイヤー情報に含まれる位置関係情報とに基づいて行う。 The video correction processing unit 142 corrects the position of the decrypted virtual reality presentation video data for each layer, and the positional relationship included in the user status detected by the user status detection unit 110 and the layer information received by the communication unit 190 Based on information.

表示映像生成処理部260で生成される各仮想現実提示用映像データは、視点制御部830がユーザ状態に基づいて制御する視点位置及び視線方向に基づいて生成されている。ここで、ユーザの視点位置や視線方向は、仮想現実提示装置100と仮想現実サービス提供サーバ800との間の通信ラグや描画処理や符号化処理、復号化処理等に要する時間の間に変化している可能性がある。そのため、映像補正処理部142は、生成された仮想現実提示用映像に所定の補正を行うことで、現在のユーザ状態に適合した映像となるように補正する。 Each virtual reality presentation video data generated by the display video generation processing unit 260 is generated based on the viewpoint position and the line-of-sight direction controlled by the viewpoint control unit 830 based on the user state. Here, the user's viewpoint position and line-of-sight direction change during the communication lag between the virtual reality presentation device 100 and the virtual reality service providing server 800, and the time required for drawing processing, encoding processing, decoding processing, and the like. There is a possibility. For this reason, the video correction processing unit 142 performs a predetermined correction on the generated virtual reality presentation video, thereby correcting the video so as to be a video suitable for the current user state.

例えば、図88に示すようにレイヤー1とレイヤー2の2枚の仮想現実提示用映像があり、各レイヤーの位置関係情報で示される各レイヤーに含まれる仮想現実オブジェクトまでの相対位置ベクトル(x、y、z)は、それぞれ(+0.3、+2.2、−0.4)と(+2.1、+21.4、+0.6)であるとする。ここで、ユーザが−X方向に移動している場合、当該映像生成時と現在とでは視点位置及び視線方向が相違している。そこで、映像補正処理部142は、仮想現実提示用映像に付与されているユーザ状態検知時刻情報と現在の時刻との間で変化したユーザ状態に基づいて、映像に含まれる仮想現実オブジェクトの位置や大きさなどを補正する。視点位置及び視線方向の変化に伴って、仮想現実オブジェクトの映像をどの様に補正するかは、視点位置及び視線方向と仮想現実オブジェクトとの間の相対位置関係によって定まるため、映像補正処理部142は、レイヤー毎に仮想現実提示用映像に対して補正量を算出した上で補正処理を行う。 For example, as shown in FIG. 88, there are two virtual reality presentation images of layer 1 and layer 2, and relative position vectors (x, x) to the virtual reality object included in each layer indicated by the positional relationship information of each layer. y, z) are (+0.3, +2.2, −0.4) and (+2.1, +21.4, +0.6), respectively. Here, when the user is moving in the −X direction, the viewpoint position and the line-of-sight direction are different between when the video is generated and at the present time. Therefore, the video correction processing unit 142 determines the position of the virtual reality object included in the video based on the user status detected between the user status detection time information given to the virtual reality presentation video and the current time. Correct the size. Since how the video of the virtual reality object is corrected according to changes in the viewpoint position and the line-of-sight direction is determined by the relative positional relationship between the viewpoint position and line-of-sight direction and the virtual reality object, the video correction processing unit 142 Performs a correction process after calculating a correction amount for the virtual reality presentation video for each layer.

映像合成処理部143は、補正処理後の各レイヤーの仮想現実提示用映像を、レイヤー情報に含まれるレイヤー順序情報に従って重ね合わせることで合成する処理を行う。後方のレイヤーに含まれる仮想現実オブジェクトの映像は、前方のレイヤーに含まれる仮想現実オブジェクトによって重なり部分が隠される。 The video composition processing unit 143 performs a process of synthesizing the virtual reality presentation video of each layer after the correction processing by superimposing according to the layer order information included in the layer information. The video of the virtual reality object included in the rear layer is hidden by the virtual reality object included in the front layer.

表示領域選択部144は、合成処理後の仮想現実提示用映像の中から表示パネル151で表示する領域を選択する。各仮想現実提示用映像は、上記補正処理に対応できるように表示パネル151の解像度よりも大きい解像度の映像であるため、補正処理及び合成処理後の仮想現実提示用映像の中から表示パネル151で表示する範囲を選択する。 The display area selection unit 144 selects an area to be displayed on the display panel 151 from the virtual reality presentation video after the synthesis process. Since each virtual reality presentation video is a video having a resolution higher than the resolution of the display panel 151 so as to be compatible with the correction processing, the virtual reality presentation video is displayed on the display panel 151 from the virtual reality presentation video after the correction processing and the synthesis processing. Select the range to display.

表示部150は、表示制御部140からの制御に従って仮想現実提示用の映像を表示する。表示部150は、具体的にユーザの左右の目の前方位置に配置される2つの表示パネル151a、151bであって、表示制御部140の表示領域選択部144で選択された各仮想現実提示用の映像を表示する。視点制御部830は、ユーザの左目と右目に対応する2つの視点位置座標及び視線方向を設定し、表示映像生成処理部260は、これら2つの視点からそれぞれ描画して右目用の仮想現実提示用映像と左目用の仮想現実提示用映像を生成する。ライト表示パネル151aとレフト表示パネル151bには、これらの生成された仮想現実提示用映像が補正処理やレイヤー合成処理を経て表示される。 The display unit 150 displays a virtual reality presentation video according to the control from the display control unit 140. The display unit 150 is two display panels 151a and 151b that are specifically arranged in front of the left and right eyes of the user, and each virtual reality presentation selected by the display region selection unit 144 of the display control unit 140 Display the video. The viewpoint control unit 830 sets two viewpoint position coordinates and line-of-sight directions corresponding to the user's left eye and right eye, and the display image generation processing unit 260 draws from each of these two viewpoints for virtual reality presentation for the right eye. The virtual reality presentation video for the video and the left eye is generated. The generated virtual reality presentation video is displayed on the right display panel 151a and the left display panel 151b through correction processing and layer synthesis processing.

再生音声制御部160は、通信部190で受信された仮想現実提示用音声符号化データに対して復号化処理を行い、必要に応じて復号化処理後の音声データを各チャンネルに分配する分配処理や、音声レベルを調整する増幅処理を行う。 The reproduction audio control unit 160 performs a decoding process on the virtual reality presentation audio encoded data received by the communication unit 190, and distributes the audio data after the decoding process to each channel as necessary. Or, an amplification process for adjusting the sound level is performed.

音声出力部170は、再生音声制御部160からの制御に従って、各チャンネルの仮想現実提示用の音声を出力する。具体的に、音声出力部170は、複数のスピーカ171a171bで構成され、再生音声制御部160で再生される仮想現実提示用の音声データにDA変換処理を行ってアナログ電気信号に変換し、更に空気振動に変換して外部へ放音することで音声を出力する。 The audio output unit 170 outputs the virtual reality presentation audio of each channel in accordance with the control from the reproduction audio control unit 160. Specifically, the audio output unit 170 includes a plurality of speakers 171a171b, performs DA conversion processing on the virtual reality presentation audio data reproduced by the reproduction audio control unit 160, converts the audio data into an analog electric signal, and further converts the audio data. Sound is output by converting it into vibration and emitting it to the outside.

仮想現実提示制御部180は、仮想現実提示装置100側の仮想現実提示用の各処理を制御する。仮想現実提示制御部180は、通信部190で受信された各種通知情報やパラメータ変更情報などに基づいて、ユーザ状態や周囲状況の検知周期や映像表示のフレームレート、送受信におけるデータの符号化・復号化形式等を設定する。例えば、仮想現実提示制御部180は、仮想現実サービス提供開始情報に含まれる仮想現実制御パラメータ情報の検知ユーザ状態指定情報に基づいてユーザ状態検知部110で検知させるユーザ状態の種類を設定したり、ユーザ状態検知頻度に基づいて、ユーザ状態検知部110で検知させるユーザ状態の検知頻度を設定したりする。 The virtual reality presentation control unit 180 controls each process for virtual reality presentation on the virtual reality presentation device 100 side. Based on various notification information and parameter change information received by the communication unit 190, the virtual reality presentation control unit 180 encodes / decodes data in transmission / reception, a detection cycle of a user state and surrounding conditions, a frame rate of video display, and the like. Set the format. For example, the virtual reality presentation control unit 180 sets the type of user state to be detected by the user state detection unit 110 based on the detected user state designation information of the virtual reality control parameter information included in the virtual reality service provision start information, Based on the user state detection frequency, a user state detection frequency to be detected by the user state detection unit 110 is set.

また、仮想現実提示制御部180は、仮想現実提示装置100のバッテリー残量や温度、リソース消費量や無線通信速度などの状態を監視し、これらの情報をレポートに纏めて仮想現実サービス提供サーバ800に送信する。当該レポートは仮想現実サービス提供制御部240に送られて、各種制御に利用される。 Further, the virtual reality presentation control unit 180 monitors the state of the virtual reality presentation device 100 such as the remaining battery level, temperature, resource consumption, and wireless communication speed, and collects these information in a report to provide a virtual reality service providing server 800. Send to. The report is sent to the virtual reality service provision control unit 240 and used for various controls.

通信部190は、装置100内で生成されるユーザ状態情報、周囲状況情報、音声情報、各種制御情報を仮想現実サービス提供サーバ800に送信し、仮想現実サービス提供サーバ800より送信される仮想現実提示用映像符号化データ、仮想現実提示用音声符号化データ、各種制御情報や通知情報を受信する。 The communication unit 190 transmits user state information, ambient state information, audio information, and various control information generated in the device 100 to the virtual reality service providing server 800, and the virtual reality presentation transmitted from the virtual reality service providing server 800. Video encoded data, virtual reality presentation audio encoded data, various control information and notification information are received.

以上のように、本実施形態17に係る仮想現実提示システムでは、ユーザに提示された仮想現実の世界を再現可能な状態で当該仮想現実の世界に係る関連データを記憶・保管する。従って、自身が体験した世界が仮想現実の世界であったか現実の世界であったか判断がつかなくなった場合に、当該記憶保管されている関連データに基づいて、同一の仮想現実の世界を再現することでユーザは、適切に仮想現実の世界であったと言うことを判断することができる。 As described above, in the virtual reality presentation system according to the seventeenth embodiment, related data related to the virtual reality world is stored and stored in a state where the virtual reality world presented to the user can be reproduced. Therefore, when it is no longer possible to determine whether the world that you have experienced is the virtual reality world or the real world, it is possible to reproduce the same virtual reality world based on the relevant stored data. The user can appropriately determine that it was a virtual reality world.

なお、上記説明では仮想現実関連データ取得部880は、仮想現実提示装置100に送信される仮想現実提示用映像データと仮想現実提示用音声データとを取得してデータベース500に格納する場合について説明したが、更に周囲状況情報を合わせて取得し、データベース500へ格納する構成とすると更に良好である。 In the above description, the case where the virtual reality related data acquisition unit 880 acquires the virtual reality presentation video data and the virtual reality presentation audio data transmitted to the virtual reality presentation device 100 and stores them in the database 500 has been described. However, it is even better if the configuration is such that the ambient state information is acquired together and stored in the database 500.

ユーザは、仮想現実提示用映像と外界の景色とを同時に視ることで仮想現実の世界を感知している。ここで、後日仮想現実の世界を再現する場合に、外界の景色が異なっていることがある。例えば、ユーザは公園にいる時に「アイドルXと一時間デート」と言う仮想現実サービスを受けていた場合には、ユーザにはアイドルXと公園で1時間デートをしていたと言う体験が残るのに対し、後日自宅で再現する場合は、外界の景色が自宅の景色であるため、同一の映像や音声を再生したとしても、当時感じていた仮想現実の世界とは異なる印象を受ける。 The user senses the virtual reality world by simultaneously viewing the virtual reality presentation video and the outside scene. Here, when the virtual reality world is reproduced at a later date, the scenery of the outside world may be different. For example, if the user is receiving a virtual reality service called “Idol X and One Hour Date” while in the park, the user will still have the experience of dating the Idol X and the park for an hour. On the other hand, when reproducing at home at a later date, the scenery of the outside world is the scenery of the home, so even if the same video and audio are reproduced, the impression of the virtual reality world felt at that time is different.

そこで、周囲状況検知部120で検知された周囲状況情報である周囲景色画像を合わせて記憶しておき、再現時には、視線カメラ121で撮影された視線景色画像と、仮想現実提示用映像とを合成して表示することで、当時の仮想現実の世界と同様の世界を再現することが可能となる。視線景色画像には、当時ユーザが見ていた外界の景色と同等の景色である公園の景色が含まれているためであり、その画像に仮想現実提示用映像であるアイドルXの仮想現実オブジェクトの映像を多重合成することで、当時ユーザが感知していた光景が再現される。 Therefore, the surrounding scene image which is the surrounding situation information detected by the surrounding situation detection unit 120 is stored together, and at the time of reproduction, the gaze scene image photographed by the gaze camera 121 and the virtual reality presentation video are synthesized. It is possible to reproduce a world similar to the virtual reality world at that time. This is because the gaze scenery image includes a park scenery that is equivalent to the scenery of the outside world that the user was viewing at that time, and the virtual reality object image of the idol X that is the virtual reality presentation video is included in the image. By multiplexing and synthesizing the video, the scene that was perceived by the user at that time is reproduced.

なお、仮想現実関連データ取得部880は、仮想現実提示装置100で入力される音声情報を更に取得し、データベース500へ格納する構成とすると更に良好である。ユーザ自身がどのような言葉を発していたかや、周囲でどのような雑音等が聞こえていたかまで再現できるため、仮想現実の世界の再現度合いを高めることができる。 It is further preferable that the virtual reality related data acquisition unit 880 further acquires voice information input by the virtual reality presentation device 100 and stores it in the database 500. Since it is possible to reproduce what kind of words the user himself has spoken and what kind of noise or the like was heard in the surroundings, the degree of reproduction of the virtual reality world can be increased.

なお、上記説明では、通信部210より送信される仮想現実提示用映像符号化データと仮想現実提示用音声符号化データとを仮想現実関連データとして記憶する場合について説明したが、当該映像データは容量が大きいため、データベース500に十分のスペースを確保しておかなければならないと言った問題が発生する。また、当該仮想現実提示用映像は当時のユーザ状態に基づいて制御された映像であるが、再現時のユーザ状態は当時のユーザ状態とは異なっているため、再現時に表示パネル内で仮想現実オブジェクトが勝手に動いてしまうことになる。 In the above description, the case where the virtual reality presentation video encoded data and the virtual reality presentation audio encoded data transmitted from the communication unit 210 is stored as virtual reality related data has been described. Therefore, there arises a problem that a sufficient space must be secured in the database 500. The virtual reality presentation video is a video controlled based on the user state at the time, but the user state at the time of reproduction is different from the user state at the time, so the virtual reality object is displayed in the display panel at the time of reproduction. Will move without permission.

そこで、仮想現実関連データ取得部880は、別の情報を仮想現実関連データとして取得する構成とすることも可能である。図89は、仮想現実関連データ取得部880が、後日再現可能なように取得する仮想現実関連データの組み合わせの一例を示す図である。 Therefore, the virtual reality related data acquisition unit 880 can be configured to acquire other information as virtual reality related data. FIG. 89 is a diagram illustrating an example of a combination of virtual reality related data acquired by the virtual reality related data acquisition unit 880 so that it can be reproduced at a later date.

パターン01では、仮想現実関連データ取得部880は、上述したように仮想現実提示装置100へ送信される仮想現実提示用映像符号化データと仮想現実提示用音声符号化データとを順次取得・収集して提示済み仮想現実関連データ記憶DB500に格納する。この場合における取得されたこれらの仮想現実関連データに基づいてユーザに提示された仮想現実の世界を再現する場合の再現度は10段階評価で5となる。ユーザが感知する仮想現実の世界は、周囲の雑音や周囲の景色の要素もあるが、これらの情報だけではこれらの要素部分については再現することができないためである。 In the pattern 01, the virtual reality related data acquisition unit 880 sequentially acquires and collects the virtual reality presentation video encoded data and the virtual reality presentation audio encoded data transmitted to the virtual reality presentation device 100 as described above. And stored in the presented virtual reality related data storage DB 500. In this case, the reproducibility when reproducing the virtual reality world presented to the user based on the acquired virtual reality related data is 5 in the 10-level evaluation. This is because the virtual reality world sensed by the user has elements of ambient noise and surrounding scenery, but these elements cannot be reproduced only by such information.

パターン02では、仮想現実関連データ取得部880は、仮想現実提示装置100へ送信される仮想現実提示用映像符号化データと仮想現実提示用音声符号化データに加えて通信部210で受信される視線景色画像を順次取得・収集して提示済み仮想現実関連データ記憶DB500に格納する。視線景色画像を取得して時系列に纏めて保管しておくことで、当該視線景色画像に仮想現実提示用映像符号化データを復号化した仮想現実提示用映像を多重合成することで、当時ユーザが見ていた光景を高いレベルで再現することが可能となる。従って、この場合の再現度は、より高い6に設定されている。 In the pattern 02, the virtual reality related data acquisition unit 880 receives the line of sight received by the communication unit 210 in addition to the virtual reality presentation video encoded data and the virtual reality presentation audio encoded data transmitted to the virtual reality presentation device 100. Scenery images are sequentially acquired and collected and stored in the presented virtual reality related data storage DB 500. By acquiring a gaze-scene image and storing it in time series, the virtual reality-presentation video obtained by decoding the virtual reality-presentation video-encoded data is multiplexed and synthesized with the gaze-scene image. Can be reproduced at a high level. Therefore, the reproducibility in this case is set to 6 which is higher.

パターン03では、仮想現実関連データ取得部880は、通信部210より仮想現実提示装置100へ送信される仮想現実提示用映像符号化データと仮想現実提示用音声符号化データと、通信部210で受信される視線景色画像とユーザ音声情報とを順次取得・収集して提示済み仮想現実関連データ記憶DB500に格納する。ユーザ音声情報を合わせて取得及び保管しておくことで、当時ユーザが仮想現実オブジェクトに対してどのような言葉をかけていたかを再現できるため、その当時の状況をより高いレベルで再現可能となる。従って、この場合の再現度は、更に高い6に設定されている。なお、仮想現実関連データ取得部880は、周辺音声情報を更に取得してデータベース500に格納する構成とすると更に再現度は高くなる。 In the pattern 03, the virtual reality related data acquisition unit 880 receives the virtual reality presentation video encoded data and the virtual reality presentation audio encoded data transmitted from the communication unit 210 to the virtual reality presentation device 100, and the communication unit 210 receives them. The acquired line-of-sight image and user audio information are sequentially acquired and collected, and stored in the presented virtual reality related data storage DB 500. By acquiring and storing user voice information together, it is possible to reproduce what kind of words the user was talking to the virtual reality object at that time, so that the situation at that time can be reproduced at a higher level . Therefore, the reproducibility in this case is set to 6 which is even higher. Note that the virtual reality-related data acquisition unit 880 further increases the reproducibility when it is configured to further acquire the peripheral audio information and store it in the database 500.

パターン04では、仮想現実関連データ取得部880は、通信部210で受信されるユーザ状態情報と、周囲状況情報と、音声情報(ユーザ音声情報及び周辺音声情報)と、制御プログラム実行履歴を示す制御プログラム実行履歴情報とを順次取得・収集して提示済み仮想現実関連データ記憶DB500に格納する。 In the pattern 04, the virtual reality related data acquisition unit 880 controls the user status information received by the communication unit 210, the surrounding state information, the voice information (user voice information and surrounding voice information), and the control program execution history. The program execution history information is sequentially acquired / collected and stored in the presented virtual reality related data storage DB 500.

仮想現実の世界を再現するために必要となる情報は仮想現実サービス提供サーバ800からのアウトプットであるが、当該アウトプットである仮想現実提示用映像と仮想現実提示用音声は、サーバ800に対するインプットと、そのインプットによって実行されるプログラムによって生成される。従って、当該インプットと、実行されたプログラムの履歴を順次取得・保管しておくことで、これらの情報に基づいてシミュレーションすることでアウトプットを再び得ることが可能となり、仮想現実の世界を再現することができる。 The information necessary for reproducing the virtual reality world is an output from the virtual reality service providing server 800. The virtual reality presentation video and the virtual reality presentation audio, which are the outputs, are input to the server 800. And generated by a program executed by the input. Therefore, by sequentially acquiring and storing the input and the history of the executed program, it is possible to obtain the output again by simulating based on this information, and reproduce the virtual reality world. be able to.

ここで、制御プログラム実行履歴情報は、仮想現実サービス提供制御部240が仮想現実コンテンツ記憶DB400より読み込んで実行する制御プログラムの種類と時刻との関係を纏めた情報である。仮想現実関連データ取得部880は、仮想現実サービス提供制御部240を監視しておき、当該仮想現実サービス提供制御部240で実行される制御プログラムの種類と時刻とを纏めた制御プログラム実行履歴情報を取得する。なお、仮想現実関連データ取得部880は、仮想現実オブジェクト挙動制御部250で実行される仮想現実オブジェクト挙動制御プログラムの種類と時刻と更に纏めて上記制御プログラム実行歴情報を取得する構成とすると更に良好である。このパターン04における再現度は5となる。 Here, the control program execution history information is information that summarizes the relationship between the types of control programs and the times that the virtual reality service provision control unit 240 reads from the virtual reality content storage DB 400 and executes. The virtual reality related data acquisition unit 880 monitors the virtual reality service provision control unit 240, and displays control program execution history information that summarizes the types and times of control programs executed by the virtual reality service provision control unit 240. get. The virtual reality related data acquisition unit 880 is more preferably configured to acquire the control program execution history information further together with the type and time of the virtual reality object behavior control program executed by the virtual reality object behavior control unit 250. It is. The reproducibility in this pattern 04 is 5.

パターン05では、仮想現実関連データ取得部880は、視点制御部830で制御される視点位置座標及び視線方向に関する視点情報と、光源制御部840で制御される光源の位置座標や光源照度、光源の色などに関する光源情報と、モデルデータ配置処理部850が配置する現実の世界の物体のモデルデータに関するモデルデータ情報と、仮想空間に配置されている仮想現実オブジェクトの履歴を示す仮想現実オブジェクト履歴情報と、を順次取得してデータベース500に格納する。 In the pattern 05, the virtual reality related data acquisition unit 880 includes viewpoint information on the viewpoint position coordinates and the line-of-sight direction controlled by the viewpoint control unit 830, the position coordinates of the light source controlled by the light source control unit 840, the light source illuminance, and the light source Light source information relating to color, model data information relating to model data of an object in the real world arranged by the model data arrangement processing unit 850, virtual reality object history information indicating a history of virtual reality objects arranged in the virtual space, Are sequentially acquired and stored in the database 500.

通信部210で受信されるユーザ状態情報や周囲状況情報は、座標情報や光源情報などを求めるために使用するための情報である。従って、ユーザ状態情報や周囲状況情報ではなく、これらの情報を処理することで得られる結果である座標情報や光源情報を仮想現実関連データとして取得する。当該構成とすることで、記憶する情報量を更に圧縮することができる。座標情報は、仮想空間における視点位置座標及び視線方向の時間的推移を纏めた履歴情報であり、光源情報は仮想空間における光源位置座標及び光源照度、光源の色などに関する情報の時間推移を纏めた履歴情報である。 The user status information and ambient status information received by the communication unit 210 are information used for obtaining coordinate information, light source information, and the like. Therefore, coordinate information and light source information, which are results obtained by processing these pieces of information, instead of user state information and surrounding state information, are acquired as virtual reality related data. With this configuration, the amount of information to be stored can be further compressed. Coordinate information is history information that summarizes temporal transitions of viewpoint position coordinates and line-of-sight directions in virtual space, and light source information summarizes temporal transitions of information related to light source position coordinates, light source illuminance, light source color, etc. in virtual space. It is history information.

仮想現実オブジェクト履歴情報は、仮想空間に配置されている仮想現実オブジェクトを識別する識別情報(識別番号)と、仮想現実オブジェクトの仮想空間内での位置座標、仮想現実オブジェクトの挙動に係る情報などを時系列で纏めた履歴情報である。仮想現実オブジェクトは、仮想現実オブジェクト挙動制御プログラムによって、関節データや骨格データなどのポイントを変化させたり、表面に張り付けられるテキスチャーデータの種類を変更したりすることで外観が変化する。仮想現実オブジェクトの挙動に係る情報とは、例えば仮想現実オブジェクトにおける可動部分である関節ポイントの位置座標や角度を規定する関節データや表面に張り付けられるテキスチャーの種類や表情を規定するパラメータ値などが含まれる。仮想現実関連データ取得部880は、仮想現実オブジェクト配置処理部820によって仮想空間に配置される仮想現実オブジェクトを監視したり、仮想現実オブジェクトにおける関節データや骨格データやテキスチャーデータの時間変化を監視することで、仮想現実オブジェクト履歴情報を取得する。 The virtual reality object history information includes identification information (identification number) for identifying a virtual reality object arranged in the virtual space, position coordinates of the virtual reality object in the virtual space, information on the behavior of the virtual reality object, and the like. The history information is summarized in time series. The appearance of the virtual reality object changes by changing points such as joint data and skeleton data or changing the type of texture data pasted on the surface by the virtual reality object behavior control program. The information related to the behavior of the virtual reality object includes, for example, joint data that defines the position coordinates and angles of joint points that are movable parts in the virtual reality object, parameter values that specify the type and expression of the texture attached to the surface, etc. It is. The virtual reality related data acquisition unit 880 monitors a virtual reality object placed in the virtual space by the virtual reality object placement processing unit 820, and monitors temporal changes in joint data, skeleton data, and texture data in the virtual reality object. Thus, virtual reality object history information is acquired.

仮想現実オブジェクト履歴情報に従って仮想現実コンテンツ記憶DB400より仮想現実オブジェクトを読み出して仮想空間に再度配置及び挙動を制御し、視点情報で示される視点位置からイメージプレーンに投影すると共に光源情報に基づいてシェーディング処理を行うことで、当時生成された映像を再度生成することが可能となる。従って、当時の仮想現実の世界を再現することが可能となる。この場合の再現度は3となる。 According to the virtual reality object history information, the virtual reality object is read from the virtual reality content storage DB 400, and the arrangement and behavior are controlled again in the virtual space, projected from the viewpoint position indicated by the viewpoint information onto the image plane, and shaded based on the light source information By performing the above, it is possible to generate the video generated at that time again. Therefore, the virtual reality world at that time can be reproduced. In this case, the reproducibility is 3.

パターン06では、仮想現実関連データ取得部880は、視点情報と、光源情報と、仮想現実オブジェクト履歴情報と、視線景色画像とユーザ音声情報と、を取得してデータベース500に格納する。ここで、パターン05のモデルデータは、当時における陰面処理に用いられるデータであるが、再現時とではユーザの周囲の環境が変わっているため当該処理は、仮想現実提示用映像を再生成する過程で殆ど意味をなさないため仮想現実関連データとしては取得していない。代わりに、視線景色画像とユーザ音声情報とを記憶しておくことで、当時の光景や自身が発した音声を再現することができる。この場合は、仮想現実の世界の再現度が比較的高いため、再現度は8に設定されている。 In the pattern 06, the virtual reality related data acquisition unit 880 acquires viewpoint information, light source information, virtual reality object history information, line-of-sight scene images, and user audio information, and stores them in the database 500. Here, the model data of the pattern 05 is data used for hidden surface processing at that time, but since the environment around the user has changed at the time of reproduction, this processing is a process of regenerating the virtual reality presentation video. However, since it makes little sense, it is not acquired as virtual reality related data. Instead, by storing the line-of-sight scene image and the user voice information, it is possible to reproduce the scene at that time and the voice generated by itself. In this case, since the reproducibility of the virtual reality world is relatively high, the reproducibility is set to 8.

パターン07では、仮想現実関連データ取得部880は、光源情報と、仮想現実オブジェクト履歴情報と、再生音声生成履歴情報と、を取得してデータベース500に格納する。仮想現実提示用音声は、再生音声生成処理部270が仮想現実コンテンツ記憶DB400より関連する音声データを適宜読み出して生成するが、どの音声データをどの時刻に読み出したかの履歴がわかれば仮想現実提示用音声を再現することができる。そこで、仮想現実関連データ取得部880は、再生音声生成処理部270を監視し、再生音声生成処理部270が読み出す音声データの履歴を再生音声生成履歴情報として取得する。 In the pattern 07, the virtual reality related data acquisition unit 880 acquires the light source information, the virtual reality object history information, and the reproduction sound generation history information and stores them in the database 500. The virtual reality presentation audio is generated by the reproduction audio generation processing unit 270 appropriately reading out relevant audio data from the virtual reality content storage DB 400. If the history of which audio data is read at which time is known, the virtual reality presentation audio is generated. Can be reproduced. Therefore, the virtual reality related data acquisition unit 880 monitors the playback audio generation processing unit 270 and acquires the history of audio data read by the playback audio generation processing unit 270 as playback audio generation history information.

パターン05と比較して視点情報が取得されていないため、当時と同じ角度や距離から仮想現実オブジェクトを観察することはできないが第3者の立場から仮想現実オブジェクトを観察することができるため、当時の仮想現実の世界を再現することができる。但し、この場合の再現度は比較的低く、再現度は4である。 Since the viewpoint information is not acquired compared to the pattern 05, the virtual reality object cannot be observed from the same angle or distance as that time, but the virtual reality object can be observed from the third party's position. The world of virtual reality can be reproduced. However, the reproducibility in this case is relatively low, and the reproducibility is 4.

パターン08では、仮想現実関連データ取得部880は、仮想現実コンテンツ記憶DB400へのアクセス履歴情報を仮想現実関連データとして取得し、データベース500に格納する。 In the pattern 08, the virtual reality related data acquisition unit 880 acquires access history information to the virtual reality content storage DB 400 as virtual reality related data and stores it in the database 500.

仮想現実サービス提供サーバ800から仮想現実提示装置100へのアウトプットは、仮想現実コンテンツ記憶DB400から読み出した各種データやプログラムを実行することで得られるため、仮想現実コンテンツ記憶DB400へのアクセス履歴を抑えておくことで、仮想現実の世界を再現することが可能である。 Since the output from the virtual reality service providing server 800 to the virtual reality presentation device 100 is obtained by executing various data and programs read from the virtual reality content storage DB 400, the access history to the virtual reality content storage DB 400 is suppressed. By doing so, it is possible to reproduce the virtual reality world.

パターン09では、仮想現実関連データ取得部880は、仮想現実コンテンツ記憶DB400へのアクセス履歴情報と、通信部210で受信されたユーザ状態情報と、音声解析処理部220における音声解析結果である音声コンテキスト情報と、画像解析処理部230における画像解析結果とを仮想現実関連データとして取得し、データベース500に格納する。 In the pattern 09, the virtual reality related data acquisition unit 880 has access history information to the virtual reality content storage DB 400, user status information received by the communication unit 210, and a voice context that is a voice analysis result in the voice analysis processing unit 220. The information and the image analysis result in the image analysis processing unit 230 are acquired as virtual reality related data and stored in the database 500.

以上のように、仮想現実関連データ取得部880は、仮想現実提示装置100がユーザに提示した仮想現実の世界を構築するために用いるデータを仮想現実関連データとして取得し、提示済み仮想現実関連データ記憶DB500は、当該仮想現実関連データを記憶しておく。どのような種類のデータを仮想現実関連データとして取得及び記憶するかによって、再現する仮想現実の世界の再現度(再現レベル)が変化する。 As described above, the virtual reality related data acquisition unit 880 acquires data used for constructing the virtual reality world presented to the user by the virtual reality presentation device 100 as virtual reality related data, and the presented virtual reality related data The storage DB 500 stores the virtual reality related data. The reproducibility (reproduction level) of the virtual reality world to be reproduced changes depending on what kind of data is acquired and stored as virtual reality related data.

一般的に、記憶する仮想現実関連データのデータ量が多いほど、仮想現実の世界の再現度が上昇する一方で、使用されるかわからない大量のデータ記憶してくことはデータベースの使用効率を落とすことになるため、仮想現実の世界の再現度とデータ量との関係を考慮しながら、適宜選択することになる。 In general, the greater the amount of virtual reality-related data to be stored, the higher the reproducibility of the virtual reality world. On the other hand, storing a large amount of data that cannot be used reduces the efficiency of database use. Therefore, the selection is appropriately made in consideration of the relationship between the reproducibility of the virtual reality world and the data amount.

ここで、仮想現実の世界を再現するためには、当該仮想現実の世界に表される仮想現実オブジェクトの映像が必要となる。そのため、当該仮想現実オブジェクトを描画済みの仮想現実提示用映像データか、又は、仮想空間に配置されていた当該仮想現実オブジェクトを導くための情報が最低限必要となる。これらの情報を記憶してくことで再現度1のレベルの仮想現実の世界を再現することが可能となる。 Here, in order to reproduce the virtual reality world, a video of the virtual reality object represented in the virtual reality world is required. Therefore, at least the virtual reality presentation video data for which the virtual reality object has been drawn or information for deriving the virtual reality object arranged in the virtual space is required. By storing these pieces of information, it is possible to reproduce a virtual reality world with a level of reproducibility of 1.

ここで、仮想現実の世界の中では、当該仮想現実オブジェクトが動作する。従って、提示済みの仮想現実の世界に表されていた仮想現実オブジェクトが特定できたとしても、それだけでは当時ユーザが感じていた仮想現実の世界からは乖離がある。そのため、上記仮想現実提示用映像データを記憶しておくか、当該仮想現実オブジェクトの動作履歴を導くための情報を更に記憶しておくと再現度が上昇するため好ましい。 Here, the virtual reality object operates in the virtual reality world. Therefore, even if the virtual reality object represented in the presented virtual reality world can be identified, there is a difference from the virtual reality world felt by the user at that time alone. Therefore, it is preferable to store the virtual reality presentation video data or to further store information for deriving the motion history of the virtual reality object because the reproducibility is increased.

また、仮想現実の世界の中では、当該仮想現実オブジェクトが音声を発する。この音声に心を打たれたユーザは、もう一度その音声を聞かなければ、それがバーチャルであったと信じられない可能性がある。そのため、仮想現実提示用音声データか、又は仮想現実オブジェクトが発した音声を導くための情報を更に記憶しておくと再現度が上昇するため好ましい。 In the virtual reality world, the virtual reality object emits sound. Users who are impressed with this voice may not believe it was virtual unless they listen to it again. For this reason, it is preferable to further store information for guiding the virtual reality presentation audio data or the audio generated by the virtual reality object because the reproducibility increases.

また、上述したように、ユーザは人工的に創り出された仮想現実提示用映像及び仮想現実提示用音声と、現実の世界からの景色や音声とを合わせて感知することで、仮想現実の世界を感知する。従って、当時の現実の世界における景色や現実の世界における周辺音声を記憶してくことが、ユーザが感知していた仮想現実の世界を高いレベルで再現するために好ましい。 In addition, as described above, the user senses the virtual reality world by detecting the virtual reality presentation video and the virtual reality presentation sound, and the scenery and sound from the real world together. Sense. Therefore, it is preferable to memorize the scenery in the real world at that time and the surrounding sound in the real world in order to reproduce the virtual reality world sensed by the user at a high level.

このように、一例としては、仮想現実関連データ取得部880は、仮想現実サービス提供サーバ800から仮想現実提示装置100へ送信される仮想現実提示用映像データと仮想現実提示用音声データとを仮想現実関連データとして取得し、提示済み仮想現実関連データ記憶データベース500は、当該取得された仮想現実提示用映像データと仮想現実提示用音声データとを記憶する。 Thus, as an example, the virtual reality related data acquisition unit 880 uses the virtual reality presentation video data and the virtual reality presentation audio data transmitted from the virtual reality service providing server 800 to the virtual reality presentation device 100 as virtual reality. The acquired virtual reality related data storage database 500 acquired as related data stores the acquired virtual reality presentation video data and virtual reality presentation audio data.

更に好ましくは、仮想現実関連データ取得部880は、仮想現実提示装置100から仮想現実サービス提供サーバ800へ順次送信される前方景色画像を仮想現実関連データとして取得し、提示済み仮想現実関連データ記憶データベース500は、当該取得された前方景色画像を仮想現実関連データとして記憶する。なお、仮想現実関連データ取得部880は、周辺景色画像を合わせて取得し、提示済み仮想現実関連データ記憶データベース500が当該周辺景色画像を記憶すると更に良好である。 More preferably, the virtual reality related data acquisition unit 880 acquires, as virtual reality related data, forward scenery images sequentially transmitted from the virtual reality presentation device 100 to the virtual reality service providing server 800, and presents the virtual reality related data storage database that has been presented. 500 stores the acquired forward scene image as virtual reality related data. It is further preferable that the virtual reality related data acquisition unit 880 acquires the surrounding scenery image together and the presented virtual reality related data storage database 500 stores the surrounding scenery image.

更に好ましくは、仮想現実関連データ取得部880は、仮想現実提示装置100から仮想現実サービス提供サーバ800へ送信されるユーザ状態情報を順次取得し、提示済み仮想現実関連データ記憶データベース500は、当該取得されたユーザ状態情報を時系列に纏めたユーザ状態履歴情報を記憶する。ユーザ状態情報として、ユーザの表情を撮影した内部カメラで撮影された画像などが含まれている場合には、ユーザが仮想現実の世界に夢中になっている表情が写っているため、当時の状況をより客観的に見直すことができる。   More preferably, the virtual reality related data acquisition unit 880 sequentially acquires user status information transmitted from the virtual reality presentation device 100 to the virtual reality service providing server 800, and the presented virtual reality related data storage database 500 stores the acquisition. The user state history information in which the obtained user state information is collected in time series is stored. If the user status information includes an image taken with an internal camera that captured the user's facial expression, the user's facial expression is obsessed with the virtual reality world. Can be reviewed more objectively.

更に好ましくは、仮想現実関連データ取得部880は、仮想現実提示装置100で入力されるユーザ音声データや周辺音声データなどの各種音声データを取得し、提示済み仮想現実関連データ記憶データベース500は、当該取得された音声データを時系列に纏めた音声履歴情報を記憶する。仮想現実の世界に嵌まっているユーザは、仮想現実オブジェクトとの間で双方向に会話を行っているため、ユーザ側から発した音声や外部環境の音声などを合わせて記憶しておくことで、仮想現実の世界の再現度を高めることができる。 More preferably, the virtual reality related data acquisition unit 880 acquires various audio data such as user audio data and peripheral audio data input by the virtual reality presentation device 100, and the presented virtual reality related data storage database 500 Voice history information in which the acquired voice data is collected in time series is stored. Since users who are in the virtual reality world have a two-way conversation with the virtual reality object, it is possible to store voices uttered from the user side and voices from the external environment together. , Increase the reproducibility of the virtual reality world.

また、別の形態として、仮想現実関連データ取得部880は、少なくとも仮想空間生成処理部810が生成する仮想空間に配置されていく仮想現実オブジェクトを識別する仮想現実オブジェクト識別情報を順次取得し、提示済み仮想現実関連データ記憶データベース500は、当該取得された仮想空間に配置される仮想現実オブジェクトを識別する仮想現実オブジェクト識別情報を時系列に纏めた仮想現実オブジェクト履歴情報を記憶する。当該構成によれば、仮想現実オブジェクト履歴情報に従って、仮想空間に再度仮想現実オブジェクト識別情報で識別される仮想現実オブジェクトを仮想現実コンテンツ記憶データベース400より読み出して配置していくことで仮想現実の世界を一定レベルで再現することができる。 As another form, the virtual reality related data acquisition unit 880 sequentially acquires and presents virtual reality object identification information for identifying virtual reality objects arranged in at least the virtual space generated by the virtual space generation processing unit 810. The virtual reality related data storage database 500 stores virtual reality object history information in which virtual reality object identification information for identifying virtual reality objects arranged in the acquired virtual space is collected in time series. According to this configuration, according to the virtual reality object history information, the virtual reality world identified by the virtual reality object identification information is again read from the virtual reality content storage database 400 and arranged in the virtual space. Can be reproduced at a certain level.

ここで、仮想現実関連データ取得部880は、仮想現実オブジェクトの仮想空間内での位置座標と、仮想現実オブジェクトの挙動に係る情報とを仮想現実関連データとして取得すると更に良好である。提示済み仮想現実関連データ記憶データベース500は、当該取得された仮想現実オブジェクトの仮想空間内での位置座標と、仮想現実オブジェクトの挙動に係る情報とを更に時系列で纏めた仮想現実オブジェクト履歴情報を記憶する。当該構成とすることで、複数の仮想現実オブジェクトが同時に仮想空間に配置される場合は、仮想現実オブジェクトの相対的な位置関係が仮想現実の世界を再現する上で重要な要素となるが、この相対位置関係まで再現することが可能となる。また、仮想現実オブジェクトが動作可能なオブジェクトである場合は、その動作まで再現できることで、当時の仮想現実の世界を再現することができる。 Here, it is even better if the virtual reality related data acquisition unit 880 acquires the position coordinates of the virtual reality object in the virtual space and information related to the behavior of the virtual reality object as virtual reality related data. The presented virtual reality related data storage database 500 includes virtual reality object history information in which position coordinates of the acquired virtual reality object in the virtual space and information related to the behavior of the virtual reality object are further collected in time series. Remember. With this configuration, when multiple virtual reality objects are placed in the virtual space at the same time, the relative positional relationship of the virtual reality objects is an important factor in reproducing the virtual reality world. It is possible to reproduce the relative positional relationship. Further, when the virtual reality object is an operable object, the virtual reality world at that time can be reproduced by reproducing the motion.

また、仮想現実関連データ取得部880は、少なくとも仮想空間生成処理部810が生成する仮想空間に配置されている仮想現実オブジェクトの挙動を制御する挙動制御プログラムの実行履歴を仮想現実関連データとして取得し、提示済み仮想現実関連データ記憶データベース500は、当該取得された共同制御プログラム実行履歴を時系列に纏めた挙動制御プログラム実行履歴情報を記憶する構成とすると良い。 In addition, the virtual reality related data acquisition unit 880 acquires, as virtual reality related data, an execution history of a behavior control program that controls at least the behavior of the virtual reality object arranged in the virtual space generated by the virtual space generation processing unit 810. The presented virtual reality related data storage database 500 may be configured to store behavior control program execution history information in which the acquired joint control program execution history is collected in time series.

更に好ましくは、仮想現実関連データ取得部880は、仮想現実提示装置100のユーザマイク131で入力されたユーザ音声の中から音声解析処理部220(音声コンテキスト抽出部)で順次抽出された音声コンテキストや感情要素に関する情報を仮想現実関連データとして取得し、提示済み仮想現実関連データ記憶データベース500は、順次取得された音声コンテキストや感情要素を時系列に纏めた音声コンテキスト履歴情報を記憶する。 More preferably, the virtual reality related data acquisition unit 880 is a voice context sequentially extracted by the voice analysis processing unit 220 (voice context extraction unit) from the user voice input by the user microphone 131 of the virtual reality presentation device 100. Information related to emotional elements is acquired as virtual reality related data, and the presented virtual reality related data storage database 500 stores voice context history information in which acquired voice contexts and emotional elements are sequentially collected in time series.

また、仮想現実関連データ取得部880は、仮想現実コンテンツ記憶データベース500に対するアクセス履歴を仮想現実関連データとして取得し、提示済み仮想現実関連データ記憶データベース500は、当該仮想現実コンテンツ記憶データベース500に対するアクセス履歴を時系列に纏めたアクセス履歴情報を記憶する構成とすると良い。 Further, the virtual reality related data acquisition unit 880 acquires an access history for the virtual reality content storage database 500 as virtual reality related data, and the presented virtual reality related data storage database 500 is an access history for the virtual reality content storage database 500. May be configured to store access history information gathered in time series.

提示済み仮想現実関連データ記憶データベース500は、上記の各種データを、仮想現実の世界を識別する仮想現実識別情報毎に対応付けて記憶すると、再現したい仮想現実の世界に係るデータ纏めて読み出せるため好ましい。 The presented virtual reality related data storage database 500 stores the above-described various data in association with each virtual reality identification information for identifying the virtual reality world, so that the data related to the virtual reality world to be reproduced can be read collectively. preferable.

図90は、提示済みの仮想現実の世界を再現する仮想現実再現要求処理サーバ900を含むシステム全体のブロック図である。仮想現実再現要求処理サーバ900は、通信部910と、再現要求処理部920と、仮想現実関連データ読み出し部930と、音声解析処理部220と、画像解析処理部230と、仮想現実サービス提供制御部240と、仮想現実オブジェクト挙動制御部250と、表示映像生成処理部260と、再生音声生成処理部270と、仮想空間生成処理部810と、仮想現実オブジェクト配置処理部820と、視点制御部830と、光源制御部840と、を備える。 FIG. 90 is a block diagram of the entire system including the virtual reality reproduction request processing server 900 that reproduces the presented virtual reality world. The virtual reality reproduction request processing server 900 includes a communication unit 910, a reproduction request processing unit 920, a virtual reality related data reading unit 930, an audio analysis processing unit 220, an image analysis processing unit 230, and a virtual reality service provision control unit. 240, a virtual reality object behavior control unit 250, a display video generation processing unit 260, a reproduction audio generation processing unit 270, a virtual space generation processing unit 810, a virtual reality object arrangement processing unit 820, and a viewpoint control unit 830 A light source control unit 840.

通信部910は、仮想現実の再現を要求する仮想現実提示装置100nやPC20との間で通信を行う。通信部910は、仮想現実の世界の再現を要求する仮想現実再現要求を受信する再現要求受信部911と、再現する仮想現実の世界を構築するための仮想現実提示用データを送信する再現仮想現実提示用データ送信部912とを備える。 The communication unit 910 communicates with the virtual reality presentation device 100n and the PC 20 that request reproduction of virtual reality. The communication unit 910 includes a reproduction request receiving unit 911 that receives a virtual reality reproduction request that requests reproduction of the virtual reality world, and a reproduction virtual reality that transmits virtual reality presentation data for constructing the virtual reality world to be reproduced. A data transmission unit 912 for presentation.

再現要求処理部920は、再現要求受信部911で受信された再現要求に基づいて仮想現実の世界を再現するための処理を実行するかを判定する。再現要求には、ユーザを識別するユーザIDとユーザのパスワードと、再現を要求する仮想現実の世界を特定する提示済み仮想現実識別情報が少なくとも含まれる。再現要求処理部920は、当該再現要求に含まれるユーザIDとパスワードとの組が一致するかを契約者情報記憶DB300に記憶している契約者情報を参照して認証処理を行う。再現要求が適切であった場合は、再現要求処理部920は、仮想現実関連データ読み出し部930に、再現要求に含まれる仮想現実識別情報で指定される仮想現実の世界に係る仮想現実関連データの読み出し指示を出す。 The reproduction request processing unit 920 determines whether to execute processing for reproducing the virtual reality world based on the reproduction request received by the reproduction request receiving unit 911. The reproduction request includes at least the user ID for identifying the user, the user password, and the presented virtual reality identification information for specifying the virtual reality world for which reproduction is requested. The reproduction request processing unit 920 performs authentication processing by referring to the contractor information stored in the contractor information storage DB 300 as to whether the set of the user ID and the password included in the reproduction request matches. If the reproduction request is appropriate, the reproduction request processing unit 920 causes the virtual reality related data reading unit 930 to store virtual reality related data related to the virtual reality world specified by the virtual reality identification information included in the reproduction request. A read instruction is issued.

仮想現実関連データ読み出し部930は、当該指示に基づいて、仮想現実識別情報で識別される各仮想現実関連データを提示済み仮想現実関連データ記憶DB500より順次読み出して、対応する各部に出力する。 Based on the instruction, the virtual reality related data reading unit 930 sequentially reads each virtual reality related data identified by the virtual reality identification information from the presented virtual reality related data storage DB 500 and outputs it to the corresponding units.

例えば、提示済み仮想現実関連データ記憶DB500に仮想現実関連データとして、仮想現実提示用映像データや仮想現実提示用音声データがそのままの形式で記憶されている場合は、仮想現実関連データ読み出し部930は、当該データを読み出して再現仮想現実提示用データ送信部912に出力する。再現仮想現実提示用データ送信部912は、仮想現実関連データ読み出し部930で読み出された仮想現実提示用映像データや仮想現実提示用音声データを再現要求元の装置に送信する。 For example, when the virtual reality presentation video data and the virtual reality presentation audio data are stored as they are in the presented virtual reality related data storage DB 500 as virtual reality related data, the virtual reality related data reading unit 930 may The data is read out and output to the reproduced virtual reality presentation data transmission unit 912. The reproduction virtual reality presentation data transmission unit 912 transmits the virtual reality presentation video data and the virtual reality presentation audio data read by the virtual reality related data reading unit 930 to the reproduction request source apparatus.

また、仮想現実関連データに視線景色画像が含まれている場合、当該視線景色画像を合わせて要求元の装置に送信する構成としても良いし、仮想現実再現要求処理サーバ900内に映像合成処理部を設けておき、仮想現実提示用映像データと周囲景色画像とを合成した合成後仮想現実提示用映像データを再現要求元の装置へ送信する構成としても良い。 In addition, when the gaze scene image is included in the virtual reality related data, the gaze scene image may be combined and transmitted to the requesting apparatus, or a video composition processing unit may be included in the virtual reality reproduction request processing server 900. May be provided, and the combined virtual reality presentation video data obtained by synthesizing the virtual reality presentation video data and the surrounding scene image may be transmitted to the reproduction request source apparatus.

上述の形式で仮想現実関連データが記憶されている場合は、その他の機能ブロックは必要ないが、仮想現実関連データとして制御プログラム実行履歴情報と言う形式で記憶されている場合などには、別途仮想現実再現処理サーバ900で仮想現実提示用の映像等を再生成する必要がある。この場合、仮想現実関連データ読み出し部930は読み出した制御プログラム実行履歴情報を仮想現実サービス提供制御部240に出力する。仮想現実サービス提供制御部240は、当該制御プログラム実行履歴情報に示されるタイミング毎に、対応する制御プログラムを仮想現実コンテンツ記憶DB400より読み出して実行することで、表示映像生成処理部260や再生音声生成処理部270で提示済みの仮想現実の世界に係る仮想現実提示用映像データや仮想現実提示用音声データが再生成される。再現仮想現実提示用データ送信部912は、これらの再生成された仮想現実提示用映像データや仮想現実提示用音声データを再現要求元の装置へ送信する。 When virtual reality related data is stored in the above format, other functional blocks are not necessary. However, when virtual reality related data is stored in the form of control program execution history information, a virtual The reality reproduction processing server 900 needs to regenerate a virtual reality presentation video or the like. In this case, the virtual reality related data reading unit 930 outputs the read control program execution history information to the virtual reality service provision control unit 240. The virtual reality service provision control unit 240 reads the corresponding control program from the virtual reality content storage DB 400 and executes it at each timing indicated by the control program execution history information, thereby generating the display video generation processing unit 260 and the reproduction audio generation. The virtual reality presentation video data and the virtual reality presentation audio data related to the virtual reality world already presented by the processing unit 270 are regenerated. The reproduction virtual reality presentation data transmission unit 912 transmits the regenerated virtual reality presentation video data and virtual reality presentation audio data to the reproduction request source apparatus.

また、仮想現実関連データとして仮想現実コンテンツ記憶DB400へのアクセス履歴情報と言う形式で記憶されている場合、仮想現実関連データ読み出し部930は、読み出したアクセス履歴情報を仮想現実サービス提供制御部240、仮想現実オブジェクト挙動制御部250、仮想現実オブジェクト配置処理部820、再生音声生成処理部270、など仮想現実コンテンツ記憶DB400より対応するデータやプログラムを読み出す各部に出力する。これら各部は、アクセス履歴情報で示されるタイミングで、それぞれ指定されているデータやプログラムを読み出して処理していくことで、提示済みの仮想現実の世界に係る仮想現実提示用映像データや仮想現実提示用音声データが表示映像生成処理部260や再生音声生成処理部270で再生成される。再現仮想現実提示用データ送信部912は、これらの再生成された仮想現実提示用映像データや仮想現実提示用音声データを再現要求元の装置へ送信する。 When the virtual reality related data is stored in the format of access history information to the virtual reality content storage DB 400, the virtual reality related data reading unit 930 uses the read access history information as the virtual reality service provision control unit 240, The virtual reality object behavior control unit 250, the virtual reality object arrangement processing unit 820, the playback sound generation processing unit 270, and the like are output to each unit that reads corresponding data and programs from the virtual reality content storage DB 400. Each of these units reads and processes the specified data and programs at the timing indicated by the access history information, thereby processing the virtual reality presentation video data and virtual reality presentation related to the presented virtual reality world. The audio data is regenerated by the display video generation processing unit 260 and the reproduction audio generation processing unit 270. The reproduction virtual reality presentation data transmission unit 912 transmits the regenerated virtual reality presentation video data and virtual reality presentation audio data to the reproduction request source apparatus.

以上実施形態15〜17で説明したように、本発明によれば仮想現実の世界を体験したユーザは、再度同一の仮想現実の世界を再現することを要求できる。 As described above in Embodiments 15 to 17, according to the present invention, a user who has experienced a virtual reality world can request to reproduce the same virtual reality world again.

ユーザの視点位置及び視線方向の変化に従って表示される映像が変化することで、表示パネルに表示されている映像上の物体や人物などが現実の世界に実在するようにユーザに提示されることにより、仮想現実の世界が構築される。ここで、仮想現実提示装置は、透過型ヘッドマウントディスプレイ装置に限定されるものではない。例えば、ユーザの左右の目の位置にそれぞれ配置された視線カメラでそれぞれ撮影される映像に、仮想現実オブジェクトを描画した仮想現実提示用映像を合成して表示することで、ユーザに仮想現実の世界を提示する構成とすることができる。 By changing the image displayed according to the change in the user's viewpoint position and line-of-sight direction, the object or person on the image displayed on the display panel is presented to the user so as to actually exist in the real world. A virtual reality world is built. Here, the virtual reality presentation device is not limited to the transmissive head-mounted display device. For example, the virtual reality world can be displayed to the user by synthesizing and displaying the virtual reality presentation video in which the virtual reality object is drawn on the video captured by the line-of-sight cameras respectively disposed at the positions of the left and right eyes of the user. It can be set as the structure which presents.

なお、上記説明した音声解析処理部や画像解析処理部は、それぞれ専用の音声解析サーバや画像解析サーバを別途設け、仮想現実サービス提供サーバと通信を行う構成と良好である。その他、上述した各処理部は1台の情報処理サーバに含まれていても良いし、複数台の情報処理サーバが連動する構成としても良い。 Note that the above-described voice analysis processing unit and image analysis processing unit have a configuration in which a dedicated voice analysis server and image analysis server are separately provided to communicate with the virtual reality service providing server. In addition, each processing unit described above may be included in one information processing server, or a plurality of information processing servers may be linked.

また、上記説明では、仮想現実サービス提供サーバが備える再生音声生成処理部が仮想現実提示用の音声データを生成する場合について説明したが、仮想現実コンテンツ記憶DB400に予め再生可能な状態で仮想現実提示用音声データが記憶されている場合は、再生音声生成処理部は、当該仮想現実提示用音声データを読み出して仮想現実提示装置に送信する構成としても良い。 Further, in the above description, the case where the reproduction sound generation processing unit included in the virtual reality service providing server generates sound data for virtual reality presentation has been described. However, virtual reality presentation in a state that can be reproduced in advance in the virtual reality content storage DB 400 has been described. When the audio data is stored, the reproduction audio generation processing unit may be configured to read out the virtual reality presentation audio data and transmit it to the virtual reality presentation device.

また、視線カメラや周辺カメラは、静止画像を撮影して仮想現実サービス提供サーバに送信する構成としても良いし、動画像を撮影して仮想現実サービス提供サーバに送信する構成としても良い。 The line-of-sight camera and the peripheral camera may be configured to capture a still image and transmit it to the virtual reality service providing server, or may be configured to capture a moving image and transmit it to the virtual reality service providing server.

なお、仮想現実関連データ取得部880は、仮想現実提示装置100に送信される仮想現実提示用映像データの解像度を下げてデータを小さくした上で記憶する構成としても良い。   Note that the virtual reality related data acquisition unit 880 may be configured to store the data after reducing the resolution of the video data for virtual reality presentation transmitted to the virtual reality presentation device 100 to reduce the data.

なお、上述の仮想現実コンテンツには、雪や後光、雨、雷などの特殊映像エフェクトのデータが含まれていると更に良好である。表示映像生成処理部は、仮想現実オブジェクトを描画した映像に当該特殊映像エフェクトのレイヤーを重ねた合成映像を仮想現実提示用映像として生成する構成とすると更に良好である。 Note that it is better if the above-described virtual reality content includes special video effect data such as snow, afterglow, rain, and thunder. The display video generation processing unit is more preferably configured to generate a composite video in which a layer of the special video effect is superimposed on a video in which a virtual reality object is drawn as a virtual reality presentation video.

なお、上述した仮想現実関連データの取り方は一例であり、仮想現実サービスを提供する会社が適宜選択して記憶保管しておくことが可能である。一般的に、仮想の世界を高い再現度で再現できるようにするためには、仮想現実関連データのデータ量が多くなるため、容量の大きなデータベースを用意する必要がある。そのため、再現度を落としてでも仮想現実関連データのデータ量を抑えるように構成しても良い。また、一定期日が経過した場合に、提示済み仮想現実関連データ記憶DB500に記憶されている仮想現実関連データを消去していく消去手段を上記仮想現実再現要求処理サーバが備えていても良い。 Note that the above-described method of taking virtual reality related data is an example, and a company that provides a virtual reality service can appropriately select and store the data. In general, in order to be able to reproduce the virtual world with high reproducibility, the amount of virtual reality-related data increases, so it is necessary to prepare a database with a large capacity. For this reason, the data amount of the virtual reality related data may be suppressed even if the reproducibility is lowered. Further, the virtual reality reproduction request processing server may include an erasing unit that erases the virtual reality related data stored in the presented virtual reality related data storage DB 500 when a certain period of time has passed.

また、上述した仮想現実再現要求処理サーバと仮想現実サービス提供サーバは、共通の処理部が多数存在するため一体として構成されていても良い。 Further, the virtual reality reproduction request processing server and the virtual reality service providing server described above may be configured integrally because there are many common processing units.

また、上述した各処理部は、CPU等の情報処理装置に所定のプログラムを実行させることでハードウェアとソフトウェアが恊働することにより実現することが可能である。 Each processing unit described above can be realized by hardware and software working by causing an information processing apparatus such as a CPU to execute a predetermined program.

また、上述した各実施形態の構成を適宜組み合わせることも可能である。例えば実施形態1の仮想現実提示システムと、実施形態10の仮想現実提示システムと、実施形態15の仮想現実提示システムを組み合わせ、各仮想現実提示システムに含まれる仮想現実提示装置と仮想現実サービス提供サーバの機能をそれぞれ具備する仮想現実提示装置および仮想現実サービス提供サーバとしても良い。また、例えば実施形態7と実施形態14と実施形態17で示した仮想現実提示システムを統合することにより、仮想現実サービス提供時には、現実世界と仮想現実世界の不連続点を抑えたり仮想現実度を制御したりしつつユーザに対して仮想現実世界を提示することで高い錯覚度を実現し、ユーザを仮想現実世界に没入することを可能としてユーザの満足度を高める一方、ユーザに対して提供した仮想現実サービスの履歴を後日再現出来るようにすることで仮想現実サービスを堪能した後も現実と仮想現実の世界の区別がつかなくなることを防ぐことができる構成としても良い。このように統合した仮想現実提示システムにおいて用いられる仮想現実提示装置は、実施形態7、14、17にそれぞれ含まれる仮想現実提示装置の各機能を備え、同様に仮想現実サービス提供サーバは、実施形態7、14、17にそれぞれ含まれる仮想現実サービス提供サーバが備える各機能を備え、その他のデータベースや補助サーバがそれぞれ当該統合された仮想現実提示システム内に配置される構成を取ると良い。また、上記仮想現実サービス提供システムの一部は、ホームサーバと言う形で自宅内に配置されていても良い。 Moreover, it is also possible to combine the structure of each embodiment mentioned above suitably. For example, the virtual reality presentation system of the first embodiment, the virtual reality presentation system of the tenth embodiment, and the virtual reality presentation system of the fifteenth embodiment are combined, and the virtual reality presentation device and the virtual reality service providing server included in each virtual reality presentation system The virtual reality presentation device and the virtual reality service providing server each having the above functions may be used. Further, for example, by integrating the virtual reality presentation systems shown in the seventh embodiment, the fourteenth embodiment, and the seventeenth embodiment, when providing a virtual reality service, the discontinuity between the real world and the virtual reality world can be suppressed or the virtual reality can be reduced. High illusion is realized by presenting the virtual reality world to the user while controlling it, making it possible to immerse the user in the virtual reality world and increasing the user's satisfaction while providing it to the user By making it possible to reproduce the history of the virtual reality service at a later date, it may be configured to prevent the distinction between the real world and the virtual reality world even after the virtual reality service is fully enjoyed. The virtual reality presentation device used in the virtual reality presentation system integrated in this way has the functions of the virtual reality presentation device included in each of the seventh, fourteenth, and seventeenth embodiments. Similarly, the virtual reality service providing server is the same as the embodiment. It is preferable that the virtual reality service providing server included in each of 7, 14, and 17 has each function, and other databases and auxiliary servers are arranged in the integrated virtual reality presentation system. Further, a part of the virtual reality service providing system may be arranged in the home in the form of a home server.

また、仮想現実は拡張現実(Agumented Reality)と称されることがある。また、ユーザに提示される映像の一部はリアルタイムに描画される映像ではなく、背景画像として予め生成された画像からユーザ状態に基づいて定まる領域を表示する構成としても良い。 Virtual reality is sometimes referred to as augmented reality. Further, a part of the video presented to the user may be configured to display an area determined based on the user state from an image generated in advance as a background image instead of a video drawn in real time.

また、以上の実施形態10〜14で説明したように、本発明によれば新たに導入されたパラメータに従って、許容パラメータの範囲内に収まる様に仮想現実提示用の各種データを生成して提示する。従って、適切に仮想現実の世界がユーザに提示される。 In addition, as described in the above embodiments 10 to 14, according to the present invention, according to newly introduced parameters, various data for virtual reality presentation are generated and presented so as to be within the allowable parameter range. . Therefore, the virtual reality world is appropriately presented to the user.

なお、上記説明した仮想現実コンテンツ記憶部は仮想現実コンテンツ記憶データベースと言う形で様々な種類の仮想現実コンテンツを記憶管理する構成とすることが好ましい。また、画像解析処理部についても専用の画像解析サーバを別途設け、仮想現実サービス提供サーバと通信を行う構成とすることが好ましい。その他、上述した各処理部は1台の情報処理サーバに含まれていても良いし、複数台の情報処理サーバが連動する構成としても良い。   The virtual reality content storage unit described above is preferably configured to store and manage various types of virtual reality content in the form of a virtual reality content storage database. In addition, it is preferable that a dedicated image analysis server is separately provided for the image analysis processing unit so as to communicate with the virtual reality service providing server. In addition, each processing unit described above may be included in one information processing server, or a plurality of information processing servers may be linked.

なお、上述した提示可能仮想現実度、提示中仮想現実度、錯覚度などの各種パラメータの取り方や算出方法は、仮想現実提示装置メーカーや仮想現実サービス提供システムに依存して適宜最適なものを選択することが可能である。 It should be noted that the method for obtaining and calculating various parameters such as the presentable virtual reality, the presenting virtual reality, and the illusion are as described above depending on the virtual reality presentation device manufacturer and the virtual reality service providing system. It is possible to select.

また、提示可能な仮想現実度はユーザに提示される仮想現実サービス毎に設定されていても良いし、ユーザ毎に設定されていても良い。ファンタジー系の仮想現実度の高い仮想現実の世界を提示する仮想現実サービスでは、仮想現実度が高くなるため、提示可能仮想現実度も高めの仮想現実度が算出されるようにしておくと良い。また、一般的に仮想現実度が高い仮想現実の世界を実現するためには、様々な仮想現実オブジェクトを配置したり特殊映像エフェクトなどを使用したり、生成する映像のフレームレートを上げたりと、処理量が増加する傾向にある。当該仮想現実サービス提供システムにおいて消費されるリソース量が増加するため、高い値段の契約を行っているユーザに対しては高い仮想現実度を設定し、無料ユーザ等には安い仮想現実度を割り当てる構成とするとビジネスモデルが成り立つため好ましい。すなわち、提供可能仮想現実度算出部1020は、仮想現実サービスを提供するユーザの契約情報を契約情報記憶部3060から読み出し、当該契約情報に基づいて当該提供可能な仮想現実の世界に係る仮想現実度を設定する構成とすると良い。 The virtual reality that can be presented may be set for each virtual reality service presented to the user, or may be set for each user. In a virtual reality service that presents a virtual reality world with a high fantasy virtual reality, the virtual reality is high. Therefore, it is preferable to calculate a virtual reality with a high presentable virtual reality. Also, in order to realize a virtual reality world with generally high virtual reality, various virtual reality objects are arranged, special video effects etc. are used, the frame rate of the generated video is increased, The amount of processing tends to increase. Since the amount of resources consumed in the virtual reality service providing system increases, a configuration in which a high virtual reality is set for a user who has a high price contract and a cheap virtual reality is assigned to a free user or the like This is preferable because a business model is established. That is, the provisionable virtual reality calculation unit 1020 reads the contract information of the user who provides the virtual reality service from the contract information storage unit 3060, and based on the contract information, the virtual reality degree related to the virtual reality world that can be provided It is good to have a configuration to set.

また、ユーザの寝起きや就寝時には高い仮想現実度を提供可能仮想現実度として設定すると良い。ユーザの寝起き時には寝ぼけているため、夢と現実の世界との境界があやふやである。従って、ユーザが仮想現実提示装置を装着したまま就寝し、ユーザの目が覚めた時点で仮想現実度の高い仮想現実の世界をユーザに提示する。当該仮想現実の世界を見るユーザは寝ぼけており、判断力が低いため、自身が見ている景色を夢の映像と錯覚する。従って、ユーザは夢を見るような感覚で、仮想現実提示装置が提示する仮想現実の世界を堪能することができる。 Moreover, it is good to set it as a virtual reality which can provide a high virtual reality at the time of a user's waking and going to bed. Since the user is asleep when waking up, the boundary between the dream and the real world is unclear. Therefore, the user goes to bed while wearing the virtual reality presentation device, and presents the virtual reality world with a high virtual reality to the user when the user wakes up. Since the user who sees the virtual reality world is sleeping and has a low judgment power, the user sees the scenery he / she sees as a dream image. Therefore, the user can enjoy the virtual reality world presented by the virtual reality presentation device with a feeling of dreaming.

また、上述した各機能は、CPU等の情報処理装置に所定のプログラムを実行させることでハードウェアとソフトウェアが恊働することにより実現することが可能である。 Further, each function described above can be realized by hardware and software working by causing an information processing apparatus such as a CPU to execute a predetermined program.

また、上述した各実施形態の構成を適宜組み合わせることも可能である。また、上記仮想現実サービス提供システムの一部は、ホームサーバと言う形で自宅内に配置されていても良い。 Moreover, it is also possible to combine the structure of each embodiment mentioned above suitably. Further, a part of the virtual reality service providing system may be arranged in the home in the form of a home server.

また、上述した仮想現実(Virtual Reality)は拡張現実(Augmented Reality)と称されることがある。従って仮想現実提示装置は拡張現実提示装置と、仮想現実提示システムは拡張現実提示システムと、仮想現実サービス提供サーバは拡張現実サービス提供サーバと、仮想現実サービスは拡張現実サービスとそれぞれ称されることがある。また、ユーザに提示される映像の一部はリアルタイムに描画される映像ではなく、背景画像として予め生成された画像からユーザ状態に基づいて定まる領域を表示する構成としても良い。 Also, the virtual reality described above may be referred to as augmented reality. Accordingly, the virtual reality presentation device may be referred to as an augmented reality presentation device, the virtual reality presentation system as an augmented reality presentation system, the virtual reality service providing server as an augmented reality service providing server, and the virtual reality service as an augmented reality service. is there. Further, a part of the video presented to the user may be configured to display an area determined based on the user state from an image generated in advance as a background image instead of a video drawn in real time.

また、以上の実施形態1〜9で説明したように、本発明に係る仮想現実提示システムによれば、ユーザからの明確な指示や要求に基づいて直ちに仮想現実の世界をユーザに提示するのではなく、ユーザの状態に基づいて、提示タイミング等を制御した上でユーザに提示する。当該構成とすることで、ユーザは自然に仮想現実の世界に入り込むことができる。 In addition, as described in the first to ninth embodiments, according to the virtual reality presentation system according to the present invention, the virtual reality world is not immediately presented to the user based on a clear instruction or request from the user. Rather, the presentation timing is controlled based on the user's state and presented to the user. With this configuration, the user can naturally enter the virtual reality world.

なお、上述した各実施形態は、本発明の一実施例を示したものであり、適宜変更が可能である。例えば、仮想現実サービス提供サーバが備える画像解析部は、画像解析サーバとして独立して仮想現実サービス提供システム内に配置される構成としても良い。また、各実施形態の構成を組み合わせることも可能である。 Each embodiment described above shows an example of the present invention, and can be changed as appropriate. For example, the image analysis unit included in the virtual reality service providing server may be configured to be arranged in the virtual reality service providing system independently as the image analysis server. Moreover, it is also possible to combine the structure of each embodiment.

また、上述した各実施形態を組み合わせることも可能である。また、本発明は、以下の構成とすることも可能である。
(付記1)
ユーザの状態を検知するユーザ状態検知手段と、
前記ユーザの状態に基づいて仮想現実提示用の映像を生成する映像生成手段と、
前記生成された仮想現実提示用の映像を表示する映像表示手段と、
前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、
前記基準を満たしていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示させる制御を行う映像表示制御手段と、
を備える仮想現実提示システム。
(付記2)
仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶手段と、
前記仮想空間を設定する仮想空間設定手段と、
前記仮想現実オブジェクト記憶手段より前記仮想現実オブジェクトを読み出して前記設定された仮想空間に配置する仮想現実オブジェクト配置手段と、
前記ユーザ状態検知手段で検知された前記ユーザの状態に基づいて、前記設定された仮想空間における視点の位置座標と視線方向とを更新する視点制御手段と、
を更に備え、
前記映像生成手段は、前記視点制御手段で更新される前記視点の位置座標と視線方向とのに基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトを描画することで、前記仮想現実提示用の映像を生成する、
付記1に記載の仮想現実提示システム。
(付記3)
周囲の景色を撮影して周囲景色画像を取得する周囲撮影手段と、
前記周囲景色画像から所定の光学成分を抽出する光学成分抽出手段と、
前記抽出された光学成分に基づいて、前記仮想空間における光源の位置座標と光源の輝度又は照度を更新する光源制御手段と、
を更に備え、
前記映像生成手段は、前記仮想空間に配置されている前記仮想現実オブジェクトを描画する際に、前記光源制御手段で更新される前記光源の位置座標と光源の輝度又は照度に基づいてシェーディング処理を行うことで前記仮想現実提示用の映像を生成する、
付記2に記載の仮想現実提示システム。
(付記4)
前記周囲景色画像に写る現実の世界における各物体をモデル化して現実オブジェクトを生成するモデリング処理手段と、
前記モデリング処理手段生成された現実オブジェクトを前記仮想空間に配置するモデルデータ配置手段と、
を更に備え、
前記映像生成手段は、前記仮想空間に配置されている前記仮想現実オブジェクトを描画する際に、前記モデルデータ配置手段が配置する現実オブジェクトで前記仮想現実オブジェクト配置手段が配置する仮想現実オブジェクトを隠す陰面処理を行うことで、前記仮想現実提示用の映像を生成する、
付記2又は3に記載の仮想現実提示システム。
(付記5)
前記仮想現実オブジェクト配置手段は、複数の仮想現実オブジェクトを前記仮想空間の異なるレイヤーにそれぞれ配置し、
前記映像生成手段は、前記仮想空間のレイヤー毎に仮想現実オブジェクトを描画してレイヤー別仮想現実提示用映像を生成し、
前記表示制御手段は、前記レイヤー別仮想現実提示用映像を合成し、合成後の映像を前記表示手段に表示する制御を行う、
付記4に記載の仮想現実提示システム。
(付記6)
前記仮想現実オブジェクト配置手段は、新たに配置する仮想現実オブジェクトを、新たな仮想空間のレイヤーに配置し、
前記映像生成手段は、前記仮想空間のレイヤー毎に仮想現実オブジェクトを描画してレイヤー別仮想現実提示用映像を生成し、
前記判定手段は、前記新たな仮想現実オブジェクトの映像の表示を開始するかを判定し、
前記表示手段は、前記判定手段で前記新たな仮想現実オブジェクトの映像の表示を開始すると判定された場合に、前記新たな仮想現実オブジェクトが配置されているレイヤーのレイヤー別仮想現実提示用映像を他のレイヤー別仮想現実提示用映像と合成し、合成後の映像を前記表示手段に表示する制御を行う、
付記5に記載の仮想現実提示システム。
(付記7)
ユーザの状態を検知するユーザ状態検知手段と、
映像を表示する映像表示手段と、
前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、
前記基準を満たしていると判定された場合に、前記ユーザ状態検知手段で検知された前記ユーザの状態に基づいて制御される仮想現実提示用の映像を前記映像表示手段に表示する制御を行う表示制御手段と、
を備える仮想現実提示装置。
(付記8)
前記ユーザ状態検知手段は、ユーザの顔の一部又は全部を撮影することでユーザの顔の状態を検知し、
前記判定手段は、前記ユーザ状態検知手段で撮影された映像に基づいて、ユーザの目が所定の時間閉じているかを判定し、
前記表示制御手段は、ユーザの目が所定の時間閉じていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
付記7に記載の仮想現実感提示装置。
(付記9)
前記判定手段は、前記ユーザ状態検知手段で撮影された映像に基づいて、ユーザが深く目を閉じているかを判定し、
前記表示制御手段は、ユーザが深く目を閉じていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
付記8に記載の仮想現実感提示装置。
(付記10)
前記ユーザ状態検知手段は、ユーザの脳波を更に検知し、
前記判定手段は、前記ユーザ状態検知手段で検知されたユーザの脳波の値が所定の基準を満たしているかを判定し、
前記表示制御手段は、ユーザの脳波の値が所定の基準を満たしていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
付記7乃至9のいずれか1項に記載の仮想現実感提示装置。
(付記11)
前記ユーザ状態検知手段は、ユーザが向いている方向を検知し、
前記判定手段は、前記ユーザ状態検知手段で検知されたユーザが向いている方向が、所定の基準角度以上変化したかを判定し、
前記表示制御手段は、ユーザが向いている方向が、所定の基準角度以上変化したと判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
付記7乃至10のいずれか1項に記載の仮想現実感提示装置。
(付記12)
前記ユーザ状態検知手段で検知されたユーザの状態を示す情報を送信する送信手段と、
前記所定の基準を示す情報と前記仮想現実提示用の映像とを受信する受信手段と、
前記受信された情報に基づいて、前記所定の基準を設定する設定手段を更に具備し、
前記判定手段は、前記設定手段で設定された前記所定の基準を前記ユーザ状態検知手段で検知されたユーザの状態が満たしているかを判定し、
前記表示制御手段は、前記判定手段において、前記設定手段で設定された前記所定の基準を前記ユーザ状態検知手段で検知されたユーザの状態が満たしていると判定された場合に、前記受信手段で受信された前記仮想現実提示用の映像を前記映像表示手段で表示する制御を行う、
付記7乃至11のいずれか1項に記載の仮想現実提示装置。
(付記13)
ユーザの状態を検知するユーザ状態検知ステップと、
前記検知されたユーザの状態が所定の基準を満たしているかを判定する判定ステップと、
前記検知されたユーザの状態に基づいて仮想現実提示用の映像を生成する映像生成ステップと、
前記基準を満たしていると判定された場合に、前記仮想現実提示用の映像を表示させる制御を行う映像表示制御ステップと、
前記制御に基づいて、前記生成された仮想現実提示用の映像を表示する映像表示ステップと、
を有する仮想現実提示方法。
(付記14)
ユーザの状態を検知するユーザ状態検知手段と、
映像を表示する映像表示手段と、
前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、
前記基準を満たしていると判定された場合に、前記ユーザ状態検知手段で検知された前記ユーザの状態に基づいて制御される仮想現実提示用の映像を前記映像表示手段に表示する制御を行う表示制御手段と、
を備えるヘッドマウントディスプレイ装置。
(付記101)(基本設計)
ユーザの状態を検知するユーザ状態検知手段と、
現在提示可能な仮想現実の世界の仮想現実度を算出する提示可能仮想現実度算出手段と、
前記ユーザの状態に基づいて、前記提示可能仮想現実度算出手段で算出された仮想現実度に収まるように仮想現実提示用の映像を生成する映像生成処理手段と、
前記生成された映像を表示する表示手段と、
を備える仮想現実提示システム。
(付記102)(仮想現実度の算出方法)
現在提示している仮想現実の世界の仮想現実度を算出する提示中仮想現実度算出手段を備え、
前記提示可能仮想現実度算出手段は、前記提示中仮想現実度算出手段で算出された現在提示している仮想現実の世界の仮想現実度を基準として、現在提示可能な仮想現実の世界の仮想現実度を算出する、
付記101に記載の仮想現実提示システム。
(付記103)(錯覚度)
ユーザの錯覚度を算出する錯覚度算出手段を備え、
前記提示可能仮想現実度算出手段は、前記提示中仮想現実度算出手段で算出された現在提示している仮想現実の世界の仮想現実度を基準として、前記錯覚度算出手段で算出された錯覚度に基づいて決定される値を加算、減算、乗算、除算のいずれかを実行することで現在提示可能な仮想現実の世界の仮想現実度を算出する、
付記102に記載の仮想現実提示システム。
(付記104)(錯覚度)
前記ユーザ状態検知手段は、ユーザの脳波を検出する脳波センサ、ユーザの顔の一部又は全部を撮影する内部カメラ、ユーザの血圧を測定する血圧センサ、ユーザの心拍数を計測する脈拍センサ、ユーザの発汗量を検知する発汗量センサ、の少なくとも1つを備え、
前記錯覚度算出手段は、前記ユーザ状態検知手段が備えるいずれかのセンサにおける検知結果に基づいて前記ユーザの錯覚度を算出する、
付記103に記載の仮想現実提示システム。
(付記105)(仮想現実オブジェクト)
複数の仮想現実オブジェクトを少なくとも記憶する仮想現実コンテンツ記憶手段と、
仮想空間を生成する仮想空間生成手段と、
前記仮想空間に前記仮想現実オブジェクトを配置する仮想現実オブジェクト配置手段と、
前記ユーザ状態に基づいて、前記仮想空間における視点座標及び視線方向を制御する視点制御手段と、
前記視点制御手段で更新される視点座標及び視線方向に基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトを描画する描画処理手段と、
を備え、
前記仮想現実オブジェクト配置手段は、前記提示可能仮想現実度算出手段で算出された仮想現実度に収まるように前記仮想現実オブジェクトを前記仮想空間に配置する、
付記101〜104のいずれか1項に記載の仮想現実提示システム。
(付記106)(仮想現実オブジェクト削除)
前記仮想現実オブジェクト配置手段は、前記提示可能な仮想現実の世界の仮想現実度が、現在提示中の仮想現実の世界の仮想現実度を下回っている場合に、仮想空間に配置中の仮想現実オブジェクトを前記仮想空間から削除することで、提示する仮想現実の世界の仮想現実度が提示可能な仮想現実の世界の仮想現実度に収まるようにすることを特徴とする、
付記105に記載の仮想現実提示システム。
(付記107)(仮想現実度対応)
前記仮想現実コンテンツ記憶手段は、前記仮想現実オブジェクトの各々に設定されている仮想現実度と対応付けて前記仮想現実オブジェクトを記憶し、
前記仮想現実オブジェクト配置手段は、前記提示可能仮想現実度算出手段で算出された仮想現実度よりも低い仮想現実度と対応付けられている前記仮想現実オブジェクトを前記仮想現実コンテンツ記憶手段より読み出して前記仮想空間に配置する、
付記106に記載の仮想現実提示システム。
(付記108)(余剰仮想現実度)
前記仮想現実オブジェクト配置手段は、前記提示可能仮想現実度算出手段で算出された前記仮想現実度から前記提示中仮想現実度算出手段で算出された仮想現実度を減算することで求まる余剰仮想現実度よりも低い仮想現実度と対応付けられている前記仮想現実オブジェクトを前記仮想現実コンテンツ記憶手段より読み出して前記仮想空間に配置する、
付記107に記載の仮想現実提示システム。
(付記109)(周囲状況別)
ユーザの周囲の状況を検知する周囲状況検知手段と、
前記周囲状況検知手段における検知結果に基づいてユーザの周囲の状況を特定する周囲状況特定手段と、
を備え、
前記仮想現実コンテンツ記憶手段は、前記仮想現実オブジェクトと周囲状況別の仮想現実度との対応関係を記憶し、
前記仮想現実オブジェクト配置手段は、前記仮想空間に配置する仮想現実オブジェクトの、前記周囲状況特定手段で特定されたユーザの周囲の状況に対応する仮想現実度が、前記提示可能仮想現実度算出手段で算出される前記仮想現実度を下回る様に、前記仮想現実オブジェクトを選択して前記仮想現実オブジェクト記憶手段より読み出し、前記仮想空間に配置する、
付記105〜108のいずれか1項に記載の仮想現実提示システム。
(付記110)(シェーディング)
前記周囲状況検知手段は、ユーザの周囲の状況を撮影して周囲景色画像を取得し、
前記周囲景色画像に基づいて光源の位置座標及び光源の照度又は輝度を更新する光源制御手段と、
前記周囲景色画像に含まれる物体のモデルデータを生成するモデルデータ生成手段と、
を更に備え、
前記描画処理手段は、前記視点制御手段で更新される視点座標及び視線方向に基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトを投影して2次元画像を生成する投影処理と、前記光源制御部で更新される光源の位置座標及び光源の照度又は輝度に基づいて仮想現実オブジェクトの輝度を算出するシェーディング処理と、前記モデルデータに基づいて前記仮想現実オブジェクトの一部を隠す陰面処理と、を少なくとも実行することで前記仮想現実提示用の映像を生成する、
付記105〜109のいずれか1項に記載の仮想現実提示システム
(付記201)(システム基本設計)
仮想現実サービスに係る仮想現実の世界をユーザに提示する仮想現実提示装置と、
前記仮想現実の世界の構築に使用する仮想現実提示用映像データを少なくとも生成して前記仮想現実提示装置へ送信する仮想現実サービス提供サーバと、
前記仮想現実提示装置が前記ユーザに提示した前記仮想現実の世界を再現可能な状態で、前記仮想現実の世界の構築に係るデータを仮想現実関連データとして記憶する提示済み仮想現実関連データ記憶データベースと、
を具備する仮想現実提示システム。
(付記202)(提示済み仮想現実履歴情報)
前記仮想現実サービス提供サーバは、前記提示する仮想現実の世界を識別する仮想現実識別情報を割り当てる仮想現実識別情報割当手段を具備し、
ユーザを識別する識別情報と、前記ユーザに提示された前記仮想現実の世界に割り当てられた前記仮想現実識別情報との対応関係を時系列に纏めた提供済み仮想現実履歴情報を記憶する仮想現実サービス履歴情報記憶データベースを更に具備する、
付記201に記載の仮想現実提示システム。
(付記203)(提供済み仮想現実サービス履歴情報)
ユーザを識別する識別情報と前記ユーザに提供された前記仮想現実サービスを識別する仮想現実サービス識別情報との対応関係を時系列に纏めた提供済み仮想現実サービス履歴情報を記憶する仮想現実サービス履歴情報記憶データベースを更に具備する、
付記201に記載の仮想現実提示システム。
(付記204)(仮想現実オブジェクト)
少なくとも前記仮想現実サービスに係る仮想現実オブジェクトを含む前記仮想現実の世界の構築に使用する仮想現実コンテンツを記憶する仮想現実コンテンツ記憶データベースを更に具備し、
前記仮想現実サービス提供サーバは、
仮想空間を生成する仮想空間生成手段と、
前記仮想現実サービスに係る前記仮想現実オブジェクトを前記仮想空間に配置する仮想現実オブジェクト配置手段と、
前記仮想空間に配置されている仮想現実オブジェクトをリアルタイムに描画して前記仮想現実提示用映像データを順次生成する映像生成手段と、
を少なくとも具備し、
前記仮想現実提示装置は、前記生成された仮想現実提示用映像データに基づいて前記仮想現実オブジェクトを含む映像を表示することで前記仮想現実の世界をユーザに提示する、
付記201〜203に記載の仮想現実提示システム。
(付記205)(ユーザ状態に基づく描画)
前記仮想現実提示装置は、
ユーザの状態を検知するユーザ状態検知手段と、
前記検知されたユーザの状態を示すユーザ状態情報を無線送信する無線送信手段と、
前記仮想現実提示用映像データを無線受信する無線受信手段と、
前記無線受信された仮想現実提示用映像データに基づいて、仮想現実提示用映像を表示する表示手段と、
を具備し、
前記仮想現実サービス提供サーバは、
前記ユーザ状態情報を受信する受信手段と、
前記映像生成手段で順次生成される前記仮想現実提示用映像データを送信する送信手段と、
を更に具備し、
前記映像生成手段は、前記ユーザ状態情報に基づいて特定される視点位置座標及び視線方向に基づいて前記仮想空間に配置されている前記仮想現実オブジェクトをリアルタイムに描画することで前記仮想現実提示用映像データを順次生成する、
付記204に記載の仮想現実提示システム。
(付記206)(仮想現実提示用音声)
前記仮想現実コンテンツ記憶データベースは、前記仮想現実コンテンツとして、前記仮想現実サービスに係る音声データを記憶し、
前記仮想現実サービス提供サーバは、前記仮想現実コンテンツ記憶データベースに記憶されている前記仮想現実サービスに係る音声データに基づいて、仮想現実提示用音声データを生成する音声生成処理手段を更に具備し、
前記仮想現実提示装置は、前記仮想現実提示用音声データをアナログ電気信号に変換して仮想現実提示用音声を外部へ出力する音声出力手段を更に具備する、
付記205に記載の仮想現実提示システム。
(付記207)(視線景色画像)
前記仮想現実提示装置は、
ユーザが発する音声を集音してユーザ音声データを取得する音声入力手段と、
少なくともユーザの前方方向を撮影して前方景色画像を取得する画像撮影手段と、
を更に具備し、
前記仮想現実サービス提供サーバは、
前記ユーザ音声データに含まれる音声コンテキストを抽出する音声コンテキスト抽出手段と、
前記前方景色画像から照度又は輝度に関する光学情報を抽出し、光源の位置座標及び前記光源の照度又は輝度を更新する光源制御手段と、
前記ユーザ状態情報に基づいて前記視点位置座標及び視線方向を更新する視点制御手段と、
を更に具備し、
前記映像生成手段は、前記視点制御手段によって更新される前記視点位置座標及び視線方向と、前記光源制御手段によって更新される前記光源位置座標及び前記光源の照度又は輝度に基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトをリアルタイムに描画することで前記仮想現実提示用映像データを順次生成する、
付記206に記載の仮想現実提示システム。
(付記208)(シェーディング)
前記映像生成手段は、前記視点制御手段によって更新される前記視点位置座標及び視線方向に基づいて前記仮想空間に配置されている前記仮想現実オブジェクトを投影して投影画像を生成し、前記光源制御手段によって更新される前記光源の位置座標及び前記光源の照度又は輝度に基づいて前記投影画像における前記仮想現実オブジェクトの輝度又は照度を算出することで前記仮想現実提示用映像を生成する、
付記207に記載の仮想現実提示システム。
(付記209)(仮想現実オブジェクト挙動制御)
前記仮想現実コンテンツ記憶データベースは、前記仮想現実コンテンツとして、前記仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御プログラムを更に記憶し、
前記仮想現実サービス提供サーバは、
前記仮想現実コンテンツ記憶データベースから読み出した前記仮想現実オブジェクト挙動制御プログラムを実行することで、前記仮想空間に配置されている前記仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御手段を更に具備する、
付記207又は208に記載の仮想現実提示システム。
(付記210)(仮想現実関連データの種類:仮想現実提示用データ)
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実サービス提供サーバから前記仮想現実提示装置へ送信される前記仮想現実提示用映像データと前記仮想現実提示用音声データとを記憶する、
付記209に記載の仮想現実提示システム。
(付記211)(仮想現実関連データの種類:周囲景色画像)
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実提示装置から仮想現実サービス提供サーバへ送信される前記前方景色画像を記憶する、
付記210に記載の仮想現実提示システム。
(付記212)(仮想現実関連データの種類:ユーザ状態情報)
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実提示装置から前記仮想現実サービス提供サーバへ送信される前記ユーザ状態情報を時系列に纏めたユーザ状態履歴情報を記憶する、
付記210又は211に記載の仮想現実提示システム。
(付記213)(仮想現実関連データの種類:ユーザ音声データ)
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実提示装置で入力される前記ユーザ音声データを時系列に纏めたユーザ音声履歴情報を記憶する、
付記210〜212のいずれか1項に記載の仮想現実提示システム。
(付記214)(仮想現実関連データの種類:仮想現実オブジェクト履歴)
前記提示済み仮想現実関連データ記憶データベースは、少なくとも前記仮想空間に配置されている前記仮想現実オブジェクトを識別する仮想現実オブジェクト識別情報を時系列に纏めた仮想現実オブジェクト履歴情報を記憶する、
付記209に記載の仮想現実提示システム。
(付記215)(仮想現実関連データの種類:仮想現実オブジェクト履歴)
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実オブジェクトの前記仮想空間内での位置座標と、前記仮想現実オブジェクトの挙動に係る情報とを更に時系列で纏めた前記仮想現実オブジェクト履歴情報を記憶する、
付記214に記載の仮想現実提示システム。
(付記216)(仮想現実関連データの種類:制御プログラム実行履歴)
前記提示済み仮想現実関連データ記憶データベースは、少なくとも前記仮想空間に配置されている前記仮想現実オブジェクトの挙動を制御する挙動制御プログラムの実行履歴を時系列に纏めた挙動制御プログラム実行履歴情報を記憶する、
付記209に記載の仮想現実提示システム。
(付記217)(仮想現実関連データの種類:制御プログラム実行履歴)
前記提示済み仮想現実関連データ記憶データベースは、前記音声コンテキスト抽出手段で抽出された前記音声コンテキストを時系列に纏めた音声コンテキスト履歴情報を記憶する、
付記216に記載の仮想現実提示システム。
(付記218)(方法)
仮想現実サービスに係る仮想現実の世界の構築に使用する仮想現実提示用映像データを少なくとも生成する生成ステップと、
前記生成された仮想現実提示用映像データを表示することで前記仮想現実の世界をユーザに提示する提示ステップと、
前記ユーザに提示した前記仮想現実の世界を再現可能な状態で、前記仮想現実の世界の構築に係るデータを仮想現実関連データとして記憶する提示済み仮想現実関連データ記憶ステップと、
を有する仮想現実提示方法。
It is also possible to combine the above-described embodiments. In addition, the present invention can be configured as follows.
(Appendix 1)
User status detection means for detecting the user status;
Video generation means for generating video for virtual reality presentation based on the user's state;
Video display means for displaying the generated virtual reality presentation video;
A determination unit that determines whether a user state detected by the user state detection unit satisfies a predetermined criterion;
Video display control means for performing control to display the virtual reality presentation video on the video display means when it is determined that the criterion is satisfied;
A virtual reality presentation system comprising:
(Appendix 2)
Virtual reality object storage means for storing virtual reality objects;
Virtual space setting means for setting the virtual space;
Virtual reality object placement means for reading the virtual reality object from the virtual reality object storage means and placing it in the set virtual space;
Viewpoint control means for updating the position coordinates and the line-of-sight direction of the viewpoint in the set virtual space based on the state of the user detected by the user state detection means;
Further comprising
The video generation means renders the virtual reality object by drawing the virtual reality object arranged in the virtual space based on the position coordinates and the line-of-sight direction of the viewpoint updated by the viewpoint control means. Generate video for
The virtual reality presentation system according to attachment 1.
(Appendix 3)
Ambient shooting means for shooting the surrounding scenery and obtaining the surrounding scenery image;
Optical component extraction means for extracting a predetermined optical component from the surrounding scenery image;
Light source control means for updating the position coordinates of the light source in the virtual space and the luminance or illuminance of the light source based on the extracted optical component;
Further comprising
The video generation means performs a shading process based on the position coordinates of the light source and the luminance or illuminance of the light source updated by the light source control means when the virtual reality object arranged in the virtual space is drawn. To generate the video for presenting the virtual reality,
The virtual reality presentation system according to attachment 2.
(Appendix 4)
Modeling processing means for modeling each object in the real world reflected in the surrounding landscape image and generating a real object;
Model data placement means for placing the real object generated by the modeling processing means in the virtual space;
Further comprising
The video generation means hides the virtual reality object arranged by the virtual reality object arrangement means with the real object arranged by the model data arrangement means when the virtual reality object arranged in the virtual space is drawn. By performing processing, the virtual reality presentation video is generated.
The virtual reality presentation system according to appendix 2 or 3.
(Appendix 5)
The virtual reality object arranging means arranges a plurality of virtual reality objects in different layers of the virtual space,
The video generation means generates a virtual reality presentation video for each layer by drawing a virtual reality object for each layer of the virtual space,
The display control means synthesizes the layered virtual reality presentation video, and performs control to display the synthesized video on the display means.
The virtual reality presentation system according to attachment 4.
(Appendix 6)
The virtual reality object placement means places a newly placed virtual reality object in a new virtual space layer,
The video generation means generates a virtual reality presentation video for each layer by drawing a virtual reality object for each layer of the virtual space,
The determination means determines whether to start displaying the video of the new virtual reality object,
When the determination unit determines that the display of the video of the new virtual reality object is to be started, the display unit displays another virtual reality presentation video for each layer in which the new virtual reality object is arranged. Is combined with the virtual reality presentation video of each layer and performs control to display the composited video on the display means.
The virtual reality presentation system according to attachment 5.
(Appendix 7)
User status detection means for detecting the user status;
Video display means for displaying video;
A determination unit that determines whether a user state detected by the user state detection unit satisfies a predetermined criterion;
Display that performs control to display on the video display means a video for virtual reality presentation that is controlled based on the user status detected by the user status detection means when it is determined that the standard is satisfied Control means;
A virtual reality presentation device.
(Appendix 8)
The user state detection means detects the state of the user's face by photographing a part or all of the user's face,
The determination means determines whether the user's eyes are closed for a predetermined time based on the video imaged by the user state detection means,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the user's eyes are closed for a predetermined time.
The virtual reality presentation device according to appendix 7.
(Appendix 9)
The determination means determines whether the user has closed eyes deeply based on the video taken by the user state detection means,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the user has closed eyes deeply;
The virtual reality presentation device according to appendix 8.
(Appendix 10)
The user state detection means further detects the user's brain waves,
The determination unit determines whether the user's brain wave value detected by the user state detection unit satisfies a predetermined criterion,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the value of the user's brain wave satisfies a predetermined criterion;
The virtual reality presentation device according to any one of appendices 7 to 9.
(Appendix 11)
The user state detection means detects the direction the user is facing,
The determination unit determines whether the direction of the user detected by the user state detection unit has changed by a predetermined reference angle or more,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the direction in which the user is facing has changed by a predetermined reference angle or more.
The virtual reality presentation device according to any one of appendices 7 to 10.
(Appendix 12)
Transmitting means for transmitting information indicating the state of the user detected by the user state detecting means;
Receiving means for receiving the information indicating the predetermined reference and the virtual reality presentation video;
Further comprising setting means for setting the predetermined reference based on the received information;
The determination unit determines whether the user's state detected by the user state detection unit satisfies the predetermined criterion set by the setting unit;
The display control means is the receiving means when the determining means determines that the user's condition detected by the user condition detecting means satisfies the predetermined reference set by the setting means. Control to display the received virtual reality presentation video on the video display means;
The virtual reality presentation device according to any one of appendices 7 to 11.
(Appendix 13)
A user status detection step for detecting a user status;
A determination step of determining whether the detected state of the user satisfies a predetermined criterion;
A video generation step of generating a video for virtual reality presentation based on the detected state of the user;
A video display control step of performing control to display the virtual reality presentation video when it is determined that the criterion is satisfied;
Based on the control, a video display step for displaying the generated video for virtual reality presentation;
A virtual reality presentation method comprising:
(Appendix 14)
User status detection means for detecting the user status;
Video display means for displaying video;
A determination unit that determines whether a user state detected by the user state detection unit satisfies a predetermined criterion;
Display that performs control to display on the video display means a video for virtual reality presentation that is controlled based on the user status detected by the user status detection means when it is determined that the standard is satisfied Control means;
A head-mounted display device comprising:
(Appendix 101) (Basic design)
User status detection means for detecting the user status;
Presentable virtual reality calculation means for calculating the virtual reality of the present virtual reality world;
Video generation processing means for generating a video for virtual reality presentation so as to be within the virtual reality calculated by the presentable virtual reality calculation means based on the state of the user;
Display means for displaying the generated video;
A virtual reality presentation system comprising:
(Supplementary Note 102) (Virtual Reality Calculation Method)
A virtual reality calculation means for presenting that calculates the virtual reality of the virtual reality world currently being presented;
The presentable virtual reality calculation means is based on the virtual reality of the present virtual reality world calculated by the presenting virtual reality calculation means. Calculate the degree,
The virtual reality presentation system according to attachment 101.
(Supplementary Note 103) (Illusion degree)
An illusion degree calculating means for calculating the illusion degree of the user is provided,
The presentable virtual reality calculation unit is configured to calculate the illusion degree calculated by the illusion degree calculation unit based on the virtual reality degree of the currently presented virtual reality calculated by the presenting virtual reality calculation unit. Calculate the virtual reality of the virtual reality world that can be presented by adding, subtracting, multiplying, or dividing the value determined based on
The virtual reality presentation system according to attachment 102.
(Appendix 104) (Degree of Illusion)
The user state detection means includes an electroencephalogram sensor that detects a user's brain wave, an internal camera that captures part or all of the user's face, a blood pressure sensor that measures the user's blood pressure, a pulse sensor that measures the user's heart rate, and the user Comprising at least one perspiration amount sensor for detecting the perspiration amount of
The illusion degree calculating means calculates the illusion degree of the user based on a detection result in any one of the sensors provided in the user state detecting means.
The virtual reality presentation system according to attachment 103.
(Supplementary Note 105) (Virtual Reality Object)
Virtual reality content storage means for storing at least a plurality of virtual reality objects;
Virtual space generation means for generating a virtual space;
Virtual reality object placement means for placing the virtual reality object in the virtual space;
Viewpoint control means for controlling viewpoint coordinates and line-of-sight direction in the virtual space based on the user state;
Drawing processing means for drawing the virtual reality object arranged in the virtual space based on the viewpoint coordinates and the line-of-sight direction updated by the viewpoint control means;
With
The virtual reality object arranging means arranges the virtual reality object in the virtual space so as to be within the virtual reality calculated by the presentable virtual reality calculating means;
The virtual reality presentation system according to any one of appendices 101 to 104.
(Supplementary Note 106) (Delete Virtual Reality Object)
The virtual reality object placement unit is configured to display a virtual reality object being placed in a virtual space when the virtual reality of the presentable virtual reality world is lower than the virtual reality of the virtual reality world currently being presented. By removing the virtual reality from the virtual space so that the virtual reality of the virtual reality world to be presented falls within the virtual reality of the virtual reality world that can be presented.
The virtual reality presentation system according to attachment 105.
(Supplementary Note 107) (Supports virtual reality)
The virtual reality content storage means stores the virtual reality object in association with the virtual reality set for each of the virtual reality objects;
The virtual reality object placement unit reads the virtual reality object associated with a virtual reality lower than the virtual reality calculated by the presentable virtual reality calculation unit from the virtual reality content storage unit and reads the virtual reality object Place it in virtual space,
The virtual reality presentation system according to attachment 106.
(Supplementary Note 108) (Excess Virtual Reality)
The virtual reality object placement unit obtains an excess virtual reality obtained by subtracting the virtual reality calculated by the presenting virtual reality calculating unit from the virtual reality calculated by the presentable virtual reality calculating unit. The virtual reality object associated with a lower virtual reality degree is read from the virtual reality content storage means and arranged in the virtual space;
108. A virtual reality presentation system according to appendix 107.
(Appendix 109) (by ambient conditions)
Ambient condition detection means for detecting the situation of the user's surroundings,
Ambient situation specifying means for specifying a situation around the user based on a detection result in the surrounding situation detection means,
With
The virtual reality content storage means stores a correspondence relationship between the virtual reality object and virtual reality for each surrounding situation,
The virtual reality object placement means is a virtual reality degree calculation means that provides a virtual reality degree corresponding to a situation around the user specified by the surrounding situation specifying means of the virtual reality object placed in the virtual space. The virtual reality object is selected and read from the virtual reality object storage means so as to be lower than the calculated virtual reality, and is arranged in the virtual space.
The virtual reality presentation system according to any one of appendices 105 to 108.
(Appendix 110) (Shading)
The ambient condition detection means captures an ambient scene image by photographing the situation of the user,
Light source control means for updating the position coordinates of the light source and the illuminance or luminance of the light source based on the surrounding scenery image;
Model data generating means for generating model data of an object included in the surrounding scenery image;
Further comprising
The drawing processing unit projects a virtual reality object arranged in the virtual space to generate a two-dimensional image based on the viewpoint coordinates and the line-of-sight direction updated by the viewpoint control unit; A shading process for calculating the brightness of the virtual reality object based on the position coordinates of the light source updated by the light source control unit and the illuminance or brightness of the light source; and a hidden surface process for hiding a part of the virtual reality object based on the model data; The virtual reality presentation video is generated by executing at least
The virtual reality presentation system according to any one of supplementary notes 105 to 109 (Supplementary note 201) (system basic design)
A virtual reality presentation device that presents a virtual reality world related to a virtual reality service to a user;
A virtual reality service providing server that generates at least virtual reality presentation video data to be used to construct the virtual reality world and transmits the virtual reality presentation video data to the virtual reality presentation device;
A presented virtual reality-related data storage database that stores data related to construction of the virtual reality world as virtual reality-related data in a state in which the virtual reality presentation device can reproduce the virtual reality world presented to the user; ,
A virtual reality presentation system comprising:
(Supplementary Note 202) (Present Virtual Reality History Information)
The virtual reality service providing server comprises virtual reality identification information assigning means for assigning virtual reality identification information for identifying the virtual reality world to be presented,
A virtual reality service for storing provided virtual reality history information in which correspondences between identification information for identifying a user and the virtual reality identification information assigned to the virtual reality world presented to the user are summarized in time series Further comprising a history information storage database;
The virtual reality presentation system according to attachment 201.
(Supplementary Note 203) (Provided Virtual Reality Service History Information)
Virtual reality service history information storing provided virtual reality service history information in which correspondences between identification information for identifying a user and virtual reality service identification information for identifying the virtual reality service provided to the user are summarized in time series Further comprising a storage database;
The virtual reality presentation system according to attachment 201.
(Supplementary Note 204) (Virtual Reality Object)
A virtual reality content storage database for storing virtual reality content used to construct the virtual reality world including at least the virtual reality object related to the virtual reality service;
The virtual reality service providing server includes:
Virtual space generation means for generating a virtual space;
Virtual reality object placement means for placing the virtual reality object related to the virtual reality service in the virtual space;
Video generation means for sequentially generating the virtual reality presentation video data by rendering the virtual reality object arranged in the virtual space in real time;
Comprising at least
The virtual reality presentation device presents the virtual reality world to a user by displaying a video including the virtual reality object based on the generated virtual reality presentation video data.
The virtual reality presentation system according to appendix 201-203.
(Supplementary Note 205) (Drawing Based on User Status)
The virtual reality presentation device includes:
User status detection means for detecting the user status;
Wireless transmission means for wirelessly transmitting user status information indicating the detected user status;
Wireless receiving means for wirelessly receiving the virtual reality presentation video data;
Display means for displaying a virtual reality presentation video based on the wirelessly received virtual reality presentation video data;
Comprising
The virtual reality service providing server includes:
Receiving means for receiving the user status information;
Transmission means for transmitting the virtual reality presentation video data sequentially generated by the video generation means;
Further comprising
The video generation means renders the virtual reality presentation video in real time by drawing the virtual reality object arranged in the virtual space based on the viewpoint position coordinates and the line-of-sight direction specified based on the user state information. Generate data sequentially,
The virtual reality presentation system according to attachment 204.
(Supplementary Note 206) (Sound for virtual reality presentation)
The virtual reality content storage database stores audio data related to the virtual reality service as the virtual reality content,
The virtual reality service providing server further includes voice generation processing means for generating virtual reality presentation voice data based on voice data related to the virtual reality service stored in the virtual reality content storage database,
The virtual reality presentation device further includes voice output means for converting the virtual reality presentation voice data into an analog electrical signal and outputting the virtual reality presentation voice to the outside.
The virtual reality presentation system according to attachment 205.
(Supplementary Note 207) (Landscape Image)
The virtual reality presentation device includes:
Voice input means for collecting user voice data by collecting voice uttered by the user;
Image photographing means for photographing at least the front direction of the user and acquiring a front scenery image;
Further comprising
The virtual reality service providing server includes:
Voice context extraction means for extracting a voice context included in the user voice data;
Light source control means for extracting optical information relating to illuminance or luminance from the front scenery image, and updating the position coordinates of the light source and the illuminance or luminance of the light source;
Viewpoint control means for updating the viewpoint position coordinates and the line-of-sight direction based on the user state information;
Further comprising
The video generation unit is configured to store the virtual space based on the viewpoint position coordinates and the line-of-sight direction updated by the viewpoint control unit, and the light source position coordinates and the illuminance or luminance of the light source updated by the light source control unit. Sequentially generating the virtual reality presentation video data by rendering the arranged virtual reality objects in real time;
The virtual reality presentation system according to attachment 206.
(Appendix 208) (Shading)
The video generation unit generates a projection image by projecting the virtual reality object arranged in the virtual space based on the viewpoint position coordinates and the line-of-sight direction updated by the viewpoint control unit, and the light source control unit Generating the virtual reality presentation video by calculating the luminance or illuminance of the virtual reality object in the projection image based on the position coordinates of the light source and the illuminance or luminance of the light source updated by
The virtual reality presentation system according to appendix 207.
(Supplementary Note 209) (Virtual Reality Object Behavior Control)
The virtual reality content storage database further stores a virtual reality object behavior control program for controlling the behavior of the virtual reality object as the virtual reality content,
The virtual reality service providing server includes:
A virtual reality object behavior control means for controlling the behavior of the virtual reality object placed in the virtual space by executing the virtual reality object behavior control program read from the virtual reality content storage database;
The virtual reality presentation system according to appendix 207 or 208.
(Supplementary Note 210) (Type of Virtual Reality Related Data: Virtual Reality Presentation Data)
The presented virtual reality related data storage database stores the virtual reality presentation video data and the virtual reality presentation audio data transmitted from the virtual reality service providing server to the virtual reality presentation device.
The virtual reality presentation system according to appendix 209.
(Supplementary Note 211) (Type of Virtual Reality Related Data: Ambient Scene Image)
The presented virtual reality related data storage database stores the front scene image transmitted from the virtual reality presentation device to a virtual reality service providing server,
The virtual reality presentation system according to attachment 210.
(Supplementary Note 212) (Type of Virtual Reality Related Data: User Status Information)
The presented virtual reality related data storage database stores user status history information in which the user status information transmitted from the virtual reality presentation device to the virtual reality service providing server is summarized in time series.
The virtual reality presentation system according to attachment 210 or 211.
(Supplementary Note 213) (Type of Virtual Reality Related Data: User Voice Data)
The presented virtual reality related data storage database stores user voice history information in which the user voice data input by the virtual reality presentation device is summarized in time series.
The virtual reality presentation system according to any one of appendices 210 to 212.
(Supplementary Note 214) (Type of Virtual Reality Related Data: Virtual Reality Object History)
The presented virtual reality related data storage database stores virtual reality object history information in which virtual reality object identification information for identifying at least the virtual reality object arranged in the virtual space is collected in time series.
The virtual reality presentation system according to appendix 209.
(Supplementary Note 215) (Type of Virtual Reality Related Data: Virtual Reality Object History)
The presented virtual reality related data storage database includes the virtual reality object history information in which the position coordinates of the virtual reality object in the virtual space and the information related to the behavior of the virtual reality object are further summarized in time series. Remember,
The virtual reality presentation system according to attachment 214.
(Supplementary Note 216) (Type of Virtual Reality Related Data: Control Program Execution History)
The presented virtual reality related data storage database stores behavior control program execution history information in which the execution history of a behavior control program for controlling the behavior of the virtual reality object arranged in the virtual space is summarized in time series. ,
The virtual reality presentation system according to appendix 209.
(Supplementary Note 217) (Type of Virtual Reality Related Data: Control Program Execution History)
The presented virtual reality related data storage database stores audio context history information in which the audio contexts extracted by the audio context extraction unit are summarized in time series.
The virtual reality presentation system according to attachment 216.
(Appendix 218) (Method)
A generation step of generating at least virtual reality presentation video data used to construct a virtual reality world related to a virtual reality service;
A presentation step of presenting the virtual reality world to the user by displaying the generated virtual reality presentation video data;
Presented virtual reality related data storage step for storing data related to construction of the virtual reality world as virtual reality related data in a state where the virtual reality world presented to the user can be reproduced;
A virtual reality presentation method comprising:

本発明は、クリエイティビティーの高い仮想現実の世界の提供などに幅広く利用可能である。   The present invention can be widely used to provide a virtual reality world with high creativity.

(実施形態1〜9について)
100 仮想現実提示装置 110 ユーザ状態検知部
111 内部カメラ 112 傾きセンサ
113 加速度センサ 114 脳波センサ
115 生体センサ 120 映像表示開始判定処理部
130 表示制御部 131 映像読み出し部
132 映像復号化処理部 133 映像合成処理部
134 レイヤー順序管理部 135 映像補正処理部
140 表示部 141a ライト表示パネル
141b レフト表示パネル 142 光源
143 導光板 144 LCD(液晶表示ディスプレイ)
145 LCD(外界光透過制御用)
146a レンズ群 146b PLC
146c 第1反射ミラー 146d R反射ダイクロイックミラー
146e G反射ダイクロイックミラー 146f 第2反射ミラー
146g 第3反射ミラー 146h 第1液晶パネル
146j クロスダイクロプリズム 146k 第4反射ミラー
146m 第2液晶パネル 146n 第3液晶パネル
146p ガルバノミラー 146q 照射窓
200 仮想現実提示装置
210 音声入力部 211 ユーザマイク
212 周囲マイク 220 装置側仮想現実提示制御部
230 通信部 231 無線送信部
232 無線受信部 240 映像データ一時記憶部
300 仮想現実提示装置
310 周囲状況検知部 311 視線カメラ(前方カメラ)
312 周辺カメラ 320 映像表示開始条件設定部
400 仮想現実提示装置
410 仮想現実提示用データ記憶部 420 仮想現実提示条件設定部
430 音声再生開始判定処理部 440 音声再生制御部
441 音声データ読み出し部 442 音声復号化処理部
450 音声出力部 451a ライトスピーカ
451b レフトスピーカ
500 仮想現実提示装置
510 映像表示終了判定処理部 520 仮想現実提示終了条件設定部
530 音声再生終了判定処理部
600 仮想現実提示装置
700 仮想現実提示装置
710 映像表示条件設定部 720 映像表示判定処理部720
800 仮想現実提示装置
900 仮想現実提示装置
2000 仮想現実提示システム
2010 仮想現実提示制御部 2020 表示映像生成処理部
2100 仮想現実サービス提供サーバ 2110 通信部
2120 音声コンテキスト取得部 2130 サーバ側仮想現実提示制御部
2131 仮想現実サービス提供可否判定部
2132 仮想現実サービス決定処理部
2133 仮想現実サービス制御部
2134 通知情報生成処理部
2140 表示映像生成処理部 2141 視点制御部
2142 光源制御部 2143 描画処理部
2144 映像符号化処理部 2200 音声解析サーバ
2210 音声解析処理部 2220 音声コンテキスト抽出部
2300 仮想現実コンテンツ記憶DB
3000 仮想現実提示システム
3100 仮想現実サービス提供サーバ 3110 画像解析処理部
3111 物体位置特定部 3112 光学成分抽出部
3120 仮想現実オブジェクト読み出し部
3130 仮想空間設定部 3131 仮想空間生成処理部
3132 仮想空間更新管理部 3140 仮想現実オブジェクト配置部
3200 契約者情報記憶DB
4000 仮想現実提示システム
4100 仮想現実サービス提供サーバ 4110 仮想現実コンテンツ読み出し部
4120 再生音声生成処理部 4121 聴覚点制御部
4122 音声分配処理部
4122a 仮想現実オブジェクト配置位置取得部
4122b 相対位置関係算出部
4122c チャンネル別音声データ生成処理部
4123 音声符号化処理部
5000 仮想現実提示システム
5100 仮想現実サービス提供サーバ 5110 仮想現実オブジェクト挙動制御部
6000 仮想現実提示システム
6100 仮想現実サービス提供サーバ 6110 仮想現実提示開始判定処理部
7000 仮想現実提示システム
7100 仮想現実サービス提供サーバ
8000 仮想現実提示システム
8100 仮想現実サービス提供サーバ 8110 付随情報生成処理部
(実施形態10〜14について)
500 仮想現実提示装置 510 通信部
511 無線送信部 512 無線受信部
520 仮想現実提示制御部
1000 仮想現実提示システム 1010 ユーザ状態検知部
1011 傾きセンサ 1012 加速度センサ
1013 方位センサ 1014 位置センサ
1015 内部カメラ 1016 脳波センサ
1017 血圧センサ 1018 脈拍センサ
1019 発汗センサ 1020 提示可能仮想現実度算出部
1030 映像生成処理部 1031 描画処理部
1032 付映像符号化処理部 1040 映像表示部
1041 映像関連データ記憶部 1042 映像復号化処理部
1043 映像補正処理部 1044 映像合成処理部
1045 表示領域選択部 1046 表示パネル
1046−1 光源 1046−2 導光板
1046−3 LCD(造影用) 146−4 LCD(外界光遮断用)
1046−7a レンズ群 1046−7b PLC
1046−7c 第1反射ミラー
1046−7d R反射ダイクロイックミラー
1046−7e G反射ダイクロイックミラー
1046−7f 第2反射ミラー 1046−7g 第3反射ミラー
1046−7h 第1液晶パネル 1046−7j クロスダイクロプリズム
1046−7k 第4反射ミラー 1046−7m 第2液晶パネル
1046−7n 第3液晶パネル 1046−7p ガルバノミラー
1046−7q 照射窓
1050 仮想現実コンテンツ記憶部 1060 提示中仮想現実度算出部
1070 音声生成処理部 1080 音声出力部
1090 仮想現実提示用データ生成処理部
1100 仮想現実提示部
2000 仮想現実提示システム 2010 錯覚度算出部
3000 仮想現実提示システム 3010 仮想現実提示制御部
3020 仮想空間生成処理部 3030 仮想現実オブジェクト配置処理部
3040 視点制御部 3050 仮想現実サービス要求部
3060 契約者情報記憶部
4000 仮想現実提示システム 4010 周囲状況検知部
4011 視線カメラ(前方カメラ) 4012 周辺カメラ
4020 周囲状況特定部 4030 画像解析処理部
4031 物体特定処理部 4032 光学成分抽出部
4033 物体識別処理部 4034 モデルデータ生成処理部
5000 仮想現実サービス提供システム
5010 通信部 5011 受信部
5012 送信部 5020 仮想現実サービス制御部
5030 仮想現実オブジェクト挙動制御部 5040 レイヤー順序更新処理部
5050 レイヤー情報生成処理部
(実施形態15〜17について)
10 通信網 20 PC
100 仮想現実提示装置 110 ユーザ状態検知部
111 傾きセンサ 112 加速度センサ
120 周囲状況検知部 121 視線カメラ
122 周辺カメラ 130 音声入力部
131 ユーザマイク 132 周辺マイク
140 表示制御部 141 映像復号化処理部
142 映像補正処理部 143 映像合成処理部
144 表示領域選択部 150 表示部
151a ライト表示パネル 151b レフト表示パネル
160 音声再生制御部 170 音声出力部
171a ライトスピーカ 171b レフトスピーカ
180 仮想現実提示制御部 190 通信部
200 仮想現実サービス提供サーバ 210 通信部
220 音声解析処理部 230 画像解析処理部
240 仮想現実サービス提供サーバ 250 仮想現実オブジェクト挙動制御部
260 表示映像生成処理部 261 描画処理部
262 映像復号化処理部 270 再生音声生成処理部
300 契約者情報記憶DB 400 仮想現実コンテンツ記憶DB
500 提示済み仮想現実関連データ記憶DB
600 履歴情報記憶DB 700 仮想現実再現要求処理サーバ
800 仮想現実サービス提供サーバ 810 仮想空間生成処理部
820 仮想現実オブジェクト配置処理部
830 視点制御部 840 光源制御部
850 モデルデータ配置処理部 860 レイヤー順序更新処理部
870 レイヤー情報生成処理部 900 仮想現実再現要求処理サーバ
910 通信部 911 再現要求受信部
912 再現仮想現実提示用データ送信部
920 再現要求処理部 930 仮想現実関連データ読み出し部
(About Embodiment 1-9)
DESCRIPTION OF SYMBOLS 100 Virtual reality presentation apparatus 110 User state detection part 111 Internal camera 112 Inclination sensor 113 Acceleration sensor 114 EEG sensor 115 Biosensor 120 Image | video display start determination processing part 130 Display control part 131 Image | video reading part 132 Image | video decoding process part 133 Image | video composition process Unit 134 layer order management unit 135 video correction processing unit 140 display unit 141a right display panel 141b left display panel 142 light source 143 light guide plate 144 LCD (liquid crystal display)
145 LCD (For external light transmission control)
146a Lens group 146b PLC
146c first reflecting mirror 146d R reflecting dichroic mirror 146e G reflecting dichroic mirror 146f second reflecting mirror 146g third reflecting mirror 146h first liquid crystal panel 146j cross dichroic prism 146k fourth reflecting mirror 146m second liquid crystal panel 146n third liquid crystal panel 146p Galvano mirror 146q Irradiation window 200 Virtual reality presentation device
210 voice input unit 211 user microphone 212 surrounding microphone 220 device side virtual reality presentation control unit 230 communication unit 231 wireless transmission unit 232 wireless reception unit 240 video data temporary storage unit 300 virtual reality presentation device
310 Ambient Condition Detection Unit 311 Eye Camera (Front Camera)
312 Peripheral camera 320 Video display start condition setting unit 400 Virtual reality presentation device
410 Virtual reality presentation data storage unit 420 Virtual reality presentation condition setting unit 430 Audio reproduction start determination processing unit 440 Audio reproduction control unit 441 Audio data reading unit 442 Audio decoding processing unit 450 Audio output unit 451a Right speaker 451b Left speaker
500 Virtual reality presentation device 510 Video display end determination processing unit 520 Virtual reality presentation end condition setting unit 530 Audio reproduction end determination processing unit 600 Virtual reality presentation device 700 Virtual reality presentation device 710 Video display condition setting unit 720 Video display determination processing unit 720
800 Virtual reality presentation device 900 Virtual reality presentation device 2000 Virtual reality presentation system 2010 Virtual reality presentation control unit 2020 Display video generation processing unit 2100 Virtual reality service providing server 2110 Communication unit 2120 Audio context acquisition unit 2130 Server-side virtual reality presentation control unit 2131 Virtual reality service provision availability determination unit 2132 Virtual reality service determination processing unit 2133 Virtual reality service control unit 2134 Notification information generation processing unit 2140 Display image generation processing unit 2141 View point control unit 2142 Light source control unit 2143 Drawing processing unit 2144 Video encoding processing unit 2200 Voice analysis server 2210 Voice analysis processing part 2220 Voice context extraction part 2300 Virtual reality content storage DB
3000 Virtual reality presentation system 3100 Virtual reality service providing server 3110 Image analysis processing unit 3111 Object position specifying unit 3112 Optical component extraction unit 3120 Virtual reality object reading unit 3130 Virtual space setting unit 3131 Virtual space generation processing unit 3132 Virtual space update management unit 3140 Virtual reality object placement unit 3200 Contractor information storage DB
4000 Virtual reality presentation system 4100 Virtual reality service providing server 4110 Virtual reality content reading unit 4120 Playback audio generation processing unit 4121 Auditory point control unit 4122 Audio distribution processing unit
4122a Virtual reality object arrangement position acquisition unit 4122b Relative positional relationship calculation unit 4122c Channel-specific audio data generation processing unit 4123 Audio encoding processing unit 5000 Virtual reality presentation system 5100 Virtual reality service providing server 5110 Virtual reality object behavior control unit 6000 Virtual reality presentation System 6100 Virtual reality service provision server 6110 Virtual reality presentation start determination processing unit 7000 Virtual reality presentation system 7100 Virtual reality service provision server 8000 Virtual reality presentation system 8100 Virtual reality service provision server 8110 Accompanying information generation processing unit (about embodiments 10 to 14) )
DESCRIPTION OF SYMBOLS 500 Virtual reality presentation apparatus 510 Communication part 511 Wireless transmission part 512 Wireless reception part 520 Virtual reality presentation control part 1000 Virtual reality presentation system 1010 User state detection part 1011 Inclination sensor 1012 Acceleration sensor 1013 Direction sensor 1014 Position sensor 1015 Internal camera 1016 EEG sensor 1017 Blood pressure sensor 1018 Pulse sensor 1019 Sweat sensor 1020 Presentable virtual reality calculation unit 1030 Video generation processing unit 1031 Drawing processing unit 1032 Video encoding processing unit 1040 Video display unit 1041 Video related data storage unit 1042 Video decoding processing unit 1043 Image correction processing unit 1044 Image composition processing unit 1045 Display area selection unit 1046 Display panel 1046-1 Light source 1046-2 Light guide plate 1046-3 LCD (for contrast) 146-4 LCD (For blocking external light)
1046-7a lens group 1046-7b PLC
1046-7c first reflection mirror
1046-7d R reflective dichroic mirror 1046-7e G reflective dichroic mirror
1046-7f Second reflecting mirror 1046-7g Third reflecting mirror 1046-7h First liquid crystal panel 1046-7j Cross dichroic prism 1046-7k Fourth reflecting mirror 1046-7m Second liquid crystal panel 1046-7n Third liquid crystal panel 1046 7p Galvano mirror 1046-7q Irradiation window 1050 Virtual reality content storage unit 1060 Presented virtual reality calculation unit 1070 Audio generation processing unit 1080 Audio output unit 1090 Virtual reality presentation data generation processing unit 1100 Virtual reality presentation unit 2000 Virtual reality presentation system 2010 Illusion Degree Calculation Unit 3000 Virtual Reality Presentation System 3010 Virtual Reality Presentation Control Unit 3020 Virtual Space Generation Processing Unit 3030 Virtual Reality Object Placement Processing Unit 3040 Viewpoint Control Unit 3050 Virtual Reality Service Request Unit 3060 Contractor Information Information storage unit 4000 Virtual reality presentation system 4010 Ambient condition detection unit 4011 Gaze camera (front camera) 4012 Peripheral camera 4020 Ambient condition identification unit 4030 Image analysis processing unit 4031 Object identification processing unit 4032 Optical component extraction unit 4033 Object identification processing unit 4034 Model Data generation processing unit 5000 Virtual reality service providing system 5010 Communication unit 5011 Reception unit 5012 Transmission unit 5020 Virtual reality service control unit 5030 Virtual reality object behavior control unit 5040 Layer order update processing unit 5050 Layer information generation processing unit (Embodiments 15 to 17) about)
10 communication network 20 PC
DESCRIPTION OF SYMBOLS 100 Virtual reality presentation apparatus 110 User state detection part 111 Inclination sensor 112 Acceleration sensor 120 Ambient condition detection part 121 Gaze camera 122 Peripheral camera 130 Audio | voice input part 131 User microphone 132 Peripheral microphone 140 Display control part 141 Video decoding process part 142 Video correction | amendment Processing unit 143 Video composition processing unit 144 Display area selection unit 150 Display unit 151a Right display panel 151b Left display panel 160 Audio reproduction control unit 170 Audio output unit 171a Right speaker 171b Left speaker 180 Virtual reality presentation control unit 190 Communication unit 200 Virtual reality Service providing server 210 Communication unit 220 Audio analysis processing unit 230 Image analysis processing unit 240 Virtual reality service providing server 250 Virtual reality object behavior control unit 260 Display video generation processing unit 26 Drawing processing unit 262 image decoding processing unit 270 reproducing the sound generation processing unit 300 subscriber information storage DB 400 virtual reality contents storage DB
500 Presented virtual reality related data storage DB
600 history information storage DB 700 virtual reality reproduction request processing server 800 virtual reality service providing server 810 virtual space generation processing unit 820 virtual reality object arrangement processing unit 830 viewpoint control unit 840 light source control unit 850 model data arrangement processing unit 860 layer order update processing Unit 870 layer information generation processing unit 900 virtual reality reproduction request processing server 910 communication unit 911 reproduction request receiving unit 912 reproduction virtual reality presentation data transmission unit 920 reproduction request processing unit 930 virtual reality related data reading unit

Claims (39)

ユーザの状態を検知するユーザ状態検知手段と、
前記ユーザの状態に基づいて仮想現実提示用の映像を生成する映像生成手段と、
前記生成された仮想現実提示用の映像を表示する映像表示手段と、
前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、
前記基準を満たしていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示させる制御を行う映像表示制御手段と、
を備える仮想現実提示システム。
User status detection means for detecting the user status;
Video generation means for generating video for virtual reality presentation based on the user's state;
Video display means for displaying the generated virtual reality presentation video;
A determination unit that determines whether a user state detected by the user state detection unit satisfies a predetermined criterion;
Video display control means for performing control to display the virtual reality presentation video on the video display means when it is determined that the criterion is satisfied;
A virtual reality presentation system comprising:
仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶手段と、
前記仮想空間を設定する仮想空間設定手段と、
前記仮想現実オブジェクト記憶手段より前記仮想現実オブジェクトを読み出して前記設定された仮想空間に配置する仮想現実オブジェクト配置手段と、
前記ユーザ状態検知手段で検知された前記ユーザの状態に基づいて、前記設定された仮想空間における視点の位置座標と視線方向とを更新する視点制御手段と、
を更に備え、
前記映像生成手段は、前記視点制御手段で更新される前記視点の位置座標と視線方向とのに基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトを描画することで、前記仮想現実提示用の映像を生成する、
請求項1に記載の仮想現実提示システム。
Virtual reality object storage means for storing virtual reality objects;
Virtual space setting means for setting the virtual space;
Virtual reality object placement means for reading the virtual reality object from the virtual reality object storage means and placing it in the set virtual space;
Viewpoint control means for updating the position coordinates and the line-of-sight direction of the viewpoint in the set virtual space based on the state of the user detected by the user state detection means;
Further comprising
The video generation means renders the virtual reality object by drawing the virtual reality object arranged in the virtual space based on the position coordinates and the line-of-sight direction of the viewpoint updated by the viewpoint control means. Generate video for
The virtual reality presentation system according to claim 1.
周囲の景色を撮影して周囲景色画像を取得する周囲撮影手段と、
前記周囲景色画像から所定の光学成分を抽出する光学成分抽出手段と、
前記抽出された光学成分に基づいて、前記仮想空間における光源の位置座標と光源の輝度又は照度を更新する光源制御手段と、
を更に備え、
前記映像生成手段は、前記仮想空間に配置されている前記仮想現実オブジェクトを描画する際に、前記光源制御手段で更新される前記光源の位置座標と光源の輝度又は照度に基づいてシェーディング処理を行うことで前記仮想現実提示用の映像を生成する、
請求項2に記載の仮想現実提示システム。
Ambient shooting means for shooting the surrounding scenery and obtaining the surrounding scenery image;
Optical component extraction means for extracting a predetermined optical component from the surrounding scenery image;
Light source control means for updating the position coordinates of the light source in the virtual space and the luminance or illuminance of the light source based on the extracted optical component;
Further comprising
The video generation means performs a shading process based on the position coordinates of the light source and the luminance or illuminance of the light source updated by the light source control means when the virtual reality object arranged in the virtual space is drawn. To generate the video for presenting the virtual reality,
The virtual reality presentation system according to claim 2.
前記周囲景色画像に写る現実の世界における各物体をモデル化して現実オブジェクトを生成するモデリング処理手段と、
前記モデリング処理手段生成された現実オブジェクトを前記仮想空間に配置するモデルデータ配置手段と、
を更に備え、
前記映像生成手段は、前記仮想空間に配置されている前記仮想現実オブジェクトを描画する際に、前記モデルデータ配置手段が配置する現実オブジェクトで前記仮想現実オブジェクト配置手段が配置する仮想現実オブジェクトを隠す陰面処理を行うことで、前記仮想現実提示用の映像を生成する、
請求項2又は3に記載の仮想現実提示システム。
Modeling processing means for modeling each object in the real world reflected in the surrounding landscape image and generating a real object;
Model data placement means for placing the real object generated by the modeling processing means in the virtual space;
Further comprising
The video generation means hides the virtual reality object arranged by the virtual reality object arrangement means with the real object arranged by the model data arrangement means when the virtual reality object arranged in the virtual space is drawn. By performing processing, the virtual reality presentation video is generated.
The virtual reality presentation system according to claim 2 or 3.
前記仮想現実オブジェクト配置手段は、複数の仮想現実オブジェクトを前記仮想空間の異なるレイヤーにそれぞれ配置し、
前記映像生成手段は、前記仮想空間のレイヤー毎に仮想現実オブジェクトを描画してレイヤー別仮想現実提示用映像を生成し、
前記表示制御手段は、前記レイヤー別仮想現実提示用映像を合成し、合成後の映像を前記表示手段に表示する制御を行う、
請求項4に記載の仮想現実提示システム。
The virtual reality object arranging means arranges a plurality of virtual reality objects in different layers of the virtual space,
The video generation means generates a virtual reality presentation video for each layer by drawing a virtual reality object for each layer of the virtual space,
The display control means synthesizes the layered virtual reality presentation video, and performs control to display the synthesized video on the display means.
The virtual reality presentation system according to claim 4.
前記仮想現実オブジェクト配置手段は、新たに配置する仮想現実オブジェクトを、新たな仮想空間のレイヤーに配置し、
前記映像生成手段は、前記仮想空間のレイヤー毎に仮想現実オブジェクトを描画してレイヤー別仮想現実提示用映像を生成し、
前記判定手段は、前記新たな仮想現実オブジェクトの映像の表示を開始するかを判定し、
前記表示手段は、前記判定手段で前記新たな仮想現実オブジェクトの映像の表示を開始すると判定された場合に、前記新たな仮想現実オブジェクトが配置されているレイヤーのレイヤー別仮想現実提示用映像を他のレイヤー別仮想現実提示用映像と合成し、合成後の映像を前記表示手段に表示する制御を行う、
請求項5に記載の仮想現実提示システム。
The virtual reality object placement means places a newly placed virtual reality object in a new virtual space layer,
The video generation means generates a virtual reality presentation video for each layer by drawing a virtual reality object for each layer of the virtual space,
The determination means determines whether to start displaying the video of the new virtual reality object,
When the determination unit determines that the display of the video of the new virtual reality object is to be started, the display unit displays another virtual reality presentation video for each layer in which the new virtual reality object is arranged. Is combined with the virtual reality presentation video of each layer and performs control to display the composited video on the display means.
The virtual reality presentation system according to claim 5.
ユーザの状態を検知するユーザ状態検知手段と、
映像を表示する映像表示手段と、
前記ユーザ状態検知手段で検知されるユーザの状態が所定の基準を満たしているかを判定する判定手段と、
前記基準を満たしていると判定された場合に、前記ユーザ状態検知手段で検知された前記ユーザの状態に基づいて制御される仮想現実提示用の映像を前記映像表示手段に表示する制御を行う表示制御手段と、
を備える仮想現実提示装置。
User status detection means for detecting the user status;
Video display means for displaying video;
A determination unit that determines whether a user state detected by the user state detection unit satisfies a predetermined criterion;
Display that performs control to display on the video display means a video for virtual reality presentation that is controlled based on the user status detected by the user status detection means when it is determined that the standard is satisfied Control means;
A virtual reality presentation device.
前記ユーザ状態検知手段は、ユーザの顔の一部又は全部を撮影することでユーザの顔の状態を検知し、
前記判定手段は、前記ユーザ状態検知手段で撮影された映像に基づいて、ユーザの目が所定の時間閉じているかを判定し、
前記表示制御手段は、ユーザの目が所定の時間閉じていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
請求項7に記載の仮想現実感提示装置。
The user state detection means detects the state of the user's face by photographing a part or all of the user's face,
The determination means determines whether the user's eyes are closed for a predetermined time based on the video imaged by the user state detection means,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the user's eyes are closed for a predetermined time.
The virtual reality presentation apparatus according to claim 7.
前記判定手段は、前記ユーザ状態検知手段で撮影された映像に基づいて、ユーザが深く目を閉じているかを判定し、
前記表示制御手段は、ユーザが深く目を閉じていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
請求項8に記載の仮想現実感提示装置。
The determination means determines whether the user has closed eyes deeply based on the video taken by the user state detection means,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the user has closed eyes deeply;
The virtual reality presentation apparatus according to claim 8.
前記ユーザ状態検知手段は、ユーザの脳波を更に検知し、
前記判定手段は、前記ユーザ状態検知手段で検知されたユーザの脳波の値が所定の基準を満たしているかを判定し、
前記表示制御手段は、ユーザの脳波の値が所定の基準を満たしていると判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
請求項7乃至9のいずれか1項に記載の仮想現実感提示装置。
The user state detection means further detects the user's brain waves,
The determination unit determines whether the user's brain wave value detected by the user state detection unit satisfies a predetermined criterion,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the value of the user's brain wave satisfies a predetermined criterion;
The virtual reality presentation apparatus according to any one of claims 7 to 9.
前記ユーザ状態検知手段は、ユーザが向いている方向を検知し、
前記判定手段は、前記ユーザ状態検知手段で検知されたユーザが向いている方向が、所定の基準角度以上変化したかを判定し、
前記表示制御手段は、ユーザが向いている方向が、所定の基準角度以上変化したと判定された場合に、前記映像表示手段に前記仮想現実提示用の映像を表示することを開始する、
請求項7乃至10のいずれか1項に記載の仮想現実感提示装置。
The user state detection means detects the direction the user is facing,
The determination unit determines whether the direction of the user detected by the user state detection unit has changed by a predetermined reference angle or more,
The display control means starts displaying the virtual reality presentation video on the video display means when it is determined that the direction in which the user is facing has changed by a predetermined reference angle or more.
The virtual reality presentation apparatus according to claim 7.
前記ユーザ状態検知手段で検知されたユーザの状態を示す情報を送信する送信手段と、
前記所定の基準を示す情報と前記仮想現実提示用の映像とを受信する受信手段と、
前記受信された情報に基づいて、前記所定の基準を設定する設定手段を更に具備し、
前記判定手段は、前記設定手段で設定された前記所定の基準を前記ユーザ状態検知手段で検知されたユーザの状態が満たしているかを判定し、
前記表示制御手段は、前記判定手段において、前記設定手段で設定された前記所定の基準を前記ユーザ状態検知手段で検知されたユーザの状態が満たしていると判定された場合に、前記受信手段で受信された前記仮想現実提示用の映像を前記映像表示手段で表示する制御を行う、
請求項7乃至11のいずれか1項に記載の仮想現実提示装置。
Transmitting means for transmitting information indicating the state of the user detected by the user state detecting means;
Receiving means for receiving the information indicating the predetermined reference and the virtual reality presentation video;
Further comprising setting means for setting the predetermined reference based on the received information;
The determination unit determines whether the user's state detected by the user state detection unit satisfies the predetermined criterion set by the setting unit;
The display control means is the receiving means when the determining means determines that the user's condition detected by the user condition detecting means satisfies the predetermined reference set by the setting means. Control to display the received virtual reality presentation video on the video display means;
The virtual reality presentation device according to claim 7.
ユーザの状態を検知するユーザ状態検知ステップと、
前記検知されたユーザの状態が所定の基準を満たしているかを判定する判定ステップと、
前記検知されたユーザの状態に基づいて仮想現実提示用の映像を生成する映像生成ステップと、
前記基準を満たしていると判定された場合に、前記仮想現実提示用の映像を表示させる制御を行う映像表示制御ステップと、
前記制御に基づいて、前記生成された仮想現実提示用の映像を表示する映像表示ステップと、
を有する仮想現実提示方法。
A user status detection step for detecting a user status;
A determination step of determining whether the detected state of the user satisfies a predetermined criterion;
A video generation step of generating a video for virtual reality presentation based on the detected state of the user;
A video display control step of performing control to display the virtual reality presentation video when it is determined that the criterion is satisfied;
Based on the control, a video display step for displaying the generated video for virtual reality presentation;
A virtual reality presentation method comprising:
ユーザの状態を検知するユーザ状態検知手段と、
現在提示可能な仮想現実の世界の仮想現実度を算出する提示可能仮想現実度算出手段と、
前記ユーザの状態に基づいて、前記提示可能仮想現実度算出手段で算出された仮想現実度に収まるように仮想現実提示用の映像を生成する映像生成処理手段と、
前記生成された映像を表示する表示手段と、
を備える仮想現実提示システム。
User status detection means for detecting the user status;
Presentable virtual reality calculation means for calculating the virtual reality of the present virtual reality world;
Video generation processing means for generating a video for virtual reality presentation so as to be within the virtual reality calculated by the presentable virtual reality calculation means based on the state of the user;
Display means for displaying the generated video;
A virtual reality presentation system comprising:
現在提示している仮想現実の世界の仮想現実度を算出する提示中仮想現実度算出手段を備え、
前記提示可能仮想現実度算出手段は、前記提示中仮想現実度算出手段で算出された現在提示している仮想現実の世界の仮想現実度を基準として、現在提示可能な仮想現実の世界の仮想現実度を算出する、
請求項14に記載の仮想現実提示システム。
A virtual reality calculation means for presenting that calculates the virtual reality of the virtual reality world currently being presented;
The presentable virtual reality calculation means is based on the virtual reality of the present virtual reality world calculated by the presenting virtual reality calculation means. Calculate the degree,
The virtual reality presentation system according to claim 14.
ユーザの錯覚度を算出する錯覚度算出手段を備え、
前記提示可能仮想現実度算出手段は、前記提示中仮想現実度算出手段で算出された現在提示している仮想現実の世界の仮想現実度を基準として、前記錯覚度算出手段で算出された錯覚度に基づいて決定される値を加算、減算、乗算、除算のいずれかを実行することで現在提示可能な仮想現実の世界の仮想現実度を算出する、
請求項15に記載の仮想現実提示システム。
An illusion degree calculating means for calculating the illusion degree of the user is provided,
The presentable virtual reality calculation unit is configured to calculate the illusion degree calculated by the illusion degree calculation unit based on the virtual reality degree of the currently presented virtual reality calculated by the presenting virtual reality calculation unit. Calculate the virtual reality of the virtual reality world that can be presented by adding, subtracting, multiplying, or dividing the value determined based on
The virtual reality presentation system according to claim 15.
前記ユーザ状態検知手段は、ユーザの脳波を検出する脳波センサ、ユーザの顔の一部又は全部を撮影する内部カメラ、ユーザの血圧を測定する血圧センサ、ユーザの心拍数を計測する脈拍センサ、ユーザの発汗量を検知する発汗量センサ、の少なくとも1つを備え、
前記錯覚度算出手段は、前記ユーザ状態検知手段が備えるいずれかのセンサにおける検知結果に基づいて前記ユーザの錯覚度を算出する、
請求項16に記載の仮想現実提示システム。
The user state detection means includes an electroencephalogram sensor that detects a user's brain wave, an internal camera that captures part or all of the user's face, a blood pressure sensor that measures the user's blood pressure, a pulse sensor that measures the user's heart rate, and the user Comprising at least one perspiration amount sensor for detecting the perspiration amount of
The illusion degree calculating means calculates the illusion degree of the user based on a detection result in any one of the sensors provided in the user state detecting means.
The virtual reality presentation system according to claim 16.
複数の仮想現実オブジェクトを少なくとも記憶する仮想現実コンテンツ記憶手段と、
仮想空間を生成する仮想空間生成手段と、
前記仮想空間に前記仮想現実オブジェクトを配置する仮想現実オブジェクト配置手段と、
前記ユーザ状態に基づいて、前記仮想空間における視点座標及び視線方向を制御する視点制御手段と、
前記視点制御手段で更新される視点座標及び視線方向に基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトを描画する描画処理手段と、
を備え、
前記仮想現実オブジェクト配置手段は、前記提示可能仮想現実度算出手段で算出された仮想現実度に収まるように前記仮想現実オブジェクトを前記仮想空間に配置する、
請求項14乃至17のいずれか1項に記載の仮想現実提示システム。
Virtual reality content storage means for storing at least a plurality of virtual reality objects;
Virtual space generation means for generating a virtual space;
Virtual reality object placement means for placing the virtual reality object in the virtual space;
Viewpoint control means for controlling viewpoint coordinates and line-of-sight direction in the virtual space based on the user state;
Drawing processing means for drawing the virtual reality object arranged in the virtual space based on the viewpoint coordinates and the line-of-sight direction updated by the viewpoint control means;
With
The virtual reality object arranging means arranges the virtual reality object in the virtual space so as to be within the virtual reality calculated by the presentable virtual reality calculating means;
The virtual reality presentation system according to any one of claims 14 to 17.
前記仮想現実オブジェクト配置手段は、前記提示可能な仮想現実の世界の仮想現実度が、現在提示中の仮想現実の世界の仮想現実度を下回っている場合に、仮想空間に配置中の仮想現実オブジェクトを前記仮想空間から削除することで、提示する仮想現実の世界の仮想現実度が提示可能な仮想現実の世界の仮想現実度に収まるようにすることを特徴とする、
請求項18に記載の仮想現実提示システム。
The virtual reality object placement unit is configured to display a virtual reality object being placed in a virtual space when the virtual reality of the presentable virtual reality world is lower than the virtual reality of the virtual reality world currently being presented. By removing the virtual reality from the virtual space so that the virtual reality of the virtual reality world to be presented falls within the virtual reality of the virtual reality world that can be presented.
The virtual reality presentation system according to claim 18.
前記仮想現実コンテンツ記憶手段は、前記仮想現実オブジェクトの各々に設定されている仮想現実度と対応付けて前記仮想現実オブジェクトを記憶し、
前記仮想現実オブジェクト配置手段は、前記提示可能仮想現実度算出手段で算出された仮想現実度よりも低い仮想現実度と対応付けられている前記仮想現実オブジェクトを前記仮想現実コンテンツ記憶手段より読み出して前記仮想空間に配置する、
請求項19に記載の仮想現実提示システム。
The virtual reality content storage means stores the virtual reality object in association with the virtual reality set for each of the virtual reality objects;
The virtual reality object placement unit reads the virtual reality object associated with a virtual reality lower than the virtual reality calculated by the presentable virtual reality calculation unit from the virtual reality content storage unit and reads the virtual reality object Place it in virtual space,
The virtual reality presentation system according to claim 19.
前記仮想現実オブジェクト配置手段は、前記提示可能仮想現実度算出手段で算出された前記仮想現実度から前記提示中仮想現実度算出手段で算出された仮想現実度を減算することで求まる余剰仮想現実度よりも低い仮想現実度と対応付けられている前記仮想現実オブジェクトを前記仮想現実コンテンツ記憶手段より読み出して前記仮想空間に配置する、
請求項20に記載の仮想現実提示システム。
The virtual reality object placement unit obtains an excess virtual reality obtained by subtracting the virtual reality calculated by the presenting virtual reality calculating unit from the virtual reality calculated by the presentable virtual reality calculating unit. The virtual reality object associated with a lower virtual reality degree is read from the virtual reality content storage means and arranged in the virtual space;
The virtual reality presentation system according to claim 20.
ユーザの周囲の状況を検知する周囲状況検知手段と、
前記周囲状況検知手段における検知結果に基づいてユーザの周囲の状況を特定する周囲状況特定手段と、
を備え、
前記仮想現実コンテンツ記憶手段は、前記仮想現実オブジェクトと周囲状況別の仮想現実度との対応関係を記憶し、
前記仮想現実オブジェクト配置手段は、前記仮想空間に配置する仮想現実オブジェクトの、前記周囲状況特定手段で特定されたユーザの周囲の状況に対応する仮想現実度が、前記提示可能仮想現実度算出手段で算出される前記仮想現実度を下回る様に、前記仮想現実オブジェクトを選択して前記仮想現実オブジェクト記憶手段より読み出し、前記仮想空間に配置する、
請求項18乃至21のいずれか1項に記載の仮想現実提示システム。
Ambient condition detection means for detecting the situation of the user's surroundings,
Ambient situation specifying means for specifying a situation around the user based on a detection result in the surrounding situation detection means,
With
The virtual reality content storage means stores a correspondence relationship between the virtual reality object and virtual reality for each surrounding situation,
The virtual reality object placement means is a virtual reality degree calculation means that provides a virtual reality degree corresponding to a situation around the user specified by the surrounding situation specifying means of the virtual reality object placed in the virtual space. The virtual reality object is selected and read from the virtual reality object storage means so as to be lower than the calculated virtual reality, and is arranged in the virtual space.
The virtual reality presentation system according to any one of claims 18 to 21.
前記周囲状況検知手段は、ユーザの周囲の状況を撮影して周囲景色画像を取得し、
前記周囲景色画像に基づいて光源の位置座標及び光源の照度又は輝度を更新する光源制御手段と、
前記周囲景色画像に含まれる物体のモデルデータを生成するモデルデータ生成手段と、
を更に備え、
前記描画処理手段は、前記視点制御手段で更新される視点座標及び視線方向に基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトを投影して2次元画像を生成する投影処理と、前記光源制御部で更新される光源の位置座標及び光源の照度又は輝度に基づいて仮想現実オブジェクトの輝度を算出するシェーディング処理と、前記モデルデータに基づいて前記仮想現実オブジェクトの一部を隠す陰面処理と、を少なくとも実行することで前記仮想現実提示用の映像を生成する、
請求項18乃至22のいずれか1項に記載の仮想現実提示システム。
The ambient condition detection means captures an ambient scene image by photographing the situation of the user,
Light source control means for updating the position coordinates of the light source and the illuminance or luminance of the light source based on the surrounding scenery image;
Model data generating means for generating model data of an object included in the surrounding scenery image;
Further comprising
The drawing processing unit projects a virtual reality object arranged in the virtual space to generate a two-dimensional image based on the viewpoint coordinates and the line-of-sight direction updated by the viewpoint control unit; A shading process for calculating the brightness of the virtual reality object based on the position coordinates of the light source updated by the light source control unit and the illuminance or brightness of the light source; and a hidden surface process for hiding a part of the virtual reality object based on the model data; The virtual reality presentation video is generated by executing at least
The virtual reality presentation system according to any one of claims 18 to 22.
ユーザの状態を検知するユーザ状態検知ステップと、
現在提示可能な仮想現実の世界の仮想現実度を算出する提示可能仮想現実度算出ステップと、
前記ユーザの状態に基づいて、前記算出された仮想現実度に収まるように仮想現実提示用の映像を生成する映像生成ステップと、
前記生成された映像を表示する表示ステップと、
を有する仮想現実提示方法。
A user status detection step for detecting a user status;
A presentable virtual reality calculation step for calculating a virtual reality of a virtual reality world that can be currently presented;
Based on the state of the user, a video generation step of generating a video for virtual reality presentation so as to fit within the calculated virtual reality degree;
A display step for displaying the generated video;
A virtual reality presentation method comprising:
仮想現実サービスに係る仮想現実の世界をユーザに提示する仮想現実提示装置と、
前記仮想現実の世界の構築に使用する仮想現実提示用映像データを少なくとも生成して前記仮想現実提示装置へ送信する仮想現実サービス提供サーバと、
前記仮想現実提示装置が前記ユーザに提示した前記仮想現実の世界を再現可能な状態で、前記仮想現実の世界の構築に係るデータを仮想現実関連データとして記憶する提示済み仮想現実関連データ記憶データベースと、
を具備する仮想現実提示システム。
A virtual reality presentation device that presents a virtual reality world related to a virtual reality service to a user;
A virtual reality service providing server that generates at least virtual reality presentation video data to be used to construct the virtual reality world and transmits the virtual reality presentation video data to the virtual reality presentation device;
A presented virtual reality-related data storage database that stores data related to construction of the virtual reality world as virtual reality-related data in a state in which the virtual reality presentation device can reproduce the virtual reality world presented to the user; ,
A virtual reality presentation system comprising:
少なくとも前記仮想現実サービスに係る仮想現実オブジェクトを含む前記仮想現実の世界の構築に使用する仮想現実コンテンツを記憶する仮想現実コンテンツ記憶データベースを更に具備し、
前記仮想現実サービス提供サーバは、
仮想空間を生成する仮想空間生成手段と、
前記仮想現実サービスに係る前記仮想現実オブジェクトを前記仮想空間に配置する仮想現実オブジェクト配置手段と、
前記仮想空間に配置されている仮想現実オブジェクトをリアルタイムに描画して前記仮想現実提示用映像データを順次生成する映像生成手段と、
を少なくとも具備し、
前記仮想現実提示装置は、前記生成された仮想現実提示用映像データに基づいて前記仮想現実オブジェクトを含む仮想現実提示用映像を表示することで前記仮想現実の世界をユーザに提示する、
請求項に記載の仮想現実提示システム。
A virtual reality content storage database for storing virtual reality content used to construct the virtual reality world including at least the virtual reality object related to the virtual reality service;
The virtual reality service providing server includes:
Virtual space generation means for generating a virtual space;
Virtual reality object placement means for placing the virtual reality object related to the virtual reality service in the virtual space;
Video generation means for sequentially generating the virtual reality presentation video data by rendering the virtual reality object arranged in the virtual space in real time;
Comprising at least
The virtual reality presentation device presents the virtual reality world to the user by displaying a virtual reality presentation video including the virtual reality object based on the generated virtual reality presentation video data.
The virtual reality presentation system according to claim.
前記仮想現実提示装置は、
ユーザの状態を検知するユーザ状態検知手段と、
前記検知されたユーザの状態を示すユーザ状態情報を無線送信する無線送信手段と、
前記仮想現実提示用映像データを無線受信する無線受信手段と、
前記無線受信された仮想現実提示用映像データに基づいて、前記仮想現実提示用映像を表示する表示手段と、
を具備し、
前記仮想現実サービス提供サーバは、
前記ユーザ状態情報を受信する受信手段と、
前記映像生成手段で順次生成される前記仮想現実提示用映像データを送信する送信手段と、
を更に具備し、
前記映像生成手段は、前記ユーザ状態情報に基づいて特定される視点位置座標及び視線方向に基づいて前記仮想空間に配置されている前記仮想現実オブジェクトをリアルタイムに描画することで前記仮想現実提示用映像データを順次生成する、
請求項26に記載の仮想現実提示システム。
The virtual reality presentation device includes:
User status detection means for detecting the user status;
Wireless transmission means for wirelessly transmitting user status information indicating the detected user status;
Wireless receiving means for wirelessly receiving the virtual reality presentation video data;
Display means for displaying the virtual reality presentation video based on the wirelessly received virtual reality presentation video data;
Comprising
The virtual reality service providing server includes:
Receiving means for receiving the user status information;
Transmission means for transmitting the virtual reality presentation video data sequentially generated by the video generation means;
Further comprising
The video generation means renders the virtual reality presentation video in real time by drawing the virtual reality object arranged in the virtual space based on the viewpoint position coordinates and the line-of-sight direction specified based on the user state information. Generate data sequentially,
The virtual reality presentation system according to claim 26.
前記仮想現実コンテンツ記憶データベースは、前記仮想現実コンテンツとして、前記仮想現実サービスに係る音声データを記憶し、
前記仮想現実サービス提供サーバは、前記仮想現実コンテンツ記憶データベースに記憶されている前記仮想現実サービスに係る音声データに基づいて、仮想現実提示用音声データを生成する音声生成処理手段を更に具備し、
前記仮想現実提示装置は、前記仮想現実提示用音声データをアナログ電気信号に変換して仮想現実提示用音声を外部へ出力する音声出力手段を更に具備する、
請求項27に記載の仮想現実提示システム。
The virtual reality content storage database stores audio data related to the virtual reality service as the virtual reality content,
The virtual reality service providing server further includes voice generation processing means for generating virtual reality presentation voice data based on voice data related to the virtual reality service stored in the virtual reality content storage database,
The virtual reality presentation device further includes voice output means for converting the virtual reality presentation voice data into an analog electrical signal and outputting the virtual reality presentation voice to the outside.
The virtual reality presentation system according to claim 27.
前記仮想現実提示装置は、
ユーザが発する音声を集音してユーザ音声データを取得する音声入力手段と、
少なくともユーザの前方方向を撮影して前方景色画像を取得する画像撮影手段と、
を更に具備し、
前記仮想現実サービス提供サーバは、
前記ユーザ音声データに含まれる音声コンテキストを抽出する音声コンテキスト抽出手段と、
前記前方景色画像から照度又は輝度に関する光学情報を抽出し、光源の位置座標及び前記光源の照度又は輝度を更新する光源制御手段と、
前記ユーザ状態情報に基づいて前記視点位置座標及び視線方向を更新する視点制御手段と、
を更に具備し、
前記映像生成手段は、前記視点制御手段によって更新される前記視点位置座標及び視線方向と、前記光源制御手段によって更新される前記光源位置座標及び前記光源の照度又は輝度に基づいて、前記仮想空間に配置されている前記仮想現実オブジェクトをリアルタイムに描画することで前記仮想現実提示用映像データを順次生成する、
請求項28に記載の仮想現実提示システム。
The virtual reality presentation device includes:
Voice input means for collecting user voice data by collecting voice uttered by the user;
Image photographing means for photographing at least the front direction of the user and acquiring a front scenery image;
Further comprising
The virtual reality service providing server includes:
Voice context extraction means for extracting a voice context included in the user voice data;
Light source control means for extracting optical information relating to illuminance or luminance from the front scenery image, and updating the position coordinates of the light source and the illuminance or luminance of the light source;
Viewpoint control means for updating the viewpoint position coordinates and the line-of-sight direction based on the user state information;
Further comprising
The video generation unit is configured to store the virtual space based on the viewpoint position coordinates and the line-of-sight direction updated by the viewpoint control unit and the light source position coordinates and the illuminance or luminance of the light source updated by the light source control unit. Sequentially generating the virtual reality presentation video data by rendering the arranged virtual reality objects in real time;
The virtual reality presentation system according to claim 28.
前記仮想現実コンテンツ記憶データベースは、前記仮想現実コンテンツとして、前記仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御プログラムを更に記憶し、
前記仮想現実サービス提供サーバは、
前記仮想現実コンテンツ記憶データベースから読み出した前記仮想現実オブジェクト挙動制御プログラムを実行することで、前記仮想空間に配置されている前記仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御手段を更に具備する、
請求項29に記載の仮想現実提示システム。
The virtual reality content storage database further stores a virtual reality object behavior control program for controlling the behavior of the virtual reality object as the virtual reality content,
The virtual reality service providing server includes:
A virtual reality object behavior control means for controlling the behavior of the virtual reality object placed in the virtual space by executing the virtual reality object behavior control program read from the virtual reality content storage database;
The virtual reality presentation system according to claim 29.
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実サービス提供サーバから前記仮想現実提示装置へ送信される前記仮想現実提示用映像データと前記仮想現実提示用音声データとを記憶する、
請求項30に記載の仮想現実提示システム。
The presented virtual reality related data storage database stores the virtual reality presentation video data and the virtual reality presentation audio data transmitted from the virtual reality service providing server to the virtual reality presentation device.
The virtual reality presentation system according to claim 30.
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実提示装置から仮想現実サービス提供サーバへ送信される前記前方景色画像を記憶する、
請求項31に記載の仮想現実提示システム。
The presented virtual reality related data storage database stores the front scene image transmitted from the virtual reality presentation device to a virtual reality service providing server,
The virtual reality presentation system according to claim 31.
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実提示装置から前記仮想現実サービス提供サーバへ送信される前記ユーザ状態情報を時系列に纏めたユーザ状態履歴情報を記憶する、
請求項31又は32に記載の仮想現実提示システム。
The presented virtual reality related data storage database stores user status history information in which the user status information transmitted from the virtual reality presentation device to the virtual reality service providing server is summarized in time series.
The virtual reality presentation system according to claim 31 or 32.
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実提示装置で入力される前記ユーザ音声データを時系列に纏めたユーザ音声履歴情報を記憶する、
請求項31乃至33のいずれか1項に記載の仮想現実提示システム。
The presented virtual reality related data storage database stores user voice history information in which the user voice data input by the virtual reality presentation device is summarized in time series.
The virtual reality presentation system according to any one of claims 31 to 33.
前記提示済み仮想現実関連データ記憶データベースは、少なくとも前記仮想空間に配置されている前記仮想現実オブジェクトを識別する仮想現実オブジェクト識別情報を時系列に纏めた仮想現実オブジェクト履歴情報を記憶する、
請求項30に記載の仮想現実提示システム。
The presented virtual reality related data storage database stores virtual reality object history information in which virtual reality object identification information for identifying at least the virtual reality object arranged in the virtual space is collected in time series.
The virtual reality presentation system according to claim 30.
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実オブジェクトの前記仮想空間内での位置座標と、前記仮想現実オブジェクトの挙動に係る情報とを更に時系列で纏めた前記仮想現実オブジェクト履歴情報を記憶する、
請求項35記載の仮想現実提示システム。
The presented virtual reality related data storage database includes the virtual reality object history information in which the position coordinates of the virtual reality object in the virtual space and the information related to the behavior of the virtual reality object are further summarized in time series. Remember,
36. The virtual reality presentation system according to claim 35.
(仮想現実関連データの種類:制御プログラム実行履歴)
前記提示済み仮想現実関連データ記憶データベースは、少なくとも前記仮想現実コンテンツ記憶データベースに対する前記仮想現実サービス提供サーバからのアクセス履歴を時系列に纏めたアクセス履歴情報を記憶する、
請求項30に記載の仮想現実提示システム。
(Type of virtual reality related data: control program execution history)
The presented virtual reality related data storage database stores access history information in which at least the access history from the virtual reality service providing server for the virtual reality content storage database is summarized in time series.
The virtual reality presentation system according to claim 30.
前記提示済み仮想現実関連データ記憶データベースは、前記仮想現実コンテンツ記憶データベースから読み出された制御プログラムの実行履歴を更に記憶する、
請求項37に記載の仮想現実提示システム。
The presented virtual reality related data storage database further stores an execution history of the control program read from the virtual reality content storage database.
The virtual reality presentation system according to claim 37.
仮想現実サービスに係る仮想現実の世界の構築に使用する仮想現実提示用映像データを少なくとも生成する生成ステップと、
前記生成された仮想現実提示用映像データを表示することで前記仮想現実の世界をユーザに提示する提示ステップと、
前記ユーザに提示した前記仮想現実の世界を再現可能な状態で、前記仮想現実の世界の構築に係るデータを仮想現実関連データとして記憶する提示済み仮想現実関連データ記憶ステップと、
を有する仮想現実提示方法。
A generation step of generating at least virtual reality presentation video data used to construct a virtual reality world related to a virtual reality service;
A presentation step of presenting the virtual reality world to the user by displaying the generated virtual reality presentation video data;
Presented virtual reality related data storage step for storing data related to construction of the virtual reality world as virtual reality related data in a state where the virtual reality world presented to the user can be reproduced;
A virtual reality presentation method comprising:
JP2014171042A 2014-08-26 2014-08-26 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method Pending JP2016045815A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014171042A JP2016045815A (en) 2014-08-26 2014-08-26 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171042A JP2016045815A (en) 2014-08-26 2014-08-26 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method

Publications (1)

Publication Number Publication Date
JP2016045815A true JP2016045815A (en) 2016-04-04

Family

ID=55636297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171042A Pending JP2016045815A (en) 2014-08-26 2014-08-26 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method

Country Status (1)

Country Link
JP (1) JP2016045815A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527687A (en) * 2016-10-10 2017-03-22 北京小鸟看看科技有限公司 Virtual reality helmet and double computing platform method for realizing same
KR20170130906A (en) * 2016-05-20 2017-11-29 주식회사 크레펀 Method For Providing Regional Base Contents And System thereof
JP2018109937A (en) * 2016-12-28 2018-07-12 株式会社コロプラ Information processing method, apparatus, information processing system, and program causing computer to execute the information processing method
WO2018080149A3 (en) * 2016-10-25 2018-08-09 포항공과대학교 산학협력단 Biometric-linked virtual reality-cognitive rehabilitation system
KR101901261B1 (en) * 2017-12-04 2018-09-21 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Virtual-Reality
KR101901258B1 (en) * 2017-12-04 2018-09-21 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Optimizing Images of compressed package files
CN110692068A (en) * 2017-05-31 2020-01-14 本田技研工业株式会社 Skill information processing system, method and device
WO2020039568A1 (en) * 2018-08-23 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
CN111655148A (en) * 2018-12-12 2020-09-11 黄英进 Heart type analysis method based on augmented reality and intelligent equipment
JP2021015185A (en) * 2019-07-11 2021-02-12 株式会社ネクスコ・エンジニアリング北海道 Projection system, projection device, projection method and program
WO2021131543A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Image processing device, image processing method, and image processing program
US11068050B2 (en) 2017-02-21 2021-07-20 Samsung Electronics Co., Ltd. Method for controlling display of virtual image based on eye area size, storage medium and electronic device therefor
JP7364726B2 (en) 2021-04-01 2023-10-18 カール・ツアイス・アーゲー A method of forming an image of an object, a computer program product, and an image forming system for carrying out the method
US11812180B2 (en) 2019-12-26 2023-11-07 Beijing Bytedance Network Technology Co., Ltd. Image processing method and apparatus
JP7468850B2 (en) 2018-10-12 2024-04-16 株式会社豊崎会計事務所 Information processing device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170130906A (en) * 2016-05-20 2017-11-29 주식회사 크레펀 Method For Providing Regional Base Contents And System thereof
KR101892566B1 (en) * 2016-05-20 2018-08-28 주식회사 크레펀 Method For Providing Regional Base Contents And System thereof
CN106527687A (en) * 2016-10-10 2017-03-22 北京小鸟看看科技有限公司 Virtual reality helmet and double computing platform method for realizing same
WO2018080149A3 (en) * 2016-10-25 2018-08-09 포항공과대학교 산학협력단 Biometric-linked virtual reality-cognitive rehabilitation system
JP2018109937A (en) * 2016-12-28 2018-07-12 株式会社コロプラ Information processing method, apparatus, information processing system, and program causing computer to execute the information processing method
US11068050B2 (en) 2017-02-21 2021-07-20 Samsung Electronics Co., Ltd. Method for controlling display of virtual image based on eye area size, storage medium and electronic device therefor
CN110692068A (en) * 2017-05-31 2020-01-14 本田技研工业株式会社 Skill information processing system, method and device
KR101901261B1 (en) * 2017-12-04 2018-09-21 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Virtual-Reality
KR101901258B1 (en) * 2017-12-04 2018-09-21 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Optimizing Images of compressed package files
JP7317024B2 (en) 2018-08-23 2023-07-28 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JPWO2020039568A1 (en) * 2018-08-23 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント Image generator and image generation method
US11373379B2 (en) 2018-08-23 2022-06-28 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method for generating augmented reality images based on user interaction
WO2020039568A1 (en) * 2018-08-23 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JP7468850B2 (en) 2018-10-12 2024-04-16 株式会社豊崎会計事務所 Information processing device
CN111655148A (en) * 2018-12-12 2020-09-11 黄英进 Heart type analysis method based on augmented reality and intelligent equipment
JP2021015185A (en) * 2019-07-11 2021-02-12 株式会社ネクスコ・エンジニアリング北海道 Projection system, projection device, projection method and program
US11812180B2 (en) 2019-12-26 2023-11-07 Beijing Bytedance Network Technology Co., Ltd. Image processing method and apparatus
WO2021131543A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Image processing device, image processing method, and image processing program
JP7364726B2 (en) 2021-04-01 2023-10-18 カール・ツアイス・アーゲー A method of forming an image of an object, a computer program product, and an image forming system for carrying out the method

Similar Documents

Publication Publication Date Title
JP2016045815A (en) Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
US11497986B2 (en) Mixed reality system for context-aware virtual object rendering
US11451882B2 (en) Cinematic mastering for virtual reality and augmented reality
US11363349B2 (en) Geometry matching in virtual reality and augmented reality
JP6785282B2 (en) Live broadcasting method and equipment by avatar
US10684467B2 (en) Image processing for head mounted display devices
JP2014187559A (en) Virtual reality presentation system and virtual reality presentation method
KR101964223B1 (en) System and method for augmented and virtual reality
KR102387314B1 (en) System and method for augmented and virtual reality
JP2016045814A (en) Virtual reality service providing system and virtual reality service providing method
JP2014182597A (en) Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
US20210350604A1 (en) Audiovisual presence transitions in a collaborative reality environment
US20190005732A1 (en) Program for providing virtual space with head mount display, and method and information processing apparatus for executing the program
JP2014164537A (en) Virtual reality service providing system and virtual reality service providing method
JP2014182719A (en) Virtual reality presentation system, and virtual reality presentation method
CN111862711A (en) Entertainment and leisure learning device based on 5G internet of things virtual reality
WO2021246183A1 (en) Information processing device, information processing method, and program
JP2020102782A (en) Content distribution system, distribution device, reception device, and program
JP2014170330A (en) Virtual reality presentation system, virtual reality presentation method and virtual reality presentation device
KR20140136288A (en) Thema park video making service pproviding system and method by user&#39;s participation
WO2022209129A1 (en) Information processing device, information processing method and program
JP6937803B2 (en) Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user.
JP2020108177A (en) Content distribution system, distribution device, reception device, and program
JP2023181567A (en) Information processing apparatus, information processing method, information processing system, and data generation method