JP2022034091A - Three-dimensional data reproduction device - Google Patents

Three-dimensional data reproduction device Download PDF

Info

Publication number
JP2022034091A
JP2022034091A JP2018241449A JP2018241449A JP2022034091A JP 2022034091 A JP2022034091 A JP 2022034091A JP 2018241449 A JP2018241449 A JP 2018241449A JP 2018241449 A JP2018241449 A JP 2018241449A JP 2022034091 A JP2022034091 A JP 2022034091A
Authority
JP
Japan
Prior art keywords
scene
tracking
information
viewpoint
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018241449A
Other languages
Japanese (ja)
Inventor
智幸 山本
Tomoyuki Yamamoto
靖昭 徳毛
Yasuaki Tokuge
真毅 高橋
Masatake Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018241449A priority Critical patent/JP2022034091A/en
Priority to PCT/JP2019/050084 priority patent/WO2020137877A1/en
Publication of JP2022034091A publication Critical patent/JP2022034091A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide a 3D data generation device and 3D data reproduction device, which are compatible with various three-dimensional scenes and various tracking functions.SOLUTION: A 3D data reproduction device (1) provided herein is configured to determine at least either of the scene placement and user's viewpoint in a virtual space on the basis of scene information and tracking information.SELECTED DRAWING: Figure 1

Description

本発明の一態様は、ユーザが視点を制御して三次元シーンを鑑賞するためのサービスを提供するシステムを構成する三次元データ再生装置に関する。 One aspect of the present invention relates to a three-dimensional data reproduction device constituting a system for providing a service for a user to control a viewpoint and appreciate a three-dimensional scene.

ユーザが視点の位置および方向を制御して三次元シーン(3Dシーン、シーン)を鑑賞するサービス(6DoFサービス)は、三次元データ生成装置により生成された三次元シーンを表す三次元データを、三次元データ再生装置に入力して再生することで実現される。 The service (6DoF service) in which the user controls the position and direction of the viewpoint to view the 3D scene (3D scene, scene) is a 3D data representing the 3D scene generated by the 3D data generator. It is realized by inputting to the original data reproduction device and reproducing it.

三次元データ再生装置は、ユーザの方向または位置を検出するトラッキング情報を参照して、ユーザ視点の三次元シーンに相当する映像(視点映像)を生成して提示する。映像の提示には例えばヘッドマウントディスプレイ(HMD: Head Mount Display)が利用され
る。
The three-dimensional data reproduction device refers to the tracking information for detecting the direction or position of the user, and generates and presents an image (viewpoint image) corresponding to the three-dimensional scene of the user's viewpoint. For example, a head mounted display (HMD) is used to present an image.

一般的な6DoFサービスは、単一のサービス提供者が特定のトラッキング機能を有するHMD向けに三次元シーンを準備しユーザに提供することで実現されている。例えば、特許文献1では、ユーザの位置、速度、加速度に基づいて蓄積された三次元シーン(VRコンテンツ)からユーザの状態に合わせて視点映像を生成して配信する方法が開示されている。 A typical 6DoF service is realized by a single service provider preparing a 3D scene for an HMD with a specific tracking function and providing it to the user. For example, Patent Document 1 discloses a method of generating and distributing a viewpoint image according to a user's state from a three-dimensional scene (VR content) accumulated based on a user's position, speed, and acceleration.

特開2018-166279号公報Japanese Unexamined Patent Publication No. 2018-166279

高度な6DoFサービスでは、多様なサービス提供者またはユーザが三次元シーン構成要素を提供し、別のサービス提供者やユーザが三次元シーンを構成して提供する形態も想定される。この場合、多数かつ多様な三次元シーンが提供されることになる。 In advanced 6DoF services, it is assumed that various service providers or users provide 3D scene components, and another service provider or user configures and provides 3D scenes. In this case, a large number of diverse 3D scenes will be provided.

また、トラッキング技術の開発が進み、多様なトラッキング機能を有するHMDやトラッ
キングシステムが存在している。例えば、ユーザの向きを表す3自由度の方向をトラッキ
ング可能なシステム、ユーザの向きを表す方向とユーザの位置の計6自由度をトラッキン
グ可能なシステムが利用されている。
In addition, the development of tracking technology has progressed, and HMDs and tracking systems with various tracking functions exist. For example, a system capable of tracking the direction of 3 degrees of freedom indicating the direction of the user and a system capable of tracking a total of 6 degrees of freedom of the direction indicating the direction of the user and the position of the user are used.

特定のサービス提供者が特定のトラッキングシステムを利用するユーザに対して6DoFサービスを提供する場合、事前に適切な三次元シーンとユーザ視点を関連付ける方法を決めておく事で、対象となるトラッキングシステムを利用するユーザに対して6DoFサービスを提供できる。しかしながら、多様な三次元シーンを多様なトラッキングシステムを利用するユーザに提供する場合において、事前に全ての組み合わせを考慮した設計を行うことは困難であり、従来技術においてはユーザに好ましい視点映像を提供できないという課題があった。 When a specific service provider provides a 6DoF service to a user who uses a specific tracking system, the target tracking system can be determined by deciding in advance how to associate the appropriate 3D scene with the user's viewpoint. 6DoF service can be provided to users. However, when providing various 3D scenes to users who use various tracking systems, it is difficult to design in consideration of all combinations in advance, and the conventional technology provides a preferable viewpoint image to the user. There was a problem that it could not be done.

上記課題を解決するために、本発明の一態様に係る予測画像生成装置は、シーン情報およびトラッキング情報に基づいてシーン配置を決定するシーン配置部、または、シーン情報およびトラッキング情報に基づいてユーザ視点を設定する視点設定部を備え、前記トラッキング情報はトラッキングシステム情報を含むことを特徴としている。 In order to solve the above problems, the predictive image generation device according to one aspect of the present invention is a scene arrangement unit that determines the scene arrangement based on the scene information and the tracking information, or a user viewpoint based on the scene information and the tracking information. The tracking information includes tracking system information.

本発明の一態様によれば、多様な三次元シーンを多様なトラッキングシステムで再生する場合にユーザに対して好適な視点映像を合成して提示できる。 According to one aspect of the present invention, when playing back various three-dimensional scenes with various tracking systems, it is possible to synthesize and present a viewpoint image suitable for the user.

実施形態1に係る三次元データ再生装置の機能ブロック図である。It is a functional block diagram of the 3D data reproduction apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る三次元データ再生装置を含む三次元データ配信システムの機能ブロック図である。It is a functional block diagram of the 3D data distribution system including the 3D data reproduction apparatus which concerns on Embodiment 1. FIG. 3Dシーン、仮想空間(描画対象空間)、ユーザ視点、トラッキングシステム、視点映像を説明に用いる図である。It is a figure which uses a 3D scene, a virtual space (drawing target space), a user viewpoint, a tracking system, and a viewpoint image for explanation. 三次元データ再生処理の手順を表すフロー図である。It is a flow diagram which shows the procedure of 3D data reproduction processing. トラッキング情報の構成を例示した図である。It is a figure which illustrated the structure of the tracking information. 3Dシーン情報の構成を例示する図である。It is a figure which illustrates the structure of 3D scene information. シーン範囲を利用した配置対象領域への3Dシーン配置の例を表す図である。It is a figure which shows the example of the 3D scene arrangement in the arrangement target area using a scene range.

以下、本発明の実施形態について、詳細に説明する。ただし、本実施形態に記載されている構成は、特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例に過ぎない。 Hereinafter, embodiments of the present invention will be described in detail. However, the configuration described in the present embodiment is not intended to limit the scope of the present invention to the present invention unless otherwise specified, and is merely an explanatory example.

〔第1の実施形態〕
以下、図面を参照しながら本発明の実施形態について説明する。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態(第1の実施形態、実施形態1)に係る三次元データ再生装置1の構成を示す概略図である。三次元データ再生装置1は、トラッキング情報取得部11、3Dシー
ン情報取得部12、3Dシーン配置部13、視点設定部14、メディアデータ取得部15、および、視点映像描画部16から構成される。三次元データ再生装置1は、概略的には、外部から取
得した三次元シーン(3Dシーン)を仮想空間(描画対象空間)に配置し、ユーザ視点に合わせて描画することで視点映像を生成して出力する。
FIG. 1 is a schematic diagram showing a configuration of a three-dimensional data reproduction device 1 according to the present embodiment (first embodiment, first embodiment). The 3D data reproduction device 1 is composed of a tracking information acquisition unit 11, a 3D scene information acquisition unit 12, a 3D scene arrangement unit 13, a viewpoint setting unit 14, a media data acquisition unit 15, and a viewpoint image drawing unit 16. Generally, the 3D data reproduction device 1 generates a viewpoint image by arranging a 3D scene (3D scene) acquired from the outside in a virtual space (drawing target space) and drawing according to the user's viewpoint. And output.

三次元データ再生装置1の説明に先立って、以下の説明で言及する3Dシーンとシーン座標、ユーザ視点と仮想空間(描画対象空間)、トラッキングシステムとトラッキング座標、および、視点映像について図3を参照して説明する。 Prior to the explanation of the 3D data reproduction device 1, refer to FIG. 3 for the 3D scene and scene coordinates, the user viewpoint and virtual space (drawing target space), the tracking system and tracking coordinates, and the viewpoint image referred to in the following explanation. I will explain.

図3(a)は、3Dシーンとシーン座標の関係を例示した図である。3Dシーンは複数の構成要素から構成される。図3(a)は、3DシーンS1を正面(x軸およびy軸と直交する方向)から見た配置と、3DシーンS1を上方(x軸およびz軸と直交する方向)から見た配置を図示している。3DシーンS1は構成要素として2つの3Dオブジェクト(O1およびO2)を含んでいる。また
、図示していないが、背景映像に相当する構成要素BGを含んでいる。3DオブジェクトO1、O2の位置および大きさはシーン座標を用いて表現される。
FIG. 3A is a diagram illustrating the relationship between the 3D scene and the scene coordinates. A 3D scene is composed of multiple components. FIG. 3 (a) shows the arrangement of the 3D scene S1 as viewed from the front (direction orthogonal to the x-axis and y-axis) and the arrangement of the 3D scene S1 as viewed from above (direction orthogonal to the x-axis and z-axis). It is shown in the figure. The 3D scene S1 contains two 3D objects (O1 and O2) as components. Further, although not shown, it includes a component BG corresponding to a background image. The positions and sizes of the 3D objects O1 and O2 are represented using scene coordinates.

図3(b)は、仮想空間(描画対象空間)とユーザ視点と3Dシーンの関係を例示した図である。 FIG. 3 (b) is a diagram illustrating the relationship between the virtual space (drawing target space), the user's viewpoint, and the 3D scene.

仮想空間は3Dシーンとユーザ視点を共通の空間内に配置して視点映像を描画するために用いられる。その意味で、仮想空間を描画対象空間とも呼ぶ。図3(b)は、仮想空間を正面(x軸およびy軸と直交する方向)から見た配置と、仮想空間を上方(x軸およびz軸と直交する方向)から見た配置を図示している。仮想空間には3DシーンS1とユーザ視点VPが配置
されている。ユーザ視点VPは仮想空間内の位置に加え、視線方向および視野に相当する情報(三角形で図示)を含む。仮想空間での位置やサイズを表現するための座標をプレゼンテーション座標と呼ぶ。シーン座標とプレゼンテーション座標は必ずしも一致しないが、一致する場合もある。
The virtual space is used to draw the viewpoint image by arranging the 3D scene and the user's viewpoint in a common space. In that sense, the virtual space is also called the drawing target space. Figure 3 (b) illustrates the layout of the virtual space as seen from the front (directions orthogonal to the x-axis and y-axis) and the virtual space as viewed from above (directions orthogonal to the x-axis and z-axis). ing. The 3D scene S1 and the user viewpoint VP are arranged in the virtual space. The user viewpoint VP includes information (illustrated by a triangle) corresponding to the line-of-sight direction and the visual field in addition to the position in the virtual space. Coordinates for expressing the position and size in virtual space are called presentation coordinates. Scene coordinates and presentation coordinates do not always match, but they may.

図3(c)は、トラッキングシステムとトラッキング座標とユーザ位置の関係を例示した図である。 FIG. 3 (c) is a diagram illustrating the relationship between the tracking system, the tracking coordinates, and the user position.

トラッキング座標はトラッキングシステムにより利用される座標であり検出した位置や方向を表現することができる。図3(c)では、2台の設置型赤外線センサ(T1、T2)を利用
したアウトサイドイン方式のトラッキングシステムにおけるトラッキング範囲TAを鉛直方向上方から見た場合の概観を示している。トラッキングシステムは、トラッキング範囲TA内のユーザ位置DPを検出できる。ユーザ位置DPはトラッキング座標で表現される。
The tracking coordinates are the coordinates used by the tracking system and can express the detected position and direction. FIG. 3 (c) shows an overview of the tracking range TA in an outside-in tracking system using two stationary infrared sensors (T1 and T2) when viewed from above in the vertical direction. The tracking system can detect the user position DP within the tracking range TA. The user position DP is expressed in tracking coordinates.

図3(d)は、特定ユーザ視点における視点映像を例示した図である。 FIG. 3 (d) is a diagram illustrating a viewpoint image from a specific user's viewpoint.

視点映像は、図3(b)で説明したように仮想空間内に設置されたシーンS1を仮想空間内に設置されたユーザ視点から観察した場合の映像に相当する。図3(b)に示した配置の例では、ユーザ視点VPから見て3DシーンS1に含まれるオブジェクトO1、O2の双方が視野に入っており、かつオブジェクトO2はオブジェクトO1より視点側であるため、図3(d)に示したような映像が視点映像となる。 The viewpoint image corresponds to an image when the scene S1 installed in the virtual space is observed from the user's viewpoint installed in the virtual space as described in FIG. 3 (b). In the example of the arrangement shown in Fig. 3 (b), both the objects O1 and O2 included in the 3D scene S1 are in the field of view from the user's viewpoint VP, and the object O2 is on the viewpoint side of the object O1. , The image shown in Fig. 3 (d) is the viewpoint image.

(視点映像再生処理フロー)
図4は、三次元データ再生処理の手順を表すフロー図である。
(Viewpoint video playback processing flow)
FIG. 4 is a flow chart showing a procedure of three-dimensional data reproduction processing.

三次元データ再生装置1は時刻毎に入力される3Dシーン情報とトラッキング情報に基づいて各時点の視点映像を生成して出力することで三次元データを再生する。時刻tの三次
元データ再生処理は以下の手順で実行される。
The three-dimensional data reproduction device 1 reproduces three-dimensional data by generating and outputting a viewpoint image at each time point based on 3D scene information and tracking information input for each time. The three-dimensional data reproduction process at time t is executed by the following procedure.

(T1) トラッキング情報取得部11は時刻tのトラッキング情報を取得し3Dシーン配置部13および視点設定部14に出力する。 (T1) The tracking information acquisition unit 11 acquires the tracking information at time t and outputs it to the 3D scene arrangement unit 13 and the viewpoint setting unit 14.

(T2) 3Dシーン情報取得部は時刻tの3Dシーン情報を取得し3Dシーン配置部13および視点設定部14に出力する。 (T2) The 3D scene information acquisition unit acquires the 3D scene information at time t and outputs it to the 3D scene arrangement unit 13 and the viewpoint setting unit 14.

(T3) 3Dシーン配置部13は、入力されたトラッキング情報および3Dシーン情報に基づき
描画対象空間にシーンを配置し、配置結果をシーン配置情報としてメディアデータ取得部15および視点映像描画部16に出力する。
(T3) The 3D scene arrangement unit 13 arranges a scene in the drawing target space based on the input tracking information and 3D scene information, and outputs the arrangement result as the scene arrangement information to the media data acquisition unit 15 and the viewpoint image drawing unit 16. do.

(T4) 視点設定部14は、入力されたトラッキング情報、および、3Dシーン情報に基づき
描画対象空間におけるユーザ視点を決定しメディアデータ取得部15および視点映像描画部16に出力する。
(T4) The viewpoint setting unit 14 determines the user viewpoint in the drawing target space based on the input tracking information and the 3D scene information, and outputs the data to the media data acquisition unit 15 and the viewpoint video drawing unit 16.

(T5) メディアデータ取得部15は、入力されたシーン配置情報とユーザ視点に基づいて
視点映像の描画に必要なメディアデータを決定し、決定したメディアデータを外部から取得して視点映像描画部16に出力する。
(T5) The media data acquisition unit 15 determines the media data necessary for drawing the viewpoint image based on the input scene arrangement information and the user viewpoint, acquires the determined media data from the outside, and acquires the determined media data from the outside to obtain the viewpoint image drawing unit 16. Output to.

(T6) 視点映像描画部16は、入力されたシーン配置情報、ユーザ視点、メディアデータ
に基づいて視点映像を描画して出力し、時刻tの三次元データ再生処理を終了する。
(T6) The viewpoint image drawing unit 16 draws and outputs a viewpoint image based on the input scene arrangement information, user viewpoint, and media data, and ends the three-dimensional data reproduction process at time t.

三次元データ再生装置1は、以上の手順により各時刻の視点映像を生成することで三次元データを再生する。なお手順については必ずしも厳密に図4で説明した順序である必要
なく、入出力の依存関係が許す範囲で順序の変更や並列実行しても構わない。例えば、トラッキング情報取得(T1)とシーン情報取得(T2)は依存関係がなく並列に実行できる。
The three-dimensional data reproduction device 1 reproduces three-dimensional data by generating a viewpoint image at each time according to the above procedure. The procedure does not necessarily have to be in the exact order described in FIG. 4, and the order may be changed or executed in parallel as long as the input / output dependencies allow. For example, tracking information acquisition (T1) and scene information acquisition (T2) can be executed in parallel without any dependency.

(トラッキング情報取得部11)
トラッキング情報取得部11はトラッキング情報をトラッキングシステムから取得して3Dシーン配置部13および視点設定部14に出力する。トラッキング情報は、位置方向情報とトラッキングシステム情報を含む。トラッキングシステムは実世界におけるユーザの位置または方向の少なくとも何れかを所定の時刻毎に推定し位置方向情報とする。トラッキングシステムにはジャイロセンサにより方向を検出するシステム(3DoFシステム)、固定設置された外部センサを利用してユーザの位置および方向を検出するシステム(アウトサイドイン6DoFシステム)、ユーザが装着した機器に搭載されたカメラの画像を利用して自己位置推定により位置および方向を検出するシステム(インサイドアウト6DoFシステム)がある。位置方向情報は、例えば三次元のトラッキング座標で表現された三次元位置ベクトル、および、トラッキング座標系における回転を表す3次元のベクトルにより表現される。
回転を表す三次元のベクトルは、例えば、一般的に利用される各軸周りの回転の合成による回転のパラメータであるロール、ピッチ、ヨーの3パラメータにより表現できる。
(Tracking information acquisition unit 11)
The tracking information acquisition unit 11 acquires the tracking information from the tracking system and outputs it to the 3D scene arrangement unit 13 and the viewpoint setting unit 14. The tracking information includes positional information and tracking system information. The tracking system estimates at least one of the user's position or direction in the real world at predetermined time intervals and uses it as position direction information. The tracking system includes a system that detects the direction with a gyro sensor (3DoF system), a system that detects the position and direction of the user using a fixedly installed external sensor (outside-in 6DoF system), and equipment worn by the user. There is a system (inside-out 6DoF system) that detects the position and direction by self-position estimation using the image of the mounted camera. The position direction information is represented by, for example, a three-dimensional position vector represented by three-dimensional tracking coordinates and a three-dimensional vector representing rotation in the tracking coordinate system.
A three-dimensional vector representing rotation can be expressed by, for example, three parameters of rotation, roll, pitch, and yaw, which are commonly used parameters of rotation by combining rotations around each axis.

トラッキングシステム情報は概略的にはトラッキングシステムの機能や性能を示す情報を含む。トラッキングシステム情報は位置方向情報に比べて変更頻度が少ないため、より少ない頻度でトラッキング情報に含めることでトラッキング情報のデータ量を低減できる。 The tracking system information generally includes information indicating the function and performance of the tracking system. Since the tracking system information is changed less frequently than the positional information, the amount of tracking information data can be reduced by including it in the tracking information less frequently.

トラッキングシステム情報は、トラッキングシステム種別を含んでいてもよい。トラッキングシステム種別は、ユーザが使用しているトラッキングシステムが、既定のトラッキングシステムの何れであるかを特定する情報である。例えば、既定のトラッキングシステム種別が3DoFシステム、アウトサイドイン6DoFシステム、インサイドアウト6DoFシステムである場合、トラッキングシステム情報に含まれるトラッキングシステム種別により、ユーザが何れのトラッキングシステムを利用しているかを特定できる。トラッキングシステム種別を利用して、ユーザに対して好ましいシーン配置や視点位置を決定できる。 The tracking system information may include a tracking system type. The tracking system type is information that identifies which of the default tracking systems the tracking system used by the user is. For example, if the default tracking system type is 3DoF system, outside-in 6DoF system, or inside-out 6DoF system, the tracking system type included in the tracking system information can be used to identify which tracking system the user is using. .. The tracking system type can be used to determine the preferred scene layout and viewpoint position for the user.

トラッキングシステム情報は、特定のトラッキング機能の提供有無および機能の程度を表す情報(トラッキング機能情報)を追加で含んでいてもよい。以下では、トラッキング機能情報の具体例を示す。 The tracking system information may additionally include information (tracking function information) indicating whether or not a specific tracking function is provided and the degree of the function. Hereinafter, specific examples of tracking function information will be shown.

(1)方向トラッキング機能の有無:方向のトラッキングが有効か無効かを示す情報。方向を表す各自由度に対するトラッキング機能の有無の集合により方向トラッキング機能の有無を表現してもよい。例えば、方向がロール、ピッチ、ヨーの三個のパラメータにより表現される場合、各パラメータに対応する方向の回転のトラッキング機能の有無の集合を方向トラッキング機能の有無としてもよい。単一のフラグにより方向トラッキング機能を表現する場合に比べてデータ量は増加するが、より多様なトラッキングシステムに対応できる。 (1) Presence / absence of directional tracking function: Information indicating whether directional tracking is enabled or disabled. The presence or absence of the direction tracking function may be expressed by a set of the presence or absence of the tracking function for each degree of freedom indicating the direction. For example, when the direction is represented by three parameters of roll, pitch, and yaw, the set of the presence / absence of the rotation tracking function in the direction corresponding to each parameter may be the presence / absence of the direction tracking function. Although the amount of data increases compared to the case where the directional tracking function is expressed by a single flag, it is possible to support a wider variety of tracking systems.

(2)位置トラッキング機能の有無:位置のトラッキングが有効か無効かを示す情報。位置を表す各自由度に対するトラッキング機能の有無の集合により方向トラッキング機能の有無を表現してもよい。例えば、位置がトラッキング座標における各座標軸の方向のトラッキング機能の有無の集合を位置トラッキング機能の有無としてもよい。単一のフラグにより方向トラッキング機能を表現する場合に比べてデータ量は増加するが、より多様なトラッキングシステムに対応できる。また、位置トラッキングの種別毎に機能の有効無効
を示してもよい。例えば、GPSを用いたトラッキングの有無、空間に固定された基準点に
対する位置のトラッキング有無、特定時刻のユーザ位置を基準点とする相対位置トラッキングの有無を個別に示す情報により位置トラッキング機能の有無に相当する情報を構成してもよい。
(2) Presence / absence of position tracking function: Information indicating whether position tracking is enabled or disabled. The presence or absence of the direction tracking function may be expressed by the set of the presence or absence of the tracking function for each degree of freedom representing the position. For example, the set of the presence / absence of the tracking function in the direction of each coordinate axis whose position is the tracking coordinate may be the presence / absence of the position tracking function. Although the amount of data increases compared to the case where the directional tracking function is expressed by a single flag, it is possible to support a wider variety of tracking systems. In addition, the validity / invalidity of the function may be indicated for each type of position tracking. For example, whether or not there is a position tracking function based on information that individually indicates the presence or absence of tracking using GPS, the presence or absence of position tracking with respect to a reference point fixed in space, and the presence or absence of relative position tracking with the user position at a specific time as the reference point. Corresponding information may be configured.

(3)方向トラッキング範囲:方向のトラッキングが有効な範囲を表す情報。例えば、方向をロール、ピッチ、ヨーの三種類の回転の合成により定義し、各回転成分がとり得る回転角の範囲を指定する。これにより、水平方向の回転のみトラッキング可能、垂直方向の回転のみトラッキング可能といった情報を通知することもできる。 (3) Directional tracking range: Information indicating the range in which directional tracking is effective. For example, the direction is defined by combining three types of rotations, roll, pitch, and yaw, and the range of rotation angles that each rotation component can take is specified. As a result, it is possible to notify information such that only horizontal rotation can be tracked and only vertical rotation can be tracked.

(4)位置トラッキング範囲:位置のトラッキングが有効な範囲を表す情報。例えば、位置をトラッキング座標系で定義されたx軸、y軸、z軸の各座標成分の取り得る範囲によ
り範囲を指定する。トラッキング可能な空間を表す幾何形状を指定することで範囲を表現してもよい。その場合、より柔軟な範囲指定が可能となる。空間をグリッド状もしくは八分木により小領域に分割し、小領域毎に範囲内か範囲外の情報を示すことで範囲を表現してもよい。その場合、データ量は増えるが、範囲内か範囲外かを高速に判定できる。
(4) Position tracking range: Information indicating the range in which position tracking is effective. For example, the position is specified by the range that can be taken by each of the x-axis, y-axis, and z-axis coordinate components defined in the tracking coordinate system. A range may be expressed by specifying a geometric shape that represents a traceable space. In that case, more flexible range specification becomes possible. The space may be divided into small areas by a grid or an ocree, and the range may be expressed by showing information within or outside the range for each small area. In that case, the amount of data increases, but it can be determined at high speed whether it is within or outside the range.

(5)トラッキング間隔:トラッキングが実行され方向または位置情報が取得される時間間隔を表す情報。方向と位置で異なるトラッキング間隔を設定してもよい。メディアデータ取得時に事前に取得するべき対象の決定に利用することで受信する三次元データのデータ量を低減できる。 (5) Tracking interval: Information representing a time interval in which tracking is executed and direction or position information is acquired. Different tracking intervals may be set for the direction and position. The amount of 3D data to be received can be reduced by using it to determine the target to be acquired in advance when acquiring media data.

(6)トラッキング遅延:トラッキングが実行され方向または位置情報が取得されるまでの遅延を表す情報。方向と位置で異なるトラッキング遅延を設定してもよい。メディアデータ取得時に事前に取得するべき対象の決定に利用することで受信する三次元データのデータ量を低減できる。 (6) Tracking delay: Information representing the delay until tracking is executed and direction or position information is acquired. Different tracking delays may be set for the direction and position. The amount of 3D data to be received can be reduced by using it to determine the target to be acquired in advance when acquiring media data.

トラッキングシステム情報はトラッキング情報に含まれる位置情報の基準となる位置(トラッキング基準位置)を追加で含んでいてもよい。例えば、トラッキングシステムにより検知された地面位置を基準位置として利用できる。地面位置を利用して、実空間の地面位置と3Dシーンの地面位置を合わせることができる。また、例えば、トラッキングシステムの起動時またはアプリケーション起動時のユーザ位置(起動時位置)を基準位置としてトラッキングシステム情報に含んでもよい。起動時位置を利用して、現在位置のみを利用する場合に較べて柔軟に3Dシーン内での位置の決定ができる。地面位置と起動時位置の両方を基準位置としてトラッキング情報に含んでもよい。また、鉛直成分を地面位置、水平成分を起動位置とする座標を基準位置としてトラッキングシステム情報に含んでいてもよい。 The tracking system information may additionally include a position (tracking reference position) that is a reference of the position information included in the tracking information. For example, the ground position detected by the tracking system can be used as a reference position. You can use the ground position to align the ground position in real space with the ground position in the 3D scene. Further, for example, the tracking system information may include the user position (starting position) at the time of starting the tracking system or starting the application as a reference position. Using the startup position, you can more flexibly determine the position in the 3D scene than when using only the current position. Both the ground position and the start-up position may be included in the tracking information as a reference position. Further, the tracking system information may include coordinates with the vertical component as the ground position and the horizontal component as the starting position as the reference position.

図5は、トラッキング情報の構成を例示した図である。 FIG. 5 is a diagram illustrating the configuration of tracking information.

図5(a)に示すトラッキング情報には、トラッキングシステム情報を周期的に含まれている。これにより、三次元データ再生装置は途中から(時刻t>0の時点から)トラッキング
システムに接続した場合でもトラッキングシステム情報が取得できる。また、トラッキング情報は各時刻の位置方向情報を含んでいる。図5(a)に示すようにトラッキング情報においてトラッキングシステム情報の個数は、位置方向情報の個数よりも少ないことが好ましい。言い換えると、トラッキングシステム情報の受信頻度は、位置方向情報の受信頻度よりも低いことが好ましい。トラッキングシステム情報は位置方向情報に比べて変化の頻度が低いため、上記構成によりトラッキング情報は少ないデータ量で表現できる。
The tracking information shown in FIG. 5A periodically includes tracking system information. As a result, the 3D data reproduction device can acquire the tracking system information even when the tracking system is connected to the tracking system from the middle (from the time t> 0). Further, the tracking information includes the position direction information at each time. As shown in FIG. 5A, the number of tracking system information in the tracking information is preferably smaller than the number of position direction information. In other words, the reception frequency of the tracking system information is preferably lower than the reception frequency of the position direction information. Since the tracking system information changes less frequently than the positional information, the tracking information can be expressed with a small amount of data by the above configuration.

図5(b)は、トラッキングシステム情報の構成例を示す。トラッキングシステム情報は、
トラッキングシステムタイプ(tracking_system_type)を含んでおり、値は「3dof」に設定されている。また、トラッキングシステム情報はトラッキング機能情報(tracking_system_info)を含む。トラッキング機能情報は、方向トラッキング機能の有無(orientation_tracking)、位置トラッキング機能の有無(position_tracking)、方向トラッキング範囲(orientation_tracking_range)、位置トラッキング範囲(position_tracking_range)、トラッキング間隔(tracking_frequency)、トラッキング遅延(tracking_latency)を含む。また、トラッキングシステム情報はトラッキング基準位置(tracking_ref_pos)を含む。
FIG. 5 (b) shows a configuration example of tracking system information. Tracking system information,
It contains the tracking system type (tracking_system_type) and the value is set to "3dof". Further, the tracking system information includes tracking function information (tracking_system_info). The tracking function information includes the presence / absence of the direction tracking function (orientation_tracking), the presence / absence of the position tracking function (position_tracking), the direction tracking range (orientation_tracking_range), the position tracking range (position_tracking_range), the tracking interval (tracking_frequency), and the tracking delay (tracking_latency). .. Also, the tracking system information includes the tracking reference position (tracking_ref_pos).

(3Dシーン情報取得部12)
3Dシーン情報取得部12は3Dシーン情報を取得して3Dシーン配置部13および視点設定部14に出力する。3Dシーン情報はシーン情報とも呼ぶ。3Dシーン情報の取得は記録媒体に記録されたデータを能動的に取得してもよいし、伝送されたデータを受動的に取得してもよい。3Dシーン情報は3Dシーンに含まれる構成要素、および、各構成要素の空間内の配置情報を含む。加えて、3Dシーン情報は、仮想空間内へのシーン配置時に参照されるシーン配置補助情報を含んでいる。シーン配置補助情報は、少なくともシーン範囲、シーン観測範囲、シーン主方向、シーンスケール、シーン基準地面情報の何れか一つ以上を含んで構成される。シーン配置補助情報により、3Dシーンの各構成要素を詳しく分析することなくシーン配置が決定できるため、シーン配置に要する処理が軽減する。したがって、三次元データ再生装置の処理量が制限されている場合でも多様な3Dシーンに対するシーン配置を決定して視点映像を生成できる。
(3D scene information acquisition unit 12)
The 3D scene information acquisition unit 12 acquires 3D scene information and outputs it to the 3D scene arrangement unit 13 and the viewpoint setting unit 14. 3D scene information is also called scene information. To acquire the 3D scene information, the data recorded on the recording medium may be actively acquired, or the transmitted data may be passively acquired. The 3D scene information includes the components included in the 3D scene and the arrangement information of each component in the space. In addition, the 3D scene information includes scene placement auxiliary information that is referred to when the scene is placed in the virtual space. The scene arrangement auxiliary information includes at least one or more of a scene range, a scene observation range, a scene principal direction, a scene scale, and a scene reference ground information. Since the scene arrangement can be determined without analyzing each component of the 3D scene in detail by the scene arrangement auxiliary information, the processing required for the scene arrangement is reduced. Therefore, even when the processing amount of the 3D data reproduction device is limited, it is possible to determine the scene arrangement for various 3D scenes and generate the viewpoint image.

図6は3Dシーン情報の構成を例示する図である。 FIG. 6 is a diagram illustrating the structure of 3D scene information.

図6に示した3Dシーン情報(scene_info)は、図3(a)の3Dシーンを記述する3Dシーン情報
を記述した3Dシーン情報に相当する。図3(a)に示した記述対象の3Dシーンは、3DオブジェクトO1および3DオブジェクトO2を含む。また、図示しないが、3Dシーンはシーン背景BGV
、シーン音声BGA、音声オブジェクトA1、音声オブジェクトA2を含んでいる。ここで、音
声オブジェクトA1は3DオブジェクトO1に、音声オブジェクトA2は3DオブジェクトO2が発する音に相当する。図6に示した3Dシーン情報(scene_info)には、シーン構成要素セット(components)が含まれる。シーン構成要素セットには、シーン背景(scene_background)、シーン音声(scene_audio)、2個の3Dオブジェクト(3d_object)、2個の音声オブジェクト(audio_object)が構成要素として含まれる。各構成要素に対して構成要素の再生に必要なメディアデータの場所(url)が含まれる。メディアデータの場所は例えばURL(Uniform Resource Locator)を表す文字列により指定される。また、3Dオブジェクトおよび音声オブジェクトに対応する各構成要素に対して、シーン中のオブジェクト位置(pos)およびオブジェクト方向(dir)が含まれる。オブジェクト位置は例えばシーン座標系における三次元の位置ベクトルにより記述される。図6の[x0,y0,z0]はx0、y0、z0を要素とする三次元のベクトルを表す。オブジェクト方向が記述されている。シーン中のオブジェクト方向は、シーン基準方向からオブジェクト方向への回転により記述される。オブジェクト方向は、例えば回転のロール、ピッチ、ヨー成分に相当する三次元ベクトルにより記述される。図6の[roll0, pitch0, yaw0]はroll0、pitch0、yaw0を要素とする三次元のベクトルを表す。なお、オブジェクト方向として、特定のオブジェクト方向を持たない旨を表す情報を記述してもよい。図6ではオブジェクト方向(dir)の値に文字列「na」を記述することで、オブジェクト方向を持たないことを示している。オブジェクト位置とオブジェクト方向は同等の情報を含んでいる別の表現により記述してもよい。例えば、オブジェクト位置とオブジェクト方向を合わせて変換を表す行列により表現してもよい。
The 3D scene information (scene_info) shown in FIG. 6 corresponds to the 3D scene information describing the 3D scene information described in FIG. 3 (a). The 3D scene to be described shown in FIG. 3 (a) includes 3D object O1 and 3D object O2. Also, although not shown, the 3D scene is the scene background BGV.
, Scene audio BGA, audio object A1, audio object A2. Here, the voice object A1 corresponds to the 3D object O1, and the voice object A2 corresponds to the sound emitted by the 3D object O2. The 3D scene information (scene_info) shown in FIG. 6 includes a set of scene components. The scene component set includes a scene background (scene_background), a scene audio (scene_audio), two 3D objects (3d_object), and two audio objects (audio_object) as components. For each component, the location (url) of the media data required to play the component is included. The location of media data is specified, for example, by a character string representing a URL (Uniform Resource Locator). It also contains the object position (pos) and object orientation (dir) in the scene for each component corresponding to the 3D object and the audio object. The object position is described, for example, by a three-dimensional position vector in the scene coordinate system. [X0, y0, z0] in FIG. 6 represents a three-dimensional vector having x0, y0, and z0 as elements. The object direction is described. The object direction in the scene is described by rotation from the scene reference direction to the object direction. The object direction is described by, for example, a three-dimensional vector corresponding to the roll, pitch, and yaw components of rotation. [Roll0, pitch0, yaw0] in Fig. 6 represents a three-dimensional vector whose elements are roll0, pitch0, and yaw0. In addition, as the object direction, information indicating that the object direction is not specified may be described. In Fig. 6, the character string "na" is described in the value of the object direction (dir) to show that it does not have the object direction. The object position and the object direction may be described by another representation containing equivalent information. For example, the object position and the object direction may be matched and expressed by a matrix representing the transformation.

3Dシーン情報は、シーン全体の方向を表すシーン主方向(scene_orientation)を含んで
いる。シーン主方向は、シーン座標系における三次元ベクトルにより記述される。例えば、3Dシーンを正面から見る方向と対向する方向を表すベクトルがシーン方向として設定される。シーン主方向を用いることで、シーン配置決定時にトラッキング性能に応じた好適な配置が可能となる。詳細は3Dシーン配置部13の説明で述べる。シーン主方向は、言い換えると、シーン観察のための推奨される方向を示す情報とも言える。この観点から、前述の3Dオブジェクトの方向と同様に、シーン主方向が存在しないことをシーン主方向の値として記述してもよい。また、シーン主方向は必ずしも一方向である必要はなく複数の方向から構成されていもよい。ただし、その場合には、方向の重要度が容易に判別できるよう重要性の高い方向から順に方向を記述することが好ましい。
The 3D scene information includes a scene principal direction (scene_orientation) that represents the direction of the entire scene. The scene principal direction is described by a three-dimensional vector in the scene coordinate system. For example, a vector representing the direction opposite to the direction in which the 3D scene is viewed from the front is set as the scene direction. By using the scene principal direction, it is possible to perform a suitable arrangement according to the tracking performance when determining the scene arrangement. Details will be described in the explanation of the 3D scene arrangement unit 13. In other words, the scene principal direction can be said to be information indicating a recommended direction for observing the scene. From this point of view, it may be described as the value of the scene principal direction that the scene principal direction does not exist, as in the direction of the 3D object described above. Further, the principal direction of the scene does not necessarily have to be one direction, and may be configured from a plurality of directions. However, in that case, it is preferable to describe the directions in order from the most important direction so that the importance of the direction can be easily determined.

3Dシーン情報は、シーン範囲(scene_range)を含んでいる。シーン範囲は3Dシーン情報
が記述するシーン全体がシーン座標系において占有する範囲を示す情報である。シーン範囲を用いることで、3Dシーンの全ての構成要素の配置や占有範囲を個別に計算することなくシーン全体の占有範囲を知ることができるためシーン配置計算や視点決定の処理量が軽減される。シーン範囲は例えばシーン全体を内包する直方体により表現できる。図6の例
では、直方体を対向する2頂点の位置(box_corner)により記述している。シーン範囲は直
方体に限らずシーン全体を内包する凸包により表現してもよい。しかしながら、シーン配置計算の簡略化、伝送データ量の削減の観点から直方体サイズによる表現の方が好ましい。また、シーン占有空間情報は必ずしも三次元の領域を記述する必要はなく、二次元の領域を記述してもよい。例えば、シーンに地面が存在する場合、地面に水平な二次元の領域を指定する表現を用いることができる。この場合、アプリケーションは限定されるが、三次元データ生成装置のおけるシーン範囲の導出処理を削減し、シーン範囲のデータ量を削減できる。シーン範囲がいずれの表現方法により記述されるかを示す情報(scene_range_type)をシーン範囲の情報に含むことで、3Dシーンの性質に応じた好ましいシーン範囲の表現方法を選択できる。
The 3D scene information includes the scene range (scene_range). The scene range is information indicating the range occupied by the entire scene described in the 3D scene information in the scene coordinate system. By using the scene range, the occupancy range of the entire scene can be known without individually calculating the layout and occupancy range of all the components of the 3D scene, so the amount of processing for scene layout calculation and viewpoint determination is reduced. .. The scene range can be expressed by, for example, a rectangular parallelepiped that includes the entire scene. In the example of FIG. 6, the rectangular parallelepiped is described by the positions of two vertices facing each other (box_corner). The scene range is not limited to a rectangular parallelepiped, and may be expressed by a convex hull that includes the entire scene. However, from the viewpoint of simplifying the scene arrangement calculation and reducing the amount of transmission data, the representation by the rectangular parallelepiped size is preferable. Further, the scene occupied space information does not necessarily have to describe a three-dimensional area, and a two-dimensional area may be described. For example, if the scene has ground, an expression that specifies a two-dimensional area horizontal to the ground can be used. In this case, although the application is limited, it is possible to reduce the derivation process of the scene range in the three-dimensional data generator and reduce the amount of data in the scene range. By including information (scene_range_type) indicating which expression method the scene range is described in in the scene range information, it is possible to select a preferable scene range expression method according to the nature of the 3D scene.

3Dシーン情報は、シーン観測範囲(scene_observe_range)を含んでいる。シーン観測範
囲は、シーン座標系において対象3Dシーンを観測可能な範囲を示す情報である。現実の3Dシーンと異なり、メディアデータで表現された仮想的な3Dシーンは必ずしも全ての位置や方向から観測されることができない。例えば、360度ビデオで表現された3Dシーン背景は
、360度ビデオの撮影地点から大きく離れると現実3Dシーンの目による観測結果との乖離
が大きくなるため、撮影地点を中心とする一定の距離内の範囲をシーン範囲に指定する。シーン観測範囲は、前述のシーン範囲と同様の表現により記述できる。シーン観測範囲を利用することで、3Dシーンを構成する個々の構成要素の観測範囲を調べることなく3Dシーン全体の観測可能範囲が分かるため、シーン配置や視点決定の処理量を低減できる。
The 3D scene information includes the scene observation range (scene_observe_range). The scene observation range is information indicating the range in which the target 3D scene can be observed in the scene coordinate system. Unlike real 3D scenes, virtual 3D scenes represented by media data cannot always be observed from all positions and directions. For example, the background of a 3D scene expressed in a 360-degree video is within a certain distance centered on the shooting point because the deviation from the observation result by the eyes of the actual 3D scene increases when the distance from the shooting point of the 360-degree video is large. Specify the range of to the scene range. The scene observation range can be described by the same expression as the above-mentioned scene range. By using the scene observation range, the observable range of the entire 3D scene can be known without examining the observation range of the individual components that make up the 3D scene, so the amount of processing for scene placement and viewpoint determination can be reduced.

シーン情報は、シーンスケール(scene_scale)を含む。シーンスケールはシーン全体の
座標単位を調整するための比率を示す情報である。例えばシーンスケールとして、3Dシーン情報においてオブジェクト位置の記述に使われている座標の単位とメートル単位との間の比率を利用できる。3Dシーン情報を利用するアプリケーションが事前に分かっている場合には当該アプリケーションで処理が容易となるよう座標の単位を利用して3Dシーン情報を構成しておけばよい。しかしながら、3Dシーン情報作成時にはアプリケーションが決定しない状況では、シーンスケールを利用して所望の座標の単位に変換した上で3Dシーン情報を利用することができる。図6の例ではシーンスケールにスケール比率の値0.01が記述
されている。この場合、シーン座標系における距離dにスケール比率を乗じた値である0.01dがメートル単位の距離となる。
The scene information includes the scene scale (scene_scale). The scene scale is information indicating the ratio for adjusting the coordinate unit of the entire scene. For example, as a scene scale, the ratio between the unit of coordinates and the unit of meters used to describe the object position in 3D scene information can be used. If the application that uses the 3D scene information is known in advance, the 3D scene information may be configured using the unit of coordinates so that the application can be easily processed. However, in a situation where the application is not determined when creating 3D scene information, the 3D scene information can be used after being converted into a unit of desired coordinates using a scene scale. In the example of FIG. 6, the scale ratio value 0.01 is described in the scene scale. In this case, 0.01d, which is the value obtained by multiplying the distance d in the scene coordinate system by the scale ratio, is the distance in meters.

3Dシーン情報は、シーン基準地面情報(scene_ground_info)を含む。シーン基準地面情
報は3Dシーンの地面を表す情報である。シーン基準地面情報は、少なくとも3Dシーンにおける地面の高さを導出するために必要な情報を含む。例えばシーン座標系のy座標軸が鉛
直方向に相当する場合、地面に相当するy座標値を記述することで基準地面の高さを導出
できる。基準地面位置を参照してシーン配置やユーザ視点位置を決定することでユーザに
対して高さの違和感が少ない映像を提示できる。
The 3D scene information includes scene reference ground information (scene_ground_info). The scene reference ground information is information representing the ground of a 3D scene. The scene reference ground information contains at least the information necessary to derive the height of the ground in a 3D scene. For example, when the y-axis of the scene coordinate system corresponds to the vertical direction, the height of the reference ground can be derived by describing the y-coordinate value corresponding to the ground. By deciding the scene arrangement and the user's viewpoint position with reference to the reference ground position, it is possible to present an image with less discomfort in height to the user.

(3Dシーン配置部13)
3Dシーン配置部13は3Dシーン情報とトラッキングシステム情報に基づいてシーン配置を決定して出力する。シーン配置は、3Dシーン情報により記述されるシーンの描画対象空間における位置、方向、および、スケールを示す情報である。シーン配置は、例えば、4×4サイズの行列により表現される。以下ではシーン配置の導出処理の具体例を挙げる。
(3D scene arrangement part 13)
The 3D scene arrangement unit 13 determines and outputs the scene arrangement based on the 3D scene information and the tracking system information. The scene arrangement is information indicating the position, direction, and scale of the scene described by the 3D scene information in the drawing target space. The scene arrangement is represented by, for example, a 4 × 4 size matrix. The following is a specific example of the scene arrangement derivation process.

<シーン配置導出処理1:実寸大でのシーン配置>
描画対象空間にシーンを実寸大で配置する要求がある場合のシーン配置導出処理は次の通りである。3Dシーン配置部13は、3Dシーン情報に含まれるシーン配置補助情報を参照してシーンが実寸大となるよう調整した上で描画対象空間に配置する。具体的には、シーンスケールを参照してシーンを構成する3Dオブジェクトおよび音声オブジェクトの座標を調整して各オブジェクトを配置する。シーンスケールをα、3Dシーン情報におけるオブジェクト位置p、シーン基準位置p0が与えられる場合、描画対象空間におけるオブジェクト位置p'は式 p' = α (p - p0) により導出される。以上の手順により描画対象空間にシーンを実寸大で配置する場合、シーンに相当する仮想空間内をユーザが自由に移動して探索するアプリケーションを実現できる。
<Scene layout derivation process 1: Scene layout at actual size>
The scene arrangement derivation process when there is a request to arrange the scene in the drawing target space in the actual size is as follows. The 3D scene arrangement unit 13 is arranged in the drawing target space after adjusting the scene to the actual size by referring to the scene arrangement auxiliary information included in the 3D scene information. Specifically, the coordinates of the 3D objects and audio objects that make up the scene are adjusted with reference to the scene scale, and each object is placed. If the scene scale is α, the object position p in the 3D scene information, and the scene reference position p0 are given, the object position p'in the drawing target space is derived by the expression p'= α (p --p0). When the scene is arranged in the drawing target space in the actual size by the above procedure, it is possible to realize an application in which the user freely moves and searches in the virtual space corresponding to the scene.

また、3Dシーン配置部13は、3Dシーン情報に含まれるシーン配置補助情報を参照してシーンの地面位置が描画対象空間の地面位置と一致するよう調整した上で描画対象空間に配置する。具体的には、シーン基準地面情報を参照してシーンの地面の高さが描画対象空間で想定する地面の高さと一致するよう3Dシーンを配置する。以上の手順によりシーンを配置することで、ユーザがアプリケーション内で感じる高さの違いによる違和感を軽減できる。 Further, the 3D scene arrangement unit 13 is arranged in the drawing target space after adjusting so that the ground position of the scene matches the ground position of the drawing target space with reference to the scene arrangement auxiliary information included in the 3D scene information. Specifically, the 3D scene is arranged so that the height of the ground of the scene matches the height of the ground assumed in the drawing target space with reference to the scene reference ground information. By arranging the scenes according to the above procedure, it is possible to reduce the discomfort caused by the difference in height that the user feels in the application.

<シーン配置導出処理2:配置対象領域へのシーン配置>
描画対象空間内の配置対象領域にシーンを配置する要求がある場合のシーン配置導出処理は次の通りである。3Dシーン配置部13は、3Dシーン情報に含まれるシーン配置補助情報を参照してシーンが配置対象領域に収まるよう調整した上で描画対象空間に配置する。具体的には、シーン範囲を参照してシーンに含まれる各オブジェクトの位置を表す座標を補正する。
<Scene placement derivation process 2: Scene placement in the placement target area>
The scene arrangement derivation process when there is a request to arrange a scene in the arrangement target area in the drawing target space is as follows. The 3D scene arrangement unit 13 refers to the scene arrangement auxiliary information included in the 3D scene information, adjusts the scene so that it fits in the arrangement target area, and then arranges the scene in the drawing target space. Specifically, the coordinates representing the position of each object included in the scene are corrected by referring to the scene range.

例えば、配置対象領域とシーン範囲がともに直方体で指定される場合、シーン範囲を表す直方体が配置対象領域を表す直方体に内包されるよう3Dシーンを回転およびスケールして描画対象空間に配置する。スケール後のシーン範囲のサイズが最大となるような条件で回転およびスケールすることが好ましい。以上の手順により3Dシーンを配置することで、実世界の指定領域(例えばテーブルの上)に仮想的なシーンを配置して鑑賞するアプリケーションを実現できる。 For example, when both the placement target area and the scene range are specified by a rectangular parallelepiped, the 3D scene is rotated and scaled so that the rectangular parallelepiped representing the scene range is included in the rectangular parallelepiped representing the placement target area and placed in the drawing target space. It is preferred to rotate and scale under conditions that maximize the size of the scaled scene range. By arranging the 3D scene by the above procedure, it is possible to realize an application for arranging and viewing a virtual scene in a designated area (for example, on a table) in the real world.

配置対象領域は必ずしも三次元空間で指定する必要はなく、平面上の二次元領域として指定してもよい。 The arrangement target area does not necessarily have to be specified in a three-dimensional space, and may be specified as a two-dimensional area on a plane.

図7はシーン範囲を利用した配置対象領域への3Dシーン配置の例を表す図である。 FIG. 7 is a diagram showing an example of 3D scene placement in the placement target area using the scene range.

図7(a)はシーン座標系におけるシーン範囲TAを示す。図7(b)は描画対象空間における配置対象範囲TBを示す。図7(c)は描画対象空間において配置対象範囲TBに内包されるようにシーン範囲TAを移動、回転、および、スケールしたシーン範囲TA’を示す。 FIG. 7 (a) shows the scene range TA in the scene coordinate system. Figure 7 (b) shows the placement target range TB in the drawing target space. FIG. 7 (c) shows the scene range TA'which is moved, rotated, and scaled so as to be included in the arrangement target range TB in the drawing target space.

なお、シーン範囲を二次元の領域で表現する場合、シーン配置補助情報に含まれるシー
ン鉛直方向を参照することでシーンの自然な配置を実現できる。具体的な手順としては、シーン占有空間とシーン鉛直方向を参照してシーン水平面上における矩形の二次元占有領域を導出する。続いて、二次元占有領域が配置対象領域に包含されるようシーンに移動、回転、スケールを適用する。以上の手順により鉛直方向が定義されるシーンを配置する場合に自然な配置が実現できる。例えば、実世界のテーブル上に仮想的なシーンとして伝送された建物を配置して鑑賞する場合に不自然な傾きが生じることを抑止できる。
When expressing the scene range in a two-dimensional area, the natural arrangement of the scene can be realized by referring to the vertical direction of the scene included in the scene arrangement auxiliary information. As a specific procedure, a rectangular two-dimensional occupied area on the horizontal plane of the scene is derived with reference to the scene occupied space and the vertical direction of the scene. Then, move, rotate, and scale the scene so that the two-dimensional occupied area is included in the placement target area. By the above procedure, a natural arrangement can be realized when arranging a scene in which the vertical direction is defined. For example, it is possible to prevent an unnatural tilt from occurring when a building transmitted as a virtual scene is placed on a table in the real world and viewed.

また、3Dシーン配置部13がトラッキング情報を参照することでユーザ視点位置を考慮してシーンを配置することもできる。具体的には、3Dシーン配置時点におけるユーザ視点位置を参照し、当該ユーザ視点位置から見て配置されるシーンの正面がユーザの視線となるよう配置する。手順としては、まず、ユーザ視点位置をpu、配置対象領域の中心をptとする場合、ptからpuへのベクトルの方向と、シーン主方向の向きが一致するようシーンを回転する。続いて、配置対象領域に包含されるようシーンに移動およびスケールを適用する。以上の手順によりシーンを配置することで、ユーザが特定領域を指定して仮想的なシーンを配置するアプリケーションにおいて、シーンの正面がユーザ側に向くよう配置される。したがって、配置後にユーザがシーンの向きを調整することなくシーンを鑑賞できる。 Further, the 3D scene arrangement unit 13 can arrange the scene in consideration of the user's viewpoint position by referring to the tracking information. Specifically, the user's viewpoint position at the time of arranging the 3D scene is referred to, and the scene is arranged so that the front of the scene arranged from the user's viewpoint position becomes the user's line of sight. As a procedure, first, when the user viewpoint position is pu and the center of the placement target area is pt, the scene is rotated so that the direction of the vector from pt to pu and the direction of the scene principal direction match. Then move and scale the scene so that it is included in the placement target area. By arranging the scene according to the above procedure, in the application in which the user specifies a specific area and arranges the virtual scene, the scene is arranged so that the front of the scene faces the user side. Therefore, the user can appreciate the scene without adjusting the orientation of the scene after the arrangement.

(視点設定部14)
視点設定部14は3Dシーン情報とトラッキング情報に基づいて描画対象シーンにおけるユーザ視点位置を決定して出力する。以下に示す視点設定処理の少なくとも何れか一つを適用してユーザ視点位置を決定することで多様な3Dシーン情報を性能の異なるトラッキングシステムを用いて鑑賞する場合であっても好適な視点を設定できる。
(Viewpoint setting unit 14)
The viewpoint setting unit 14 determines and outputs the user viewpoint position in the scene to be drawn based on the 3D scene information and the tracking information. By applying at least one of the viewpoint setting processes shown below to determine the user's viewpoint position, a suitable viewpoint can be set even when viewing various 3D scene information using tracking systems with different performances. can.

<視点設定処理1A:トラッキングシステム種別による高さ調整>
トラッキングシステムの種別がアウトサイドイン方式である場合、トラッキングシステムで検知される座標は、実世界空間に対して固定される。これは検知される座標が実世界で固定された外部センサの位置に依存するためである。一方、トラッキングシステム種別がインサイドアウト方式である場合、トラッキングシステムで検知される座標は、実世界空間に対して固定されない。これは、検知される座標が特定時刻のカメラ位置(例えば起動時のカメラ搭載HMDの位置)に依存するためである。したがって、トラッキングシステ
ム種別がアウトサイドイン方式である場合は、ユーザ視点位置の地面(または基準面)からの高さはトラッキングで得られる高さをそのまま利用できる。一方、インサイドアウト方式である場合は、トラッキングシステムが地面からの高さを推定し、高さ補正情報としてトラッキング情報に追加して送る。視点設定部14は、受信したトラッキング情報に含まれる位置情報を、前記高さ補正情報を参照して補正することにより描画対象空間内での好ましいユーザ視点位置を設定できる。なお、トラッキングシステムで高さ情報による補正を行い、補正した位置情報をトラッキング情報として送る場合でも同様の機能が実現できる。しかしながら、アプリケーションによっては高さが不要な場合もあるため、前者の構成の方が多様なアプリケーションに対応できるため好ましい。
<Viewpoint setting process 1A: Height adjustment according to tracking system type>
When the type of the tracking system is the outside-in method, the coordinates detected by the tracking system are fixed with respect to the real world space. This is because the detected coordinates depend on the position of the external sensor fixed in the real world. On the other hand, when the tracking system type is the inside-out method, the coordinates detected by the tracking system are not fixed with respect to the real world space. This is because the detected coordinates depend on the camera position at a specific time (for example, the position of the camera-mounted HMD at startup). Therefore, when the tracking system type is the outside-in method, the height obtained by tracking can be used as it is for the height of the user's viewpoint position from the ground (or the reference plane). On the other hand, in the case of the inside-out method, the tracking system estimates the height from the ground and adds it to the tracking information as height correction information and sends it. The viewpoint setting unit 14 can set a preferable user viewpoint position in the drawing target space by correcting the position information included in the received tracking information with reference to the height correction information. The same function can be realized even when the tracking system corrects the height information and sends the corrected position information as tracking information. However, since the height may not be required depending on the application, the former configuration is preferable because it can support various applications.

高さ情報を一定間隔でトラッキング情報に含めることもできる。その場合、視点設定部14は、最新の高さ情報を参照して位置情報を補正し視点位置を設定する。ここで高さ情報が不連続に変化するとユーザ視点位置が急激に変化しユーザに対して不快感を与える恐れがある。そのため、時間的なユーザ視点位置の変化が一定以内となるよう補正する必要がある。例えば、最新の高さ情報を受信した時刻から、規定の時間にわたって、計算に使用する高さ情報を時刻に応じて直前の高さ情報から最新の高さ情報へ滑らかに変化するよう設定することで急減な視点位置の変化を抑制できる。インサイドアウト方式のトラッキングシステムでステレオ方式を利用して地面からの高さを推定する場合、起動直後は地面の高さが正確に推定できていない場合が多い。そうのような場合に、上記のように高さ情報を更新することで、高さ推定が完了するまでユーザを待たせることなくコンテンツを提示
できる。
Height information can also be included in the tracking information at regular intervals. In that case, the viewpoint setting unit 14 corrects the position information with reference to the latest height information and sets the viewpoint position. If the height information changes discontinuously here, the user's viewpoint position may change suddenly, which may cause discomfort to the user. Therefore, it is necessary to correct the change in the user's viewpoint position over time so that it is within a certain range. For example, from the time when the latest height information is received, the height information used for calculation is set to smoothly change from the previous height information to the latest height information according to the time over a specified time. It is possible to suppress a sudden decrease in the viewpoint position. When estimating the height from the ground using the stereo method in an inside-out tracking system, it is often the case that the height of the ground cannot be estimated accurately immediately after startup. In such a case, by updating the height information as described above, the content can be presented without making the user wait until the height estimation is completed.

<視点設定処理1B:トラッキング機能情報による高さ調整>
トラッキング機能情報で高さ方向のトラッキングが無効に設定されている場合、ユーザ視点位置の地面からの高さを推定して設定する必要がある。視点設定部14では、以下の手順でユーザ視点位置の地面からの高さを推定する。3Dシーン情報が推奨視点位置を含む場合、当該推奨視点位置に相当する高さとなるようユーザ視点位置を設定する。それ以外の場合、既定の高さとなるようユーザ視点位置を設定する。既定の高さは、例えば、ユーザが事前に登録した身長に基づき導出された目の高さを使用できる。なお、高さ方向のトラッキングを利用可能なトラッキングシステムでも高さ方向のトラッキング情報を利用することが適当ではない場合も存在する。例えば、インサイドアウト6DoFトラッキング機能搭載のHMDを装着したユーザが椅子に座り、スリッパ型のコントローラを用いて仮想空間内を移動する場合、実空間での地面からの高さを、仮想空間におけるユーザ視点位置の高さに直接反映させるべきではない。そのような場合に、トラッキング機能情報で高さ方向のトラッキングが無効である旨を通知した上で、前述の手順によりユーザ視点位置を設定することで好ましい視点位置を設定できる。トラッキングシステムにおいて、高さ方向のトラッキングの必要有無をユーザの姿勢や利用しているデバイスの種別から推定して制御することで、ユーザが直接トラッキング機能情報を設定する手順を省略できる。
<Viewpoint setting process 1B: Height adjustment by tracking function information>
When the tracking in the height direction is disabled in the tracking function information, it is necessary to estimate and set the height of the user's viewpoint position from the ground. The viewpoint setting unit 14 estimates the height of the user's viewpoint position from the ground by the following procedure. When the 3D scene information includes the recommended viewpoint position, the user viewpoint position is set so that the height corresponds to the recommended viewpoint position. Otherwise, set the user's viewpoint position to the default height. As the default height, for example, the eye height derived based on the height registered in advance by the user can be used. It should be noted that there are cases where it is not appropriate to use the tracking information in the height direction even in a tracking system that can use the tracking in the height direction. For example, when a user wearing an HMD equipped with an inside-out 6DoF tracking function sits on a chair and moves in the virtual space using a slipper-type controller, the height from the ground in the real space is the user's viewpoint in the virtual space. It should not be reflected directly in the height of the position. In such a case, a preferable viewpoint position can be set by notifying the tracking function information that tracking in the height direction is invalid and then setting the user viewpoint position by the above procedure. In the tracking system, the necessity of tracking in the height direction is estimated and controlled from the posture of the user and the type of the device being used, so that the procedure for the user to directly set the tracking function information can be omitted.

なお、トラッキング機能情報で高さ方向の相対的位置トラッキングのみ有効とし、高さ方向の絶対的位置のトラッキングを無効とする情報を通知してもよい。最初のユーザ視点位置の高さは上記の場合と同様に3Dシーン情報または既定の値に基づいて設定される。以降は時刻毎に受信されるトラッキング情報を参照して算出される相対的な高さの変化に基づいてユーザ視点位置の高さを導出する。このような構成によれば、ユーザは実世界で座った状態で仮想空間を歩いてシーンを鑑賞し、加えて、頭の位置を変えて視点位置を変更することもできる。 It should be noted that the tracking function information may be notified of information that enables only relative position tracking in the height direction and invalidates tracking of the absolute position in the height direction. The height of the first user viewpoint position is set based on the 3D scene information or the default value as in the above case. After that, the height of the user's viewpoint position is derived based on the relative height change calculated by referring to the tracking information received for each time. According to such a configuration, the user can walk in the virtual space to appreciate the scene while sitting in the real world, and in addition, the position of the head can be changed to change the position of the viewpoint.

上記の視点設定処理1Aと視点設定処理1Bに関する記載より、視点設定部14は、トラッキング種別またはトラッキング機能情報に基づいて描画対象空間における視点の基準面(地面)からの高さを決定する、と表現できる。 From the above description of the viewpoint setting process 1A and the viewpoint setting process 1B, the viewpoint setting unit 14 determines the height of the viewpoint in the drawing target space from the reference plane (ground) based on the tracking type or the tracking function information. Can be expressed.

<視点設定処理2:3DoFと6DoFによる開始時視点位置の適応>
シーン方向の情報に基づきシーンの正面の向きが通知されている場合、トラッキング種別が3DoFトラッキングであれば実世界におけるユーザの正面の向きをシーンの正面の向きと一致させるようユーザ視点の視線方向を決定することで他の向きに視線方向を設定する場合に較べて好ましいシーンの観察環境をユーザに提供できる。一方、トラッキング種別が6DoFトラッキングである場合には、必ずしも実世界におけるユーザの正面の向きをシーンの正面の向きに一致させるよう視線方向を設定することが適切ではない状況が存在する。一般に6DoFトラッキングでは無限の範囲までトラッキングが可能ではない。そのため、シーンの観察を最大限に楽しむ機会を提供するためにはシーン観測範囲、トラッキング範囲、トラッキング位置に基づいてユーザ視点を設定することが好ましい。具体的には、描画対象空間において、シーン観測範囲に相当する範囲とトラッキング範囲の重複範囲が最大となるよう開始時刻におけるユーザ視点を決定する。後続の時刻においては、トラッキング情報に含まれる視点位置の相対変化に基づいて前記開始時刻におけるユーザ視点を移動することで各時刻のユーザ視点を決定する。描画対象空間において、ユーザはトラッキング範囲外のシーンに移動することができない。そのため、シーン観測範囲とトラッキング範囲の重複が増えるほど様々な位置からシーンを鑑賞できるようになる。したがって、シーン観測範囲とトラッキング範囲の重複範囲を増やすよう開始時刻におけるユーザ視点を決定することで、ユーザがよりシーン鑑賞を楽しむことができる。
<Viewpoint setting process 2: Adaptation of viewpoint position at start by 3DoF and 6DoF>
When the front orientation of the scene is notified based on the scene orientation information, if the tracking type is 3DoF tracking, the line-of-sight direction of the user's viewpoint is set so that the front orientation of the user in the real world matches the front orientation of the scene. By making a decision, it is possible to provide the user with a preferable scene observation environment as compared with the case where the line-of-sight direction is set in another direction. On the other hand, when the tracking type is 6DoF tracking, there is a situation where it is not always appropriate to set the line-of-sight direction so that the front direction of the user in the real world matches the front direction of the scene. In general, 6DoF tracking does not allow tracking to an infinite range. Therefore, in order to provide an opportunity to enjoy the observation of the scene to the maximum, it is preferable to set the user viewpoint based on the scene observation range, the tracking range, and the tracking position. Specifically, in the drawing target space, the user viewpoint at the start time is determined so that the overlap range between the range corresponding to the scene observation range and the tracking range is maximized. At the subsequent time, the user viewpoint at each time is determined by moving the user viewpoint at the start time based on the relative change of the viewpoint position included in the tracking information. In the drawing target space, the user cannot move to a scene outside the tracking range. Therefore, as the overlap between the scene observation range and the tracking range increases, the scene can be viewed from various positions. Therefore, by determining the user's viewpoint at the start time so as to increase the overlapping range of the scene observation range and the tracking range, the user can enjoy the scene viewing more.

上記の説明でトラッキング種別が3DoFトラッキングであることは位置トラッキングが無効であることに相当し、トラッキング種別が6DoFトラッキングであることは位置トラッキングが有効であることに相当する。位置トラッキングが有効か無効かはトラッキング機能情報に含まれる位置トラッキング機能の有無を参照して判定してもよい。 In the above explanation, the tracking type of 3DoF tracking corresponds to invalid position tracking, and the tracking type of 6DoF tracking corresponds to effective position tracking. Whether the position tracking is enabled or disabled may be determined by referring to the presence / absence of the position tracking function included in the tracking function information.

なお、上記の説明ではシーン観測範囲を利用する例を説明したが、シーン範囲を利用しても類似の効果は実現できる。具体的には、シーン範囲に視聴可能距離に相当する既定のマージンを加えて得られる範囲をシーン観測範囲として利用することもできる。この場合、シーン観測範囲指定の自由度は下がるが、シーン情報のデータ量を削減できる。 In the above description, an example of using the scene observation range has been described, but a similar effect can be realized by using the scene range. Specifically, a range obtained by adding a predetermined margin corresponding to the viewable distance to the scene range can also be used as the scene observation range. In this case, the degree of freedom in specifying the scene observation range is reduced, but the amount of scene information data can be reduced.

なお、6DoFトラッキング利用時の開始時刻ユーザ視点位置の決定において、前述の重複範囲を最大化する条件に追加条件を加えてユーザ視点位置を決定してもよい。具体的には、3Dシーン情報に記述されたオブジェクト位置および各オブジェクトの占有範囲を参照し、何れのオブジェクトの占有範囲にも含まれない位置にユーザ視点位置を設定するという追加条件を利用できる。開始時刻においてユーザがオブジェクトに内部に位置するという好ましくない状態を回避することができる。ここで、オブジェクトの占有範囲は、オブジェクトが占有する空間の範囲を表す情報であり、例えばオブジェクトを内包する直方体により表現できる。 In determining the start time user viewpoint position when using 6DoF tracking, the user viewpoint position may be determined by adding an additional condition to the above-mentioned condition for maximizing the overlap range. Specifically, it is possible to use an additional condition of referring to the object position described in the 3D scene information and the occupied range of each object and setting the user viewpoint position to a position not included in the occupied range of any object. It is possible to avoid the unfavorable condition that the user is inside the object at the start time. Here, the occupied range of the object is information representing the range of the space occupied by the object, and can be expressed by, for example, a rectangular parallelepiped containing the object.

また、シーン観測範囲がトラッキング範囲に比べて小さい場合、トラッキング範囲の中心に近い位置にシーン占有空間が配置されるようユーザ視点の位置と方向を設定する追加条件を利用できる。シーンを外から観察できる範囲が増加するため好ましい。加えて、アウトサイドイン6DoFトラッキングの場合には、トラッキング範囲の中心部分の方が安全であり範囲外のアラートが発生する機会も低減できるためユーザの満足度を高めることができる。 Further, when the scene observation range is smaller than the tracking range, an additional condition for setting the position and direction of the user's viewpoint so that the scene occupied space is arranged at a position close to the center of the tracking range can be used. This is preferable because the range in which the scene can be observed from the outside increases. In addition, in the case of outside-in 6DoF tracking, the central part of the tracking range is safer and the chances of out-of-range alerts can be reduced, thus increasing user satisfaction.

上記視点設定処理2によれば、視点設定部14は、トラッキング種別またはトラッキング機能情報に基づいて位置トラッキングの有効有無を特定し、位置トラッキングが有効な場合と無効な場合とで異なる方法でユーザ視点を決定する。これにより、多様なトラッキングシステムを利用する場合に、好適な視点位置を設定できる。 According to the viewpoint setting process 2, the viewpoint setting unit 14 identifies whether position tracking is valid or not based on the tracking type or tracking function information, and the user viewpoint is different depending on whether the position tracking is enabled or disabled. To decide. This makes it possible to set a suitable viewpoint position when using various tracking systems.

また、上記視点設定処理2によれば、視点設定部14は、位置トラッキングが有効な場合、シーン情報に含まれるシーン範囲またはシーン観測範囲を用いて視点位置を設定する。これにより、位置トラッキングが有効である場合に、多様な3Dシーンに対して好適な視点位置を設定できる。 Further, according to the viewpoint setting process 2, when the position tracking is effective, the viewpoint setting unit 14 sets the viewpoint position using the scene range or the scene observation range included in the scene information. This makes it possible to set a suitable viewpoint position for various 3D scenes when position tracking is effective.

<視点設定処理3:可動範囲のフィッティング>
描画対象空間においてシーン観測範囲がトラッキング範囲に比べて広い場合、通常のユーザ視点位置の決定方法ではユーザがシーン全体を探索することができない。そのような場合、ユーザ視点位置をシーン観測範囲内での位置、シーン観測範囲とトラッキング範囲の比率に応じて調整することで狭いトラッキング範囲であってもシーン全体を探索することが可能となる。具体的には、以下の手順でユーザ視点位置を決定する。まず、3Dシーン情報に含まれるシーン観測範囲とトラッキング情報に含まれるトラッキング範囲を参照して、描画対象空間におけるシーン観測範囲とトラッキング範囲の比率βを導出する。比率βはシーン観測範囲がトラッキング範囲のβ倍であることを意味する。続いて、トラッキング情報に含まれる視点位置の変位にβを乗算した変位を描画対象空間におけるユーザ視点位置の変位として適用する。以上の手順によりユーザ視点位置を設定することで、トラッキング範囲の端から端までユーザが移動した場合に、描画対象空間においてシーン占有空間の端から端までユーザが移動することに相当するため、ユーザがシーン全体を探索できるようになる。なお、上記の比率βを乗算した変位を利用して視点位置を移動する場合には、その事が分かる情報をユーザに提示することが好ましい。例えば、「βx高速移動中」と提示する。これにより、実世界の移動量と提示される映像から推定される移動量にギャップがある事をユーザが知覚できるため運動と視覚情報のギャップに起因する酔いを抑制できる。また、体の移動と頭の移動をそれぞれ検知し、体の移動に対しては前述の比率βを利用した視点移動調整を適用し、頭の移動に対しては通常の(比率1相当の)視点移動を行ってもよい。これにより、ユーザはシーン全体を探索でき、かつ、頭を動かした場合に自然な視差でシーンを観察できる。
<Viewpoint setting process 3: Fitting of movable range>
When the scene observation range is wider than the tracking range in the drawing target space, the user cannot search the entire scene by the usual method of determining the user's viewpoint position. In such a case, by adjusting the user's viewpoint position according to the position within the scene observation range and the ratio between the scene observation range and the tracking range, it is possible to search the entire scene even in a narrow tracking range. Specifically, the user's viewpoint position is determined by the following procedure. First, the ratio β of the scene observation range and the tracking range in the drawing target space is derived by referring to the scene observation range included in the 3D scene information and the tracking range included in the tracking information. The ratio β means that the scene observation range is β times the tracking range. Subsequently, the displacement obtained by multiplying the displacement of the viewpoint position included in the tracking information by β is applied as the displacement of the user viewpoint position in the drawing target space. By setting the user viewpoint position by the above procedure, when the user moves from one end of the tracking range to the other, the user moves from one end to the other of the scene occupied space in the drawing target space. Will be able to explore the entire scene. When moving the viewpoint position by using the displacement multiplied by the above ratio β, it is preferable to present the user with information indicating that fact. For example, it is presented as "βx moving at high speed". As a result, the user can perceive that there is a gap between the movement amount in the real world and the movement amount estimated from the presented image, so that the sickness caused by the gap between the motion and the visual information can be suppressed. In addition, the movement of the body and the movement of the head are detected respectively, the viewpoint movement adjustment using the above-mentioned ratio β is applied to the movement of the body, and the normal movement of the head (equivalent to the ratio 1) is applied. You may move the viewpoint. As a result, the user can search the entire scene and observe the scene with natural parallax when the head is moved.

上記視点設定処理3によれば、視点設定部14は、トラッキング情報に含まれるトラッキング範囲と、シーン情報に含まれるシーン範囲またはシーン観測範囲とを用いてユーザ視点を決定する。これにより、多様なシーンおよび多様なトラッキングシステムを利用する場合に、好適な視点位置を設定できる。 According to the viewpoint setting process 3, the viewpoint setting unit 14 determines the user viewpoint using the tracking range included in the tracking information and the scene range or the scene observation range included in the scene information. This makes it possible to set a suitable viewpoint position when using various scenes and various tracking systems.

<視点設定処理4:トラッキング自由度制約時の処理>
トラッキング機能情報において、特定のトラッキング自由度が制約されている場合に、当該制約を考慮してユーザ視点の位置や方向を決定することで、より好ましい体験をユーザに提供できる。具体的には、方向トラッキングの自由度が制約されている場合、制約されている自由度の方向成分を3Dシーン情報に含まれるシーン主方向の対応する成分と一致するよう導出する。例えば、水平方向の回転が有効であり、鉛直方向の回転が無効である場合、ユーザの視線方向をトラッキングにより検知された水平方向の回転成分とシーン主方向の鉛直方向の回転成分との合成により導出する。これにより、ユーザは、横たわった姿勢で首の水平方向の回転のみを使用してシーンを観察する状況においても、好ましい方向からシーンを観察することができる。
<Viewpoint setting process 4: Processing when tracking freedom is restricted>
When a specific degree of freedom of tracking is restricted in the tracking function information, a more preferable experience can be provided to the user by determining the position and direction of the user's viewpoint in consideration of the restriction. Specifically, when the degree of freedom of directional tracking is restricted, the directional component of the restricted degree of freedom is derived so as to match the corresponding component of the scene principal direction included in the 3D scene information. For example, if horizontal rotation is enabled and vertical rotation is disabled, the combination of the horizontal rotation component detected by tracking the user's line-of-sight direction and the vertical rotation component in the main direction of the scene Derived. This allows the user to observe the scene from a preferred direction even in a situation where the user is observing the scene in a lying position using only the horizontal rotation of the neck.

(メディアデータ取得部15)
メディアデータ取得部15は3Dシーン情報、シーン配置、ユーザ視点位置を参照して視点映像の生成に必要なメディアデータを特定する。続いて特定したメディアデータを出力する。メディアデータの特定は次の手順で実行する。まず、レンダリング対象空間におけるユーザ視点の位置と視線方向に基づいてユーザ視点の映像生成に必要なシーンの構成要素を特定する。具体的にはレンダリング対象空間においてユーザの視界内に含まれる3Dオブジェクトとシーン背景を選択する。図3(a)で例示した3Dシーンにおいてユーザの視界内に3DオブジェクトO1が含まれ、3DオブジェクトO2が含まれない場合、シーン背景BGVおよび3DオブジェクトO1をメディアデータが必要なオブジェクトとして選択する。続いて選択さ
れた各構成要素について、3Dシーン情報に含まれる各構成要素に対応するURLを参照して
メディアデータを取得して出力する。
(Media data acquisition unit 15)
The media data acquisition unit 15 identifies the media data necessary for generating the viewpoint image by referring to the 3D scene information, the scene arrangement, and the user viewpoint position. Then, the specified media data is output. The media data is specified by the following procedure. First, the components of the scene necessary for generating the image of the user's viewpoint are specified based on the position of the user's viewpoint and the direction of the line of sight in the rendering target space. Specifically, the 3D object and the scene background included in the user's field of view in the rendering target space are selected. When the 3D object O1 is included in the user's view and the 3D object O2 is not included in the 3D scene illustrated in FIG. 3 (a), the scene background BGV and the 3D object O1 are selected as the objects for which media data is required. Subsequently, for each selected component, media data is acquired and output by referring to the URL corresponding to each component included in the 3D scene information.

<背景のレンダリング省略>
上記説明によればシーン背景はユーザ視点の位置に依らず視点映像の生成に必要なものとして選択される。しかしながら、実世界にシーンを配置し観測する場合には必ずしもシーンの背景は必要ない。そのため、3Dシーン情報に含まれるシーン占有空間を参照し、描画対象空間においてシーン外にユーザ視点位置が設定されている場合にはシーン背景を選択しないことが好ましい。これによりシーン再生に必要なメディアデータの伝送量を抑制できる。
<Rendering of background omitted>
According to the above description, the scene background is selected as necessary for generating the viewpoint image regardless of the position of the user's viewpoint. However, when arranging and observing a scene in the real world, the background of the scene is not always necessary. Therefore, it is preferable not to select the scene background when the user's viewpoint position is set outside the scene in the drawing target space by referring to the scene occupied space included in the 3D scene information. As a result, the amount of media data transmitted required for scene reproduction can be suppressed.

<音声メディアの選択>
上記ではシーンの映像生成に必要なメディアデータの選択方法について説明したが、視点依存でシーンの音声を再生する場合には音声に関わるシーン構成要素を選択しメディアデータを取得する必要がある。図3(a)で例示したシーンにおいてユーザの視界内に音声オブジェクトO1が含まれ、音声オブジェクトO2が含まれない場合、シーン音声BGA、音声オ
ブジェクトA1、音声オブジェクトA2をメディアデータが必要なオブジェクトとして選択す
る。ここで視界内に含まれない音声オブジェクトO2が選択されるのは、視覚情報と異なり音情報は視野に関係なく全方向の音が知覚可能なためである。なお、音声オブジェクトに音の到達範囲を設定し、ユーザ視点が音の到達範囲内にある場合のみ当該音声オブジェクトを選択するような選択方法を利用してもよい。その場合、音の再生に必要なメディアデータの伝送量が低減できる。また、音声オブジェクトに音の大きさを表す量を設定し、その大きさに応じて音の到達範囲を計算して導出してもよい。その場合、直接到達範囲を設定する場合に比べて計算は増えるが、音の伝達率が異なるシーンでも適切な音声オブジェクトが選択できるようになる。
<Selection of audio media>
In the above, the method of selecting the media data necessary for generating the image of the scene has been described, but when the sound of the scene is reproduced depending on the viewpoint, it is necessary to select the scene component related to the sound and acquire the media data. When the voice object O1 is included in the user's view and the voice object O2 is not included in the scene illustrated in FIG. 3 (a), the scene voice BGA, the voice object A1, and the voice object A2 are used as objects that require media data. select. Here, the audio object O2 that is not included in the visual field is selected because, unlike the visual information, the sound information can perceive sound in all directions regardless of the visual field. It should be noted that a selection method may be used in which the reach range of the sound is set in the voice object and the voice object is selected only when the user's viewpoint is within the reach range of the sound. In that case, the amount of media data transmitted for sound reproduction can be reduced. Further, an amount representing the loudness of the sound may be set in the voice object, and the reachable range of the sound may be calculated and derived according to the loudness. In that case, the calculation is increased as compared with the case of setting the direct reach range, but it becomes possible to select an appropriate audio object even in scenes having different sound transmission rates.

<トラッキング範囲を考慮したプリフェッチ>
メディアデータ取得部15におけるメディアデータの取得は、必ずしも視点映像生成部16における視点映像の生成と同じ頻度で実行する必要はない。これはビデオデータが必ずしも細かい時間粒度で選択できないためである。したがってメディアデータ取得部15は、現時刻の視点映像生成に必要なメディアデータだけではなく、近い時刻に必要とされる可能性の高いメディアデータを選択することが好ましい。例えば、現時刻のユーザ視点位置の近傍位置の視点画像合成に必要なシーンの構成要素に関するメディアデータも取得する。
<Prefetch considering tracking range>
The acquisition of media data in the media data acquisition unit 15 does not necessarily have to be executed at the same frequency as the generation of the viewpoint image in the viewpoint image generation unit 16. This is because video data cannot always be selected with fine time granularity. Therefore, it is preferable that the media data acquisition unit 15 selects not only the media data necessary for generating the viewpoint image at the current time but also the media data that is likely to be required at a near time. For example, media data related to scene components necessary for synthesizing a viewpoint image at a position near the user's viewpoint position at the current time is also acquired.

なお、トラッキングシステム情報からトラッキング範囲を参照できる場合、トラッキング範囲を参照してより好ましいメディアデータを取得できる。具体的にはユーザ視点位置の近傍であって、トラッキング範囲内の視点位置の視点映像合成に必要なメディアデータを取得する。トラッキング範囲外の視点映像を合成する状況は発生しないため、ユーザが体感する視点映像の品質を低下することなくメディアデータの伝送量を削減できる。 If the tracking range can be referred from the tracking system information, more preferable media data can be obtained by referring to the tracking range. Specifically, the media data necessary for synthesizing the viewpoint image of the viewpoint position within the tracking range in the vicinity of the user's viewpoint position is acquired. Since the situation of synthesizing the viewpoint video outside the tracking range does not occur, the transmission amount of the media data can be reduced without deteriorating the quality of the viewpoint video experienced by the user.

また、トラッキング種別やトラッキング機能情報を参照して特定のトラッキング自由度が制限されている場合、その制限を利用してより好ましいメディアデータを取得できる。具体的には、ユーザ視点位置の近傍であって、自由度が制限されていない方向に変位または回転した場合の視点の視点映像合成に必要なメディアデータを取得する。この場合もユーザが体感する視点映像の品質を低下することなくメディアデータの伝送量を削減できる。 Further, when a specific degree of freedom of tracking is restricted by referring to the tracking type or tracking function information, more preferable media data can be acquired by using the restriction. Specifically, the media data necessary for the viewpoint image composition of the viewpoint when the displacement or rotation is in the vicinity of the user viewpoint position and the degree of freedom is not limited is acquired. In this case as well, the amount of media data transmission can be reduced without degrading the quality of the viewpoint image that the user perceives.

(視点映像描画部16)
視点映像生成部16は描画対象シーン、ユーザ視点位置、メディアデータを参照して視点映像を生成して出力する。特定の時刻tにおける視点映像描画処理は以下の手順で実行さ
れる。
(Viewpoint video drawing unit 16)
The viewpoint image generation unit 16 generates and outputs a viewpoint image by referring to a scene to be drawn, a user's viewpoint position, and media data. The viewpoint image drawing process at a specific time t is executed by the following procedure.

(S1)シーン背景に相当するメディアデータが入力されている場合、当該メディアデータとユーザ視点を参照して、描画対象空間における背景のユーザ視点からの観察結果に相当する画像を合成しバッファに記録する。 (S1) When media data corresponding to the scene background is input, the image corresponding to the observation result from the user's viewpoint of the background in the drawing target space is synthesized and recorded in the buffer by referring to the media data and the user's viewpoint. do.

(S2)3Dオブジェクトに相当する各メディアデータを対象として、S2-1の処理を実行する
(S2-1)対象メディアデータとユーザ視点を参照して、描画対象空間における対応3Dオブジェクトのユーザ視点からの観測結果に相当する画像を合成しバッファに記録する。
(S2) Execute the processing of S2-1 for each media data corresponding to the 3D object. (S2-1) Refer to the target media data and the user's viewpoint, and from the user's viewpoint of the corresponding 3D object in the drawing target space. The image corresponding to the observation result of is synthesized and recorded in the buffer.

(S3)S1およびS2-1で生成したバッファを1枚のバッファに統合して視点画像として出力する。バッファの合成はデプスも参照して行う。 (S3) The buffers generated in S1 and S2-1 are integrated into one buffer and output as a viewpoint image. Buffer composition is also performed by referring to the depth.

上記の処理では、処理対象をシーンに含まれる全メディアデータではなく、メディアデータ取得部15で選択され視点映像生成部16に入力されたメディアデータに制限することで、視点映像描画処理の処理量を低減している。なお、描画対象空間においてユーザ視点から観測されるシーン背景および3Dオブジェクトの観測結果に相当する画像が合成されるのであれば、別の手順により合成しても構わない。例えば、複数のバッファにそれぞれ3Dオブジェクトを描画した後に1枚のバッファに合成するのではなく、1枚のバッファに3Dオブジェクトのデプスを参照しつつ3Dオブジェクトを上書き描画していく手順も適用できる。 In the above processing, the processing amount of the viewpoint image drawing process is limited to the media data selected by the media data acquisition unit 15 and input to the viewpoint image generation unit 16 instead of all the media data included in the scene. Is reduced. If the scene background observed from the user's viewpoint and the image corresponding to the observation result of the 3D object are combined in the drawing target space, they may be combined by another procedure. For example, instead of drawing a 3D object in multiple buffers and then combining them into one buffer, you can apply the procedure of overwriting the 3D object while referring to the depth of the 3D object in one buffer.

上述したように、本実施形態に係る三次元データ再生装置は、三次元データを再生する三次元データ送信装置であって、シーン情報およびトラッキング情報に基づいてシーン配置を決定するシーン配置部、または、シーン情報およびトラッキング情報に基づいてユーザ視点を設定する視点設定部を備えている構成である。上記構成によれば、多様な3Dシーンを多様なトラッキングシステムを利用して再生する場合であっても好適な視点映像を合成して出力する三次元データ再生装置を実現できる。 As described above, the three-dimensional data reproduction device according to the present embodiment is a three-dimensional data transmission device that reproduces three-dimensional data, and is a scene arrangement unit that determines a scene arrangement based on scene information and tracking information, or a scene arrangement unit. , A configuration including a viewpoint setting unit for setting a user viewpoint based on scene information and tracking information. According to the above configuration, it is possible to realize a three-dimensional data reproduction device that synthesizes and outputs a suitable viewpoint image even when various 3D scenes are reproduced by using various tracking systems.

〔実施形態1の三次元データ再生装置を含むシステム〕
図2は実施形態1の三次元データ再生装置を含んで実現される三次元データ配信システムの構成を表すブロック図である。
[System including the three-dimensional data reproduction device of the first embodiment]
FIG. 2 is a block diagram showing a configuration of a three-dimensional data distribution system realized by including the three-dimensional data reproduction device of the first embodiment.

三次元データ配信システムは、三次元データ再生装置1、三次元データ生成装置2、三次元データ記録装置3、三次元データ表示装置5、および、トラッキングシステム6を備えて
いる。
The three-dimensional data distribution system includes a three-dimensional data reproduction device 1, a three-dimensional data generation device 2, a three-dimensional data recording device 3, a three-dimensional data display device 5, and a tracking system 6.

三次元データ生成装置2は、配信の対象となる三次元シーンを入力として三次元データ
を生成して出力する。三次元データ生成装置2が生成する三次元データは、実施形態1の三次元データ再生装置1の説明で記載したシーン情報およびメディアデータを含む。
The three-dimensional data generation device 2 generates and outputs three-dimensional data by inputting a three-dimensional scene to be distributed. The three-dimensional data generated by the three-dimensional data generation device 2 includes the scene information and the media data described in the description of the three-dimensional data reproduction device 1 of the first embodiment.

三次元データ記録装置3は、三次元データを蓄積し、外部からの要求に応じて、指定さ
れた時刻のシーン情報やメディアデータを出力する。
The three-dimensional data recording device 3 stores three-dimensional data and outputs scene information and media data at a specified time in response to an external request.

伝送チャンネル4は三次元データが伝送されるチャンネルを表す。例えば、伝送チャン
ネル4としてインターネットネットワーク回線が利用できる。
Transmission channel 4 represents a channel on which three-dimensional data is transmitted. For example, an internet network line can be used as the transmission channel 4.

三次元データ表示装置5は、入力される視点映像を表示してユーザに提示する。表示装
置として、例えば二次元の平面ディスプレイ、三次元ディスプレイ、ヘッドマウントディスプレイを用いることができる。
The three-dimensional data display device 5 displays the input viewpoint image and presents it to the user. As the display device, for example, a two-dimensional flat display, a three-dimensional display, or a head-mounted display can be used.

トラッキングシステム6は、トラッキング情報を生成して出力する。トラッキング情報
は、実施形態1の説明に記載したトラッキング情報と同一である。
The tracking system 6 generates and outputs tracking information. The tracking information is the same as the tracking information described in the description of the first embodiment.

図2に示す三次元データ配信システムは、シーン情報を含む三次元データを生成する三
次元データ生成装置2と、トラッキング情報を生成するトラッキングシステム6と、前記三次元データとトラッキング情報を用いて視点映像を生成して出力する三次元データ再生装置1を含んで構成される。上記構成によれば、シーン情報とトラッキング情報の両方を参
照することで多様な3Dシーンおよび多様なトラッキングシステムが利用される場合であっても、好適な視点映像を生成してユーザに提示できる。
The three-dimensional data distribution system shown in FIG. 2 is a viewpoint using the three-dimensional data generation device 2 that generates three-dimensional data including scene information, the tracking system 6 that generates tracking information, and the three-dimensional data and tracking information. It includes a three-dimensional data playback device 1 that generates and outputs video. According to the above configuration, by referring to both the scene information and the tracking information, even when various 3D scenes and various tracking systems are used, a suitable viewpoint image can be generated and presented to the user.

〔実施形態1の変形例1〕
上記実施形態1で説明した三次元データ再生装置1は3Dシーン配置部13と視点設定部14
の両方を含むが、視点設定部14のみを含む構成も可能である。具体的には、三次元データ再生装置1から3Dシーン配置部13を削除する。3Dシーン配置部13から出力されていたシー
ン配置としては、3Dシーン情報に含まれるシーン配置を直接用いる。この場合の三次元デ
ータ再生装置は多様な3Dシーンに対応することはできないが、三次元データ再生装置1と
同様に多様なトラッキングシステムを利用するユーザに対して好適な視点映像を出力することがより少ない回路規模で実現できる。
[Modification 1 of Embodiment 1]
The three-dimensional data reproduction device 1 described in the first embodiment has a 3D scene arrangement unit 13 and a viewpoint setting unit 14.
Although both are included, it is also possible to include only the viewpoint setting unit 14. Specifically, the 3D scene arrangement unit 13 is deleted from the 3D data reproduction device 1. As the scene arrangement output from the 3D scene arrangement unit 13, the scene arrangement included in the 3D scene information is directly used. In this case, the 3D data playback device cannot support various 3D scenes, but it is possible to output a viewpoint image suitable for users who use various tracking systems as in the case of the 3D data playback device 1. It can be realized with a smaller circuit scale.

〔ソフトウェアによる実現例〕
三次元データ再生装置1の制御ブロック(特に3Dシーン配置部、視点設定部、メディアデータ取得部および視点映像描画部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of implementation by software]
The control block (particularly the 3D scene arrangement unit, the viewpoint setting unit, the media data acquisition unit, and the viewpoint image drawing unit) of the 3D data reproduction device 1 is provided by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized or it may be realized by software.

後者の場合、三次元データ再生装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the three-dimensional data reproduction device includes a computer that executes instructions of a program that is software that realizes each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium in which the program is stored. Then, in the computer, the processor reads the program from the recording medium and executes the program, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium", for example, a ROM (Read Only Memory) or the like, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the above program may be further provided. Further, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

本発明の実施形態は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims. That is, an embodiment obtained by combining technical means appropriately modified within the scope of the claims is also included in the technical scope of the present invention.

1 三次元データ再生装置
11 トラッキング情報取得部
12 3Dシーン情報取得部
13 3Dシーン配置部
14 視点設定部
15 メディアデータ取得部
16 視点映像描画部
2 三次元データ生成装置
3 三次元データ記録装置
5 三次元データ表示装置
6 トラッキングシステム
1 3D data playback device
11 Tracking information acquisition department
12 3D scene information acquisition department
13 3D scene placement section
14 Viewpoint setting section
15 Media data acquisition department
16 Viewpoint video drawing section
2 3D data generator
3 3D data recording device
5 3D data display device
6 Tracking system

Claims (10)

シーン情報およびトラッキング情報に基づいてシーン配置を決定するシーン配置部、または、シーン情報およびトラッキング情報に基づいてユーザ視点を設定する視点設定部を備え、前記トラッキング情報はトラッキングシステム情報を含むことを特徴とする三次元データ再生装置。 It is provided with a scene arrangement unit that determines the scene arrangement based on the scene information and the tracking information, or a viewpoint setting unit that sets the user viewpoint based on the scene information and the tracking information, and the tracking information includes tracking system information. A three-dimensional data playback device. 前記トラッキングシステム情報はトラッキングシステム種別を含むことを特徴とする請求項1に記載の三次元データ再生装置。 The three-dimensional data reproduction device according to claim 1, wherein the tracking system information includes a tracking system type. 前記トラッキングシステム情報は位置トラッキング機能の有無、方向トラッキング機能の有無、方向トラッキング範囲、位置トラッキング範囲、トラッキング間隔、および、トラッキング遅延の少なくとも何れか一つ以上を含むトラッキング機能情報を含むことを特徴とする請求項2に記載の三次元データ再生装置。 The tracking system information is characterized by including the presence / absence of a position tracking function, the presence / absence of a direction tracking function, a direction tracking range, a position tracking range, a tracking interval, and tracking function information including at least one or more of tracking delays. The three-dimensional data reproduction device according to claim 2. 前記方向トラッキング機能の有無は、方向を表す各自由度に対するトラッキング機能の有無の集合により表現されることを特徴とする請求項3に記載の三次元データ再生装置。 The three-dimensional data reproduction device according to claim 3, wherein the presence / absence of the direction tracking function is represented by a set of presence / absence of the tracking function for each degree of freedom indicating a direction. 前記位置トラッキング機能の有無は、位置を表す各自由度に対するトラッキング機能の有無の集合により表現されることを特徴とする請求項3に記載の三次元データ再生装置。 The three-dimensional data reproduction device according to claim 3, wherein the presence / absence of the position tracking function is represented by a set of presence / absence of the tracking function for each degree of freedom representing the position. 前記視点設定部は、トラッキング種別またはトラッキング機能情報に基づいて描画対象空間における視点の基準面からの高さを決定することを特徴とする請求項3に記載の三次元データ再生装置。 The three-dimensional data reproduction device according to claim 3, wherein the viewpoint setting unit determines the height of the viewpoint in the drawing target space from the reference plane based on the tracking type or the tracking function information. 前記視点設定部は、トラッキング種別またはトラッキング機能情報に基づいて位置トラッキングの有効有無を特定し、位置トラッキングが有効な場合と無効な場合とで異なる方法でユーザ視点を決定することを特徴とする請求項3に記載の三次元データ再生装置。 The viewpoint setting unit identifies whether or not position tracking is valid based on the tracking type or tracking function information, and determines the user viewpoint by different methods depending on whether position tracking is enabled or disabled. Item 3. The three-dimensional data reproduction device according to item 3. 前記視点設定部は、位置トラッキングが有効な場合、前記シーン情報に含まれるシーン範囲またはシーン観測範囲を用いて視点位置を設定することを特徴とする請求項7に記載の三次元データ再生装置。 The three-dimensional data reproduction device according to claim 7, wherein the viewpoint setting unit sets a viewpoint position using a scene range or a scene observation range included in the scene information when position tracking is effective. 前記視点設定部は、前記トラッキング情報に含まれるトラッキング範囲と、前記シーン情報に含まれるシーン範囲またはシーン観測範囲とを用いてユーザ視点を決定することを特徴とする請求項3に記載の三次元データ再生装置。 The three-dimensional aspect according to claim 3, wherein the viewpoint setting unit determines a user viewpoint by using a tracking range included in the tracking information and a scene range or a scene observation range included in the scene information. Data playback device. 前記シーン情報は、シーン範囲、シーン観測範囲、シーン主方向、シーンスケール、および、シーン基準地面情報のうち少なくとも何れか一つ以上を含むシーン配置補助情報を含むことを特徴とする請求項1から請求項9の何れか一項に記載の三次元データ再生装置。 From claim 1, the scene information includes scene arrangement assisting information including at least one or more of a scene range, a scene observation range, a scene principal direction, a scene scale, and a scene reference ground information. The three-dimensional data reproduction device according to any one of claims 9.
JP2018241449A 2018-12-25 2018-12-25 Three-dimensional data reproduction device Pending JP2022034091A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018241449A JP2022034091A (en) 2018-12-25 2018-12-25 Three-dimensional data reproduction device
PCT/JP2019/050084 WO2020137877A1 (en) 2018-12-25 2019-12-20 3d data reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241449A JP2022034091A (en) 2018-12-25 2018-12-25 Three-dimensional data reproduction device

Publications (1)

Publication Number Publication Date
JP2022034091A true JP2022034091A (en) 2022-03-03

Family

ID=71128675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241449A Pending JP2022034091A (en) 2018-12-25 2018-12-25 Three-dimensional data reproduction device

Country Status (2)

Country Link
JP (1) JP2022034091A (en)
WO (1) WO2020137877A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022075342A1 (en) * 2020-10-07 2022-04-14
JP2024075800A (en) * 2021-03-24 2024-06-05 株式会社Nttドコモ Display Control Device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275207A (en) * 1995-03-30 1996-10-18 Namco Ltd Image display method and image display system
JP6392911B2 (en) * 2017-01-30 2018-09-19 株式会社コロプラ Information processing method, computer, and program for causing computer to execute information processing method
JP6290467B1 (en) * 2017-02-01 2018-03-07 株式会社コロプラ Information processing method, apparatus, and program causing computer to execute information processing method

Also Published As

Publication number Publication date
WO2020137877A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
RU2638776C1 (en) Image generating device and method
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
US10871822B2 (en) Image generation apparatus, image generation system, and image generation method
CN112335264B (en) Apparatus and method for presenting audio signals for playback to a user
GB2565140A (en) Virtual reality video processing
JP2017204674A (en) Imaging device, head-mounted display, information processing system, and information processing method
CN113383370B (en) Information processing apparatus and method, and program
JP2017215875A (en) Image generation device, image generation system, and image generation method
JP6474278B2 (en) Image generation system, image generation method, program, and information storage medium
WO2020137877A1 (en) 3d data reproduction device
US20220239888A1 (en) Video distribution system, video distribution method, and display terminal
TWI810233B (en) Apparatus and method for generating view images
JP2019095916A (en) Image generation device, head-mounted display, image generation system, image generation method, and program
US20240036327A1 (en) Head-mounted display and image displaying method
JP7047085B2 (en) Image generator, image generator, and program
JP2017208808A (en) Method of providing virtual space, program, and recording medium
JP2004355131A (en) Method and device for generating composite reality feeling image
JP2018147504A (en) Display control method and program for causing computer to execute the display control method
JP7030075B2 (en) Programs, information processing devices, and information processing methods
JP2020057400A (en) Information processor and warning presentation method
JP2019022121A (en) Image processor and control method of image processor
US20240137482A1 (en) Image generation device, program, image generation method, and image displaying system
JP2018000987A (en) Display control method and program for allowing computer to execute display control method
JP2017201524A (en) Method, program and storage medium for providing virtual space
JP2024015868A (en) Head-mounted display and image display method