JP2016206766A - Data reducing apparatus and data reducing method - Google Patents

Data reducing apparatus and data reducing method Download PDF

Info

Publication number
JP2016206766A
JP2016206766A JP2015084776A JP2015084776A JP2016206766A JP 2016206766 A JP2016206766 A JP 2016206766A JP 2015084776 A JP2015084776 A JP 2015084776A JP 2015084776 A JP2015084776 A JP 2015084776A JP 2016206766 A JP2016206766 A JP 2016206766A
Authority
JP
Japan
Prior art keywords
display
dimensional model
display unit
color information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015084776A
Other languages
Japanese (ja)
Inventor
英生 宮地
Hideo Miyaji
英生 宮地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cybernet Systems Co Ltd
Original Assignee
Cybernet Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cybernet Systems Co Ltd filed Critical Cybernet Systems Co Ltd
Priority to JP2015084776A priority Critical patent/JP2016206766A/en
Publication of JP2016206766A publication Critical patent/JP2016206766A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the amount of data of a three-dimensional model without impairing an original shape.SOLUTION: A processing unit 11 reads a three-dimensional model stored in a storage unit 13, and acquires color information and depth information, which are set for each of pixels constituting a display unit 14, of the three-dimensional model viewed in one or more directions, in order to display the three-dimensional model viewed in one or more directions on the display unit 14. The processing unit 11 converts the three-dimensional model into display data represented by a point group including color information arranged in a three-dimensional space, by use of the color information and depth information of the pixels acquired in each of states of the three-dimensional model viewed in one or more directions.SELECTED DRAWING: Figure 1

Description

本発明は、データ削減装置及びデータ削減方法に関する。   The present invention relates to a data reduction device and a data reduction method.

3次元物体をディスプレイ上に表現するための3次元モデルを構築するために、多数の三角形をつなぎ合わせた面が用いられている。3次元モデルを構築する各三角形は、三点の座標、三点で形成された面の法線、各点の色、面の模様の情報を有する。   In order to construct a three-dimensional model for representing a three-dimensional object on a display, a surface obtained by connecting a large number of triangles is used. Each triangle that constructs the three-dimensional model has information on the coordinates of three points, the normal of the surface formed by the three points, the color of each point, and the pattern of the surface.

ゲームや映画などのコンテンツ業界における画像の滑らかさの要求に伴い、三角形の大きさは高精細かつ大画面のテレビに対応可能な程度にまで小さくなっている。このため、3次元モデルのデータ量は非常に多くなっている。   With the demand for image smoothness in the content industry such as games and movies, the size of the triangle has become small enough to accommodate high-definition and large-screen televisions. For this reason, the data amount of the three-dimensional model is very large.

そこで、シルエット法によるモデル構築や、実写画像からの3次元モデル再構成に例示されるような、多くの3次元モデルのデータの削減方法が提案されている(例えば、特許文献1参照)。特許文献1の発明は、オリジナルの形状の特長を手懸りにモデルの品質を維持しながら不要な頂点や三角形を減じることでデータリダクションを行う。   In view of this, many 3D model data reduction methods have been proposed, as exemplified by model construction by the silhouette method and 3D model reconstruction from live-action images (see, for example, Patent Document 1). The invention of Patent Document 1 performs data reduction by reducing unnecessary vertices and triangles while maintaining the quality of the model while taking advantage of the features of the original shape.

テレビが高精細かつ大画面化される一方で、テレビやパソコンがスマートフォンに置き換わっている。スマートフォンのメモリ容量及び処理能力はテレビやパソコンに比べると低く、通信速度も遅い。このため、3次元モデルをスマートフォンに表示するためには、3次元モデルのデータをスマートフォンの能力に見合った一定のデータ量まで減らさなければならない。   While TVs have become high-definition and have a large screen, TVs and PCs have been replaced by smartphones. The memory capacity and processing capacity of smartphones are lower than televisions and personal computers, and the communication speed is also slow. For this reason, in order to display a 3D model on a smartphone, the data of the 3D model must be reduced to a certain amount of data commensurate with the capabilities of the smartphone.

巨大なデータ量の3次元モデルを一定のデータ量に減じるためにはオリジナルに対する高い削減率のリダクションが必要となる。しかし、特許文献1の発明を用いて高い削減率のリダクションを行うと、オリジナルの形状が破壊される。このため、3次元モデルをスマートフォンに表示することは困難であった。   In order to reduce a large amount of 3D model to a certain amount of data, it is necessary to reduce the original with a high reduction rate. However, when reduction with a high reduction rate is performed using the invention of Patent Document 1, the original shape is destroyed. For this reason, it was difficult to display a three-dimensional model on a smartphone.

特開平11−144089号公報JP-A-11-144089

本発明は、オリジナルの形状を損なうことなく3次元モデルのデータ量を削減することを目的とする。   An object of the present invention is to reduce the amount of data of a three-dimensional model without impairing the original shape.

本発明に係るデータ削減装置は、コンピュータが、記憶部に記憶されている3次元モデルを読み出し、前記3次元モデルを一方向から見た状態を表示部に表示するために前記表示部を構成する各画素に設定される色情報及び奥行情報を、前記3次元モデルを一以上の方向から見た状態について取得し、前記3次元モデルを一以上の方向から見た各状態において取得した各画素の色情報及び奥行情報を用いて、前記3次元モデルを3次元空間内に配置された色情報を含む点群で表した表示データに変換する。   In the data reduction device according to the present invention, the computer reads the three-dimensional model stored in the storage unit, and configures the display unit to display the state of the three-dimensional model viewed from one direction on the display unit. The color information and depth information set for each pixel is acquired for a state in which the three-dimensional model is viewed from one or more directions, and each pixel acquired in each state in which the three-dimensional model is viewed from one or more directions. Using the color information and the depth information, the three-dimensional model is converted into display data represented by a point group including color information arranged in a three-dimensional space.

本発明に係るデータ削減装置では、色情報及び奥行情報を取得する際に、前記表示部を構成する画素のうちの前記3次元モデルを表示しない画素の色情報及び奥行情報を削除してもよい。   In the data reduction device according to the present invention, when the color information and the depth information are acquired, the color information and the depth information of the pixels that do not display the three-dimensional model among the pixels constituting the display unit may be deleted. .

本発明に係るデータ削減装置では、前記表示部は、ユーザ装置に備わる表示部であり、色情報及び奥行情報を取得する際に、前記ユーザ装置に表示する方向から見た状態を表示部に表示するために前記表示部を構成する各画素に設定される色情報及び奥行情報を取得してもよい。   In the data reduction device according to the present invention, the display unit is a display unit provided in the user device, and when the color information and the depth information are acquired, a state viewed from the direction displayed on the user device is displayed on the display unit. In order to do this, color information and depth information set for each pixel constituting the display unit may be acquired.

本発明に係るデータ削減方法は、コンピュータが、記憶部に記憶されている3次元モデルを読み出し、前記3次元モデルを一方向から見た状態を表示部に表示するために前記表示部を構成する各画素に設定される色情報及び奥行情報を、前記3次元モデルを一以上の方向から見た状態について取得する取得手順と、前記3次元モデルを一以上の方向から見た各状態において取得した各画素の色情報及び奥行情報を用いて、前記3次元モデルを3次元空間内に配置された色情報を含む点群で表した表示データに変換する表示データ変換手順と、を実行する。   In the data reduction method according to the present invention, the computer reads the three-dimensional model stored in the storage unit, and configures the display unit to display the state of the three-dimensional model viewed from one direction on the display unit. The color information and depth information set for each pixel are acquired in an acquisition procedure for acquiring the state when the three-dimensional model is viewed from one or more directions, and in each state when the three-dimensional model is viewed from one or more directions. Using the color information and depth information of each pixel, a display data conversion procedure for converting the three-dimensional model into display data represented by point groups including color information arranged in the three-dimensional space is executed.

なお、上記各発明は、可能な限り組み合わせることができる。   The above inventions can be combined as much as possible.

本発明によれば、オリジナルの形状を損なうことなく3次元モデルのデータ量を削減することができる。   According to the present invention, it is possible to reduce the data amount of the three-dimensional model without damaging the original shape.

本発明の実施形態に係るデータ削減装置の一例を示す。An example of the data reduction apparatus which concerns on embodiment of this invention is shown. 表示対象を一方向から見た状態の一例を示す。An example of the state which looked at the display object from one direction is shown. 表示対象を一方向から見た状態の表示部への表示例を示す。The example of a display on the display part of the state which looked at the display object from one direction is shown. 取得手順で取得する色情報及び奥行情報の説明図を示す。Explanatory drawing of the color information acquired by an acquisition procedure and depth information is shown. 取得手順で取得した色情報及び奥行情報をビューボリュームVV内へ点として再配置した点群の模式図を示す。The schematic diagram of the point group which rearranged the color information and depth information which were acquired in the acquisition procedure as a point in the view volume VV is shown. 表示データの表示部24への表示例を示す。The example of a display on the display part 24 of display data is shown. 表示データを構成する点群におけるビューボリュームVVでの点の間隔の第1例を示す。The 1st example of the space | interval of the point in the view volume VV in the point group which comprises display data is shown. 表示データを構成する点群におけるビューボリュームVVでの点の間隔の第2例を示す。The 2nd example of the space | interval of the point in the view volume VV in the point group which comprises display data is shown. 点の間隔の第2例の場合の表示部24への第1の表示例を示す。The 1st example of a display on the display part 24 in the case of the 2nd example of the space | interval of a point is shown. 点の間隔の第2例の場合の表示部24への第2の表示例を示す。The 2nd example of a display on the display part 24 in the case of the 2nd example of the space | interval of a point is shown. 実施形態2における取得手順で取得した色情報及び奥行情報をビューボリュームVV内へ点として再配置した点群の模式図を示す。The schematic diagram of the point group which rearranged the color information and depth information which were acquired in the acquisition procedure in Embodiment 2 as a point in the view volume VV is shown. 表示対象100の左側面から見た状態で取得した色情報及び奥行情報を用いてビューボリュームVVへ再配置した点群の一例を示す。An example of the point group rearranged in the view volume VV using the color information and the depth information acquired when viewed from the left side of the display target 100 is shown. 表示対象100の右側面から見た状態で取得した色情報及び奥行情報を用いてビューボリュームVVへ再配置した点群の一例を示す。An example of the point group rearranged in the view volume VV using the color information and depth information acquired in a state viewed from the right side surface of the display target 100 is shown. 表示対象100の底面から見た状態で取得した色情報及び奥行情報を用いてビューボリュームVVへ再配置した点群の一例を示す。An example of a point group rearranged in the view volume VV using color information and depth information acquired in a state viewed from the bottom surface of the display target 100 is shown. 表示対象100の上面から見た状態で取得した色情報及び奥行情報を用いてビューボリュームVVへ再配置した点群の一例を示す。An example of a point group rearranged in the view volume VV using color information and depth information acquired in a state viewed from the upper surface of the display target 100 is shown. 実施形態2における表示データ構築手順で構築された表示データの表示部24への表示例を示す。The example of a display on the display part 24 of the display data constructed | assembled by the display data construction procedure in Embodiment 2 is shown. 表示対象を複数方向から見る場合の一例の説明図を示す。An explanatory view of an example when viewing a display object from a plurality of directions is shown.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、本発明は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本発明は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to embodiment shown below. These embodiments are merely examples, and the present invention can be implemented in various modifications and improvements based on the knowledge of those skilled in the art. In the present specification and drawings, the same reference numerals denote the same components.

(実施形態1)
図1に、本実施形態に係る3次元モデル表示システムの一例を示す。本実施形態に係る3次元モデル表示システムは、データ削減装置91と、ユーザ装置92を備える。ユーザ装置92は、例えば、スマートフォンなどのデータ通信が可能でありかつ表示機能を備える携帯端末である。データ削減装置91は、コンテンツを提供するサーバから3次元モデルのデータを取得し、3次元モデルのデータをユーザ装置92において表示可能な表示データに変換する。
(Embodiment 1)
FIG. 1 shows an example of a three-dimensional model display system according to this embodiment. The 3D model display system according to the present embodiment includes a data reduction device 91 and a user device 92. The user device 92 is, for example, a mobile terminal that can perform data communication such as a smartphone and has a display function. The data reduction device 91 acquires 3D model data from a server that provides content, and converts the 3D model data into display data that can be displayed on the user device 92.

変換後の表示データは、ユーザ装置92に提供される。例えば、データ削減装置91は、変換後の表示データを保持し、コンテンツを提供するサーバとして、又はコンテンツを提供するサーバを介して、表示データをユーザ装置92に提供する。なお、3次元モデルは静止画に限らず、動画であってもよい。   The converted display data is provided to the user device 92. For example, the data reduction device 91 holds display data after conversion, and provides the display data to the user device 92 as a server that provides content or via a server that provides content. The three-dimensional model is not limited to a still image but may be a moving image.

データ削減装置91は、処理部11と、送受信部12、記憶部13と、表示部14を備える。ユーザ装置92は、処理部21と、送受信部22と、記憶部23と、表示部24を備える。   The data reduction device 91 includes a processing unit 11, a transmission / reception unit 12, a storage unit 13, and a display unit 14. The user device 92 includes a processing unit 21, a transmission / reception unit 22, a storage unit 23, and a display unit 24.

データ削減装置91は、コンピュータを、処理部11と、通信部12と、記憶部13と、表示部14として機能させることで実現してもよい。この場合、データ削減装置91が備えるCPU(Central Processing Unit)(不図示)が情報記憶部(不図示)に記憶されたコンピュータプログラムを実行することで、各構成を実現する。ここで、データ削減装置91を実現する際のコンピュータは、コンピュータによって制御される任意の機器をさらに備えてもよい。また、データ削減装置91を実現する際のプログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。   The data reduction device 91 may be realized by causing a computer to function as the processing unit 11, the communication unit 12, the storage unit 13, and the display unit 14. In this case, each configuration is realized by a CPU (Central Processing Unit) (not shown) included in the data reduction device 91 executing a computer program stored in an information storage unit (not shown). Here, the computer for realizing the data reduction device 91 may further include an arbitrary device controlled by the computer. In addition, a program for realizing the data reduction device 91 can be recorded on a recording medium or provided through a network.

表示部14は、ユーザ装置92に備わる表示部24と同程度の画素数を備える。例えば、ユーザ端末92がスマートフォンである場合、表示部14は、スマートフォンと同程度の、x軸方向に1280画素が配列されかつy軸方向に720画素が配列されている。表示部14が、コンピュータによって実現される場合、表示部14及び表示部14の画素は、例えば、コンピュータのメモリ上に仮想的に実現される。   The display unit 14 includes the same number of pixels as the display unit 24 included in the user device 92. For example, when the user terminal 92 is a smartphone, the display unit 14 has 1280 pixels arranged in the x-axis direction and 720 pixels arranged in the y-axis direction, which is about the same as a smartphone. When the display unit 14 is realized by a computer, the display unit 14 and the pixels of the display unit 14 are virtually realized on a memory of the computer, for example.

本実施形態に係る3次元モデル表示方法は、本実施形態に係るデータ削減方法と、表示手順と、を順に有する。データ削減方法は、取得手順と、表示データ構築手順と、を順に有する。
取得手順では、処理部11が、3次元モデルを表示部14に表示するための色情報及び奥行情報を取得する。
表示データ構築手順では、処理部11が、取得手順で取得した色情報及び奥行情報を用いて、3次元モデルを表示部14に表示するための表示データを構築する。表示データは、3次元モデルを3次元空間内に配置された色情報を含む点群に変換したデータである。
表示手順では、ユーザ装置92は、処理部11の構築した表示データを、表示部24に表示する。
The three-dimensional model display method according to the present embodiment includes the data reduction method according to the present embodiment and a display procedure in order. The data reduction method has an acquisition procedure and a display data construction procedure in order.
In the acquisition procedure, the processing unit 11 acquires color information and depth information for displaying the three-dimensional model on the display unit 14.
In the display data construction procedure, the processing unit 11 constructs display data for displaying the three-dimensional model on the display unit 14 using the color information and the depth information acquired in the acquisition procedure. The display data is data obtained by converting a three-dimensional model into a point group including color information arranged in a three-dimensional space.
In the display procedure, the user device 92 displays the display data constructed by the processing unit 11 on the display unit 24.

以下、取得手順について説明する。
処理部11は、記憶部13に記憶されている3次元モデルを読み出し、読み出した3次元モデルを一方向から見た状態を表示部14に表示する。図2に、表示部14への表示対象100の一例を示す。表示対象100は、3次元モデルを一方向から見た状態を示す。
Hereinafter, the acquisition procedure will be described.
The processing unit 11 reads the three-dimensional model stored in the storage unit 13 and displays a state where the read three-dimensional model is viewed from one direction on the display unit 14. FIG. 2 shows an example of the display target 100 on the display unit 14. The display object 100 shows a state where the three-dimensional model is viewed from one direction.

図3に、表示部14への表示例を示す。表示部14は、画素Px1−1〜Px20−12を有する。画素Px1−1はx=1かつy=1の画素であり、画素Px20−12はx=20かつy=12の画素であり、画素Px1−1〜Px20−12は、Px1−1からPx20−12までの画素である。このように、表示部14には、x軸方向に20画素、y方向に12画素が配列されている。   FIG. 3 shows a display example on the display unit 14. The display unit 14 includes pixels Px1-1 to Px20-12. The pixel Px1-1 is a pixel of x = 1 and y = 1, the pixel Px20-12 is a pixel of x = 20 and y = 12, and the pixels Px1-1 to Px20-12 are Px1-1 to Px20−. Up to 12 pixels. Thus, the display unit 14 has 20 pixels arranged in the x-axis direction and 12 pixels arranged in the y direction.

処理部11は、画素Px1−1〜Px20−12に設定される色情報及び奥行情報を、3次元モデルを表示するためのデータから取得する。例えば、OpenGLコマンドキャプチャの技術を用いて、3次元グラフィックス命令を抜き取る。3次元物体を撮像した写真では奥行情報は取得できないが、本実施形態では3次元モデルを表示するためのデータを用いるため、模様がある場合や球であっても、奥行情報を取得することができる。色情報は、3次元モデルそのものの色情報であり、シェーディングを除いたものである。   The processing unit 11 acquires color information and depth information set for the pixels Px1-1 to Px20-12 from data for displaying a three-dimensional model. For example, a three-dimensional graphics command is extracted using the OpenGL command capture technique. Depth information cannot be acquired from a photograph of a three-dimensional object, but in this embodiment, since data for displaying a three-dimensional model is used, depth information can be acquired even when there is a pattern or a sphere. it can. The color information is color information of the three-dimensional model itself, and excludes shading.

処理部11は、各画素に設定される色情報及び奥行情報の他に、3次元モデルを表示するための任意の情報を取得する。例えば、図4に示すような、視点PVの位置、注視点PLの位置、アップベクトル、ビューボリュームVVを取得する。図4では平行投影の場合を示すが、透視投影であってもよい。   The processing unit 11 acquires arbitrary information for displaying the three-dimensional model in addition to the color information and depth information set for each pixel. For example, as shown in FIG. 4, the position of the viewpoint PV, the position of the gazing point PL, the up vector, and the view volume VV are acquired. Although FIG. 4 shows the case of parallel projection, it may be perspective projection.

色情報及び奥行情報は、投影面PPに投影された表示対象100の3次元モデルの色情報及び奥行情報である。投影面上の座標及び各座標における奥行情報が3次元座標情報となる。表示対象100の3次元モデルのうちの101及び102が投影面PP上の共通の位置に投影される場合、投影面PPに近い101の色情報及び奥行情報を取得し、投影面PPから遠い102の色情報及び奥行情報は取得しない。このように、3次元モデルのうちの表示部14に表示されない陰となっている部分や、3次元モデルの内部にある見えない部分の情報は省略することが好ましい。具体的には、3次元モデルのうち陰になる部分や内部にあるために見えない部分の情報を、各画素に対応するz軸方向の情報のうち最も小さなz軸方向の値のみを抽出することで省略する。   The color information and the depth information are color information and depth information of the three-dimensional model of the display target 100 projected on the projection plane PP. The coordinates on the projection plane and the depth information at each coordinate are the three-dimensional coordinate information. When 101 and 102 of the three-dimensional model of the display target 100 are projected at a common position on the projection plane PP, the color information and depth information of 101 close to the projection plane PP are acquired, and 102 far from the projection plane PP. No color information or depth information is acquired. As described above, it is preferable to omit information on a portion of the three-dimensional model that is not displayed on the display unit 14 or an invisible portion inside the three-dimensional model. Specifically, only the smallest value in the z-axis direction among the information in the z-axis direction corresponding to each pixel is extracted from the shaded part of the three-dimensional model and the part that cannot be seen because it is inside. It will be omitted.

また、図3におけるx=8かつy=2の画素のように表示対象100が表示されている画素の色情報及び奥行情報を残し、画素Px1−1のように表示対象100を表示しない画素の色情報及び奥行情報を削除することが好ましい。また、奥行情報が無限大の場合は、画素の色情報及び奥行情報を削除することが好ましい。   Further, the color information and the depth information of the pixel on which the display target 100 is displayed such as the pixel of x = 8 and y = 2 in FIG. 3 are left, and the pixel that does not display the display target 100, such as the pixel Px1-1. It is preferable to delete the color information and the depth information. Further, when the depth information is infinite, it is preferable to delete the pixel color information and the depth information.

以下、表示データ構築手順について説明する。
画素Px1−1〜Px20−1の各画素は、x軸方向とy軸方向の情報を有する。このため、処理部11が、表示部14の各画素の色情報及び奥行情報を取得することで、3次元モデルを表示部14に表示した際のx軸方向、y軸方向及びz軸方向の3次元座標情報と、各座標における色情報を取得することができる。本手順では、取得手順で取得した画素Px1−1〜Px20−12に設定される色情報及び奥行情報を用いて、3次元座標情報及び各座標における色情報を構築する。
Hereinafter, the display data construction procedure will be described.
Each pixel of the pixels Px1-1 to Px20-1 has information on the x-axis direction and the y-axis direction. For this reason, the processing unit 11 acquires the color information and depth information of each pixel of the display unit 14 so that the x-axis direction, the y-axis direction, and the z-axis direction when the three-dimensional model is displayed on the display unit 14 are displayed. Three-dimensional coordinate information and color information at each coordinate can be acquired. In this procedure, three-dimensional coordinate information and color information at each coordinate are constructed using the color information and depth information set in the pixels Px1-1 to Px20-12 acquired in the acquisition procedure.

取得手順において3次元座標情報を取得しているため、3次元座標情報で特定される点をビューボリュームVVへ再配置することができる。本実施形態では、表示部14の画素数に等しい数の点をビューボリュームVVへ再配置する。これにより、3次元モデルの表示データを構築することができる。図5に、ビューボリュームVVへ再配置した点群の模式図を示す。図5では、理解が容易になるよう、表示対象100を、表示部14の画素よりも大きくかつ少ない点で表している。   Since the three-dimensional coordinate information is acquired in the acquisition procedure, the points specified by the three-dimensional coordinate information can be rearranged in the view volume VV. In the present embodiment, the number of points equal to the number of pixels of the display unit 14 is rearranged in the view volume VV. Thereby, display data of a three-dimensional model can be constructed. FIG. 5 shows a schematic diagram of a point group rearranged in the view volume VV. In FIG. 5, the display object 100 is represented by points larger and smaller than the pixels of the display unit 14 so as to facilitate understanding.

以下、表示手順について説明する。
送受信部12は、表示データ構築手順で構築された表示データを、ユーザ装置92へ送信する。ユーザ装置92の送受信部22が表示データを受信し、処理部21が表示データを用いて表示部24に表示する。
The display procedure will be described below.
The transmission / reception unit 12 transmits the display data constructed by the display data construction procedure to the user device 92. The transmission / reception unit 22 of the user device 92 receives the display data, and the processing unit 21 displays the display data on the display unit 24 using the display data.

図6に、表示部24に表示した表示対象100の模式図を示す。本実施形態では、表示データはビューボリュームVVへ再配置された色情報を含む点群で表されている。このため、処理部21は、取得手順における視点PVから視点を移動させた方向から見た表示対象100の状態を表示部24に表示することができる。図6では、視点を移動させた場合の表示部24の表示例を示す。なお、図6では、理解が容易になるよう、表示対象100を、表示部14の画素よりも大きくかつ少ない点で表している。   FIG. 6 shows a schematic diagram of the display object 100 displayed on the display unit 24. In this embodiment, the display data is represented by a point group including color information rearranged in the view volume VV. For this reason, the processing unit 21 can display the state of the display target 100 viewed from the direction in which the viewpoint is moved from the viewpoint PV in the acquisition procedure on the display unit 24. FIG. 6 shows a display example of the display unit 24 when the viewpoint is moved. In FIG. 6, the display object 100 is represented by points larger and smaller than the pixels of the display unit 14 for easy understanding.

本実施形態に係る表示データは、表示対象100のうちの取得手順において表示部14に表示しなかった部分を除き、図6に示すように、表示対象100の3次元モデルを表示することができる。表示データが表示部24の解像度と同程度の密度で配置された点群であるため、オリジナルの3次元モデルの形状を損なうことなく、3次元モデルをユーザ装置92に表示することができる。   The display data according to the present embodiment can display a three-dimensional model of the display target 100 as shown in FIG. 6 except for a portion of the display target 100 that is not displayed on the display unit 14 in the acquisition procedure. . Since the display data is a point cloud arranged at a density comparable to the resolution of the display unit 24, the three-dimensional model can be displayed on the user device 92 without impairing the shape of the original three-dimensional model.

ただし、表示データに法線の情報が残っていない場合、処理部11及び21は、表示データを表示部24に表示する際にライティングは行わなくてもよい。また、処理部11及び21のいずれかが、表示データに新しいライティング情報を与えて表示部24に表示してもよい。   However, when no normal line information remains in the display data, the processing units 11 and 21 do not have to perform lighting when displaying the display data on the display unit 24. Further, either of the processing units 11 and 21 may give new display information to the display data and display it on the display unit 24.

一方、処理部11は、取得手順で取得する際にライティングの情報も取得しておき、法線及びライティングの情報を視点PVの情報とともに表示データに含めてもよい。これにより、処理部11及び21のいずれかは、取得したライティング情報を用いてライティングを行うことができる。   On the other hand, the processing unit 11 may also acquire lighting information when acquiring in the acquisition procedure, and include normal and lighting information together with viewpoint PV information in the display data. Thereby, either of the processing units 11 and 21 can perform lighting using the acquired lighting information.

表示部14の画素数が表示部24の画素数よりも少ない場合、表示部24の画素の一部に表示部14の画素を割り当てて表示してもよいし、表示データを構成する点群の各点を表示部24の画素数に合わせて加工してもよい。加工は、例えば、表示データにおける各点の径を、表示部24の画素数に合わせて拡大する。拡大は、例えば、表示データでは1画素に割り当てられていた1つの点を、表示部24の画素数に合わせて複数画素に割り当てる。この加工は、処理部11及び処理部21のいずれが行ってもよい。   When the number of pixels of the display unit 14 is smaller than the number of pixels of the display unit 24, the pixels of the display unit 14 may be assigned to a part of the pixels of the display unit 24 and displayed, or the point group constituting the display data Each point may be processed according to the number of pixels of the display unit 24. In the processing, for example, the diameter of each point in the display data is expanded according to the number of pixels of the display unit 24. In the enlargement, for example, one point assigned to one pixel in the display data is assigned to a plurality of pixels in accordance with the number of pixels of the display unit 24. Either the processing unit 11 or the processing unit 21 may perform this processing.

表示部14の画素数が表示部24の画素数よりも多い場合、表示部14の画素の一部を表示部24の画素に割り当てて表示してもよいし、表示データを表示部24の画素数に合わせて加工してもよい。加工は、例えば、表示データにおける各点の径を、表示部24の画素数に合わせて縮小する。縮小は、例えば、表示データに含まれる複数の点を、表示部24の画素数に合わせて1画素に割り当てる。   When the number of pixels of the display unit 14 is larger than the number of pixels of the display unit 24, a part of the pixels of the display unit 14 may be assigned to the pixels of the display unit 24, and display data may be displayed. You may process according to the number. In the processing, for example, the diameter of each point in the display data is reduced according to the number of pixels of the display unit 24. For the reduction, for example, a plurality of points included in the display data are allocated to one pixel in accordance with the number of pixels of the display unit 24.

以上説明したように、本実施形態に係る発明は、表示部24と同程度の解像度の点群で、ユーザ装置92の表示部24に3次元モデルを表示することができる。本実施形態に係る発明は、三角形や結線を使わずに3次元モデルを表示するため、データ量を削減することができる。また本実施形態に係る発明は、コンピュータグラフィックスによって表示された結果(画像)を用いて3次元モデルを構築するため、オリジナルのデータサイズに無関係に、どのような3次元モデルであっても一定の量にデータを削減することが可能となる。また、点群の密度がユーザ装置92の表示部24の画素であるため、オリジナルの3次元モデルの形状が損なわれるのを防ぐことができる。   As described above, the invention according to the present embodiment can display a three-dimensional model on the display unit 24 of the user device 92 with a point cloud having the same resolution as the display unit 24. Since the invention according to this embodiment displays a three-dimensional model without using triangles or connections, the amount of data can be reduced. In the invention according to the present embodiment, since a three-dimensional model is constructed using a result (image) displayed by computer graphics, any three-dimensional model is constant regardless of the original data size. The amount of data can be reduced. Further, since the density of the point group is the pixel of the display unit 24 of the user device 92, it is possible to prevent the original three-dimensional model from being damaged.

なお、表示部14の画素数は、表示部24の画素数の2倍以上であることが好ましい。図7に示すように、表示対象200の平面201が投影面PPと平行になる視点PV1のときに取得した点群のビューボリュームVVでの間隔が、Dp1であるとする。同じ表示対象200の平面201が投影面PPに対して45°傾斜する視点PV2のときに取得すると、図8に示すように、点群のビューボリュームVVでの間隔Dp2は、Dp1の√2倍となる。間隔Dp2で取得した点群を表示部14に表示する場合、図9に示すように、さらに、視点PV2のときに取得した点群を描画すると、図9に示すように、画素Pix12、Pix21〜Pix26に隙間が生じる。視点を45°回転させると、図10に示すように、点群の隙間は1辺2Dpの正方形にまで広がり、画素Pix31、Pix32、Pix34、Pix36、Pix43、Pix45に隙間が生じる。このように、表示部14の画素数と表示部24の画素数が等しい場合、点群の隙間は1辺2Dpの正方形にまで広がってしまうことになるからである。   Note that the number of pixels of the display unit 14 is preferably at least twice the number of pixels of the display unit 24. As shown in FIG. 7, it is assumed that the interval in the view volume VV of the point group acquired when the plane 201 of the display target 200 is the viewpoint PV1 parallel to the projection plane PP is Dp1. When the plane 201 of the same display object 200 is acquired at the viewpoint PV2 inclined by 45 ° with respect to the projection plane PP, as shown in FIG. 8, the interval Dp2 of the point group in the view volume VV is √2 times Dp1. It becomes. When the point cloud acquired at the interval Dp2 is displayed on the display unit 14, as shown in FIG. 9, when the point cloud acquired at the viewpoint PV2 is further drawn, as shown in FIG. 9, the pixels Pix12, Pix21- A gap occurs in Pix26. When the viewpoint is rotated by 45 °, as shown in FIG. 10, the gap between the point groups spreads to a square of 2Dp on each side, and gaps are generated in the pixels Pix31, Pix32, Pix34, Pix36, Pix43, and Pix45. As described above, when the number of pixels of the display unit 14 and the number of pixels of the display unit 24 are equal, the gap between the point groups is spread to a square of 2Dp per side.

そこで、表示部14の画素数を表示部24の画素数の2倍以上とすることが好ましい。これによって、表示部24は、表示対象200の点群を隙間なく表示することができる。   Therefore, the number of pixels of the display unit 14 is preferably set to be twice or more the number of pixels of the display unit 24. Thereby, the display unit 24 can display the point cloud of the display target 200 without a gap.

(実施形態2)
本実施形態では、実施形態1で説明した取得手順を、複数の異なる方向から見た状態について行う。
(Embodiment 2)
In the present embodiment, the acquisition procedure described in the first embodiment is performed in a state viewed from a plurality of different directions.

本実施形態に係る取得手順では、処理部11は、3次元モデルを一方向から見た状態における画素Px1−1〜Px20−12に設定される色情報及び奥行情報の取得が完了すると、この一方向とは異なる方向から見た状態における画素Px1−1〜Px20−12に設定される色情報及び奥行情報の取得を行い、これを繰り返す。   In the acquisition procedure according to the present embodiment, when the processing unit 11 completes the acquisition of the color information and the depth information set in the pixels Px1-1 to Px20-12 in a state where the three-dimensional model is viewed from one direction, The color information and depth information set in the pixels Px1-1 to Px20-12 in a state viewed from a direction different from the direction is acquired, and this is repeated.

例えば、図11に示すように、図5の視点PVを注視点PLに対して180°回転させた方向を、新たな視点PVとする。そして、画素Px1−1〜Px20−12に設定される色情報及び奥行情報を取得する。   For example, as shown in FIG. 11, a direction obtained by rotating the viewpoint PV of FIG. 5 by 180 ° with respect to the gazing point PL is set as a new viewpoint PV. Then, color information and depth information set for the pixels Px1-1 to Px20-12 are acquired.

また、図5の視点PVが表示対象100の正面であったのに対し、視点を、表示対象100の左側面から第2の視点とし、表示対象100の右側面を第3の視点とし、表示対象100の底面を第4の視点とし、表示対象100の上面を第5の視点としてもよい。   5 is the front of the display object 100, the viewpoint is the second viewpoint from the left side of the display object 100, and the right side of the display object 100 is the third viewpoint. The bottom surface of the target 100 may be the fourth viewpoint, and the top surface of the display target 100 may be the fifth viewpoint.

ユーザが見る可能性のある方向が予め予想できる場合は、ユーザが見る可能性のある各方向から見た状態について、画素Px1−1〜Px20−12に設定される色情報及び奥行情報を取得することが好ましい。   When the direction that the user can see can be predicted in advance, the color information and the depth information set in the pixels Px1-1 to Px20-12 are acquired for the state viewed from each direction that the user may see. It is preferable.

表示データ構築手順では、処理部11は、取得手順で取得した画素Px1−1〜Px20−12に設定される色情報及び奥行情報を用いて、3次元座標情報及び各座標における色情報を構築する。例えば、3次元座標情報で特定される点を、視点PVの位置及び注視点PLの位置を用いて、共通のビューボリュームVVへ再配置する。これにより、図6及び図12〜図15に示すような点群で表示した3次元モデルを構築することができる。図12〜図15は、第2の視点〜第5の視点とした場合に取得した色情報及び奥行情報を用いてビューボリュームVVへ再配置した点群の一例を示す。図12〜図15では、理解が容易になるよう、画素を単位とする点群よりも点の間隔を広くするとともに、1つの点を大きくしている。   In the display data construction procedure, the processing unit 11 constructs the three-dimensional coordinate information and the color information at each coordinate using the color information and the depth information set in the pixels Px1-1 to Px20-12 obtained in the acquisition procedure. . For example, the points specified by the three-dimensional coordinate information are rearranged in the common view volume VV using the position of the viewpoint PV and the position of the gazing point PL. Thereby, the three-dimensional model displayed by the point cloud as shown in FIG. 6 and FIGS. 12 to 15 can be constructed. 12 to 15 show examples of point groups rearranged in the view volume VV using the color information and depth information acquired when the second viewpoint to the fifth viewpoint are used. In FIG. 12 to FIG. 15, for easy understanding, the point interval is made wider than the point group in units of pixels and one point is made larger.

本実施形態では、複数の方向から見た状態で取得した点群が共通のビューボリュームVVへ再配置されているため、各方向における点群を統合する。例えば、図6及び図12〜図15に示す点群を統合し、図16に示すような点群で表示した3次元モデルを構築することができる。なお、図16では、理解が容易になるよう、画素を単位とする点群よりも点の間隔を広くするとともに、1つの点を大きくしている。   In this embodiment, since the point cloud acquired in a state viewed from a plurality of directions is rearranged in the common view volume VV, the point cloud in each direction is integrated. For example, the point groups shown in FIGS. 6 and 12 to 15 can be integrated to construct a three-dimensional model displayed with the point groups as shown in FIG. In FIG. 16, for easy understanding, a point interval is made wider than a point group having pixels as a unit, and one point is made larger.

ここで、複数の方向から見た状態は、例えば、図6及び図12〜図15に示すように、表示対象100を6面図に対応した複数の方向から見た状態である。また、複数の方向から見た状態は、図17に示すように、表示対象100の周囲の3つの視点Pd1、Pd2、Pd3から表示対象100を見た状態であってもよい。視点Pd1、Pd2、Pd3は、表示対象100となる3次元モデルから等しい距離DSにある円周上に位置し、等間隔に離れている。図17では、等間隔に離れた3方向から見た状態であるため、表示対象100を120°回転させた状態になる。   Here, the state viewed from a plurality of directions is a state in which the display target 100 is viewed from a plurality of directions corresponding to the six-face views, for example, as illustrated in FIGS. 6 and 12 to 15. Further, the state viewed from a plurality of directions may be a state in which the display target 100 is viewed from three viewpoints Pd1, Pd2, and Pd3 around the display target 100 as shown in FIG. The viewpoints Pd1, Pd2, and Pd3 are located on the circumference at an equal distance DS from the three-dimensional model that is the display object 100, and are equally spaced. In FIG. 17, the display target 100 is rotated by 120 ° because it is viewed from three directions that are equally spaced.

ここで、複数の方向から見ると、表示部14に同一箇所が表示される場合がある。その場合、ビューボリュームVV内の同一座標に、複数の点が配置されることになる。例えば、視点Pd1及びPd3からの表示に、表示対象100であるティーポットの把持部分が含まれる場合、視点Pd1で取得したティーポットの把持部分の色情報と、視点Pd3で取得したティーポットの把持部分の色情報は、いずれも同一色である。このように、3次元モデルのうちの同一箇所を表す複数の点は、1つの点に統合することが好ましい。   Here, when viewed from a plurality of directions, the same part may be displayed on the display unit 14. In that case, a plurality of points are arranged at the same coordinates in the view volume VV. For example, when the display from the viewpoints Pd1 and Pd3 includes the grip portion of the teapot that is the display target 100, the color information of the grip portion of the teapot acquired at the viewpoint Pd1, and the color of the grip portion of the teapot acquired at the viewpoint Pd3 The information is all the same color. Thus, it is preferable to integrate a plurality of points representing the same portion of the three-dimensional model into one point.

同一箇所を表す点であっても、表示部14のピクセル幅に依存する誤差をもっている。そのため、誤差の範囲内に位置する点は、同一箇所を表すとして、統合してもよい。例えば、点群における1つの点を任意に選択し、選択した点から半径Rp内に存在する点を消去する。これを繰り返すと、残された点は少なくとも2Rp以上離れて存在する。そこで、半径Rpを画素の間隔Dpの1/2に設定する。これにより、表示部14の1つの画素内に最低1つの点を存在させつつ、表示部14の1つの画素内に多数の点が残ることを防ぐことができる。   Even points that represent the same part have an error that depends on the pixel width of the display unit 14. Therefore, the points located within the error range may be integrated as representing the same location. For example, one point in the point group is arbitrarily selected, and points existing within the radius Rp are deleted from the selected point. If this is repeated, the remaining points exist at least 2 Rp apart. Therefore, the radius Rp is set to ½ of the pixel interval Dp. Thereby, it is possible to prevent a large number of points from remaining in one pixel of the display unit 14 while at least one point exists in one pixel of the display unit 14.

本実施形態では、表示対象100の表示データは、図16に示すような点群の3次元モデルで構築されている。このため、表示手順において、処理部21は、データ削減装置91の構築した表示データを用いて、表示対象100を任意の方向から見た状態を表示部24に表示することができる。   In the present embodiment, the display data of the display target 100 is constructed by a three-dimensional model of point groups as shown in FIG. For this reason, in the display procedure, the processing unit 21 can display on the display unit 24 a state in which the display target 100 is viewed from an arbitrary direction, using the display data constructed by the data reduction device 91.

以上説明したように、本実施形態に係る表示データは、処理部11で再び新しい色情報、奥行き情報を取得することなく、表示対象100を任意の方向から見た状態を表示部24に表示することができる。   As described above, the display data according to the present embodiment displays the display unit 100 in a state where the display target 100 is viewed from an arbitrary direction without the processing unit 11 acquiring new color information and depth information again. be able to.

(実施形態3)
本発明は、表示部24の画素数に合わせて3次元モデルのデータを削減する。このため、3次元モデルの一部を拡大しようとすると、表示部24に表示される画質が落ちてしまう。そこで、本実施形態では、ユーザ装置92の操作によっては、表示データを再度構築する。
(Embodiment 3)
The present invention reduces the data of the three-dimensional model in accordance with the number of pixels of the display unit 24. For this reason, when an attempt is made to enlarge a part of the three-dimensional model, the image quality displayed on the display unit 24 is degraded. Therefore, in the present embodiment, display data is reconstructed depending on the operation of the user device 92.

例えば、表示部24が、図17のように視点Pd1の方向から見た状態の表示対象100を表示しているときに、ユーザ入力によって、処理部24が表示対象100を視点Pd2側へ120°回転させて拡大する指示を受けたとする。処理部24は、表示データにおける拡大部分の点群の数を、表示部24の画素数を比較する。そして、拡大部分の点群の数が表示部24の画素数の一定割合以下の場合、送受信部22は、表示対象100を視点Pd2側へ120°回転させて拡大する指示を、データ削減装置91に送信する。   For example, when the display unit 24 displays the display target 100 viewed from the viewpoint Pd1 as shown in FIG. 17, the processing unit 24 moves the display target 100 to the viewpoint Pd2 side by 120 ° by user input. Suppose you receive an instruction to rotate and enlarge. The processing unit 24 compares the number of point groups of the enlarged portion in the display data with the number of pixels of the display unit 24. When the number of point groups in the enlarged portion is equal to or less than a certain percentage of the number of pixels in the display unit 24, the transmission / reception unit 22 gives an instruction to rotate the display target 100 to the viewpoint Pd2 side by 120 ° to enlarge the data reduction device 91 Send to.

送受信部12が表示対象100を120°回転させて拡大する指示を受信すると、処理部11は、指示に従って視点を変更しかつビューボリュームVV内に配置する表示対象100の大きさを変更して、実施形態1で説明した取得手順を再度実行する。このとき、処理部11は、表示対象100を120°回転させた視点Pd2から見た状態でありかつ拡大した状態を表示部14に表示する。処理部11は、画素Px1−1〜Px20−12に設定される色情報及び奥行情報を、3次元モデルを表示するためのデータから取得する。   When the transmission / reception unit 12 receives an instruction to rotate and enlarge the display object 100 by 120 °, the processing unit 11 changes the viewpoint according to the instruction and changes the size of the display object 100 arranged in the view volume VV, The acquisition procedure described in the first embodiment is executed again. At this time, the processing unit 11 displays on the display unit 14 a state in which the display target 100 is viewed from the viewpoint Pd2 rotated by 120 ° and is enlarged. The processing unit 11 acquires color information and depth information set for the pixels Px1-1 to Px20-12 from data for displaying a three-dimensional model.

取得手順の後、実施形態1と同様に、処理部11が表示データ構築手順を実行し、データ削減装置91及びユーザ装置92が表示手順を行う。これにより、本実施形態に係る発明は、3次元モデルの一部を拡大した状態を表示部24に表示することができる。   After the acquisition procedure, as in the first embodiment, the processing unit 11 executes the display data construction procedure, and the data reduction device 91 and the user device 92 perform the display procedure. Thereby, the invention concerning this embodiment can display the state where a part of three-dimensional model was expanded on display 24.

表示データはデータ量が少ないため、ユーザ装置92は、表示データに変換した3次元モデルを表示部24に表示しながら、コンテンツを提供するサーバと通信を行うことや、表示の度に表示データをユーザ装置92に提供することが可能になる。   Since the display data has a small amount of data, the user device 92 communicates with the server that provides the content while displaying the three-dimensional model converted into the display data on the display unit 24, or displays the display data every time it is displayed. The user device 92 can be provided.

表示対象100である3次元モデルは任意であり、例えば、機械や家具が例示できる。例えば、ユーザ装置92においていろいろな角度からの自動車の閲覧を可能にする。このため、本実施形態に係る発明は、ユーザ装置92の操作履歴を収集することが容易であり、どの角度から見たときのフォルムを気にするか、ヘッドランプやサイドウィンドウなどのどの部分に着目しているかといった、ユーザ視点の情報を収集することもできる。   The three-dimensional model that is the display target 100 is arbitrary, and examples thereof include machines and furniture. For example, the user device 92 enables browsing of a car from various angles. For this reason, the invention according to the present embodiment can easily collect the operation history of the user device 92, and from which angle the form of the user device 92 is cared about, the headlamp, the side window, etc. It is also possible to collect information from the user viewpoint, such as whether the user is paying attention.

本発明は、情報通信産業に適用することができる。   The present invention can be applied to the information communication industry.

11、21:処理部
12、22:送信部
13、23:記憶部
14、24:表示部
91:データ削減装置
92:ユーザ装置
100、200:表示対象
201:平面
PV:視点
PL:注視点
PP:投影面
VV:ビューボリューム
11, 21: processing unit 12, 22: transmission unit 13, 23: storage unit 14, 24: display unit 91: data reduction device 92: user device 100, 200: display target 201: plane PV: viewpoint PL: gazing point PP : Projection plane VV: View volume

Claims (4)

コンピュータが、
記憶部に記憶されている3次元モデルを読み出し、前記3次元モデルを一方向から見た状態を表示部に表示するために前記表示部を構成する各画素に設定される色情報及び奥行情報を、前記3次元モデルを一以上の方向から見た状態について取得し、
前記3次元モデルを一以上の方向から見た各状態において取得した各画素の色情報及び奥行情報を用いて、前記3次元モデルを3次元空間内に配置された色情報を含む点群で表した表示データに変換する、
をデータ削減装置。
Computer
Color information and depth information set in each pixel constituting the display unit in order to display a state in which the three-dimensional model is viewed from one direction is displayed on the display unit. , Obtaining the state of the three-dimensional model viewed from one or more directions,
Using the color information and depth information of each pixel acquired in each state when the three-dimensional model is viewed from one or more directions, the three-dimensional model is represented by a point group including color information arranged in a three-dimensional space. Converted to display data,
The data reduction device.
色情報及び奥行情報を取得する際に、前記表示部を構成する画素のうちの前記3次元モデルを表示しない画素の色情報及び奥行情報を削除する、
請求項1に記載のデータ削減装置。
When obtaining color information and depth information, delete color information and depth information of pixels that do not display the three-dimensional model among the pixels that constitute the display unit,
The data reduction device according to claim 1.
前記表示部は、ユーザ装置に備わる表示部であり、
色情報及び奥行情報を取得する際に、前記ユーザ装置に表示する方向から見た状態を表示部に表示するために前記表示部を構成する各画素に設定される色情報及び奥行情報を取得する、
請求項1又は2に記載のデータ削減装置。
The display unit is a display unit provided in a user device,
When acquiring color information and depth information, the color information and depth information set for each pixel constituting the display unit is acquired in order to display the state viewed from the direction displayed on the user device on the display unit. ,
The data reduction device according to claim 1 or 2.
コンピュータが、
記憶部に記憶されている3次元モデルを読み出し、前記3次元モデルを一方向から見た状態を表示部に表示するために前記表示部を構成する各画素に設定される色情報及び奥行情報を、前記3次元モデルを一以上の方向から見た状態について取得する取得手順と、
前記3次元モデルを一以上の方向から見た各状態において取得した各画素の色情報及び奥行情報を用いて、前記3次元モデルを3次元空間内に配置された色情報を含む点群で表した表示データに変換する表示データ変換手順と、
を実行するデータ削減方法。
Computer
Color information and depth information set in each pixel constituting the display unit in order to display a state in which the three-dimensional model is viewed from one direction is displayed on the display unit. An acquisition procedure for acquiring a state of the three-dimensional model viewed from one or more directions;
Using the color information and depth information of each pixel acquired in each state when the three-dimensional model is viewed from one or more directions, the three-dimensional model is represented by a point group including color information arranged in a three-dimensional space. Display data conversion procedure to convert the display data to
Perform data reduction method.
JP2015084776A 2015-04-17 2015-04-17 Data reducing apparatus and data reducing method Pending JP2016206766A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015084776A JP2016206766A (en) 2015-04-17 2015-04-17 Data reducing apparatus and data reducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015084776A JP2016206766A (en) 2015-04-17 2015-04-17 Data reducing apparatus and data reducing method

Publications (1)

Publication Number Publication Date
JP2016206766A true JP2016206766A (en) 2016-12-08

Family

ID=57489750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015084776A Pending JP2016206766A (en) 2015-04-17 2015-04-17 Data reducing apparatus and data reducing method

Country Status (1)

Country Link
JP (1) JP2016206766A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11593959B1 (en) * 2022-09-30 2023-02-28 Illuscio, Inc. Systems and methods for digitally representing a scene with multi-faceted primitives

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11593959B1 (en) * 2022-09-30 2023-02-28 Illuscio, Inc. Systems and methods for digitally representing a scene with multi-faceted primitives
US11721034B1 (en) * 2022-09-30 2023-08-08 Illuscio, Inc. Systems and methods for digitally representing a scene with multi-faceted primitives
WO2024072698A1 (en) * 2022-09-30 2024-04-04 Illuscio, Inc. Systems and methods for digitally representing a scene with multi-faceted primitives

Similar Documents

Publication Publication Date Title
CN107590771B (en) 2D video with options for projection viewing in modeled 3D space
CN108257219B (en) Method for realizing panoramic multipoint roaming
US20180276882A1 (en) Systems and methods for augmented reality art creation
US20180122129A1 (en) Generation, transmission and rendering of virtual reality multimedia
CN107341846B (en) Method and device for displaying large-scale three-dimensional reconstruction scene in real time
KR20140100656A (en) Point video offer device using omnidirectional imaging and 3-dimensional data and method
US9697581B2 (en) Image processing apparatus and image processing method
US11044398B2 (en) Panoramic light field capture, processing, and display
KR102546358B1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
KR20180107271A (en) Method and apparatus for generating omni media texture mapping metadata
CN110710203B (en) Methods, systems, and media for generating and rendering immersive video content
US20230215047A1 (en) Free-viewpoint method and system
CN107203961B (en) Expression migration method and electronic equipment
US11706395B2 (en) Apparatus and method for selecting camera providing input images to synthesize virtual view images
JP6011567B2 (en) Information processing apparatus, control method thereof, and program
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2016206766A (en) Data reducing apparatus and data reducing method
Kopf et al. Practical 3D photography
WO2014111968A1 (en) Video generation device, video generation program, and video generation method
CN108920598A (en) Panorama sketch browsing method, device, terminal device, server and storage medium
CN104463784A (en) Zooming method of 2.5D model
EP3821602A1 (en) A method, an apparatus and a computer program product for volumetric video coding
JP2016115148A (en) Information processing apparatus, information processing system, information processing method, and program
US11830140B2 (en) Methods and systems for 3D modeling of an object by merging voxelized representations of the object
US10453247B1 (en) Vertex shift for rendering 360 stereoscopic content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015