JP2020091811A - Multi-content drawing system and multi-content drawing method - Google Patents
Multi-content drawing system and multi-content drawing method Download PDFInfo
- Publication number
- JP2020091811A JP2020091811A JP2018230300A JP2018230300A JP2020091811A JP 2020091811 A JP2020091811 A JP 2020091811A JP 2018230300 A JP2018230300 A JP 2018230300A JP 2018230300 A JP2018230300 A JP 2018230300A JP 2020091811 A JP2020091811 A JP 2020091811A
- Authority
- JP
- Japan
- Prior art keywords
- content
- rendering
- information
- area
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000009877 rendering Methods 0.000 claims abstract description 191
- 238000004364 calculation method Methods 0.000 claims abstract description 35
- 239000000872 buffer Substances 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 15
- 238000004088 simulation Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 241000475481 Nebula Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、多コンテンツ描画システム及び多コンテンツ描画方法に関する。 The present invention relates to a multi-content drawing system and a multi-content drawing method.
近年、コンピュータによるゲームやチャットの際に仮想世界を再現するようなサービスが数多く出てきている。このようなサービスはユーザに自身のモデルをアップロードさせることによって、自身があたかもその世界に訪れたかのように錯覚させる。 In recent years, many services that reproduce a virtual world during computer games and chats have appeared. By allowing users to upload their models, such services give the illusion of visiting the world.
例えば、特許文献1には、仮想世界における複数のキャラクターの移動を含むゲーム処理を行うゲーム処理手段と、複数のキャラクターから、所定の条件に基づいて、1のキャラクターを特定キャラクターとして特定する特定手段と、複数のキャラクターのうち特定キャラクターを除く複数の非特定キャラクターの移動に共通性があるか否かを判定する判定手段と、判定手段によって、共通性があると判定されなかった場合には特定キャラクターを優先表示キャラクターとして決定し、共通性があると判定された場合には少なくとも何れかの非特定キャラクターを優先表示キャラクターとして決定する、決定手段と、複数のキャラクターのうち、少なくとも前記優先表示キャラクターが表示画像の所定の領域に入るように描画関連パラメータを調整する調整手段を備えるシステムが開示されている。
For example, in
ユーザが自身のモデルをアップロードさせるコンテンツ構造はあまり広く実現されていない。このようなシステム中で同時に同じサーバ、ルームなどお互いが見えるような空間にユーザ同士が入るためにはユーザがあらかじめ他のユーザのアバターをダウンロードしなければならない。そのような構造を想定した際には、特にデータ転送量やユーザデバイスにおけるレンダリングコストの肥大化などの問題が伴う。 The content structure that allows users to upload their model is not widely implemented. In order for users to enter the space in which such a system can see each other at the same time in the same server, room, etc., users must download the avatars of other users in advance. When such a structure is assumed, there are problems such as an increase in data transfer amount and an increase in rendering cost in the user device.
すなわち、参加者が多くなればなるほど、それぞれのユーザがサーバからダウンロードしなければならないデータが大きく肥大化してしまう。また、一部のユーザがかなり大きなモデルをアップロードしてしまうと、他のユーザもこれをダウンロードしなければならず、膨大なネットワーク帯域の消費をする。そして、このモデルのレンダリングが各クライアントによって行われるために、ロースペックなデバイスのユーザは表示領域に入ってくる他人というコントロールしえない条件によってデバイスの処理の重さが大きく変わってしまう問題がある。 That is, as the number of participants increases, the amount of data that each user has to download from the server increases significantly. Also, if some users upload a fairly large model, others will have to download it, which consumes a huge amount of network bandwidth. Since this model is rendered by each client, there is a problem that the user of a low-spec device has a large change in the processing weight of the device due to the uncontrollable condition of another person entering the display area. ..
このように、ユーザが自由にモデルをアップロードできるような仮想空間サービスなどでは、20〜30名程度が一度の接続数の限界となっている現状がある。 As described above, in the virtual space service and the like in which the user can freely upload the model, there is a current situation that the number of connections per person is about 20 to 30.
本発明は、上記課題に鑑みてなされたものであり、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画する多コンテンツ描画システム及び多コンテンツ描画方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a multi-content drawing system and a multi-content drawing method for drawing various kinds and many contents existing in a specific area with an optimum load. ..
本発明の一態様は、特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画システムであって、少なくとも、コンテンツを含む特定の領域の描画結果を生成する領域レンダリングサーバと、コンテンツの描画に関する計算を行うコンテンツレンダリングサーバを備え、領域レンダリングサーバは、位置及び視点に関する情報をコンテンツレンダリングサーバに送信し、コンテンツレンダリングサーバからコンテンツのレンダリングに関する像としての情報を受信することを特徴とする。 One aspect of the present invention is a multi-content drawing system that draws a large number of various types of content existing in a specific area, and at least an area rendering server that generates a drawing result of a specific area including the content, and A region rendering server is characterized in that the region rendering server transmits information regarding a position and a viewpoint to the content rendering server and receives information as an image regarding content rendering from the content rendering server.
本発明の一態様によれば、コンテンツサーバでは登録されているモデルに関する演算のみ行い、領域レンダリングサーバではコンテンツサーバで行う計算を必要とせずにコンテンツのレンダリングに関する像としての情報のみを受け取ることにより、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 According to an aspect of the present invention, the content server performs only the operation related to the registered model, and the area rendering server receives only the information as the image related to the rendering of the content without the calculation performed in the content server. It is possible to draw various kinds of contents existing in a specific area with an optimum load.
このとき、本発明の一態様では、コンテンツは3Dモデルを含むこととしてもよい。 At this time, in one aspect of the present invention, the content may include a 3D model.
3Dモデルのような重いデータ処理が必要な情報であっても、本発明の一態様では、レンダリングに関する像としての情報をやり取りするため、最適な負荷で描画することができる。 Even in the case of information that requires heavy data processing, such as a 3D model, in one aspect of the present invention, since information as an image relating to rendering is exchanged, it is possible to draw with an optimum load.
また、本発明の一態様では、レンダリングに関する像としての情報は遅延シェーディングに基づくG−bufferとしてもよい。 Further, in one aspect of the present invention, the information as an image related to rendering may be a G-buffer based on delay shading.
このようにすれば、仮に描画負荷が大きなコンテンツであったとしても、重くなるのはコンテンツレンダリングサーバにおける計算時のみであり、コンテンツそれぞれの負荷に応じてスケーリングすることによってその後の全体の描画処理の負荷には影響しなくなる。 By doing so, even if the content has a large drawing load, the content becomes heavy only at the time of calculation in the content rendering server, and by scaling according to the load of each content, the subsequent rendering processing of the entire content is reduced. It will not affect the load.
また、本発明の一態様では、レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むとしてもよい。 Further, according to one aspect of the present invention, the information as an image regarding rendering may include rendering information based on forward rendering.
レンダリングに関する像としての情報は遅延シェーディングに限らず、フォワードレンダリングに基づくものであってもよい。 The information as an image regarding rendering is not limited to delay shading, and may be based on forward rendering.
また、本発明の一態様では、特定の領域は、複数の領域レンダリングサーバの処理により描画されるようにしてもよい。 Further, according to an aspect of the present invention, the specific area may be rendered by processing of a plurality of area rendering servers.
複数の領域レンダリングサーバにより分割して管理することにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。 By dividing and managing by a plurality of area rendering servers, it is possible to reduce the load even when a large area is drawn.
本発明の他の態様は、特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、計算手段を用いてコンテンツの描画に関する計算を行う計算工程と、描画手段においてコンテンツの位置及び視点に関する情報を取得する描画条件取得工程と、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程と、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する描画工程を有することを特徴とする。 Another aspect of the present invention is a multi-content drawing method for drawing a large number of various kinds of contents existing in a specific area, wherein a calculation step of performing a drawing-related calculation using a calculating means, and a content in the drawing means Drawing condition acquisition step of acquiring information about the position and viewpoint of the image, a rendering information acquisition step of transmitting information from the drawing means to the calculation means, and receiving information as an image related to rendering from the calculation means, and information as an image related to rendering. From the above, there is a drawing step for generating a drawing result of a specific area including the content.
本発明の他の態様によれば、計算手段ではコンテンツの描画に関する演算のみ行い、描画手段ではコンテンツの描画に関する計算を必要とせずにコンテンツのレンダリングに関する像としての情報のみを受け取ることにより、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 According to another aspect of the present invention, the calculation unit performs only the operation related to the drawing of the content, and the drawing unit does not need the calculation related to the drawing of the content and receives only the information as the image related to the rendering of the content. It is possible to draw various kinds and many contents existing in the area with an optimum load.
このとき、本発明の他の態様では、コンテンツは3Dモデルを含むこととしてもよい。 At this time, in another aspect of the present invention, the content may include a 3D model.
3Dモデルのような重いデータ処理が必要な情報であっても、本発明の一態様では、レンダリングに関する像としての情報をやり取りするため、最適な負荷で描画することができる。 Even in the case of information that requires heavy data processing, such as a 3D model, in one aspect of the present invention, since information as an image relating to rendering is exchanged, it is possible to draw with an optimum load.
また、本発明の他の態様では、レンダリングに関する像としての情報は遅延シェーディングに基づくG−bufferとしてもよい。 Further, in another aspect of the present invention, the information as an image related to rendering may be a G-buffer based on delay shading.
このようにすれば、仮に描画負荷が大きなコンテンツであったとしても、重くなるのはコンテンツレンダリングサーバにおける計算時のみであり、コンテンツそれぞれの負荷に応じてスケーリングすることによってその後の全体の描画処理の負荷には影響しなくなる。 By doing so, even if the content has a large drawing load, the content becomes heavy only at the time of calculation in the content rendering server, and by scaling according to the load of each content, the subsequent rendering processing of the entire content is reduced. It will not affect the load.
また、本発明の一態様では、レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むとしてもよい。 Further, according to one aspect of the present invention, the information as an image regarding rendering may include rendering information based on forward rendering.
レンダリングに関する像としての情報は遅延シェーディングに限らず、フォワードレンダリングに基づくものであってもよい。 The information as an image regarding rendering is not limited to delay shading, and may be based on forward rendering.
また、本発明の他の態様では、特定の領域を複数の描画手段により分割し、描画結果を生成する描画手段は、隣接する描画手段から、該描画手段が管理する領域の描画結果を取得するようにしてもよい。 Further, according to another aspect of the present invention, a drawing unit that divides a specific area by a plurality of drawing units and generates a drawing result acquires a drawing result of an area managed by the drawing unit from an adjacent drawing unit. You may do it.
複数の描画手段により分割して管理することにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。 By dividing and managing with a plurality of drawing means, the load can be reduced even in the case of drawing a vast area.
また、本発明の他の態様は、上記多コンテンツ描画方法をコンピュータに実行させるためのプログラムである。 Another aspect of the present invention is a program for causing a computer to execute the multi-content drawing method.
以上説明したように本発明によれば、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 As described above, according to the present invention, it is possible to draw a large number of various types of content existing in a specific area with an optimum load.
以下、本発明の好適な実施の形態について詳細に説明する。なお、以下に説明する本実
施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本
実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
Hereinafter, preferred embodiments of the present invention will be described in detail. Note that the present embodiment described below does not unreasonably limit the content of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as a solution means of the present invention. Not necessarily.
本発明の一実施形態に係る多コンテンツ描画システムが適用される一例として、ゲームや仮想世界のようなバーチャルなコンテンツにおいて、ユーザはカスタマイズしたモデル(参加者のキャラクタ等)を登録して運用し、クライアント端末には、各ユーザ(モデル)の視点に応じた画像が描画される状況を想定する。図1は、従来の描画システムの構成を示す概略図であり、図2は、本発明の一実施形態に係る多コンテンツ描画システムの構成を示す概略図である。 As an example to which the multi-content drawing system according to an embodiment of the present invention is applied, in a virtual content such as a game or a virtual world, a user registers and operates a customized model (characters of participants, etc.), It is assumed that an image is drawn on the client terminal according to the viewpoint of each user (model). FIG. 1 is a schematic diagram showing a configuration of a conventional drawing system, and FIG. 2 is a schematic diagram showing a configuration of a multi-contents drawing system according to an embodiment of the present invention.
従来の描画システム100では、図1に示すように、ユーザはクライアント端末101からレンダリングサーバ102にモデルMを登録(アップロード)し、その後は、レンダリングサーバ102に対してレンダリング結果をリクエストする。また、ユーザはクライアント端末101から自身のキャラクタMの動きなどの入力データをレンダリングサーバ102に送信する。
In the
図1に示すような描画システム100のように、あるユーザのモデルMからの視点を基にそれぞれのモデルM、M1、M2の描画情報を描画をするデバイス上にダウンロードする従来の方法では、ネットワークの帯域を浪費する、あるいはモデル情報をダウンロードしてデバイス上で描画する場合にはデバイスの計算負荷が重くなる問題があった。
As in the
また、他の3DモデルM1、M2があるユーザのモデルMの視界内Sに入った場合などに対処するため、レンダリングサーバ102は事前にユーザからモデルM1、M2をダウンロードしなければならず、その度に多くの帯域を浪費してしまっていた。このような問題を解決するためには、突然モデルデータをダウンロードしなければならないような状態を避けることが必要となる。
Further, in order to deal with the case where the other 3D models M1 and M2 enter the visual field S of the user's model M, the
本発明はこのような問題を解決するために発案されたものであり、本発明の一態様は、図2に示すように、特定の領域Rに存在する多種、多数のコンテンツM、M1、M2を描画する多コンテンツ描画システム10であって、少なくとも、特定の領域Rの描画結果を生成する領域レンダリングサーバ12と、コンテンツの描画に関する計算を行うコンテンツレンダリングサーバ13を備え、領域レンダリングサーバ12は、位置及び視点に関する情報をコンテンツレンダリングサーバ13に送信し、コンテンツレンダリングサーバ13からコンテンツのレンダリングに関する像としての情報を受信することを特徴とする。
The present invention was devised to solve such a problem, and one aspect of the present invention is, as shown in FIG. 2, various types and many contents M, M1, M2 existing in a specific region R. A
本発明では、このような構成とすることにより、モデルMはコンテンツレンダリングサーバ13Aに格納(アップロード)後は他のサーバに移す必要がなく、必要に応じてその場でのレンダリング結果のみ取得すればよいため、モデルMのダウンロードによる帯域問題が解決される。
In the present invention, with such a configuration, the model M does not need to be transferred to another server after being stored (uploaded) in the content rendering
仮にコンテンツレンダリングサーバ13でのモデル描画が重かったとしても、重くなるのはそのモデルの計算だけであり、全体の描画処理の負荷には影響しない。重いモデルをあげたユーザのキャラクタ(アバター)の場合、重くなるのはそのコンテンツサーバだけである。単純にそのコンテンツだけ重い状態としておくか、そのユーザの需要に応じてそのコンテンツサーバだけ高性能な計算機を割り当てることができる。また、本発明の実施形態によっては、ユーザが自身のモデルMをあげるコンテンツレンダリングサーバ13Aを強化などすることによってコンテンツの負荷を見るユーザにかけてしまうことを避けて、コンテンツのアップロード者にかけることができる。
Even if the model drawing in the content rendering
また、ユーザーサイドに配信されるのはモデルデータではないコンテンツのレンダリング結果であるのでコンテンツの情報を配信先に分からせることなくレンダリングの結果を得ることができる。したがって、ユーザーサイドにコンテンツの3Dモデルをダウンロードさせる必要がなく、コンテンツの保護を図ることができる。また、領域レンダリングサーバ12に3Dモデルをダウンロードさせる必要がないため、ユーザ自身がモデルデータを用いて配信する際に3Dモデルをサービス提供者に渡すことなく、サービス中でモデル表示を利用することができる。
Also, what is delivered to the user side is the rendering result of the content that is not model data, so the rendering result can be obtained without making the delivery destination aware of the content information. Therefore, it is not necessary to download the 3D model of the content on the user side, and the content can be protected. In addition, since it is not necessary for the
図3は、本発明の他の実施形態に係る多コンテンツ描画システム20の構成を示す概略図である。本発明の一実施形態に係る多コンテンツ描画システム20では、図3に示すように、特定の領域Rを複数の領域レンダリングサーバ22(22A〜22P)により分割して管理するようにすることができる。これにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。詳細については後述する。
FIG. 3 is a schematic diagram showing a configuration of a
次に、本発明の一実施形態に係る多コンテンツ描画システムの構成要素である、領域レンダリングサーバ12とコンテンツレンダリングサーバ13の構成について説明する。
Next, configurations of the
領域レンダリングサーバ12とコンテンツレンダリングサーバ13は、それぞれ、サーバとして備えるべき、1又は複数のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random access Memory)、通信ユニット等を備え、さらにGPU(Graphics Processing Unit)を備えていてもよい。また、必要に応じてキーボード、タッチパネル等の入力部や表示モニタ等の出力部等を有していてもよい。各構成要素の数及び性能は、描画の対象となる特定の領域Rの規模や、コンテンツの種類、数、計算の負荷等により状況に適したものを選択すればよい。また、領域レンダリングサーバ12とコンテンツレンダリングサーバ13には、それぞれ、後述する多コンテンツ描画方法を実現するためのプログラムを有する。
The
領域レンダリングサーバ12やコンテンツレンダリングサーバ13のCPUは、互いの通信ユニットを介して受信したデータや、ROMに記憶されている各種プログラムに従って、各サーバに備わる各構成要素の動作を制御する機能を有する。本実施形態では、CPUは、多コンテンツ描画方法を実行させるためのプログラムに従って、多コンテンツの描画のための動作を制御する。また、CPUは、これら各種処理を実行する際に、必要なデータ等をRAM(Random access Memory)等に適宜記憶させる機能を有する。また、GPU(Graphics Processing Unit)は、画像処理に特化した演算装置であり、レンダリング処理等を実行するために、各サーバに備わっていることが好ましい。
The CPUs of the
ROMやRAMといったメモリは、多コンテンツ描画システム10の各構成要素の動作制御に必要な情報を記憶する機能を有する。本実施形態では、メモリは、多コンテンツ描画システム10により実行される多コンテンツ描画方法を領域レンダリングサーバ12及びコンテンツレンダリングサーバ13間で実行させるためのプログラムが記憶されている。
A memory such as a ROM or a RAM has a function of storing information necessary for controlling the operation of each component of the
通信ユニットは、領域レンダリングサーバ12、コンテンツレンダリングサーバ13及びクライアント端末11間でのデータの送受信を行う機能を有する。通信ユニットは有線又は無線の通信回線を通じて他のサーバや端末との通信を行う。領域レンダリングサーバ12が複数ある場合には、各領域レンダリングサーバ12は少なくとも隣接する他の領域レンダリングサーバと通信可能であり、また、各領域レンダリングサーバ12は、1又は複数のコンテンツレンダリングサーバ13のそれぞれと通信可能である。
The communication unit has a function of transmitting and receiving data among the
次に、クライアント端末(ユーザデバイス)11、領域レンダリングサーバ12、コンテンツレンダリングサーバ13のそれぞれにおいて行われる処理について説明する。
Next, processing performed in each of the client terminal (user device) 11, the
クライアント端末(ユーザデバイス)11は、ユーザが本発明の一実施形態に係る多コンテンツ描画システム10を利用する際に用いる端末である。例えば、汎用コンピュータ、タブレット端末、スマートフォン、携帯情報端末等の各種演算処理が可能な演算装置を備えた情報端末装置をいう。クライアント端末(ユーザデバイス)11は、自身が登録したキャラクタ(アバター)Mの位置情報などから、リクエストを送る先の領域レンダリングサーバ12を求めて描画結果を要求する。また、クライアント端末(ユーザデバイス)11は、必要に応じてサーバ上で同期されているアバターMの位置などのシーン情報を操作する。これは、領域レンダリングサーバ12が領域内を管理していて、これの変更を要求するようなリクエストを出してもよいし、別にシーンの状態を管理するようなサーバがあってもよい。
The client terminal (user device) 11 is a terminal used when a user uses the
領域レンダリングサーバ12は、必要に応じて特定の描画結果を取得できるような状況を作る。領域レンダリングサーバ12が複数存在する場合には、領域レンダリングサーバ12は、隣接する領域を管理する領域レンダリングサーバと接続を確立する。そして、領域レンダリングサーバ12は、クライアント端末(ユーザデバイス)11からの接続があった際に、キャラクタ(アバター)Mの視点に含まれうる隣接領域を管理する領域レンダリングサーバより描画結果を取得する。各領域レンダリングは、他の領域レンダリングサーバから要求があった際に、同時に渡されるカメラパラメータを用いた描画結果を取得する。
The
領域レンダリングサーバ22(22A〜22P)が図3に示すように複数存在する場合に、自身の周囲の領域レンダリングサーバとの接合面に対して、隣接する領域レンダリングサーバから取得した描画結果を貼り付けることによって領域外の平面が描画されたようにすることができる。この際の接合面は、4面による立方体が平面上に並んでいるような形状でも良いし、六角柱が並ぶような形状でもよい。空間を十分に充填し、平面によって区切られている任意の形状を用いればよい。 When there are a plurality of area rendering servers 22 (22A to 22P) as shown in FIG. 3, the drawing result acquired from the adjacent area rendering server is pasted on the joint surface with the area rendering server around itself. This makes it possible to draw a plane outside the region. At this time, the joint surface may have a shape in which four-sided cubes are arranged on a plane or a shape in which hexagonal columns are arranged. Any shape that sufficiently fills the space and is divided by a plane may be used.
また、領域レンダリングサーバ12は、領域中のコンテンツを管理するすべてのコンテンツレンダリングサーバ13(13A〜13C)に対してレンダリングに関する像としての情報の更新をリクエストする。レンダリングに関する像としての情報としては、深度、法線、Light Accumulation buffer、表示領域判定用マスク画像およびアルベド、ラフネス、メタリックなどを始めとするマテリアル情報等が挙げられるが、遅延シェーディングに基づくG−bufferを用いることができる。G−bufferは、画面全体の法線、深さなどを表すバッファである。領域レンダリングサーバは、例えば、コンテンツレンダリングサーバで更新されたG−bufferを領域中で一つにまとめて一つの平面のG−bufferとして合成する。このとき、必要に応じて深さだけのG−bufferを特定のライト視点からリクエストすることでシャドウマップを作成し、前記平面とライト情報、シャドウマップなどを用いて実際のライティングを行い、ライティング結果を反映した画像を生成する。この際、実際のユーザから見た視点に合うようなゆがんだ射影行列を用いることができる。
Further, the
本発明の一実施形態に係る多コンテンツ描画システムにおいて、コンテンツレンダリングサーバから領域レンダリングサーバへと送られるレンダリングに関する像としての情報は、遅延シェーディング(Deferred Shading)のみに限定されるわけではなく、フォワードレンダリング(Forward Rendering)に基づく像としての情報であってもよい。フォワードレンダリングは、ライトの情報を送ってライティングまでをコンテンツレンダリングサーバで行う手法であり、最終的なレンダリング結果と透明度などの合成に必要なマスク(mask)情報あるいは深度(depth)情報をレンダリングに関する像としての情報として領域レンダリングサーバに送信する。 In the multi-content rendering system according to the embodiment of the present invention, the information about the rendering sent from the content rendering server to the region rendering server is not limited to the deferred shading, but the forward rendering. It may be information as an image based on (Forward Rendering). Forward rendering is a method of sending light information and performing lighting up to the content rendering server. The final rendering result and the mask information or depth information necessary for compositing the transparency etc. The information is transmitted to the area rendering server.
コンテンツレンダリングサーバ13は、コンテンツを描画するのに適切な面の大きさを定めるためにコンテンツを囲う最小領域又は画像圧縮に適したサイズの領域を事前に計算する。この領域の計算は、ある視点が与えられたときに必要な描画画面の大きさを十分に計算できるような物であれば何でもよい。例えばAABB(Axis Aligned Bounding Box)や単純なモデルを囲う球面の計算などによることができる。コンテンツレンダリングサーバ13では、この領域を例えば、ユーザカメラから見た際にうまく映るような射影行列を計算する。
The
コンテンツレンダリングサーバ13は、領域レンダリングサーバ12からリクエストがあった際にこのリクエストに応じてレンダリングに関する像としての情報を結果として送る。上述したようにレンダリングに関する像としての情報は、例えばG−bufferである。この際、データを圧縮して転送すればデータ転送量をより軽減化することができる。コンテンツレンダリングサーバは、前記射影行列を用いて既存のモデルからG−bufferを生成して領域レンダリングサーバ12に受け渡す。
When there is a request from the
次に、本発明の一実施形態に係る多コンテンツ描画方法について、図面を使用しながら説明する。図4は、本発明の一実施形態に係る多コンテンツ描画方法の概略を示すフロー図である。本発明の一態様は、特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、計算手段を用いてコンテンツの描画に関する計算を行う計算工程S1と、描画手段においてコンテンツの位置及び視点に関する情報を取得する描画条件取得工程S2と、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程S3と、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する描画工程S4を有する。 Next, a multi-content drawing method according to an embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a flowchart showing an outline of the multi-content drawing method according to the embodiment of the present invention. One aspect of the present invention is a multi-content drawing method for drawing a large number of various kinds of contents existing in a specific area, which includes a calculation step S1 for performing a drawing-related calculation using a calculating means and a content in the drawing means. Drawing condition acquisition step S2 for acquiring information on the position and viewpoint, and a rendering information acquisition step S3 for transmitting information from the drawing means to the calculation means and receiving information as an image for rendering from the calculation means, and as an image for rendering. And a drawing step S4 for generating a drawing result of a specific area including the content from the information.
計算工程S1は、計算手段を用いてコンテンツの描画に関する計算を行う工程である。計算手段としては、例えば上述したようなコンテンツレンダリングサーバが挙げられる。また、コンテンツとしては、ゲームやチャットなどの仮想空間おいて、ユーザが設定した自身のモデル(アバター)等であり、これらのモデルは、3Dモデルを含むものである。計算手段においては、例えば、上述したようにコンテンツを描画するのに適切な面の大きさを定めるためにコンテンツを囲う最小領域又は画像圧縮に適したサイズの領域を計算し、この領域を例えばユーザカメラから見た際にうまく映るような射影行列を計算する。 The calculation step S1 is a step of performing calculation regarding drawing of the content using a calculation means. Examples of the calculation means include the content rendering server described above. Further, the content is a model (avatar) of the user himself/herself set by a user in a virtual space such as a game or chat, and these models include a 3D model. In the calculating means, for example, as described above, a minimum area surrounding the content or an area having a size suitable for image compression is calculated in order to determine the size of the surface suitable for drawing the content, and this area is calculated by the user, for example. Calculate a projection matrix that looks good when viewed from the camera.
描画条件取得工程S2は、描画手段においてコンテンツの位置及び視点に関する情報を取得する工程である。描画手段は、基本的には計算手段とは別に設けられる構成であり、例えば上述したような領域レンダリングサーバが挙げられる。ゲームやチャットなどの仮想空間においては、通常、ユーザは自身が登録したモデル(アバター)を操作して視点を変えたり、画面内の場所を移動したりする。この時の情報がユーザの操作するクライアント端末(ユーザデバイス)から描画手段へと送られる。 The drawing condition acquisition step S2 is a step of acquiring information on the position and viewpoint of the content in the drawing means. The drawing means is basically provided separately from the calculating means, and examples thereof include the area rendering server described above. In a virtual space such as a game or a chat, the user usually operates a model (avatar) registered by the user to change the viewpoint or move a place on the screen. The information at this time is sent from the client terminal (user device) operated by the user to the drawing means.
レンダリング情報取得工程S3は、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信する。この時、対象とするユーザのモデル(アバター)の視野内に他のユーザのモデル(アバター)が存在する場合には、他のモデルについてのレンダリングに関する像としての情報も含めて受信する。レンダリングに関する像としての情報は、例えば上述したように遅延シェーディングに基づくG−bufferを用いることができる。このように、描画手段では直接コンテンツに関するデータは扱わずに、計算手段を介してレンダリングに関する像としての情報のみを受け取るため、コンテンツが多種、多数になったとしても描画負荷が重くなるような状態を防止することができる。したがって、本発明の一実施形態に係る描画方法では、より多くのユーザが参加した状態であっても各ユーザのモデル(アバター)を同時に多数描画することを可能にする。 In the rendering information acquisition step S3, information is transmitted from the drawing means to the calculation means, and information as an image regarding rendering is received from the calculation means. At this time, when another user's model (avatar) exists within the field of view of the target user's model (avatar), information including an image regarding rendering of the other model is also received. For the information as an image regarding rendering, for example, G-buffer based on delay shading can be used as described above. In this way, the drawing means does not directly handle the data related to the content, but receives only the information as the image related to the rendering via the calculation means, so that the drawing load becomes heavy even if the number of kinds of content is large. Can be prevented. Therefore, the drawing method according to the embodiment of the present invention makes it possible to draw a large number of models (avatars) of each user at the same time even when more users participate.
描画工程S4は、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する工程である。例えば、モデル(アバター)の位置、視点、当該視野中に含まれる配置物や他のモデル(アバター)に関するシーン情報に合わせて計算手段からレンダリングに関する像としての情報(例えばG−buffer)を取得し、G−buffer情報及びシーン情報からライティングをしてユーザ視点でのレンダリング結果を描画する。 The drawing step S4 is a step of generating a drawing result of a specific area including the content from information as an image related to rendering. For example, the information (for example, G-buffer) as an image related to rendering is acquired from the calculation unit in accordance with the position of the model (avatar), the viewpoint, the scene information about the arrangement object included in the field of view, and the other model (avatar). , G-buffer information and scene information are lit to draw the rendering result from the user's viewpoint.
また、本発明の一実施形態に係る多コンテンツ描画方法では、例えば図3に示すように、特定の領域を複数の描画手段(領域レンダリングサーバ)により分割し、描画結果を生成する描画手段は、隣接する描画手段から、描画手段が管理する領域の描画結果を取得するようにしてもよい。 Further, in the multi-content drawing method according to the embodiment of the present invention, for example, as shown in FIG. 3, a drawing unit that divides a specific region by a plurality of drawing units (region rendering servers) and generates a drawing result is The drawing result of the area managed by the drawing means may be acquired from the adjacent drawing means.
図5は、特定の領域Rを複数の描画手段で分割した際のレンダリングの方法を示した模式図である。特定の領域RにあるユーザのモデルMが存在していた場合に、ある時にモデルMの視野内Sの画像が描画のために必要であったとする。その際にその平面に写りうる領域は領域r1を含むものであって、これを領域r1を管理するノードに対して結果の画像を問い合わせる。この際の結果画像はr2の領域とr3の領域に依存するため、このノードが隣り合わせる領域r4のノードに対して結果の画像を送るように問い合わせる。これは基本的に再帰的に繰り返される。このように複数個のノードが返す情報を元に各画像を組み合わせて結果となる画像を得ることができる。 FIG. 5 is a schematic diagram showing a rendering method when the specific region R is divided by a plurality of drawing means. When there is a user's model M in a specific region R, it is assumed that an image of the model S in the field of view S is necessary for drawing at some time. At that time, the area that can be imaged on the plane includes the area r1, and the resultant image is inquired to the node managing the area r1. Since the result image at this time depends on the area of r2 and the area of r3, the node inquires to send the resulting image to the node of the area r4 adjacent to this node. This is basically recursively repeated. In this way, the images can be obtained by combining the images based on the information returned by the plurality of nodes.
以下、本発明について、実施例を用いてさらに具体的に説明するが、本発明は、以下の実施例に何ら限定されるものではない。 Hereinafter, the present invention will be described in more detail with reference to Examples, but the present invention is not limited to the following Examples.
<実施例1.ユーザが自身の3Dアバターをアップロードする形式の仮想現実環境>
本発明の一実施形態に係る多コンテンツ描画システム及び多コンテンツ描画方法は、事前に予期できないような多種のモデルを表示することに秀でている。したがって、例えば、ユーザそれぞれが自身のデザインしたモデルをアップロードし得るような環境、同時にそれぞれのユーザが動くことにより他のユーザに観測され得るような環境、新しいユーザが突如空間内に配置されるような環境といった仮想空間での表現に適している。現実的な例としては、MMORPGなどのゲーム的要素や3D空間上のSNS空間など、同時多発的にそれぞれのユーザが独立した操作をするような例が挙げられる。
<Example 1. Virtual reality environment where users upload their 3D avatars>
A multi-content drawing system and a multi-content drawing method according to an embodiment of the present invention are excellent in displaying various types of models that cannot be predicted in advance. So, for example, an environment in which each user can upload their own designed model, an environment in which each user can be observed by other users as they move, new users are suddenly placed in the space. It is suitable for expression in virtual space such as various environments. As a realistic example, there is an example in which each user simultaneously operates independently, such as a game-like element such as MMORPG or an SNS space on a 3D space.
このような環境下で、例えば、ユーザはサービスの登録時に自身のモデル(アバター)をコンテンツレンダリングサーバにアップロードする。このコンテンツレンダリングサーバは、他のユーザと共有のものであってもよいし、重いモデルであることが想定される場合は占有のコンテンツレンダリングサーバを割り当てればよい。これにより、ネットワーク全体に与える負荷に対するペナルティをユーザ自身に負担させることもできる。 Under such an environment, for example, the user uploads his model (avatar) to the content rendering server when registering the service. This content rendering server may be shared with other users, or if a heavy model is assumed, an exclusive content rendering server may be assigned. This allows the user to bear the penalty for the load on the entire network.
次に、ユーザは自身のアバターが所属する領域の領域レンダリングサーバにアクセスする。この際、動的に領域レンダリングサーバが増加するなどの場合は、領域レンダリングサーバのリストを管理するような領域レンダリングサーバを解決する目的のサーバがあってもよい。静的にあらかじめ領域から定まる場合には、単にこれらのサーバだけ存在していればよい。また、接続は、例えば、単なるソケット通信で接続を確立してもよい。必要に応じてストリーミング配信などに使われている圧縮技術などを応用できる。 Next, the user accesses the area rendering server of the area to which his avatar belongs. At this time, when the number of area rendering servers increases dynamically, there may be a server for solving the area rendering server that manages the list of area rendering servers. When statically determined in advance from the area, only these servers need to exist. The connection may be established by simple socket communication, for example. If necessary, you can apply the compression technology used for streaming distribution.
領域レンダリングサーバは写り得る隣接領域レンダリングノードに対してアバターの位置から見た場合のレンダリング結果をリクエストする。単にユーザが接続された場合と同一の状況として一般化ができる。この際にPerspective Offcenterな射影行列を用いることにより正常なレンダリング結果を得る。 The region rendering server requests the rendering result from the position of the avatar to the adjacent region rendering node that can appear. It can be generalized as the same situation as if the user were just connected. At this time, a normal rendering result is obtained by using a perspective matrix that is Perspective Offcenter.
そして、シーン情報を取得する。単にアバターのみによって構成される場合は、領域レンダリングノードは自身に接続されるクライアントのリストからシーン情報を復元できる。また、アバターのみでなく、あらかじめ置かれた物体なども混ざり構成される場合は、別途シーングラフの管理ノードなどを用意してこれらから逐次シーン上の物体リストなどの姿勢を解決する。 Then, the scene information is acquired. If composed solely of avatars, the region rendering node can restore the scene information from the list of clients connected to it. If not only the avatar but also objects placed in advance are mixed, a management node of the scene graph is separately prepared, and the postures of the object list on the scene are sequentially solved from these.
その後、領域レンダリングサーバは、シーン情報に合わせてコンテンツレンダリングサーバからG−bufferを取得し、G−buffer情報及びシーン情報からライティングをしてユーザ視点でのレンダリング結果を描画する。 After that, the region rendering server acquires the G-buffer from the content rendering server in accordance with the scene information, performs lighting from the G-buffer information and the scene information, and draws the rendering result from the user's viewpoint.
<実施例2.動的にモデルの形状が同時多発的に変わり得る状況下でのシミュレーション表示>
本発明の一実施形態に係る多コンテンツ描画システム及び多コンテンツ描画方法は、モデル自身の形状生成からレンダリングをする部分と全体のレンダリングを行う部分が独立であることから、シミュレーションのための形状生成コストが非常に高くそれを現実的な速度で外部に転送を行うことが現実的ではないデータのシミュレーションも可能である。例えば、ある部分領域のG−buffer描画結果を与えられたカメラ視点から取得することができるシミュレーションが挙げられる。シミュレーション目的によってはリアルタイムに行うことも可能であるし、それが必要のない状況でも特定領域のシミュレーション結果を現実的な速度で取得可能であるなら逐次的に大規模な空間を描画できる。
<Example 2. Simulation display under conditions where the shape of the model can change dynamically at the same time>
In the multi-content drawing system and the multi-content drawing method according to the embodiment of the present invention, the shape generation cost for simulation is independent because the part that performs the rendering from the shape generation of the model itself and the part that performs the entire rendering are independent. It is possible to simulate data that is very high and it is not realistic to transfer it at a realistic speed. For example, there is a simulation in which the G-buffer drawing result of a certain partial area can be acquired from a given camera viewpoint. Depending on the purpose of simulation, it can be performed in real time, and even if it is not necessary, if a simulation result of a specific area can be obtained at a realistic speed, a large space can be drawn sequentially.
まず、コンテンツレンダリングサーバでシミュレーションを行う。上記のシミュレーションをコンテンツレンダリングサーバにより行い、領域レンダリングサーバのリクエストに応じて結果を返す。実際の運用ではコンテンツレンダリングサーバはシミュレーションを実行する主体となる者が自分で立ててもよい。シミュレーションに参加するノードに空いている領域を割り当てることによる大規模空間のグリッドコンピューティングシステムとしてこのようなコンテンツレンダリングサーバを運用してもよい。 First, the content rendering server performs a simulation. The above-mentioned simulation is performed by the content rendering server, and the result is returned in response to the request of the area rendering server. In the actual operation, the content rendering server may be set up by the person who is the main body for executing the simulation. Such a content rendering server may be operated as a grid computing system of a large-scale space by allocating an empty area to the nodes participating in the simulation.
その後、コンテンツレンダリングサーバより領域レンダリングサーバが結果を取得する。領域レンダリングサーバは大域的に必要な処理を行う。ここでの大域的な処理とはライティングにとらわれない。例えば、星雲のシミュレーションなどであれば、コンテンツレンダリングサーバが返す各部分領域のシミュレーション結果からそれぞれのコンテンツレンダリングサーバ同士の間での相互作用に関わる値の算出などを行う。 After that, the area rendering server acquires the result from the content rendering server. The region rendering server performs the necessary processing globally. Global processing here is not limited to lighting. For example, in the case of a simulation of a nebula, the value related to the interaction between each content rendering server is calculated from the simulation result of each partial area returned by the content rendering server.
なお、上記のように本発明の一実施形態について詳細に説明したが、本発明の新規事項
及び効果から実体的に逸脱しない多くの変形が可能であることは、当業者には、容易に理
解できるであろう。従って、このような変形例は、全て本発明の範囲に含まれるものとす
る。
Although one embodiment of the present invention has been described above in detail, those skilled in the art can easily understand that many modifications can be made without materially departing from the novel matters and effects of the present invention. You can do it. Therefore, such modifications are all included in the scope of the present invention.
例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と
共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置
き換えることができる。また、多コンテンツ描画システムの構成、動作も本発明の一実
施形態で説明したものに限定されず、種々の変形実施が可能である。
For example, a term described in the specification or the drawings at least once together with a different term having a broader meaning or the same meaning can be replaced with the different term in any place in the specification or the drawing. The configuration and operation of the multi-contents drawing system are not limited to those described in the embodiment of the present invention, and various modifications can be made.
10,20 多コンテンツ描画システム、11,21 クライアント端末、12,22(22A〜22P) 領域レンダリングサーバ、13(13A〜13C),23(23A〜23C) コンテンツレンダリングサーバ、100 描画システム、101 クライアント端末、102 レンダリングサーバ、M,M1,M2 モデル、R 特定の領域、S 視界内、S1 計算工程、S2 描画条件取得工程、S3 レンダリング情報取得工程、S4 描画工程 10, 20 Multi-content drawing system, 11, 21 client terminal, 12, 22 (22A-22P) area rendering server, 13 (13A-13C), 23 (23A-23C) content rendering server, 100 drawing system, 101 client terminal , 102 rendering server, M, M1, M2 model, R specific region, S view field, S1 calculation step, S2 drawing condition acquisition step, S3 rendering information acquisition step, S4 drawing step
Claims (11)
少なくとも、
上記コンテンツを含む上記特定の領域の描画結果を生成する領域レンダリングサーバと、
上記コンテンツの描画に関する計算を行うコンテンツレンダリングサーバを備え、
上記領域レンダリングサーバは、位置及び視点に関する情報を上記コンテンツレンダリングサーバに送信し、該コンテンツレンダリングサーバからコンテンツのレンダリングに関する像としての情報を受信することを特徴とする多コンテンツ描画システム。 A multi-content drawing system for drawing various kinds of many contents existing in a specific area,
at least,
A region rendering server that generates a rendering result of the specific region including the content,
A content rendering server that performs calculations related to the rendering of the above content,
The multi-content rendering system, wherein the area rendering server transmits information regarding a position and a viewpoint to the content rendering server, and receives information as an image regarding content rendering from the content rendering server.
計算手段を用いて上記コンテンツの描画に関する計算を行う計算工程と、
描画手段において上記コンテンツの位置及び視点に関する情報を取得する描画条件取得工程と、
上記描画手段から上記情報を上記計算手段に送信し、該計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程と、
上記レンダリングに関する像としての情報から上記コンテンツを含む上記特定の領域の描画結果を生成する描画工程
を有することを特徴とする多コンテンツ描画方法。 A multi-content drawing method for drawing a large number of various contents existing in a specific area,
A calculation step for performing a calculation relating to the rendering of the content using a calculation means,
A drawing condition acquisition step of acquiring information on the position and viewpoint of the content in the drawing means,
A rendering information acquisition step of transmitting the information from the drawing means to the calculation means, and receiving information as an image regarding rendering from the calculation means,
A multi-content drawing method comprising: a drawing step of generating a drawing result of the specific area including the content from information as an image relating to the rendering.
せるためのプログラム。 A program for causing a computer to execute the multi-content drawing method according to any one of claims 6 to 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230300A JP7290852B2 (en) | 2018-12-07 | 2018-12-07 | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230300A JP7290852B2 (en) | 2018-12-07 | 2018-12-07 | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091811A true JP2020091811A (en) | 2020-06-11 |
JP7290852B2 JP7290852B2 (en) | 2023-06-14 |
Family
ID=71012949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018230300A Active JP7290852B2 (en) | 2018-12-07 | 2018-12-07 | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7290852B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102394158B1 (en) * | 2020-12-17 | 2022-05-09 | 주식회사 컬러버스 | A System and Method for Streaming Metaverse Space |
JP2023092849A (en) * | 2021-12-22 | 2023-07-04 | 凸版印刷株式会社 | Content management system, content management method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099511A (en) * | 2011-11-07 | 2013-05-23 | Square Enix Holdings Co Ltd | Rendering system, rendering server, control method thereof, program, and recording medium |
JP2016066149A (en) * | 2014-09-24 | 2016-04-28 | 株式会社コロプラ | Display system, display method and program |
JP2017531224A (en) * | 2014-09-16 | 2017-10-19 | インテル・コーポレーション | Coarse pixel delay shading |
-
2018
- 2018-12-07 JP JP2018230300A patent/JP7290852B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099511A (en) * | 2011-11-07 | 2013-05-23 | Square Enix Holdings Co Ltd | Rendering system, rendering server, control method thereof, program, and recording medium |
JP2017531224A (en) * | 2014-09-16 | 2017-10-19 | インテル・コーポレーション | Coarse pixel delay shading |
JP2016066149A (en) * | 2014-09-24 | 2016-04-28 | 株式会社コロプラ | Display system, display method and program |
Non-Patent Citations (1)
Title |
---|
今給黎 隆: "GPUグラフィックスパイプラインでの粗片描画", 情報処理学会 研究報告 コンピュータグラフィックスとビジュアル情報学(CG) 2018−CG−170, JPN6022050238, JP, pages 1 - 4, ISSN: 0004931123 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102394158B1 (en) * | 2020-12-17 | 2022-05-09 | 주식회사 컬러버스 | A System and Method for Streaming Metaverse Space |
WO2022131602A1 (en) * | 2020-12-17 | 2022-06-23 | 주식회사 퍼피레드 | System and method for streaming in metaverse space |
JP2023092849A (en) * | 2021-12-22 | 2023-07-04 | 凸版印刷株式会社 | Content management system, content management method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7290852B2 (en) | 2023-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12083423B2 (en) | Video game overlay | |
CN109448099B (en) | Picture rendering method and device, storage medium and electronic device | |
CN102204207B (en) | Virtual environment comprises web content | |
US9937423B2 (en) | Voice overlay | |
CN112316424A (en) | Game data processing method, device and storage medium | |
US9724610B2 (en) | Creation and prioritization of multiple virtual universe teleports in response to an event | |
US8363051B2 (en) | Non-real-time enhanced image snapshot in a virtual world system | |
CN103918012A (en) | Rendering system, rendering server, control method thereof, program, and recording medium | |
Hesina et al. | A network architecture for remote rendering | |
CN112316433B (en) | Game picture rendering method, device, server and storage medium | |
US20230290043A1 (en) | Picture generation method and apparatus, device, and medium | |
CN111142967B (en) | Augmented reality display method and device, electronic equipment and storage medium | |
US20050253872A1 (en) | Method and system for culling view dependent visual data streams for a virtual environment | |
JP7290852B2 (en) | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD | |
JP4034002B2 (en) | Distributed virtual space information management transmission method | |
Petit et al. | A 3d data intensive tele-immersive grid | |
Pani et al. | Distributed data exchange with Leap Motion | |
US8531453B2 (en) | Augmenting virtual worlds simulation with enhanced assets | |
Cacciaguerra et al. | A wireless software architecture for fast 3D rendering of agent-based multimedia simulations on portable devices | |
JP2019057079A (en) | Image processing program, image processing device, and image processing method | |
WO2024190569A1 (en) | Information processing device, information processing method, program, and content distribution system | |
WO2014108214A1 (en) | Client-server system for a web-based furniture shop | |
WO2023164244A1 (en) | Methods and systems for facilitating the cooperation of large numbers of computing devices with particular application to maintaining, presenting and editing a shared 3-dimensional virtual space to multiple users | |
Miyake et al. | A Web page that provides map‐based interfaces for VRML/X3D content | |
CN117893659A (en) | AR rendering method and device based on distributed computing and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7290852 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |