JP7290852B2 - MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD - Google Patents

MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD Download PDF

Info

Publication number
JP7290852B2
JP7290852B2 JP2018230300A JP2018230300A JP7290852B2 JP 7290852 B2 JP7290852 B2 JP 7290852B2 JP 2018230300 A JP2018230300 A JP 2018230300A JP 2018230300 A JP2018230300 A JP 2018230300A JP 7290852 B2 JP7290852 B2 JP 7290852B2
Authority
JP
Japan
Prior art keywords
rendering
content
information
server
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018230300A
Other languages
Japanese (ja)
Other versions
JP2020091811A (en
Inventor
豪 齋藤
翔 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2018230300A priority Critical patent/JP7290852B2/en
Publication of JP2020091811A publication Critical patent/JP2020091811A/en
Application granted granted Critical
Publication of JP7290852B2 publication Critical patent/JP7290852B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、多コンテンツ描画システム及び多コンテンツ描画方法に関する。 The present invention relates to a multi-content drawing system and a multi-content drawing method.

近年、コンピュータによるゲームやチャットの際に仮想世界を再現するようなサービスが数多く出てきている。このようなサービスはユーザに自身のモデルをアップロードさせることによって、自身があたかもその世界に訪れたかのように錯覚させる。 2. Description of the Related Art In recent years, a large number of services that reproduce virtual worlds during computer games and chats have appeared. Such services allow users to upload their own models, making them feel as if they have visited the world.

例えば、特許文献1には、仮想世界における複数のキャラクターの移動を含むゲーム処理を行うゲーム処理手段と、複数のキャラクターから、所定の条件に基づいて、1のキャラクターを特定キャラクターとして特定する特定手段と、複数のキャラクターのうち特定キャラクターを除く複数の非特定キャラクターの移動に共通性があるか否かを判定する判定手段と、判定手段によって、共通性があると判定されなかった場合には特定キャラクターを優先表示キャラクターとして決定し、共通性があると判定された場合には少なくとも何れかの非特定キャラクターを優先表示キャラクターとして決定する、決定手段と、複数のキャラクターのうち、少なくとも前記優先表示キャラクターが表示画像の所定の領域に入るように描画関連パラメータを調整する調整手段を備えるシステムが開示されている。 For example, Patent Document 1 discloses game processing means for performing game processing including movement of a plurality of characters in a virtual world, and identification means for identifying one character as a specific character from a plurality of characters based on predetermined conditions. and a determining means for determining whether or not there is commonality in the movement of a plurality of non-specific characters excluding a specific character among the plurality of characters, and if it is determined that there is no commonality by the determining means, the specified determination means for determining a character as a priority display character, and determining at least one non-specific character as a priority display character if it is determined that there is commonality; and at least the priority display character among a plurality of characters. A system is disclosed that includes adjustment means for adjusting drawing-related parameters such that the .DELTA.

ユーザが自身のモデルをアップロードさせるコンテンツ構造はあまり広く実現されていない。このようなシステム中で同時に同じサーバ、ルームなどお互いが見えるような空間にユーザ同士が入るためにはユーザがあらかじめ他のユーザのアバターをダウンロードしなければならない。そのような構造を想定した際には、特にデータ転送量やユーザデバイスにおけるレンダリングコストの肥大化などの問題が伴う。 Content structures that allow users to upload their own models are not widely implemented. In such a system, users must download other users' avatars in advance in order for users to enter the same server, room, or other space where they can see each other at the same time. Assuming such a structure entails problems such as an increase in the amount of data transfer and rendering costs in user devices.

すなわち、参加者が多くなればなるほど、それぞれのユーザがサーバからダウンロードしなければならないデータが大きく肥大化してしまう。また、一部のユーザがかなり大きなモデルをアップロードしてしまうと、他のユーザもこれをダウンロードしなければならず、膨大なネットワーク帯域の消費をする。そして、このモデルのレンダリングが各クライアントによって行われるために、ロースペックなデバイスのユーザは表示領域に入ってくる他人というコントロールしえない条件によってデバイスの処理の重さが大きく変わってしまう問題がある。 That is, the more participants there are, the more data each user must download from the server. Also, if some users upload a fairly large model, other users will have to download it as well, consuming a lot of network bandwidth. And since the rendering of this model is done by each client, users of low-spec devices have the problem that the processing load of the device changes greatly depending on the uncontrollable conditions such as other people entering the display area. .

特開2015-71012号公報JP 2015-71012 A

このように、ユーザが自由にモデルをアップロードできるような仮想空間サービスなどでは、20~30名程度が一度の接続数の限界となっている現状がある。 In this way, in virtual space services where users can freely upload models, the current situation is that the number of connections at one time is limited to about 20 to 30 people.

本発明は、上記課題に鑑みてなされたものであり、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画する多コンテンツ描画システム及び多コンテンツ描画方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a multi-content rendering system and a multi-content rendering method that render a large number of various types of content existing in a specific area with an optimum load. .

本発明の一態様は、複数のクライアント端末が接続する特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画システムであって、少なくとも、コンテンツを含む特定の領域の描画結果を生成する領域レンダリングサーバと、コンテンツの描画に関する計算を行うコンテンツレンダリングサーバを備え、コンテンツレンダリングサーバにはそれぞれのクライアント端末から登録されたキャラクタを含むコンテンツに関する情報が送信され、領域レンダリングサーバは、位置及び視点に関する情報をコンテンツレンダリングサーバに送信し、コンテンツレンダリングサーバからコンテンツのレンダリングに関する像としての情報を受信することを特徴とする。 One aspect of the present invention is a multi-content rendering system that renders a large number of various types of content existing in a specific area to which a plurality of client terminals are connected , and generates a rendering result of at least the specific area containing the content. An area rendering server and a content rendering server that perform calculations related to content rendering are provided. Information on content including registered characters is sent to the content rendering server from each client terminal, and the area rendering server receives information on position and viewpoint. It is characterized by transmitting information to a content rendering server and receiving information as a picture regarding content rendering from the content rendering server.

本発明の一態様によれば、コンテンツサーバでは登録されているモデルに関する演算のみ行い、領域レンダリングサーバではコンテンツサーバで行う計算を必要とせずにコンテンツのレンダリングに関する像としての情報のみを受け取ることにより、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 According to one aspect of the present invention, the content server only performs calculations on registered models, and the region rendering server receives only graphical information regarding the rendering of the content without requiring calculations performed by the content server. It is possible to render a large number of various types of content existing in a specific area with an optimum load.

このとき、本発明の一態様では、コンテンツは3Dモデルを含むこととしてもよい。 At this time, in one aspect of the present invention, the content may include a 3D model.

3Dモデルのような重いデータ処理が必要な情報であっても、本発明の一態様では、レンダリングに関する像としての情報をやり取りするため、最適な負荷で描画することができる。 Even information that requires heavy data processing such as a 3D model can be rendered with an optimum load because, according to one aspect of the present invention, information is exchanged as an image regarding rendering.

また、本発明の一態様では、レンダリングに関する像としての情報は遅延シェーディングに基づくG-bufferとしてもよい。 Further, in one aspect of the present invention, the image information related to rendering may be a G-buffer based on delayed shading.

このようにすれば、仮に描画負荷が大きなコンテンツであったとしても、重くなるのはコンテンツレンダリングサーバにおける計算時のみであり、コンテンツそれぞれの負荷に応じてスケーリングすることによってその後の全体の描画処理の負荷には影響しなくなる。 In this way, even if the content has a large drawing load, it is only the time of calculation in the content rendering server that becomes heavy. load will not be affected.

また、本発明の一態様では、レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むとしてもよい。 Further, according to one aspect of the present invention, the image information related to rendering may include rendering information based on forward rendering.

レンダリングに関する像としての情報は遅延シェーディングに限らず、フォワードレンダリングに基づくものであってもよい。 Image information regarding rendering is not limited to deferred shading, and may be based on forward rendering.

また、本発明の一態様では、特定の領域は、複数の領域レンダリングサーバの処理により描画されるようにしてもよい。 Further, in one aspect of the present invention, a specific area may be rendered by processing of a plurality of area rendering servers.

複数の領域レンダリングサーバにより分割して管理することにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。 By dividing and managing by a plurality of area rendering servers, it is possible to reduce the load even when rendering a large area.

本発明の他の態様は、複数のクライアント端末が接続する特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、計算手段を用いてそれぞれのクライアント端末から登録されたキャラクタを含むコンテンツの描画に関する計算を行う計算工程と、描画手段においてコンテンツの位置及び視点に関する情報を取得する描画条件取得工程と、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程と、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する描画工程を有することを特徴とする。


Another aspect of the present invention is a multi-content rendering method for rendering a large number of various types of content present in a specific area to which a plurality of client terminals are connected . A calculation step of performing calculations related to drawing content including a character ; a drawing condition acquisition step of obtaining information about the position and viewpoint of content in the drawing means; and a drawing step of generating a drawing result of a specific area containing the content from information about the rendering as an image.


本発明の他の態様によれば、計算手段ではコンテンツの描画に関する演算のみ行い、描画手段ではコンテンツの描画に関する計算を必要とせずにコンテンツのレンダリングに関する像としての情報のみを受け取ることにより、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 According to another aspect of the present invention, the computing means only performs operations related to content rendering, and the rendering means does not require computations related to content rendering, and receives only image information related to content rendering, so that a specific It is possible to render a large number of various types of contents present in the area with an optimum load.

このとき、本発明の他の態様では、コンテンツは3Dモデルを含むこととしてもよい。 Then, in another aspect of the invention, the content may include a 3D model.

3Dモデルのような重いデータ処理が必要な情報であっても、本発明の一態様では、レンダリングに関する像としての情報をやり取りするため、最適な負荷で描画することができる。 Even information that requires heavy data processing such as a 3D model can be rendered with an optimum load because, according to one aspect of the present invention, information is exchanged as an image regarding rendering.

また、本発明の他の態様では、レンダリングに関する像としての情報は遅延シェーディングに基づくG-bufferとしてもよい。 Also, in another aspect of the present invention, the image information related to rendering may be a G-buffer based on deferred shading.

このようにすれば、仮に描画負荷が大きなコンテンツであったとしても、重くなるのはコンテンツレンダリングサーバにおける計算時のみであり、コンテンツそれぞれの負荷に応じてスケーリングすることによってその後の全体の描画処理の負荷には影響しなくなる。 In this way, even if the content has a large drawing load, it is only the time of calculation in the content rendering server that becomes heavy. load will not be affected.

また、本発明の一態様では、レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むとしてもよい。 Further, according to one aspect of the present invention, the image information related to rendering may include rendering information based on forward rendering.

レンダリングに関する像としての情報は遅延シェーディングに限らず、フォワードレンダリングに基づくものであってもよい。 Image information regarding rendering is not limited to deferred shading, and may be based on forward rendering.

また、本発明の他の態様では、特定の領域を複数の描画手段により分割し、描画結果を生成する描画手段は、隣接する描画手段から、該描画手段が管理する領域の描画結果を取得するようにしてもよい。 In another aspect of the present invention, a specific area is divided by a plurality of drawing means, and the drawing means for generating the drawing results acquires the drawing results of the area managed by the drawing means from the adjacent drawing means. You may do so.

複数の描画手段により分割して管理することにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。 By dividing and managing by a plurality of drawing means, it is possible to reduce the load even when drawing a large area.

また、本発明の他の態様は、上記多コンテンツ描画方法をコンピュータに実行させるためのプログラムである。 Another aspect of the present invention is a program for causing a computer to execute the multi-content drawing method.

以上説明したように本発明によれば、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 As described above, according to the present invention, it is possible to render a large number of various types of content existing in a specific area with an optimum load.

従来の描画システムの構成を示す概略図である。1 is a schematic diagram showing the configuration of a conventional drawing system; FIG. 本発明の一実施形態に係る多コンテンツ描画システムの構成を示す概略図である。1 is a schematic diagram showing the configuration of a multi-content rendering system according to one embodiment of the present invention; FIG. 本発明の他の実施形態に係る多コンテンツ描画システムの構成を示す概略図である。FIG. 4 is a schematic diagram showing the configuration of a multi-content drawing system according to another embodiment of the present invention; 本発明の一実施形態に係る多コンテンツ描画方法の概略を示すフロー図である。1 is a flow diagram showing an overview of a multiple content rendering method according to an embodiment of the present invention; FIG. 特定の領域を複数の描画手段で分割した際のレンダリングの方法を示した模式図である。FIG. 4 is a schematic diagram showing a rendering method when a specific area is divided by a plurality of rendering means;

以下、本発明の好適な実施の形態について詳細に説明する。なお、以下に説明する本実
施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本
実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
Preferred embodiments of the present invention will be described in detail below. It should be noted that the present embodiment described below does not unduly limit the content of the present invention described in the claims, and all of the configurations described in the present embodiment are essential as means for solving the present invention. not necessarily.

本発明の一実施形態に係る多コンテンツ描画システムが適用される一例として、ゲームや仮想世界のようなバーチャルなコンテンツにおいて、ユーザはカスタマイズしたモデル(参加者のキャラクタ等)を登録して運用し、クライアント端末には、各ユーザ(モデル)の視点に応じた画像が描画される状況を想定する。図1は、従来の描画システムの構成を示す概略図であり、図2は、本発明の一実施形態に係る多コンテンツ描画システムの構成を示す概略図である。 As an example of application of the multi-content rendering system according to an embodiment of the present invention, users register and operate customized models (participant characters, etc.) in virtual content such as games and virtual worlds. A situation is assumed in which an image corresponding to the viewpoint of each user (model) is drawn on the client terminal. FIG. 1 is a schematic diagram showing the configuration of a conventional rendering system, and FIG. 2 is a schematic diagram showing the configuration of a multi-content rendering system according to one embodiment of the present invention.

従来の描画システム100では、図1に示すように、ユーザはクライアント端末101からレンダリングサーバ102にモデルMを登録(アップロード)し、その後は、レンダリングサーバ102に対してレンダリング結果をリクエストする。また、ユーザはクライアント端末101から自身のキャラクタMの動きなどの入力データをレンダリングサーバ102に送信する。 In the conventional drawing system 100, as shown in FIG. 1, the user registers (uploads) the model M from the client terminal 101 to the rendering server 102, and then requests the rendering result from the rendering server 102. FIG. Also, the user transmits input data such as movement of the character M from the client terminal 101 to the rendering server 102 .

図1に示すような描画システム100のように、あるユーザのモデルMからの視点を基にそれぞれのモデルM、M1、M2の描画情報を描画をするデバイス上にダウンロードする従来の方法では、ネットワークの帯域を浪費する、あるいはモデル情報をダウンロードしてデバイス上で描画する場合にはデバイスの計算負荷が重くなる問題があった。 As in the drawing system 100 shown in FIG. 1, the conventional method of downloading the drawing information of each of the models M, M1, and M2 based on the viewpoint from the model M of a certain user to the drawing device requires network There was a problem of wasting the bandwidth of the device or increasing the calculation load of the device when model information is downloaded and drawn on the device.

また、他の3DモデルM1、M2があるユーザのモデルMの視界内Sに入った場合などに対処するため、レンダリングサーバ102は事前にユーザからモデルM1、M2をダウンロードしなければならず、その度に多くの帯域を浪費してしまっていた。このような問題を解決するためには、突然モデルデータをダウンロードしなければならないような状態を避けることが必要となる。 In addition, in order to deal with cases such as when other 3D models M1 and M2 enter the field of view S of the user's model M, the rendering server 102 must download the models M1 and M2 from the user in advance. A lot of bandwidth was wasted. In order to solve such problems, it is necessary to avoid a state in which the model data must be suddenly downloaded.

本発明はこのような問題を解決するために発案されたものであり、本発明の一態様は、図2に示すように、特定の領域Rに存在する多種、多数のコンテンツM、M1、M2を描画する多コンテンツ描画システム10であって、少なくとも、特定の領域Rの描画結果を生成する領域レンダリングサーバ12と、コンテンツの描画に関する計算を行うコンテンツレンダリングサーバ13を備え、領域レンダリングサーバ12は、位置及び視点に関する情報をコンテンツレンダリングサーバ13に送信し、コンテンツレンダリングサーバ13からコンテンツのレンダリングに関する像としての情報を受信することを特徴とする。 The present invention was invented to solve such problems, and one aspect of the present invention is, as shown in FIG. comprising at least an area rendering server 12 for generating a rendering result of a specific area R and a content rendering server 13 for performing calculations related to rendering of the content, the area rendering server 12: It is characterized by transmitting information on position and viewpoint to the content rendering server 13 and receiving information as an image on content rendering from the content rendering server 13 .

本発明では、このような構成とすることにより、モデルMはコンテンツレンダリングサーバ13Aに格納(アップロード)後は他のサーバに移す必要がなく、必要に応じてその場でのレンダリング結果のみ取得すればよいため、モデルMのダウンロードによる帯域問題が解決される。 In the present invention, with such a configuration, after the model M is stored (uploaded) in the content rendering server 13A, it is not necessary to transfer it to another server, and only the rendering results on the spot are obtained as needed. is good, thus solving the bandwidth problem due to the model M download.

仮にコンテンツレンダリングサーバ13でのモデル描画が重かったとしても、重くなるのはそのモデルの計算だけであり、全体の描画処理の負荷には影響しない。重いモデルをあげたユーザのキャラクタ(アバター)の場合、重くなるのはそのコンテンツサーバだけである。単純にそのコンテンツだけ重い状態としておくか、そのユーザの需要に応じてそのコンテンツサーバだけ高性能な計算機を割り当てることができる。また、本発明の実施形態によっては、ユーザが自身のモデルMをあげるコンテンツレンダリングサーバ13Aを強化などすることによってコンテンツの負荷を見るユーザにかけてしまうことを避けて、コンテンツのアップロード者にかけることができる。 Even if the model drawing in the content rendering server 13 is heavy, it is only the calculation of the model that becomes heavy, and does not affect the overall drawing processing load. In the case of a user's character (avatar) with a heavy model, only the content server is heavy. A high-performance computer can be allocated only to the content server according to the user's demand, or the content can simply be placed in a heavy state. In addition, depending on the embodiment of the present invention, it is possible to avoid placing the load on the user who sees the content by strengthening the content rendering server 13A where the user raises his/her own model M, and put the load on the uploader of the content. .

また、ユーザーサイドに配信されるのはモデルデータではないコンテンツのレンダリング結果であるのでコンテンツの情報を配信先に分からせることなくレンダリングの結果を得ることができる。したがって、ユーザーサイドにコンテンツの3Dモデルをダウンロードさせる必要がなく、コンテンツの保護を図ることができる。また、領域レンダリングサーバ12に3Dモデルをダウンロードさせる必要がないため、ユーザ自身がモデルデータを用いて配信する際に3Dモデルをサービス提供者に渡すことなく、サービス中でモデル表示を利用することができる。 In addition, since what is delivered to the user side is not the model data but the rendering result of the content, the rendering result can be obtained without letting the delivery destination know the information of the content. Therefore, it is possible to protect the content without requiring the user to download the 3D model of the content. In addition, since there is no need to download the 3D model to the area rendering server 12, the model display can be used in the service without passing the 3D model to the service provider when the user himself distributes the model data. can.

図3は、本発明の他の実施形態に係る多コンテンツ描画システム20の構成を示す概略図である。本発明の一実施形態に係る多コンテンツ描画システム20では、図3に示すように、特定の領域Rを複数の領域レンダリングサーバ22(22A~22P)により分割して管理するようにすることができる。これにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。詳細については後述する。 FIG. 3 is a schematic diagram showing the configuration of a multi-content drawing system 20 according to another embodiment of the invention. In the multiple content rendering system 20 according to one embodiment of the present invention, as shown in FIG. 3, a specific area R can be divided and managed by a plurality of area rendering servers 22 (22A to 22P). . As a result, the load can be reduced even when drawing a large area. Details will be described later.

次に、本発明の一実施形態に係る多コンテンツ描画システムの構成要素である、領域レンダリングサーバ12とコンテンツレンダリングサーバ13の構成について説明する。 Next, configurations of the area rendering server 12 and the content rendering server 13, which are components of the multiple content rendering system according to one embodiment of the present invention, will be described.

領域レンダリングサーバ12とコンテンツレンダリングサーバ13は、それぞれ、サーバとして備えるべき、1又は複数のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random access Memory)、通信ユニット等を備え、さらにGPU(Graphics Processing Unit)を備えていてもよい。また、必要に応じてキーボード、タッチパネル等の入力部や表示モニタ等の出力部等を有していてもよい。各構成要素の数及び性能は、描画の対象となる特定の領域Rの規模や、コンテンツの種類、数、計算の負荷等により状況に適したものを選択すればよい。また、領域レンダリングサーバ12とコンテンツレンダリングサーバ13には、それぞれ、後述する多コンテンツ描画方法を実現するためのプログラムを有する。 The area rendering server 12 and the content rendering server 13 each include one or more CPUs (Central Processing Units), ROMs (Read Only Memories), RAMs (Random Access Memories), communication units, etc., which should be provided as servers. A GPU (Graphics Processing Unit) may be provided. In addition, an input unit such as a keyboard and a touch panel, an output unit such as a display monitor, and the like may be provided as necessary. The number and performance of each component may be selected according to the situation, depending on the scale of the specific area R to be rendered, the type and number of contents, the computational load, and the like. Also, the area rendering server 12 and the content rendering server 13 each have a program for realizing a multiple content rendering method, which will be described later.

領域レンダリングサーバ12やコンテンツレンダリングサーバ13のCPUは、互いの通信ユニットを介して受信したデータや、ROMに記憶されている各種プログラムに従って、各サーバに備わる各構成要素の動作を制御する機能を有する。本実施形態では、CPUは、多コンテンツ描画方法を実行させるためのプログラムに従って、多コンテンツの描画のための動作を制御する。また、CPUは、これら各種処理を実行する際に、必要なデータ等をRAM(Random access Memory)等に適宜記憶させる機能を有する。また、GPU(Graphics Processing Unit)は、画像処理に特化した演算装置であり、レンダリング処理等を実行するために、各サーバに備わっていることが好ましい。 The CPUs of the area rendering server 12 and the content rendering server 13 have a function of controlling the operation of each component provided in each server according to data received via mutual communication units and various programs stored in the ROM. . In the present embodiment, the CPU controls operations for drawing multi-content according to a program for executing the multi-content drawing method. The CPU also has a function of appropriately storing necessary data and the like in a RAM (random access memory) or the like when executing these various types of processing. A GPU (Graphics Processing Unit) is a computing device specialized for image processing, and is preferably provided in each server in order to execute rendering processing and the like.

ROMやRAMといったメモリは、多コンテンツ描画システム10の各構成要素の動作制御に必要な情報を記憶する機能を有する。本実施形態では、メモリは、多コンテンツ描画システム10により実行される多コンテンツ描画方法を領域レンダリングサーバ12及びコンテンツレンダリングサーバ13間で実行させるためのプログラムが記憶されている。 Memories such as ROM and RAM have the function of storing information necessary for controlling the operation of each component of the multiple content rendering system 10 . In this embodiment, the memory stores a program for executing the multiple content rendering method executed by the multiple content rendering system 10 between the region rendering server 12 and the content rendering server 13 .

通信ユニットは、領域レンダリングサーバ12、コンテンツレンダリングサーバ13及びクライアント端末11間でのデータの送受信を行う機能を有する。通信ユニットは有線又は無線の通信回線を通じて他のサーバや端末との通信を行う。領域レンダリングサーバ12が複数ある場合には、各領域レンダリングサーバ12は少なくとも隣接する他の領域レンダリングサーバと通信可能であり、また、各領域レンダリングサーバ12は、1又は複数のコンテンツレンダリングサーバ13のそれぞれと通信可能である。 The communication unit has a function of transmitting and receiving data among the area rendering server 12 , the content rendering server 13 and the client terminal 11 . The communication unit communicates with other servers and terminals through wired or wireless communication lines. When there are multiple area rendering servers 12, each area rendering server 12 can communicate with at least other adjacent area rendering servers, and each area rendering server 12 can communicate with each of the one or more content rendering servers 13. can communicate with

次に、クライアント端末(ユーザデバイス)11、領域レンダリングサーバ12、コンテンツレンダリングサーバ13のそれぞれにおいて行われる処理について説明する。 Next, processing performed in each of the client terminal (user device) 11, area rendering server 12, and content rendering server 13 will be described.

クライアント端末(ユーザデバイス)11は、ユーザが本発明の一実施形態に係る多コンテンツ描画システム10を利用する際に用いる端末である。例えば、汎用コンピュータ、タブレット端末、スマートフォン、携帯情報端末等の各種演算処理が可能な演算装置を備えた情報端末装置をいう。クライアント端末(ユーザデバイス)11は、自身が登録したキャラクタ(アバター)Mの位置情報などから、リクエストを送る先の領域レンダリングサーバ12を求めて描画結果を要求する。また、クライアント端末(ユーザデバイス)11は、必要に応じてサーバ上で同期されているアバターMの位置などのシーン情報を操作する。これは、領域レンダリングサーバ12が領域内を管理していて、これの変更を要求するようなリクエストを出してもよいし、別にシーンの状態を管理するようなサーバがあってもよい。 A client terminal (user device) 11 is a terminal used by a user when using the multiple content drawing system 10 according to one embodiment of the present invention. For example, it refers to an information terminal device equipped with an arithmetic device capable of various arithmetic processing, such as a general-purpose computer, a tablet terminal, a smart phone, and a mobile information terminal. The client terminal (user device) 11 obtains the area rendering server 12 to which the request is sent from the position information of the character (avatar) M registered by the client terminal (user device) and requests the drawing result. Also, the client terminal (user device) 11 operates scene information such as the position of the avatar M synchronized on the server as necessary. The area rendering server 12 may manage the inside of the area and issue a request to change it, or there may be another server that manages the state of the scene.

領域レンダリングサーバ12は、必要に応じて特定の描画結果を取得できるような状況を作る。領域レンダリングサーバ12が複数存在する場合には、領域レンダリングサーバ12は、隣接する領域を管理する領域レンダリングサーバと接続を確立する。そして、領域レンダリングサーバ12は、クライアント端末(ユーザデバイス)11からの接続があった際に、キャラクタ(アバター)Mの視点に含まれうる隣接領域を管理する領域レンダリングサーバより描画結果を取得する。各領域レンダリングは、他の領域レンダリングサーバから要求があった際に、同時に渡されるカメラパラメータを用いた描画結果を取得する。 Region-rendering server 12 creates the context in which specific rendering results can be obtained as needed. If there are multiple region rendering servers 12, the region rendering servers 12 establish connections with the region rendering servers that manage adjacent regions. When connected from the client terminal (user device) 11, the area rendering server 12 acquires a rendering result from an area rendering server that manages adjacent areas that can be included in the viewpoint of the character (avatar) M. Each region rendering obtains a drawing result using the camera parameters passed at the same time when there is a request from another region rendering server.

領域レンダリングサーバ22(22A~22P)が図3に示すように複数存在する場合に、自身の周囲の領域レンダリングサーバとの接合面に対して、隣接する領域レンダリングサーバから取得した描画結果を貼り付けることによって領域外の平面が描画されたようにすることができる。この際の接合面は、4面による立方体が平面上に並んでいるような形状でも良いし、六角柱が並ぶような形状でもよい。空間を十分に充填し、平面によって区切られている任意の形状を用いればよい。 When there are a plurality of area rendering servers 22 (22A to 22P) as shown in FIG. 3, the drawing results obtained from the adjacent area rendering servers are pasted on the joint surface with the surrounding area rendering servers. This makes it possible to render planes outside the region as if they were drawn. The joint surface at this time may have a shape in which four-sided cubes are arranged on a plane, or a shape in which hexagonal columns are arranged. Any shape that sufficiently fills the space and is bounded by planes may be used.

また、領域レンダリングサーバ12は、領域中のコンテンツを管理するすべてのコンテンツレンダリングサーバ13(13A~13C)に対してレンダリングに関する像としての情報の更新をリクエストする。レンダリングに関する像としての情報としては、深度、法線、Light Accumulation buffer、表示領域判定用マスク画像およびアルベド、ラフネス、メタリックなどを始めとするマテリアル情報等が挙げられるが、遅延シェーディングに基づくG-bufferを用いることができる。G-bufferは、画面全体の法線、深さなどを表すバッファである。領域レンダリングサーバは、例えば、コンテンツレンダリングサーバで更新されたG-bufferを領域中で一つにまとめて一つの平面のG-bufferとして合成する。このとき、必要に応じて深さだけのG-bufferを特定のライト視点からリクエストすることでシャドウマップを作成し、前記平面とライト情報、シャドウマップなどを用いて実際のライティングを行い、ライティング結果を反映した画像を生成する。この際、実際のユーザから見た視点に合うようなゆがんだ射影行列を用いることができる。 In addition, the area rendering server 12 requests all the content rendering servers 13 (13A to 13C) that manage the content in the area to update information as an image regarding rendering. Image information related to rendering includes depth, normal, light accumulation buffer, mask image for display area judgment, and material information such as albedo, roughness, metallic, etc., but G-buffer based on delayed shading can be used. G-buffer is a buffer that represents the normal line, depth, etc. of the entire screen. The region rendering server, for example, combines the G-buffers updated by the content rendering server into one in the region and synthesizes them as one planar G-buffer. At this time, if necessary, a shadow map is created by requesting a G-buffer with only depth from a specific light viewpoint, and actual lighting is performed using the plane, light information, shadow map, etc., and the lighting result Generate an image that reflects At this time, it is possible to use a distorted projection matrix that matches the viewpoint seen by the actual user.

本発明の一実施形態に係る多コンテンツ描画システムにおいて、コンテンツレンダリングサーバから領域レンダリングサーバへと送られるレンダリングに関する像としての情報は、遅延シェーディング(Deferred Shading)のみに限定されるわけではなく、フォワードレンダリング(Forward Rendering)に基づく像としての情報であってもよい。フォワードレンダリングは、ライトの情報を送ってライティングまでをコンテンツレンダリングサーバで行う手法であり、最終的なレンダリング結果と透明度などの合成に必要なマスク(mask)情報あるいは深度(depth)情報をレンダリングに関する像としての情報として領域レンダリングサーバに送信する。 In the multi-content rendering system according to an embodiment of the present invention, the image information regarding rendering sent from the content rendering server to the region rendering server is not limited to only deferred shading, but also forward rendering. It may be information as an image based on (Forward Rendering). Forward rendering is a method in which light information is sent and lighting is performed by the content rendering server, and mask information or depth information necessary for synthesizing the final rendering result and transparency etc. is sent to the rendering image. to the region rendering server as information as

コンテンツレンダリングサーバ13は、コンテンツを描画するのに適切な面の大きさを定めるためにコンテンツを囲う最小領域又は画像圧縮に適したサイズの領域を事前に計算する。この領域の計算は、ある視点が与えられたときに必要な描画画面の大きさを十分に計算できるような物であれば何でもよい。例えばAABB(Axis Aligned Bounding Box)や単純なモデルを囲う球面の計算などによることができる。コンテンツレンダリングサーバ13では、この領域を例えば、ユーザカメラから見た際にうまく映るような射影行列を計算する。 The content rendering server 13 pre-computes a minimum area surrounding the content or an area of suitable size for image compression to determine the appropriate surface size for rendering the content. This area calculation can be anything that is sufficient to calculate the required drawing screen size given a certain viewpoint. For example, it can be based on AABB (Axis Aligned Bounding Box) or calculation of a sphere surrounding a simple model. The content rendering server 13 calculates a projection matrix such that this area can be viewed well from the user's camera, for example.

コンテンツレンダリングサーバ13は、領域レンダリングサーバ12からリクエストがあった際にこのリクエストに応じてレンダリングに関する像としての情報を結果として送る。上述したようにレンダリングに関する像としての情報は、例えばG-bufferである。この際、データを圧縮して転送すればデータ転送量をより軽減化することができる。コンテンツレンダリングサーバは、前記射影行列を用いて既存のモデルからG-bufferを生成して領域レンダリングサーバ12に受け渡す。 When receiving a request from the area rendering server 12, the content rendering server 13 sends information as an image regarding rendering as a result in response to this request. As described above, image information related to rendering is, for example, G-buffer. At this time, if the data is compressed and transferred, the data transfer amount can be further reduced. The content rendering server generates a G-buffer from the existing model using the projection matrix and transfers it to the area rendering server 12 .

次に、本発明の一実施形態に係る多コンテンツ描画方法について、図面を使用しながら説明する。図4は、本発明の一実施形態に係る多コンテンツ描画方法の概略を示すフロー図である。本発明の一態様は、特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、計算手段を用いてコンテンツの描画に関する計算を行う計算工程S1と、描画手段においてコンテンツの位置及び視点に関する情報を取得する描画条件取得工程S2と、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程S3と、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する描画工程S4を有する。 Next, a multi-content rendering method according to an embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a flow diagram outlining a multi-content rendering method according to an embodiment of the present invention. One aspect of the present invention is a multi-content rendering method for rendering a large number of various types of content existing in a specific area, comprising: a computing step S1 of performing computation related to rendering of content using a computing means; Rendering condition acquisition step S2 for acquiring information about the position and viewpoint of , rendering information acquisition step S3 for transmitting information from the rendering means to the calculation means and receiving information as an image related to rendering from the calculation means, and as an image related to rendering and a drawing step S4 of generating a drawing result of a specific area containing the content from the information of.

計算工程S1は、計算手段を用いてコンテンツの描画に関する計算を行う工程である。計算手段としては、例えば上述したようなコンテンツレンダリングサーバが挙げられる。また、コンテンツとしては、ゲームやチャットなどの仮想空間おいて、ユーザが設定した自身のモデル(アバター)等であり、これらのモデルは、3Dモデルを含むものである。計算手段においては、例えば、上述したようにコンテンツを描画するのに適切な面の大きさを定めるためにコンテンツを囲う最小領域又は画像圧縮に適したサイズの領域を計算し、この領域を例えばユーザカメラから見た際にうまく映るような射影行列を計算する。 The calculation step S1 is a step of performing calculations related to content drawing using a calculation means. Computing means include, for example, a content rendering server as described above. Also, the content is a model (avatar) set by the user in a virtual space such as a game or chat, and these models include 3D models. In the calculation means, for example, a minimum area surrounding the content or an area of a size suitable for image compression is calculated in order to determine the size of the surface suitable for rendering the content as described above, and this area is used by the user, for example. Calculate a projection matrix that looks good when viewed from the camera.

描画条件取得工程S2は、描画手段においてコンテンツの位置及び視点に関する情報を取得する工程である。描画手段は、基本的には計算手段とは別に設けられる構成であり、例えば上述したような領域レンダリングサーバが挙げられる。ゲームやチャットなどの仮想空間においては、通常、ユーザは自身が登録したモデル(アバター)を操作して視点を変えたり、画面内の場所を移動したりする。この時の情報がユーザの操作するクライアント端末(ユーザデバイス)から描画手段へと送られる。 The drawing condition acquisition step S2 is a step of acquiring information about the position and viewpoint of the content in the drawing means. The rendering means is basically a configuration provided separately from the computing means, and includes, for example, the area rendering server as described above. In virtual spaces such as games and chats, users usually operate models (avatars) registered by themselves to change viewpoints and move locations within the screen. Information at this time is sent from the client terminal (user device) operated by the user to the drawing means.

レンダリング情報取得工程S3は、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信する。この時、対象とするユーザのモデル(アバター)の視野内に他のユーザのモデル(アバター)が存在する場合には、他のモデルについてのレンダリングに関する像としての情報も含めて受信する。レンダリングに関する像としての情報は、例えば上述したように遅延シェーディングに基づくG-bufferを用いることができる。このように、描画手段では直接コンテンツに関するデータは扱わずに、計算手段を介してレンダリングに関する像としての情報のみを受け取るため、コンテンツが多種、多数になったとしても描画負荷が重くなるような状態を防止することができる。したがって、本発明の一実施形態に係る描画方法では、より多くのユーザが参加した状態であっても各ユーザのモデル(アバター)を同時に多数描画することを可能にする。 The rendering information acquisition step S3 transmits information from the drawing means to the calculation means, and receives information as an image regarding rendering from the calculation means. At this time, if another user's model (avatar) is present in the field of view of the target user's model (avatar), information regarding the rendering of the other model as an image is also received. For image information related to rendering, for example, G-buffer based on delayed shading can be used as described above. In this way, the rendering means does not directly handle data related to the content, but receives only image information related to rendering via the computing means. can be prevented. Therefore, in the drawing method according to one embodiment of the present invention, it is possible to draw a large number of models (avatars) of each user at the same time even when more users participate.

描画工程S4は、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する工程である。例えば、モデル(アバター)の位置、視点、当該視野中に含まれる配置物や他のモデル(アバター)に関するシーン情報に合わせて計算手段からレンダリングに関する像としての情報(例えばG-buffer)を取得し、G-buffer情報及びシーン情報からライティングをしてユーザ視点でのレンダリング結果を描画する。 The drawing step S4 is a step of generating a drawing result of a specific area containing content from information as an image regarding rendering. For example, image information (for example, G-buffer) regarding rendering is acquired from the calculation means in accordance with the position of the model (avatar), the viewpoint, the arrangement included in the field of view, and the scene information regarding other models (avatars). , G-buffer information and scene information to draw rendering results from the user's viewpoint.

また、本発明の一実施形態に係る多コンテンツ描画方法では、例えば図3に示すように、特定の領域を複数の描画手段(領域レンダリングサーバ)により分割し、描画結果を生成する描画手段は、隣接する描画手段から、描画手段が管理する領域の描画結果を取得するようにしてもよい。 In addition, in the multi-content drawing method according to one embodiment of the present invention, as shown in FIG. 3, for example, a specific area is divided by a plurality of drawing means (area rendering servers), and the drawing means for generating a drawing result is: The drawing result of the area managed by the drawing means may be acquired from the adjacent drawing means.

図5は、特定の領域Rを複数の描画手段で分割した際のレンダリングの方法を示した模式図である。特定の領域RにあるユーザのモデルMが存在していた場合に、ある時にモデルMの視野内Sの画像が描画のために必要であったとする。その際にその平面に写りうる領域は領域r1を含むものであって、これを領域r1を管理するノードに対して結果の画像を問い合わせる。この際の結果画像はr2の領域とr3の領域に依存するため、このノードが隣り合わせる領域r4のノードに対して結果の画像を送るように問い合わせる。これは基本的に再帰的に繰り返される。このように複数個のノードが返す情報を元に各画像を組み合わせて結果となる画像を得ることができる。 FIG. 5 is a schematic diagram showing a rendering method when a specific area R is divided by a plurality of drawing means. Suppose that a model M of a user exists in a specific region R, and an image of S within the field of view of the model M is required for rendering at some point. At that time, the area that can be imaged on the plane includes the area r1, and the resulting image is inquired of the node that manages the area r1. Since the resulting image at this time depends on the areas of r2 and r3, this node inquires the node of the adjacent area r4 to send the resulting image. This is basically recursive. In this way, the resulting image can be obtained by combining the images based on the information returned by the multiple nodes.

以下、本発明について、実施例を用いてさらに具体的に説明するが、本発明は、以下の実施例に何ら限定されるものではない。 EXAMPLES The present invention will be described in more detail below using examples, but the present invention is not limited to the following examples.

<実施例1.ユーザが自身の3Dアバターをアップロードする形式の仮想現実環境>
本発明の一実施形態に係る多コンテンツ描画システム及び多コンテンツ描画方法は、事前に予期できないような多種のモデルを表示することに秀でている。したがって、例えば、ユーザそれぞれが自身のデザインしたモデルをアップロードし得るような環境、同時にそれぞれのユーザが動くことにより他のユーザに観測され得るような環境、新しいユーザが突如空間内に配置されるような環境といった仮想空間での表現に適している。現実的な例としては、MMORPGなどのゲーム的要素や3D空間上のSNS空間など、同時多発的にそれぞれのユーザが独立した操作をするような例が挙げられる。
<Example 1. A virtual reality environment in which users upload their own 3D avatar>
A multi-content rendering system and multi-content rendering method according to an embodiment of the present invention excels at displaying a wide variety of models that cannot be predicted in advance. Therefore, for example, an environment where each user can upload their own designed model, an environment where each user's movement can be observed by other users at the same time, and a new user can suddenly be placed in the space. It is suitable for representation in a virtual space such as a dynamic environment. Realistic examples include game elements such as MMORPG, SNS space in 3D space, and the like, in which each user operates independently at the same time.

このような環境下で、例えば、ユーザはサービスの登録時に自身のモデル(アバター)をコンテンツレンダリングサーバにアップロードする。このコンテンツレンダリングサーバは、他のユーザと共有のものであってもよいし、重いモデルであることが想定される場合は占有のコンテンツレンダリングサーバを割り当てればよい。これにより、ネットワーク全体に与える負荷に対するペナルティをユーザ自身に負担させることもできる。 Under such circumstances, for example, a user uploads his model (avatar) to the content rendering server when registering for the service. This content rendering server may be shared with other users, or if a heavy model is expected, a dedicated content rendering server may be assigned. As a result, the user himself/herself can be made to bear the penalty for the load imposed on the entire network.

次に、ユーザは自身のアバターが所属する領域の領域レンダリングサーバにアクセスする。この際、動的に領域レンダリングサーバが増加するなどの場合は、領域レンダリングサーバのリストを管理するような領域レンダリングサーバを解決する目的のサーバがあってもよい。静的にあらかじめ領域から定まる場合には、単にこれらのサーバだけ存在していればよい。また、接続は、例えば、単なるソケット通信で接続を確立してもよい。必要に応じてストリーミング配信などに使われている圧縮技術などを応用できる。 The user then accesses the region rendering server for the region to which his avatar belongs. At this time, if the number of area rendering servers increases dynamically, there may be a server for the purpose of solving area rendering servers that manages a list of area rendering servers. If the area is statically determined in advance, it is sufficient that only these servers exist. Also, the connection may be established by simple socket communication, for example. Compression technology used for streaming distribution can be applied as needed.

領域レンダリングサーバは写り得る隣接領域レンダリングノードに対してアバターの位置から見た場合のレンダリング結果をリクエストする。単にユーザが接続された場合と同一の状況として一般化ができる。この際にPerspective Offcenterな射影行列を用いることにより正常なレンダリング結果を得る。 The region rendering server requests the rendering results as seen from the avatar's position from the possible adjacent region rendering nodes. It can be generalized as the same situation as when the user is simply connected. At this time, a normal rendering result is obtained by using a Perspective Offcenter projection matrix.

そして、シーン情報を取得する。単にアバターのみによって構成される場合は、領域レンダリングノードは自身に接続されるクライアントのリストからシーン情報を復元できる。また、アバターのみでなく、あらかじめ置かれた物体なども混ざり構成される場合は、別途シーングラフの管理ノードなどを用意してこれらから逐次シーン上の物体リストなどの姿勢を解決する。 Then, the scene information is acquired. If composed solely of avatars, the region rendering node can retrieve the scene information from the list of clients connected to it. In addition, when not only avatars but also pre-placed objects are mixed, a separate scene graph management node is prepared, and the poses of the object list on the scene are solved sequentially from these.

その後、領域レンダリングサーバは、シーン情報に合わせてコンテンツレンダリングサーバからG-bufferを取得し、G-buffer情報及びシーン情報からライティングをしてユーザ視点でのレンダリング結果を描画する。 After that, the region rendering server acquires the G-buffer from the content rendering server in accordance with the scene information, performs lighting from the G-buffer information and the scene information, and draws the rendering result from the user's viewpoint.

<実施例2.動的にモデルの形状が同時多発的に変わり得る状況下でのシミュレーション表示>
本発明の一実施形態に係る多コンテンツ描画システム及び多コンテンツ描画方法は、モデル自身の形状生成からレンダリングをする部分と全体のレンダリングを行う部分が独立であることから、シミュレーションのための形状生成コストが非常に高くそれを現実的な速度で外部に転送を行うことが現実的ではないデータのシミュレーションも可能である。例えば、ある部分領域のG-buffer描画結果を与えられたカメラ視点から取得することができるシミュレーションが挙げられる。シミュレーション目的によってはリアルタイムに行うことも可能であるし、それが必要のない状況でも特定領域のシミュレーション結果を現実的な速度で取得可能であるなら逐次的に大規模な空間を描画できる。
<Example 2. Simultaneous display under conditions where the shape of the model can dynamically change at the same time>
In the multi-contents rendering system and the multi-contents rendering method according to one embodiment of the present invention, since the part that renders from the shape generation of the model itself and the part that renders the entire model are independent, the shape generation cost for simulation is It is also possible to simulate data that is so high that it is not practical to transfer it to the outside at a realistic speed. For example, there is a simulation that can acquire the G-buffer drawing result of a certain partial area from a given camera viewpoint. Depending on the purpose of the simulation, it can be done in real time, and even in situations where it is not necessary, if the simulation results of a specific area can be obtained at a realistic speed, a large-scale space can be drawn sequentially.

まず、コンテンツレンダリングサーバでシミュレーションを行う。上記のシミュレーションをコンテンツレンダリングサーバにより行い、領域レンダリングサーバのリクエストに応じて結果を返す。実際の運用ではコンテンツレンダリングサーバはシミュレーションを実行する主体となる者が自分で立ててもよい。シミュレーションに参加するノードに空いている領域を割り当てることによる大規模空間のグリッドコンピューティングシステムとしてこのようなコンテンツレンダリングサーバを運用してもよい。 First, a simulation is performed on the content rendering server. The above simulation is performed by the content rendering server, and results are returned in response to requests from the region rendering server. In actual operation, the content rendering server may be set up by the person who executes the simulation. Such a content rendering server may be operated as a large-scale grid computing system by allocating free areas to nodes participating in the simulation.

その後、コンテンツレンダリングサーバより領域レンダリングサーバが結果を取得する。領域レンダリングサーバは大域的に必要な処理を行う。ここでの大域的な処理とはライティングにとらわれない。例えば、星雲のシミュレーションなどであれば、コンテンツレンダリングサーバが返す各部分領域のシミュレーション結果からそれぞれのコンテンツレンダリングサーバ同士の間での相互作用に関わる値の算出などを行う。 The region rendering server then retrieves the results from the content rendering server. The Region Rendering Server performs the necessary processing globally. Global processing here is lighting agnostic. For example, in the case of a nebula simulation, values related to interaction between the content rendering servers are calculated from the simulation results of each partial area returned by the content rendering servers.

なお、上記のように本発明の一実施形態について詳細に説明したが、本発明の新規事項
及び効果から実体的に逸脱しない多くの変形が可能であることは、当業者には、容易に理
解できるであろう。従って、このような変形例は、全て本発明の範囲に含まれるものとす
る。
Although one embodiment of the present invention has been described in detail as above, those skilled in the art will easily understand that many modifications are possible without substantially departing from the novel matters and effects of the present invention. You can. Accordingly, all such modifications are intended to be included within the scope of the present invention.

例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と
共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置
き換えることができる。また、多コンテンツ描画システムの構成、動作も本発明の一実
施形態で説明したものに限定されず、種々の変形実施が可能である。
For example, a term described at least once in the specification or drawings together with a different, broader or synonymous term can be replaced with the different term anywhere in the specification or drawings. Also, the configuration and operation of the multi-content drawing system are not limited to those described in the embodiment of the present invention, and various modifications are possible.

10,20 多コンテンツ描画システム、11,21 クライアント端末、12,22(22A~22P) 領域レンダリングサーバ、13(13A~13C),23(23A~23C) コンテンツレンダリングサーバ、100 描画システム、101 クライアント端末、102 レンダリングサーバ、M,M1,M2 モデル、R 特定の領域、S 視界内、S1 計算工程、S2 描画条件取得工程、S3 レンダリング情報取得工程、S4 描画工程 10, 20 multiple content rendering system, 11, 21 client terminal, 12, 22 (22A to 22P) area rendering server, 13 (13A to 13C), 23 (23A to 23C) content rendering server, 100 rendering system, 101 client terminal , 102 rendering server, M, M1, M2 model, R specific region, S within field of view, S1 calculation process, S2 drawing condition acquisition process, S3 rendering information acquisition process, S4 drawing process

Claims (11)

複数のクライアント端末が接続する特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画システムであって、
少なくとも、
上記コンテンツを含む上記特定の領域の描画結果を生成する領域レンダリングサーバと、
上記コンテンツの描画に関する計算を行うコンテンツレンダリングサーバを備え、
上記コンテンツレンダリングサーバにはそれぞれの上記クライアント端末から登録されたキャラクタを含むコンテンツに関する情報が送信され、
上記領域レンダリングサーバは、位置及び視点に関する情報を上記コンテンツレンダリングサーバに送信し、該コンテンツレンダリングサーバからコンテンツのレンダリングに関する像としての情報を受信することを特徴とする多コンテンツ描画システム。
A multi-content rendering system that renders a large number of various types of content existing in a specific area to which a plurality of client terminals are connected ,
at least,
a region rendering server that generates a rendering result of the specific region containing the content;
A content rendering server that performs calculations related to drawing the content,
Information about contents including characters registered from each of the client terminals is transmitted to the content rendering server,
The multi-content rendering system, wherein the area rendering server transmits information on position and viewpoint to the content rendering server, and receives image information on content rendering from the content rendering server.
上記コンテンツは3Dモデルを含むことを特徴とする請求項1に記載の多コンテンツ描画システム。 3. The multi-content rendering system of claim 1, wherein the content includes a 3D model. 上記レンダリングに関する像としての情報は遅延シェーディングに基づくG-bufferであることを特徴とする請求項1又は請求項2に記載の多コンテンツ描画システム。 3. The multi-contents rendering system according to claim 1, wherein the image information related to rendering is a G-buffer based on delayed shading. 上記レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むことを特徴とする請求項1又は請求項2に記載の多コンテンツ描画システム。 3. The multi-contents rendering system according to claim 1, wherein said information as an image relating to rendering includes rendering information based on forward rendering. 上記特定の領域は、複数の上記領域レンダリングサーバの処理により描画されることを特徴とする請求項1乃至請求項4のいずれか1項に記載の多コンテンツ描画システム。 5. The multi-content rendering system according to claim 1, wherein the specific area is rendered by processing of a plurality of area rendering servers. 複数のクライアント端末が接続する特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、
計算手段を用いてそれぞれの上記クライアント端末から登録されたキャラクタを含む上記コンテンツの描画に関する計算を行う計算工程と、
描画手段において上記コンテンツの位置及び視点に関する情報を取得する描画条件取得工程と、
上記描画手段から上記情報を上記計算手段に送信し、該計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程と、
上記レンダリングに関する像としての情報から上記コンテンツを含む上記特定の領域の描画結果を生成する描画工程
を有することを特徴とする多コンテンツ描画方法。
A multi-content rendering method for rendering a large number of various types of content existing in a specific area to which a plurality of client terminals are connected ,
a calculation step of performing calculations relating to drawing of the content including the character registered from each of the client terminals using a calculation means;
a drawing condition obtaining step of obtaining information about the position and viewpoint of the content in the drawing means;
a rendering information acquisition step of transmitting the information from the drawing means to the calculation means and receiving information as an image related to rendering from the calculation means;
A multi-contents drawing method, comprising: a drawing step of generating a drawing result of the specific area containing the content from information as an image regarding the rendering.
上記コンテンツは3Dモデルを含むことを特徴とする請求項6に記載の多コンテンツ描画方法。 7. The method of claim 6, wherein said content includes a 3D model. 上記レンダリングに関する像としての情報は遅延シェーディングに基づくG-bufferであることを特徴とする請求項6又は請求項7に記載の多コンテンツ描画方法。 8. The multi-contents rendering method according to claim 6, wherein the image information related to rendering is a G-buffer based on delayed shading. 上記レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むことを特徴とする請求項6又は請求項7に記載の多コンテンツ描画方法。 8. The multi-contents rendering method according to claim 6, wherein the image information regarding rendering includes rendering information based on forward rendering. 上記特定の領域を複数の上記描画手段により分割し、描画結果を生成する描画手段は、隣接する上記描画手段から、該描画手段が管理する領域の描画結果を取得することを特徴とする請求項6乃至請求項9のいずれか1項に記載の多コンテンツ描画方法。 3. The drawing means for dividing the specific area by a plurality of the drawing means and generating the drawing result acquires the drawing result of the area managed by the drawing means from the adjacent drawing means. The multiple content rendering method according to any one of claims 6 to 9. 請求項6乃至10の何れか1項に記載の多コンテンツ描画方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the multi-content drawing method according to any one of claims 6 to 10.
JP2018230300A 2018-12-07 2018-12-07 MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD Active JP7290852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018230300A JP7290852B2 (en) 2018-12-07 2018-12-07 MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018230300A JP7290852B2 (en) 2018-12-07 2018-12-07 MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD

Publications (2)

Publication Number Publication Date
JP2020091811A JP2020091811A (en) 2020-06-11
JP7290852B2 true JP7290852B2 (en) 2023-06-14

Family

ID=71012949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018230300A Active JP7290852B2 (en) 2018-12-07 2018-12-07 MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD

Country Status (1)

Country Link
JP (1) JP7290852B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102394158B1 (en) * 2020-12-17 2022-05-09 주식회사 컬러버스 A System and Method for Streaming Metaverse Space
JP7348943B2 (en) * 2021-12-22 2023-09-21 凸版印刷株式会社 Content management system, content management method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013099511A (en) 2011-11-07 2013-05-23 Square Enix Holdings Co Ltd Rendering system, rendering server, control method thereof, program, and recording medium
JP2016066149A (en) 2014-09-24 2016-04-28 株式会社コロプラ Display system, display method and program
JP2017531224A (en) 2014-09-16 2017-10-19 インテル・コーポレーション Coarse pixel delay shading

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013099511A (en) 2011-11-07 2013-05-23 Square Enix Holdings Co Ltd Rendering system, rendering server, control method thereof, program, and recording medium
JP2017531224A (en) 2014-09-16 2017-10-19 インテル・コーポレーション Coarse pixel delay shading
JP2016066149A (en) 2014-09-24 2016-04-28 株式会社コロプラ Display system, display method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今給黎 隆,GPUグラフィックスパイプラインでの粗片描画,情報処理学会 研究報告 コンピュータグラフィックスとビジュアル情報学(CG) 2018-CG-170 [online] ,日本,情報処理学会,p.1-4

Also Published As

Publication number Publication date
JP2020091811A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US11617947B2 (en) Video game overlay
CN112104593B (en) System and method for managing converged-reality scene events
CN112316424B (en) Game data processing method, device and storage medium
US9937423B2 (en) Voice overlay
CN102204207B (en) Virtual environment comprises web content
US9633379B1 (en) Qualified video delivery advertisement
JP2015215908A (en) Cloud-sourced video rendering system
CN103918012A (en) Rendering system, rendering server, control method thereof, program, and recording medium
JP7290852B2 (en) MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD
US20050253872A1 (en) Method and system for culling view dependent visual data streams for a virtual environment
US20230290043A1 (en) Picture generation method and apparatus, device, and medium
CN106780707A (en) The method and apparatus of global illumination in simulated scenario
CN111142967B (en) Augmented reality display method and device, electronic equipment and storage medium
CN115984449A (en) Illumination rendering method and device, electronic equipment and storage medium
Petit et al. A 3d data intensive tele-immersive grid
KR20180104915A (en) System for emboding animation in three dimensionsimagination space
CN113313796A (en) Scene generation method and device, computer equipment and storage medium
US8531453B2 (en) Augmenting virtual worlds simulation with enhanced assets
JP6054677B2 (en) Processing system, information processing apparatus, control method, program, and recording medium
CN113398577B (en) Multi-person AR interaction method and system for offline space
WO2023164244A1 (en) Methods and systems for facilitating the cooperation of large numbers of computing devices with particular application to maintaining, presenting and editing a shared 3-dimensional virtual space to multiple users
CN112316433A (en) Game picture rendering method, device, server and storage medium
WO2014108214A1 (en) Client-server system for a web-based furniture shop
CN117893659A (en) AR rendering method and device based on distributed computing and electronic equipment
Miyake et al. A Web page that provides map‐based interfaces for VRML/X3D content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230526

R150 Certificate of patent or registration of utility model

Ref document number: 7290852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150