JP6320488B1 - Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program - Google Patents

Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program Download PDF

Info

Publication number
JP6320488B1
JP6320488B1 JP2016217031A JP2016217031A JP6320488B1 JP 6320488 B1 JP6320488 B1 JP 6320488B1 JP 2016217031 A JP2016217031 A JP 2016217031A JP 2016217031 A JP2016217031 A JP 2016217031A JP 6320488 B1 JP6320488 B1 JP 6320488B1
Authority
JP
Japan
Prior art keywords
status
content
terminal device
objects
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016217031A
Other languages
Japanese (ja)
Other versions
JP2018077555A (en
Inventor
健司 蛭田
健司 蛭田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016217031A priority Critical patent/JP6320488B1/en
Priority to US15/699,106 priority patent/US20180126272A1/en
Application granted granted Critical
Publication of JP6320488B1 publication Critical patent/JP6320488B1/en
Publication of JP2018077555A publication Critical patent/JP2018077555A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/954Navigation, e.g. using categorised browsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/14Multichannel or multilink protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】コンテンツをレンダリングする処理負荷を分散することで遅延期間を抑制すること。【解決手段】ユーザの操作に基づく指示に基づいて、複数のオブジェクトのうち第1カテゴリに属するオブジェクトをレンダリングした第1コンテンツを生成する端末装置と、端末装置から受信した指示に基づいて、複数のオブジェクトのうち第2カテゴリに属するオブジェクトをレンダリングした第2コンテンツを生成し、生成した第2コンテンツを端末装置に送信するサーバ装置と、を備え、端末装置は、第1コンテンツと第2コンテンツとを合成してコンテンツを生成する、仮想現実提供システム。【選択図】図4A delay period is suppressed by distributing a processing load for rendering content. A terminal device that generates a first content in which an object belonging to a first category among a plurality of objects is rendered based on an instruction based on an operation by a user, and a plurality of objects based on an instruction received from the terminal device. A server device that generates second content obtained by rendering an object belonging to the second category among the objects, and transmits the generated second content to the terminal device. The terminal device includes the first content and the second content. A virtual reality system that synthesizes and generates content. [Selection] Figure 4

Description

本発明は、仮想現実提供システム、仮想現実提供方法、仮想現実提供支援装置、仮想現実提供装置、およびプログラムに関する。   The present invention relates to a virtual reality providing system, a virtual reality providing method, a virtual reality providing support device, a virtual reality providing device, and a program.

従来、ユーザの操作を受け付ける端末装置と、端末装置により受け付けた場合に、端末装置に画像を表示させるためのデータを提供するサーバ装置とを備えるゲームシステムが知られている(特許文献1参照)。これに関連して、ユーザの操作に応じてゲームを開始することに応じて、ゲーム用の第1のウェブページを端末装置においてレンダリングし、ユーザが利用する可能性の高いゲームにおいて提供される機能を決定し、ゲーム用の第1のウェブページが表示されている間に、決定された機能を提供するためのゲーム用の第2のウェブページを取得し、取得したゲーム用の第2のウェブページをキャッシュに格納し、決定された機能を利用する旨のユーザの指示に応じて、キャッシュに格納されたゲーム用の第2のウェブページを端末装置においてレンダリングする技術が知られている。   2. Description of the Related Art Conventionally, a game system including a terminal device that accepts a user operation and a server device that provides data for displaying an image on the terminal device when accepted by the terminal device is known (see Patent Document 1). . In this regard, a function provided in a game that is likely to be used by the user by rendering the first web page for the game on the terminal device in response to starting the game in response to the user's operation. While the first web page for the game is displayed, the second web page for the game for providing the determined function is obtained, and the second web page for the obtained game is acquired. A technique for rendering a second web page for a game stored in a cache in a terminal device in accordance with a user instruction to store the page in a cache and use a determined function is known.

国際公開第2014/065339号International Publication No. 2014/065339

しかしながら、上述したゲームシステムでは、画像のレンダリングを端末装置のみで行っており、端末装置において画像のレンダリングに割り当てる処理負荷が高くなってしまうという問題がある。また、上述したゲームシステムでは、決定された機能とは異なる機能が選択された場合には、機能が選択されてから画像のレンダリングが完了するまでの遅延期間が長くなる可能性がある。さらに、三次元画像をレンダリングしながら仮想現実を提供する場合、ユーザの入力から画像のレンダリングが完了するまでの遅延期間がさらに長くなる可能性がある。   However, in the above-described game system, image rendering is performed only by the terminal device, and there is a problem in that the processing load assigned to image rendering in the terminal device increases. Further, in the above-described game system, when a function different from the determined function is selected, there is a possibility that the delay period from when the function is selected to when rendering of the image is completed may be long. Furthermore, when providing virtual reality while rendering a three-dimensional image, there is a possibility that the delay period from the input of the user to the completion of rendering of the image becomes even longer.

本発明は、このような事情を考慮してなされたものであり、コンテンツをレンダリングする処理負荷を分散することで遅延期間を抑制することができる仮想現実提供システム、仮想現実提供方法、仮想現実提供支援装置、仮想現実提供装置、およびプログラムを提供することを目的の一つとする。   The present invention has been made in view of such circumstances, and a virtual reality providing system, a virtual reality providing method, and a virtual reality providing capable of suppressing a delay period by distributing a processing load for rendering content An object is to provide a support device, a virtual reality providing device, and a program.

本発明の一態様は、ユーザの操作に基づく指示に基づいて、複数のオブジェクトのうち第1カテゴリに属するオブジェクトをレンダリングした第1コンテンツを生成する端末装置と、前記端末装置から受信した前記指示に基づいて、前記複数のオブジェクトのうち第2カテゴリに属するオブジェクトをレンダリングした第2コンテンツを生成し、生成した前記第2コンテンツを前記端末装置に送信するサーバ装置と、を備え、前記端末装置は、前記第1コンテンツと前記第2コンテンツとを合成してコンテンツを生成する、仮想現実提供システムである。   According to one aspect of the present invention, a terminal device that generates first content in which an object belonging to a first category among a plurality of objects is rendered based on an instruction based on a user operation, and the instruction received from the terminal apparatus. A server device that generates second content obtained by rendering an object belonging to a second category among the plurality of objects, and transmits the generated second content to the terminal device, the terminal device comprising: The virtual reality providing system generates a content by synthesizing the first content and the second content.

本発明の一態様によれば、コンテンツをレンダリングする処理負荷を分散することで遅延期間を抑制することができる。   According to one aspect of the present invention, the delay period can be suppressed by distributing the processing load for rendering content.

実施形態のゲームシステム1の構成図である。It is a lineblock diagram of game system 1 of an embodiment. 実施形態のゲームシステム1における役割分担を模式的に示す図である。It is a figure showing typically role assignment in game system 1 of an embodiment. 端末装置100により提示させるコンテンツ300の一例を示すである。It is an example of the content 300 presented by the terminal device 100. ゲームシステム1における分散処理を説明するための図である。It is a figure for demonstrating the distributed process in the game system. 端末装置100およびゲームサーバ装置200の機能構成の一例を示すブロック図である。3 is a block diagram illustrating an example of functional configurations of a terminal device 100 and a game server device 200. FIG. ゲームシステム1における分散処理の流れを示すフローチャートである。4 is a flowchart showing a flow of distributed processing in the game system 1. 端末装置100、およびゲームサーバ装置200のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the terminal device 100 and the game server apparatus 200.

以下、図面を参照し、本発明の仮想現実提供システム、仮想現実提供方法、仮想現実提供支援装置、仮想現実提供装置、およびプログラムの実施形態について説明する。   Hereinafter, embodiments of a virtual reality providing system, a virtual reality providing method, a virtual reality providing support device, a virtual reality providing device, and a program according to the present invention will be described with reference to the drawings.

<実施形態の概要>
実施形態のゲームシステムは、例えば、クラウドゲームサービスを提供するものである。クラウドゲームサービスは、端末装置によりユーザの操作を受け付けた場合に、当該ユーザの操作に基づく指示を、ネットワークを介してゲームサーバ装置に送信し、ゲームサーバ装置から画像などのゲームコンテンツを、ネットワークを介して端末装置に送信することで、端末装置に画像などのゲームコンテンツを提供するサービスである。実施形態のゲームシステムは、端末装置により、ゲームにおいて登場する複数のオブジェクトのうち第1のカテゴリに属するオブジェクトをレンダリングした第1コンテンツとして、第1画像データを生成する。一方、実施形態のゲームシステムは、ゲームサーバ装置により、複数のオブジェクトのうち第2カテゴリに属するオブジェクトをレンダリングした第2コンテンツとして、第2画像データを生成し、生成した第2画像データを端末装置に送信する。端末装置は、生成した第1画像データと、受信した第2画像データとを合成することで、ゲームコンテンツを表示する。
<Outline of Embodiment>
The game system of the embodiment provides, for example, a cloud game service. When the cloud game service receives a user operation from the terminal device, the cloud game service transmits an instruction based on the user operation to the game server device via the network, and the game content such as an image is transmitted from the game server device to the network. This is a service that provides game content such as images to the terminal device by transmitting to the terminal device. The game system according to the embodiment generates first image data as first content obtained by rendering an object belonging to a first category among a plurality of objects appearing in a game by a terminal device. On the other hand, in the game system of the embodiment, the game server device generates second image data as second content obtained by rendering an object belonging to the second category among a plurality of objects, and the generated second image data is used as the terminal device. Send to. The terminal device displays the game content by synthesizing the generated first image data and the received second image data.

本発明の仮想現実提供システムは、ユーザの五感を刺激する仮想現実を提供するものであればよく、クラウドゲームサービスに代えて、例えば、シミュレータサービスに関する画像などを提供してもよい。シミュレータサービスは、例えば、自動車を運転する仮想現実を提供する。具体的には、シミュレータサービスは、端末装置により自動車のハンドル操作を受け付けた場合に、当該ハンドル操作に基づく指示を、ネットワークを介してシミュレータサーバ装置に送信し、シミュレータサーバ装置から画像などのコンテンツを、ネットワークを介して端末装置に送信することで、端末装置に画像などのシミュレータに関するコンテンツを提供するサービスである。   The virtual reality providing system of the present invention only needs to provide a virtual reality that stimulates the user's five senses. For example, an image relating to a simulator service may be provided instead of the cloud game service. The simulator service provides, for example, virtual reality for driving a car. Specifically, when the simulator service receives a steering wheel operation of the automobile by the terminal device, the simulator service transmits an instruction based on the steering wheel operation to the simulator server device via the network, and the content such as an image from the simulator server device. This is a service that provides content related to a simulator such as an image to the terminal device by being transmitted to the terminal device via the network.

第1カテゴリに属するオブジェクトであるか、第2カテゴリに属するオブジェクトであるかは、ゲームシステムにおいて予め設定されたルールにより随時決定される。予め設定されたルールとは、例えば、ゲーム(仮想現実)内における視点から所定距離以内に存在するオブジェクトが第1カテゴリに属するオブジェクトであり、あるオブジェクトから所定距離より遠い位置に存在するオブジェクトが第2カテゴリに属するオブジェクトである、と設定されるルールである。例えば、「あるオブジェクト」がプレイヤーの操作に応じて位置および姿勢が更新されるキャラクタである場合、キャラクタから所定距離内のオブジェクトが第1カテゴリに属するオブジェクトとして決定され、キャラクタから所定距離より遠いオブジェクトが第2カテゴリに属するオブジェクトとして決定される。なお、第1カテゴリに属するオブジェクトであるか、第2カテゴリに属するオブジェクトであるかは、ゲームシステムにおいて予め設定されていてもよい。   Whether the object belongs to the first category or the second category is determined at any time according to a rule set in advance in the game system. The preset rule is, for example, that an object that exists within a predetermined distance from the viewpoint in the game (virtual reality) belongs to the first category, and an object that exists at a position farther than the predetermined distance from a certain object It is a rule set to be an object belonging to two categories. For example, when the “certain object” is a character whose position and posture are updated according to the player's operation, an object within a predetermined distance from the character is determined as an object belonging to the first category, and an object far from the character is a predetermined distance. Are determined as objects belonging to the second category. Note that whether the object belongs to the first category or the second category may be set in advance in the game system.

見方を変えると、第1カテゴリに属するオブジェクトは、複数のオブジェクトのうち短周期でレンダリングされるオブジェクトであってよく、この場合、第2カテゴリに属するオブジェクトは、複数のオブジェクトのうち長周期でレンダリングされるオブジェクトである。   In other words, an object belonging to the first category may be an object that is rendered in a short cycle among a plurality of objects. In this case, an object belonging to the second category is rendered in a long cycle among a plurality of objects. Object

更に別の見方では、第1カテゴリに属するオブジェクトは、複数のオブジェクトのうちユーザの操作に基づく指示に対してステータスが変化するオブジェクトであってよく、この場合、第2カテゴリに属するオブジェクトは、複数のオブジェクトのうち指示に対してステータスが変化しないオブジェクトである。   From another viewpoint, the object belonging to the first category may be an object whose status changes in response to an instruction based on the user's operation among the plurality of objects. In this case, the object belonging to the second category includes a plurality of objects. Among these objects, the status does not change in response to the instruction.

なお、以下の実施形態において、第1カテゴリに属するオブジェクトを、近景に属するオブジェクト(以下、近景オブジェクト)であるものとし、第2カテゴリに属するオブジェクトを、遠景に属するオブジェクト(以下、遠景オブジェクト)であるものとして説明する。   In the following embodiments, an object belonging to the first category is an object belonging to the foreground (hereinafter referred to as a foreground object), and an object belonging to the second category is referred to as an object belonging to the distant view (hereinafter referred to as a distant view object). It will be explained as being.

<ゲームシステム1の構成>
図1は、実施形態のゲームシステム1の構成図である。図2は、実施形態のゲームシステム1における役割分担を模式的に示す図である。ゲームシステム1は、例えば、複数のユーザが参加してゲームを進行させるクラウドゲームサービスを提供する。ゲームシステム1は、図1に示すように、例えば、複数の端末装置100−1、・・・、100−Nと、ゲームサーバ装置200と、を備える。Nは2以上の自然数である。なお、以下の説明において、端末装置を他の端末装置と区別しない場合には、「端末装置100」と記載する。
<Configuration of game system 1>
FIG. 1 is a configuration diagram of a game system 1 according to the embodiment. FIG. 2 is a diagram schematically illustrating the division of roles in the game system 1 of the embodiment. The game system 1 provides, for example, a cloud game service in which a plurality of users participate to advance a game. As shown in FIG. 1, the game system 1 includes, for example, a plurality of terminal devices 100-1 to 100 -N and a game server device 200. N is a natural number of 2 or more. In the following description, the terminal device is described as “terminal device 100” when it is not distinguished from other terminal devices.

複数の端末装置100とゲームサーバ装置200とは、ネットワークNWを介して接続されている。ネットワークNWは、例えば、無線基地局、Wi−Fiアクセスポイント、通信回線、プロバイダ、インターネットなどを含む。なお、これらの構成要素の全ての組み合わせが相互に通信可能である必要はなく、ネットワークNWは、一部にローカルなネットワークを含んでもよい。   The plurality of terminal devices 100 and the game server device 200 are connected via a network NW. The network NW includes, for example, a wireless base station, a Wi-Fi access point, a communication line, a provider, the Internet, and the like. Note that it is not necessary for all combinations of these components to be able to communicate with each other, and the network NW may partially include a local network.

端末装置100は、ユーザ(一般利用者)によって使用される装置である。端末装置100は、例えば、スマートフォンなどの携帯電話、タブレット端末、パーソナルコンピュータなどのコンピュータ装置(通信装置)である。端末装置100には、図2に示すように、ゲームプログラム100aがインストールされている。ゲームプログラム100aは、例えば端末装置100内のCPU(Central Processing Unit)により実行される。   The terminal device 100 is a device used by a user (general user). The terminal device 100 is a computer device (communication device) such as a mobile phone such as a smartphone, a tablet terminal, or a personal computer, for example. As shown in FIG. 2, a game program 100a is installed in the terminal device 100. The game program 100a is executed by a CPU (Central Processing Unit) in the terminal device 100, for example.

ゲームプログラム100aは、ユーザを操作の受け付け、受け付けた操作に対応した指示に基づいて、アクション処理、訂正処理、近景レンダリング処理、合成処理、および表示処理などを行う。さらに、ゲームプログラム100aは、受け付けた操作に対応した指示を表す情報を、ゲームサーバ装置200に送信する。アクション処理は、指示に基づいてオブジェクトの姿勢および位置(以下、ステータス)を演算する処理である。訂正処理は、アクション処理により演算したステータス(処理結果)を、ゲームサーバ装置200から受信したステータスに訂正する処理である。近景レンダリング処理は、近景オブジェクトをレンダリングする処理である。合成処理は、レンダリングされた画像(以下、近景レンダリング画像)と、ゲームサーバ装置200から受信した画像とを合成する処理である。表示処理は、合成された画像(以下、合成画像)を表示させる処理である。なお、ゲームプログラム100aは、上記の処理に加えて、音声を出力する処理や、ユーザが把持する操作デバイスを振動させる処理などを実行してもよい。   The game program 100a accepts an operation by the user, and performs an action process, a correction process, a foreground rendering process, a composition process, a display process, and the like based on an instruction corresponding to the accepted operation. Furthermore, the game program 100a transmits information representing an instruction corresponding to the accepted operation to the game server device 200. The action process is a process for calculating the posture and position (hereinafter, status) of an object based on an instruction. The correction process is a process of correcting the status (processing result) calculated by the action process to the status received from the game server device 200. The foreground rendering process is a process for rendering a foreground object. The combining process is a process of combining the rendered image (hereinafter, foreground rendering image) and the image received from the game server device 200. The display process is a process for displaying a synthesized image (hereinafter, a synthesized image). Note that the game program 100a may execute, in addition to the above processing, processing for outputting sound, processing for vibrating an operation device held by the user, and the like.

ゲームサーバ装置200には、ゲーム制御プログラム200aがインストールされている。ゲーム制御プログラム200aは、例えばゲームサーバ装置200内のCPUにより実行される。ゲーム制御プログラム200aは、ゲーム進行処理、アクション処理、遠景レンダリング処理、送信処理などを行う。ゲーム進行処理は、ゲームの全体的な制御を行う処理である。アクション処理は、ゲームにおいて登場する全てのオブジェクトの姿勢および位置(ステータス)を演算する処理である。このアクション処理は、各オブジェクトに対する指示に基づく姿勢および位置の変化に加えて、オブジェクト同士の衝突などオブジェクト間の影響を含めた姿勢および位置の変化を演算する。訂正処理は、端末装置100により演算されたステータスが、ゲーム制御プログラム200aにより演算されたステータスと異なる場合に、ゲーム制御プログラム200aにより演算されたステータス(処理結果)を端末装置100に送信する処理である。遠景レンダリング処理は、遠景オブジェクトをレンダリングする処理である。送信処理は、レンダリングされた画像(以下、遠景レンダリング画像)を端末装置100に送信する処理である。   A game control program 200 a is installed in the game server device 200. The game control program 200a is executed by the CPU in the game server device 200, for example. The game control program 200a performs game progress processing, action processing, distant view rendering processing, transmission processing, and the like. The game progress process is a process for performing overall control of the game. The action process is a process for calculating the postures and positions (status) of all objects appearing in the game. In this action process, in addition to changes in posture and position based on instructions for each object, changes in posture and position including effects between objects such as collision between objects are calculated. The correction process is a process of transmitting the status (processing result) calculated by the game control program 200a to the terminal device 100 when the status calculated by the terminal device 100 is different from the status calculated by the game control program 200a. is there. The distant view rendering process is a process of rendering a distant view object. The transmission process is a process of transmitting a rendered image (hereinafter, a distant view rendered image) to the terminal device 100.

端末装置100は、オブジェクトデータ、およびステータスを記憶する端末側記憶部100bを備える。ゲームサーバ装置200は、オブジェクトデータ、およびステータスを記憶するサーバ側記憶部200bを備える。端末側記憶部100bおよびサーバ側記憶部200bは、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)、或いはこれらを複数用いたハイブリッド型記憶装置により実現される。また、端末側記憶部100bおよびサーバ側記憶部200bは、ファームウェアやアプリケーションプログラム等の各種プログラムや、オブジェクトデータやステータスデータ、処理結果などが記憶される。なお、端末側記憶部100bおよびサーバ側記憶部200bの一部または全部は、各種ネットワークを介してアクセス可能な外部記憶装置によって実現されてもよい。外部記憶装置の一例として、NAS(Network Attached Storage)装置が挙げられる。   The terminal device 100 includes a terminal-side storage unit 100b that stores object data and status. The game server device 200 includes a server-side storage unit 200b that stores object data and status. The terminal-side storage unit 100b and the server-side storage unit 200b include, for example, an HDD (Hard Disk Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), or a RAM (Random Access Memory), Alternatively, it is realized by a hybrid storage device using a plurality of these. The terminal-side storage unit 100b and the server-side storage unit 200b store various programs such as firmware and application programs, object data, status data, processing results, and the like. Part or all of the terminal-side storage unit 100b and the server-side storage unit 200b may be realized by an external storage device that can be accessed via various networks. An example of the external storage device is a NAS (Network Attached Storage) device.

オブジェクトデータは、オブジェクトの形状、色などのオブジェクトの静的な性質を表すデータである。ステータスは、オブジェクトの位置、姿勢などの、指示などに基づいて動的に変化するオブジェクトの性質を表すデータである。端末側記憶部100bに記憶されているオブジェクトデータ、およびステータスと、サーバ側記憶部200bに記憶されているオブジェクトデータ、およびステータスとは、ゲーム進行中において同期されている。本実施形態において、端末側記憶部100bに格納されているステータスは、ゲームサーバ装置200により演算されたステータスにより訂正される。   The object data is data representing static properties of the object such as the shape and color of the object. The status is data representing the nature of an object that dynamically changes based on an instruction or the like such as the position and orientation of the object. The object data and status stored in the terminal-side storage unit 100b are synchronized with the object data and status stored in the server-side storage unit 200b while the game is in progress. In the present embodiment, the status stored in the terminal-side storage unit 100b is corrected by the status calculated by the game server device 200.

<オブジェクトのカテゴリ>
図3は、端末装置100により提示させるコンテンツ300の一例を示すである。図3のコンテンツ300には、キャラクタオブジェクト310、背景オブジェクト321、322、323、および324が含まれている。キャラクタオブジェクト310は、人物であり、ユーザ(プレイヤー)の操作に応じて位置および姿勢が更新されるオブジェクト(キャラクタ)である。背景オブジェクト321は、複数のオブジェクトのうち、背景に分類されたオブジェクトである。背景オブジェクト321は、例えば、所定の視点を基準として、キャラクタオブジェクト310よりも遠方に位置する木を表すオブジェクトである。背景オブジェクト322は道を表すオブジェクトである。背景オブジェクト323および324は、所定の視点を基準として、キャラクタオブジェクト310よりも近方に位置する木を表すオブジェクトである。本実施形態において、キャラクタオブジェクト310は近景オブジェクトの一例であり、背景オブジェクト321〜324は遠景オブジェクトの一例である。なお、遠景オブジェクトは、背景オブジェクト321〜324の他に、背景オブジェクト321〜324の背景など、キャラクタオブジェクト310の周囲を360度の範囲で覆うコンテンツを含む。
<Object category>
FIG. 3 shows an example of content 300 presented by the terminal device 100. The content 300 in FIG. 3 includes a character object 310 and background objects 321, 322, 323, and 324. The character object 310 is a person, and is an object (character) whose position and posture are updated according to the operation of the user (player). The background object 321 is an object classified as a background among a plurality of objects. The background object 321 is, for example, an object representing a tree located farther from the character object 310 with a predetermined viewpoint as a reference. The background object 322 is an object representing a road. The background objects 323 and 324 are objects representing trees that are located closer to the character object 310 with a predetermined viewpoint as a reference. In the present embodiment, the character object 310 is an example of a foreground object, and the background objects 321 to 324 are examples of a distant object. The distant view object includes content that covers the surroundings of the character object 310 within a range of 360 degrees, such as the background of the background objects 321 to 324 in addition to the background objects 321 to 324.

キャラクタオブジェクト310は、端末装置100においてレンダリングされるオブジェクトの一例である。キャラクタオブジェクト310は、複数のオブジェクトのうち短周期でレンダリングされるオブジェクトと読み替えることができる。背景オブジェクト321〜324は、ゲームサーバ装置200においてレンダリングされるオブジェクトの一例である。背景オブジェクト321〜324は、複数のオブジェクトのうち長周期でレンダリングされるオブジェクトと読み替えることもできる。   The character object 310 is an example of an object rendered on the terminal device 100. The character object 310 can be read as an object rendered in a short cycle among a plurality of objects. The background objects 321 to 324 are examples of objects that are rendered in the game server device 200. The background objects 321 to 324 can be read as objects that are rendered in a long cycle among a plurality of objects.

キャラクタオブジェクト310は、ユーザの操作に基づく指示に応じて姿勢および位置などのステータスが変化されるオブジェクトの一例である。キャラクタオブジェクト310は、複数のオブジェクトのうちユーザの操作に基づく指示に対してステータスが変化するオブジェクトと読み替えることができる。背景オブジェクト321〜324は、ユーザの操作に基づく指示に応じて姿勢および位置などのステータスが変化しないオブジェクトの一例である。背景オブジェクト321〜324は、複数のオブジェクトのうち指示に対してステータスが変化しないオブジェクトと読み替えることもできる。   The character object 310 is an example of an object whose status such as posture and position is changed according to an instruction based on a user operation. The character object 310 can be read as an object whose status changes in response to an instruction based on a user operation among a plurality of objects. The background objects 321 to 324 are examples of objects whose statuses such as posture and position do not change according to an instruction based on a user operation. The background objects 321 to 324 can be read as objects whose status does not change in response to an instruction among a plurality of objects.

なお、第1カテゴリに属するオブジェクトは、ゲーム内におけるキャラクタに属するオブジェクトであり、第2カテゴリに属するオブジェクトは、ゲーム内における背景に属するオブジェクトであると読み替えることもできる。   Note that an object belonging to the first category can be read as an object belonging to a character in the game, and an object belonging to the second category can be read as an object belonging to the background in the game.

<分散処理>
図4は、ゲームシステム1における分散処理を説明するための図である。端末装置100は、ユーザの操作を受け付けたことに応じて、コンテンツ300に含まれるオブジェクトのうち近景オブジェクトについてレンダリング処理を行うことで、近景レンダリング画像400aを生成する。また、端末装置100は、近景レンダリング画像400aと他の画像データとの合成を補助するための第1合成用データを生成する。第1合成用データには、例えば、近景奥行き情報400bおよび近景透明度情報400cが含まれる。近景奥行き情報400bは、近景レンダリング画像400aに含まれている画素ごとの所定の視点からの距離を表す情報である。近景奥行き情報400bは、例えばZ値とも称される。近景透明度情報400cは、近景レンダリング画像400aに含まれている画素ごとの所定の視点からの透明度合いを表す情報である。近景透明度情報400cは、例えばα値とも称される。
<Distributed processing>
FIG. 4 is a diagram for explaining distributed processing in the game system 1. The terminal device 100 generates a foreground rendered image 400a by performing a rendering process on the foreground object among the objects included in the content 300 in response to accepting a user operation. In addition, the terminal device 100 generates first composition data for assisting composition of the foreground rendering image 400a and other image data. The first composition data includes, for example, foreground depth information 400b and foreground transparency information 400c. The foreground depth information 400b is information representing the distance from a predetermined viewpoint for each pixel included in the foreground rendering image 400a. The foreground depth information 400b is also referred to as a Z value, for example. The foreground transparency information 400c is information representing the degree of transparency from a predetermined viewpoint for each pixel included in the foreground rendering image 400a. The foreground transparency information 400c is also referred to as an α value, for example.

ゲームサーバ装置200は、端末装置100から受信したユーザの指示に基づいて、コンテンツ300に含まれるオブジェクトのうち遠景オブジェクトについてレンダリング処理を行うことで、遠景レンダリング画像410aを生成する。また、ゲームサーバ装置200は、遠景レンダリング画像410aと他の画像データとの合成を補助するための第2合成用データを生成する。第2合成用データには、例えば、遠景奥行き情報410bおよび遠景透明度情報410cが含まれる。遠景奥行き情報410bは、遠景レンダリング画像410aに含まれている画素ごとの所定の視点からの距離を表す情報である。遠景奥行き情報410bは、例えばZ値とも称される。遠景透明度情報410cは、遠景レンダリング画像410aに含まれている画素ごとの所定の視点からの透明度合いを表す情報である。遠景透明度情報410cは、例えばα値とも称される。ゲームサーバ装置200は、遠景レンダリング画像410a、遠景奥行き情報410b、および遠景透明度情報410cを端末装置100に送信する。   Based on the user instruction received from the terminal device 100, the game server device 200 performs a rendering process on a distant view object among the objects included in the content 300, thereby generating a distant view rendered image 410a. In addition, the game server device 200 generates second composition data for assisting composition of the distant view rendered image 410a and other image data. The second composition data includes, for example, distant view depth information 410b and distant view transparency information 410c. The distant view depth information 410b is information representing a distance from a predetermined viewpoint for each pixel included in the distant view rendered image 410a. The distant view depth information 410b is also referred to as a Z value, for example. The distant view transparency information 410c is information representing the degree of transparency from a predetermined viewpoint for each pixel included in the distant view rendered image 410a. The distant view transparency information 410c is also referred to as an α value, for example. The game server device 200 transmits the distant view rendered image 410a, the distant view depth information 410b, and the distant view transparency information 410c to the terminal device 100.

端末装置100は、ゲームサーバ装置200から遠景レンダリング画像410a、遠景奥行き情報410b、および遠景透明度情報410cを受信したことに応じて合成処理を行う。端末装置100は、近景奥行き情報400b、近景透明度情報400c、遠景奥行き情報410b、および遠景透明度情報410cに基づいて、所定の視点を基準とした各オブジェクトの奥行きおよび透明度を考慮して、近景レンダリング画像400aと遠景レンダリング画像410aとを合成する。これにより、端末装置100は、近景オブジェクトと遠景オブジェクトとを含む合成画像420を生成する。   The terminal device 100 performs a composition process in response to the reception of the distant view rendering image 410a, the distant view depth information 410b, and the distant view transparency information 410c from the game server device 200. The terminal device 100 considers the depth and transparency of each object based on a predetermined viewpoint based on the foreground depth information 400b, the foreground transparency information 400c, the distant view depth information 410b, and the distant view transparency information 410c. 400a and the distant view rendered image 410a are combined. As a result, the terminal device 100 generates a composite image 420 including the foreground object and the foreground object.

端末装置100は、例えば、コンテンツ300を表示する処理周期ごとに合成処理を行う。処理周期は、例えば、1/60秒であるが、1/30秒などの任意の周期であってもよい。また、端末装置100の処理周期とゲームサーバ装置200とで処理周期とは異なっていてもよい。端末装置100は、ゲームサーバ装置200から処理周期を識別する情報を取得することで、処理周期が同じ近景レンダリング画像400aと遠景レンダリング画像410aとを合成する。   For example, the terminal device 100 performs a composition process for each processing cycle in which the content 300 is displayed. The processing period is, for example, 1/60 seconds, but may be any period such as 1/30 seconds. Further, the processing cycle of the terminal device 100 and the processing cycle of the game server device 200 may be different. The terminal device 100 acquires information for identifying the processing cycle from the game server device 200, thereby synthesizing the foreground rendering image 400a and the distant view rendering image 410a having the same processing cycle.

<分散処理の切替>
端末装置100およびゲームサーバ装置200のそれぞれは、自身がレンダリングするオブジェクトを、予め設定されたルールにより随時決定する。これにより、端末装置100およびゲームサーバ装置200のそれぞれは、分散処理によりレンダリングを行うオブジェクトを切り替える。
<Switching distributed processing>
Each of the terminal device 100 and the game server device 200 determines an object to be rendered at any time according to a preset rule. Thereby, each of the terminal device 100 and the game server device 200 switches an object to be rendered by distributed processing.

<ゲームシステム1の機能>
図5は、端末装置100およびゲームサーバ装置200の機能構成の一例を示すブロック図である。端末装置100は、例えば、端末側通信部110と、表示デバイス120と、表示制御部130と、操作受付部140と、端末側アクション処理部150と、端末側記憶部100bとを備える。
<Functions of game system 1>
FIG. 5 is a block diagram illustrating an example of functional configurations of the terminal device 100 and the game server device 200. The terminal device 100 includes, for example, a terminal-side communication unit 110, a display device 120, a display control unit 130, an operation reception unit 140, a terminal-side action processing unit 150, and a terminal-side storage unit 100b.

端末側通信部110は、NIC(Network Interface Card)や無線通信モジュールなどの通信インターフェースである。表示デバイス120は、例えば、タッチパネルを内蔵した液晶ディスプレイである。表示制御部130、操作受付部140、および端末側アクション処理部150は、例えば、CPUやGPU(Graphics Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。   The terminal-side communication unit 110 is a communication interface such as a NIC (Network Interface Card) or a wireless communication module. The display device 120 is a liquid crystal display with a built-in touch panel, for example. The display control unit 130, the operation reception unit 140, and the terminal-side action processing unit 150 are realized, for example, when a processor such as a CPU or a GPU (Graphics Processing Unit) executes a program stored in a program memory. Some or all of these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). It may be realized by cooperation of software and hardware.

表示制御部130は、操作受付部140により受け付けられたユーザの操作、および端末側通信部110により受信した情報に基づいて近景レンダリング処理を行う。操作受付部140は、表示デバイス120に対する操作を受け付け、ユーザの操作情報を生成する。端末側アクション処理部150は、操作受付部140により生成された操作情報に基づいてアクション処理を行う。端末側アクション処理部150は、アクション処理を行った結果としてのオブジェクトのステータスを演算して、端末側記憶部100bに記憶されたステータスを更新する。なお、表示制御部130におけるレンダリング処理には、予め設定されたルールにより随時レンダリングを行うオブジェクトを決定する処理が含まれる。   The display control unit 130 performs a foreground rendering process based on the user operation received by the operation receiving unit 140 and the information received by the terminal-side communication unit 110. The operation reception unit 140 receives an operation on the display device 120 and generates user operation information. The terminal-side action processing unit 150 performs action processing based on the operation information generated by the operation receiving unit 140. The terminal-side action processing unit 150 calculates the status of the object as a result of performing the action process, and updates the status stored in the terminal-side storage unit 100b. The rendering process in the display control unit 130 includes a process for determining an object to be rendered as needed according to a preset rule.

ゲームサーバ装置200は、例えば、サーバ側通信部210と、ゲーム進行制御部220と、アクション処理部230と、レンダリング処理部240と、サーバ側記憶部200bとを備える。ゲーム進行制御部220、アクション処理部230、およびレンダリング処理部240は、例えば、CPUやGPU等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、これらの機能部のうち一部または全部は、LSI、ASIC、またはFPGA等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。さらに、ゲームサーバ装置200は、ゲーム進行制御部220、アクション処理部230、およびレンダリング処理部240のうち一部の機能が他のサーバ装置に実装され、当該他のサーバ装置と協同しながら処理を行ってもよい。   The game server device 200 includes, for example, a server-side communication unit 210, a game progress control unit 220, an action processing unit 230, a rendering processing unit 240, and a server-side storage unit 200b. The game progress control unit 220, the action processing unit 230, and the rendering processing unit 240 are realized, for example, when a processor such as a CPU or GPU executes a program stored in a program memory. Some or all of these functional units may be realized by hardware such as LSI, ASIC, or FPGA, or may be realized by cooperation of software and hardware. Furthermore, the game server device 200 has some functions of the game progress control unit 220, the action processing unit 230, and the rendering processing unit 240 mounted on another server device, and performs processing while cooperating with the other server device. You may go.

サーバ側通信部210は、NICや無線通信モジュールなどの通信インターフェースである。ゲーム進行制御部220は、ゲーム進行処理を行う。アクション処理部230は、アクション処理を行う。レンダリング処理部240は、遠景レンダリング処理を行う。なお、レンダリング処理部240におけるレンダリング処理には、予め設定されたルールにより随時レンダリングを行うオブジェクトを決定する処理が含まれる。   The server side communication unit 210 is a communication interface such as a NIC or a wireless communication module. The game progress control unit 220 performs a game progress process. The action processing unit 230 performs action processing. The rendering processing unit 240 performs distant view rendering processing. Note that the rendering processing in the rendering processing unit 240 includes processing for determining an object to be rendered at any time according to a preset rule.

<分散処理の流れ>
図6は、ゲームシステム1における分散処理の流れを示すフローチャートである。端末装置100およびゲームサーバ装置200は、以下に説明する処理を繰り返して行う。まず、端末装置100は、ユーザの操作を受け付けたか否かを判定する(S100)。端末装置100は、ユーザの操作を受け付けていない場合、本フローチャートの処理を終了する。端末装置100は、ユーザの操作を受け付けた場合、受け付けた操作に基づいてアクション処理を行う(S102)。次に、端末装置100は、受け付けた操作を表す操作情報、およびアクション処理の処理結果としてのステータスをゲームサーバ装置200に送信する。
<Flow of distributed processing>
FIG. 6 is a flowchart showing the flow of distributed processing in the game system 1. The terminal device 100 and the game server device 200 repeatedly perform the processes described below. First, the terminal device 100 determines whether or not a user operation has been accepted (S100). If the terminal device 100 has not received a user operation, the terminal device 100 ends the processing of this flowchart. When the terminal device 100 receives a user operation, the terminal device 100 performs an action process based on the received operation (S102). Next, the terminal device 100 transmits operation information indicating the received operation and a status as a processing result of the action processing to the game server device 200.

ゲームサーバ装置200は、端末装置100から操作情報およびステータスを受信したことに応じ(S200)、遠景オブジェクトをレンダリングするレンダリング処理を行う(S202)。ゲームサーバ装置200は、遠景レンダリング画像を端末装置100に送信する(S204)。   In response to receiving the operation information and the status from the terminal device 100 (S200), the game server device 200 performs a rendering process for rendering a distant view object (S202). The game server device 200 transmits the distant view rendering image to the terminal device 100 (S204).

ゲームサーバ装置200は、端末装置100から操作情報およびステータスを受信したことに応じ(S200)、S202およびS204の処理と並行して、受信した操作情報に基づいてアクション処理を行う(S206)。ゲームサーバ装置200は、受信したステータスと、アクション処理を行った結果としてのステータスとが相違しているか否かを判定する(S208)。ゲームサーバ装置200は、受信したステータスとアクション処理を行った結果としてのステータスとが相違していない場合、本フローチャートの処理を終了する。ゲームサーバ装置200は、受信したステータスとアクション処理を行った結果としてのステータスとが相違している場合、アクション処理を行った結果としてのステータスを端末装置100に送信する(S210)。   In response to receiving the operation information and status from the terminal device 100 (S200), the game server device 200 performs action processing based on the received operation information in parallel with the processing of S202 and S204 (S206). The game server device 200 determines whether or not the received status is different from the status as a result of performing the action process (S208). If the received status does not differ from the status as a result of performing the action process, the game server device 200 ends the process of this flowchart. If the received status is different from the status as a result of the action processing, the game server device 200 transmits the status as the result of the action processing to the terminal device 100 (S210).

例えば、複数のユーザがゲームに参加している場合において、端末装置100−1に対応するユーザにより操作された近景オブジェクト(1)と、端末装置100−Nに対応するユーザにより操作された近景オブジェクト(N)とがゲーム内において衝突する場合がある。この場合、ゲームサーバ装置200は、アクション処理において近景オブジェクト同士が衝突したことを判定し、衝突したことに対する所定のアクション処理を行う。所定のアクション処理は、例えば、近景オブジェクト同士が衝突位置から吹き飛ばされるように位置(ステータス)を変化させるイベントを発生させる処理である。ゲームサーバ装置200は、変化された位置を表す近景オブジェクト(1)のステータスを端末装置100−1に送信すると共に、変化された位置を表す近景オブジェクト(N)のステータスを端末装置100−Nに送信する。   For example, when a plurality of users are participating in a game, the foreground object (1) operated by the user corresponding to the terminal device 100-1 and the foreground object operated by the user corresponding to the terminal device 100-N (N) may collide with each other in the game. In this case, the game server apparatus 200 determines that the foreground objects have collided in the action process, and performs a predetermined action process for the collision. The predetermined action process is, for example, a process of generating an event that changes the position (status) so that the foreground objects are blown away from the collision position. The game server device 200 transmits the status of the foreground object (1) representing the changed position to the terminal device 100-1, and transmits the status of the foreground object (N) representing the changed position to the terminal device 100-N. Send.

S104の後、端末装置100は、近景オブジェクトをレンダリングするレンダリング処理を行う(S106)。次に端末装置100は、S106においてレンダリングした近景レンダリング画像と、遠景レンダリング画像とを合成する合成処理を行う(S108)。端末装置100は、ゲームサーバ装置200から受信した遠景レンダリング画像のうち最新の遠景レンダリング画像を用いて合成処理を行う。次に、端末装置100は、合成処理の結果としてのコンテンツ300を表示デバイス120に表示させる(S110)。   After S104, the terminal device 100 performs a rendering process for rendering the foreground object (S106). Next, the terminal device 100 performs a synthesis process for synthesizing the foreground rendering image rendered in S106 and the distant view rendering image (S108). The terminal device 100 performs a composition process using the latest distant view rendering image among the distant view rendering images received from the game server device 200. Next, the terminal device 100 displays the content 300 as a result of the composition process on the display device 120 (S110).

次に、端末装置100は、ゲームサーバ装置200から近景オブジェクトのステータスを受信したか否かを判定する(S112)。端末装置100は、近景オブジェクトのステータスを受信していない場合には、本フローチャートの処理を終了する。端末装置100は、近景オブジェクトのステータスを受信している場合、端末側記憶部100bに記憶されたステータスを、ゲームサーバ装置200から受信したステータスに上書きすることで、近景オブジェクトのステータスを訂正する(S114)。   Next, the terminal device 100 determines whether or not the status of the foreground object has been received from the game server device 200 (S112). If the terminal device 100 has not received the status of the foreground object, the terminal device 100 ends the processing of this flowchart. When receiving the status of the foreground object, the terminal device 100 corrects the status of the foreground object by overwriting the status stored in the terminal-side storage unit 100b with the status received from the game server device 200 ( S114).

以上説明したゲームシステム1によれば、ユーザの操作に基づいて、第1カテゴリに属するオブジェクトをレンダリングした第1コンテンツを生成する端末装置100と、端末装置100から受信した指示に基づいて、第2カテゴリに属するオブジェクトをレンダリングした第2コンテンツを生成し、生成した第2コンテンツを端末装置100に送信するゲームサーバ装置200とを備え、端末装置100により、第1コンテンツと第2コンテンツとを合成し、合成したコンテンツ300を表示することができる。このゲームシステム1によれば、コンテンツをレンダリングする処理負荷を分散することでユーザの操作からコンテンツのレンダリングが完了するまでの遅延期間を抑制することができる。   According to the game system 1 described above, based on the user's operation, the terminal device 100 that generates the first content in which the object belonging to the first category is rendered, and the instruction received from the terminal device 100, the second A game server device 200 that generates second content in which an object belonging to the category is rendered, and transmits the generated second content to the terminal device 100. The terminal device 100 synthesizes the first content and the second content. The synthesized content 300 can be displayed. According to this game system 1, it is possible to suppress a delay period from the user's operation until the rendering of the content is completed by distributing the processing load for rendering the content.

すなわち、ゲームシステム1によれば、第1カテゴリに属するオブジェクトを端末装置100によりレンダリングすることで、第1カテゴリに属するオブジェクトをゲームサーバ装置200によりレンダリングして表示するよりも、第1オブジェクトを提示するまでの遅延時間を短くすることができる。また、ゲームシステム1によれば、第2カテゴリに属するオブジェクトをゲームサーバ装置200によりレンダリングすることで、第1および第2カテゴリに属するオブジェクトを端末装置100によりレンダリングして表示するよりも、第1オブジェクトを提示するまでの遅延時間を短くすることができる。   That is, according to the game system 1, by rendering an object belonging to the first category by the terminal device 100, the first object is presented rather than rendering and displaying the object belonging to the first category by the game server device 200. The delay time until it can be shortened. In addition, according to the game system 1, the objects belonging to the second category are rendered by the game server device 200, so that the objects belonging to the first and second categories are rendered by the terminal device 100 and displayed first. The delay time until the object is presented can be shortened.

このゲームシステム1は、第1カテゴリに属するオブジェクトを、近景に属するオブジェクトに決定し、第2カテゴリに属するオブジェクトを、遠景に属するオブジェクトに決定することにより、近景オブジェクトを端末装置100によりレンダリングすることができる。これにより、ゲームシステム1によれば、近景オブジェクトをゲームサーバ装置200によりレンダリングして表示するよりも、近景オブジェクトを提示するまでの遅延時間を短くすることができる。ゲームシステム1は、例えば、近景オブジェクトをユーザの操作により移動するキャラクタに決定されている場合において、ユーザの操作を受け付けたことに応じて即時にキャラクタを移動させることができる。   The game system 1 renders a foreground object by the terminal device 100 by determining an object belonging to the first category as an object belonging to the foreground and determining an object belonging to the second category as an object belonging to the distant view. Can do. Thereby, according to the game system 1, it is possible to shorten the delay time until the foreground object is presented, rather than rendering the foreground object by the game server device 200 and displaying it. For example, when the foreground object is determined to be a character that is moved by the user's operation, the game system 1 can immediately move the character in response to accepting the user's operation.

このゲームシステム1は、第1カテゴリに属するオブジェクトを短周期でレンダリングされるオブジェクトに決定し、第2カテゴリに属するオブジェクトを長周期でレンダリングされるオブジェクトに決定することにより、短周期でレンダリングされるオブジェクトを端末装置100によりレンダリングすることができる。これにより、ゲームシステム1によれば、短周期でレンダリングされるオブジェクトをゲームサーバ装置200によりレンダリングして表示するよりも、短周期でレンダリングされるオブジェクトを提示するまで遅延時間を短くすることができる。ゲームシステム1は、例えば、短周期でレンダリングされるオブジェクトとしてユーザの操作により移動するキャラクタが設定されている場合において、ユーザの操作を受け付けたことに応じて即時にキャラクタを移動させることができる。   In this game system 1, an object belonging to the first category is determined to be an object that is rendered in a short cycle, and an object belonging to the second category is determined to be an object that is rendered in a long cycle, whereby rendering is performed in a short cycle. An object can be rendered by the terminal device 100. Thereby, according to the game system 1, the delay time can be shortened until the object rendered in a short cycle is presented, rather than the object rendered in the short cycle rendered and displayed by the game server device 200. . For example, in the case where a character that is moved by a user's operation is set as an object that is rendered in a short cycle, the game system 1 can immediately move the character in response to receiving the user's operation.

このゲームシステム1は、第1カテゴリに属するオブジェクトを、指示に対してステータスが変化するオブジェクトに決定し、第2カテゴリに属するオブジェクトを指示に対してステータスが変化しないオブジェクトに決定することにより、指示に対してステータスが変化するオブジェクトを端末装置100によりレンダリングすることができる。これにより、ゲームシステム1によれば、指示に対してステータスが変化するオブジェクトをゲームサーバ装置200によりレンダリングして表示するよりも、指示に対してステータスが変化するオブジェクトを提示するまでの遅延時間を短くすることができる。   The game system 1 determines an object belonging to the first category as an object whose status changes in response to an instruction, and determines an object belonging to the second category as an object whose status does not change in response to an instruction. Can be rendered by the terminal device 100. Thereby, according to the game system 1, rather than rendering and displaying an object whose status changes in response to the instruction by the game server apparatus 200, the delay time until the object whose status changes in response to the instruction is presented. Can be shortened.

このゲームシステム1によれば、端末装置100により生成した奥行き情報および透明度情報とゲームサーバ装置200により生成した奥行き情報および透明度情報とを用いて、第1コンテンツと第2コンテンツとを合成するので、第1コンテンツと第2コンテンツとの間で奥行きおよび透明度の整合性を適切に調整することができる。   According to the game system 1, the first content and the second content are synthesized using the depth information and transparency information generated by the terminal device 100 and the depth information and transparency information generated by the game server device 200. It is possible to appropriately adjust the consistency of depth and transparency between the first content and the second content.

さらに、ゲームシステム1によれば、ユーザの操作に基づく指示に加えて、指示に基づいて演算された第1カテゴリに属するオブジェクトの第1ステータスを端末装置100からゲームサーバ装置200に送信し、ゲームサーバ装置200は、端末装置100から受信した指示に基づいて第1カテゴリに属するオブジェクトの第2ステータスを演算し、演算した第2ステータスを端末装置100に送信し、端末装置100は、ゲームサーバ装置200により演算した第2ステータスと第1ステータスとが異なる場合に、第2ステータスに基づいて第1画像データを変更する。これにより、ゲームシステム1によれば、端末装置100により近景オブジェクトのステータスを演算して近景オブジェクトをレンダリングしても、他の近景オブジェクトの影響などによりレンダリングした近景オブジェクトのステータスを修正して再度近景オブジェクトをレンダリングすることができる。この結果、ゲームシステム1によれば、近景オブジェクトをレンダリングすることの遅延時間を抑制しつつ、近景オブジェクトのステータスを修正してレンダリングをすることができる。   Furthermore, according to the game system 1, in addition to the instruction based on the user's operation, the first status of the object belonging to the first category calculated based on the instruction is transmitted from the terminal apparatus 100 to the game server apparatus 200, and the game The server device 200 calculates the second status of the object belonging to the first category based on the instruction received from the terminal device 100, and transmits the calculated second status to the terminal device 100. The terminal device 100 When the second status calculated by 200 is different from the first status, the first image data is changed based on the second status. Thereby, according to the game system 1, even if the foreground object is rendered by calculating the status of the foreground object by the terminal device 100, the status of the foreground object rendered due to the influence of other foreground objects is corrected and the foreground object is again displayed. The object can be rendered. As a result, according to the game system 1, it is possible to perform rendering by correcting the status of the foreground object while suppressing the delay time for rendering the foreground object.

なお、上述したゲームシステム1は、コンテンツとして画像をレンダリングするものとしたが、これに限定されず、音声をレンダリングするものであってもよい。   In addition, although the game system 1 mentioned above shall render an image as content, it is not limited to this, You may render an audio | voice.

<ハードウェア構成>
図7は、端末装置100、およびゲームサーバ装置200のハードウェア構成の一例を示す図である。本図は、端末装置100がパーソナルコンピュータなどである例を示している。端末装置100は、例えば、CPU101、RAM102、ROM103、フラッシュメモリなどの二次記憶装置104、操作および表示などのためのインターフェース105、および無線通信モジュール106が、内部バスあるいは専用通信線によって相互に接続された構成となっている。
<Hardware configuration>
FIG. 7 is a diagram illustrating an example of a hardware configuration of the terminal device 100 and the game server device 200. This figure shows an example in which the terminal device 100 is a personal computer or the like. In the terminal device 100, for example, a CPU 101, a RAM 102, a ROM 103, a secondary storage device 104 such as a flash memory, an interface 105 for operation and display, and a wireless communication module 106 are connected to each other by an internal bus or a dedicated communication line. It has been configured.

ゲームサーバ装置200は、例えば、NIC201、CPU202、RAM203、ROM204、フラッシュメモリやHDDなどの二次記憶装置205、およびドライブ装置206が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置206には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置205、またはドライブ装置206に装着された可搬型記憶媒体に記憶されたプログラムがDMAコントローラ(不図示)などによってRAM203に展開され、CPU202によって実行されることで、ゲームサーバ装置200の機能部が実現される。   The game server device 200 has a configuration in which, for example, a NIC 201, a CPU 202, a RAM 203, a ROM 204, a secondary storage device 205 such as a flash memory or an HDD, and a drive device 206 are connected to each other via an internal bus or a dedicated communication line. Yes. The drive device 206 is loaded with a portable storage medium such as an optical disk. A program stored in a secondary storage device 205 or a portable storage medium attached to the drive device 206 is expanded in the RAM 203 by a DMA controller (not shown) or the like and executed by the CPU 202, whereby the game server device 200 A functional part is realized.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

1…ゲームシステム、100…端末装置、100a…ゲームプログラム、100b…端末側記憶部、110…端末側通信部、120…表示デバイス、130…表示制御部、140…操作受付部、150…端末側アクション処理部、200…ゲームサーバ装置、200a…ゲーム制御プログラム、200b…サーバ側記憶部、210…サーバ側通信部、220…ゲーム進行制御部、230…アクション処理部、240…レンダリング処理部、310…キャラクタオブジェクト、321〜324…背景オブジェクト、400a…近景レンダリング画像、400b…近景奥行き情報、400c…近景透明度情報、410a…遠景レンダリング画像、410b…遠景奥行き情報、410c…遠景透明度情報、420…合成画像 DESCRIPTION OF SYMBOLS 1 ... Game system, 100 ... Terminal device, 100a ... Game program, 100b ... Terminal side memory | storage part, 110 ... Terminal side communication part, 120 ... Display device, 130 ... Display control part, 140 ... Operation reception part, 150 ... Terminal side Action processing unit 200 ... Game server device 200a ... Game control program 200b ... Server side storage unit 210 ... Server side communication unit 220 ... Game progress control unit 230 ... Action processing unit 240 ... Rendering processing unit 310 ... character object, 321-324 ... background object, 400a ... foreground rendering image, 400b ... foreground depth information, 400c ... foreground transparency information, 410a ... foreground rendering image, 410b ... foreground depth information, 410c ... foreground transparency information, 420 ... composition image

Claims (17)

ユーザの操作に基づく指示に基づいて、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算し、前記第1ステータスに基づいて前記第1オブジェクトをレンダリングした第1コンテンツを生成すると共に、前記指示をサーバ装置に送信する端末装置と、
前記端末装置から受信した前記指示に基づいて、前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツを生成し、生成した前記第2コンテンツを前記端末装置に送信するとともに、前記第1オブジェクトの位置および姿勢を含む第2ステータスを演算し、演算した前記第2ステータスを前記端末装置に送信する前記サーバ装置と、を備え、
前記端末装置は、前記第1コンテンツと前記第2コンテンツとを合成してコンテンツを生成するとともに、前記第1ステータスと前記第2ステータスとが相違する場合、前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する
仮想現実提供システム。
Based on an instruction based on a user operation, a first status including the position and orientation of a first object belonging to the first category among a plurality of objects is calculated, and the first object is rendered based on the first status A terminal device for generating the first content and transmitting the instruction to the server device ;
Based on the instruction received from the terminal device, the second content obtained by rendering the second object belonging to the second category among the plurality of objects is generated, and the generated second content is transmitted to the terminal device. calculates the second status, including the position and orientation of said first object, the calculated the second status and a said server device to transmit to said terminal device,
The terminal device generates the content by combining the first content and the second content, and when the first status and the second status are different, the terminal device replaces the first status with the first status . Generating the first content in which the first object is rendered based on two statuses;
Virtual reality system.
ユーザの操作に基づく指示に基づいて、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算し、前記第1ステータスに基づいて前記第1オブジェクトをレンダリングした第1コンテンツを生成すると共に、前記指示と前記第1ステータスとをサーバ装置に送信する端末装置と、
前記端末装置から受信した前記指示に基づいて、前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツを生成し、生成した前記第2コンテンツを前記端末装置に送信するとともに、前記第1オブジェクトの位置および姿勢を含む第2ステータスを演算し、前記第1ステータスと前記第2ステータスとが相違する場合、演算した前記第2ステータスを前記端末装置に送信する前記サーバ装置と、を備え、
前記端末装置は、前記第1コンテンツと前記第2コンテンツとを合成してコンテンツを生成するとともに、前記サーバ装置から前記第2ステータスを受信した場合、前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する
仮想現実提供システム。
Based on an instruction based on a user operation, a first status including the position and orientation of a first object belonging to the first category among a plurality of objects is calculated, and the first object is rendered based on the first status A terminal device that generates first content and transmits the instruction and the first status to a server device ;
Based on the instruction received from the terminal device, the second content obtained by rendering the second object belonging to the second category among the plurality of objects is generated, and the generated second content is transmitted to the terminal device. the first calculates the second status, including the position and orientation of the object, wherein if the first status and the second status are different, the server device which transmits the calculated the second status to the terminal device And comprising
The terminal device generates the content by combining the first content and the second content, and when receiving the second status from the server device, the terminal device replaces the first status with the second status. Generating the first content in which the first object is rendered based on
Virtual reality system.
前記サーバ装置は、
オブジェクト同士の衝突の有無に応じて、オブジェクトの位置および姿勢を演算するアクション処理を行い、前記アクション処理において前記第2ステータスを演算する、
請求項1または2に記載の仮想現実提供システム。
The server device
Depending on the presence or absence of collision between objects, an action process for calculating the position and orientation of the object is performed, and the second status is calculated in the action process.
The virtual reality providing system according to claim 1 or 2 .
前記サーバ装置は、
複数の前記端末装置から受信した前記指示および前記第1ステータスに基づいて、複数の前記端末装置のそれぞれに対応する複数のオブジェクトの位置および姿勢を含む前記第2ステータスを演算し、複数の前記端末装置のそれぞれに対応する複数のオブジェクトが衝突する場合には衝突により変化する複数のオブジェクトの姿勢および位置を含む前記第2ステータスを演算する、
請求項1から3のうちいずれか一項に記載の仮想現実提供システム。
The server device
Based on the instructions and the first status received from a plurality of the terminal devices, the second status including the positions and orientations of the plurality of objects corresponding to the plurality of the terminal devices is calculated, and the plurality of the terminals When a plurality of objects corresponding to each of the devices collide, the second status including the postures and positions of the plurality of objects that change due to the collision is calculated.
The virtual reality providing system according to any one of claims 1 to 3 .
前記第1カテゴリに属するオブジェクトは、近景に属するオブジェクトを含み、
前記第2カテゴリに属するオブジェクトは、遠景に属するオブジェクトを含む、
請求項1からのうちいずれか一項に記載の仮想現実提供システム。
The objects belonging to the first category include objects belonging to a foreground,
The object belonging to the second category includes an object belonging to a distant view.
The virtual reality providing system according to any one of claims 1 to 4 .
前記第1カテゴリに属するオブジェクトは、前記複数のオブジェクトのうち短周期でレンダリングされるオブジェクトを含み、
前記第2カテゴリに属するオブジェクトは、前記複数のオブジェクトのうち長周期でレンダリングされるオブジェクトを含む、
請求項1からのうちいずれか一項に記載の仮想現実提供システム。
The objects belonging to the first category include objects that are rendered in a short cycle among the plurality of objects,
The object belonging to the second category includes an object rendered in a long cycle among the plurality of objects.
The virtual reality providing system according to any one of claims 1 to 4 .
前記第1カテゴリに属するオブジェクトは、前記複数のオブジェクトのうち前記指示に対してステータスが変化するオブジェクトを含み、
前記第2カテゴリに属するオブジェクトは、前記複数のオブジェクトのうち前記指示に対してステータスが変化しないオブジェクトを含む、
請求項1からのうちいずれか一項に記載の仮想現実提供システム。
The object belonging to the first category includes an object whose status changes with respect to the instruction among the plurality of objects,
The object belonging to the second category includes an object whose status does not change in response to the instruction among the plurality of objects.
The virtual reality providing system according to any one of claims 1 to 4 .
前記端末装置および前記サーバ装置のそれぞれは、予め設定されたルールに基づいて、レンダリングの対象となるオブジェクトを決定する、
請求項1からのうちいずれか1項に記載の仮想現実提供システム。
Each of the terminal device and the server device determines an object to be rendered based on a preset rule.
The virtual reality providing system according to any one of claims 1 to 7 .
前記端末装置は、
演算した前記第1ステータスに基づいて自身の記憶部に格納されている第1ステータス情報を更新し、
前記サーバ装置は、
前記端末装置から受信した前記第1ステータスと前記第2ステータスとが相違する場合、自身の記憶部に格納されている第2ステータス情報を更新するとともに、前記第2ステータスを前記端末装置に送信し、
前記端末装置は、
前記サーバ装置から受信した前記第2ステータスに基づいて前記第1ステータス情報を更新し、前記第1ステータス情報を参照して、予め設定されたルールに基づきレンダリングの対象となるオブジェクトを決定し、
前記サーバ装置は、
前記第2ステータス情報を参照して、予め設定されたルールに基づいてレンダリングの対象となるオブジェクトを決定する
請求項1からのうちいずれか1項に記載の仮想現実提供システム。
The terminal device
Updating the first status information stored in its own storage unit based on the calculated first status,
The server device
If the first status received from the terminal device is different from the second status, the second status information stored in its storage unit is updated and the second status is transmitted to the terminal device. ,
The terminal device
Updating the first status information based on the second status received from the server device, referring to the first status information, determining an object to be rendered based on a preset rule;
The server device
The virtual reality providing system according to any one of claims 1 to 8 , wherein an object to be rendered is determined based on a preset rule with reference to the second status information.
前記第1コンテンツおよび前記第2コンテンツは、画像コンテンツであり、
前記端末装置は、前記第1コンテンツと他のコンテンツとの合成を補助するための第1合成用データを生成し、
前記サーバ装置は、前記第2コンテンツと前記第1コンテンツとの合成を補助するための第2合成用データを生成して、生成した前記第2合成用データを前記端末装置に送信し、
前記端末装置は、前記第1合成用データと前記第2合成用データとに基づいて前記第1コンテンツと前記第2コンテンツとを合成する、
請求項1からのうちいずれか1項に記載の仮想現実提供システム。
The first content and the second content are image content,
The terminal device generates first composition data for assisting composition of the first content and other content,
The server device generates second combining data for assisting the combining of the second content and the first content, and transmits the generated second combining data to the terminal device;
The terminal device synthesizes the first content and the second content based on the first composition data and the second composition data;
The virtual reality providing system according to any one of claims 1 to 9 .
前記第1合成用データは、前記第1コンテンツに含まれている画素ごとの所定の視点からの距離および透明度合いを表す情報であり、
前記第2合成用データは、前記第2コンテンツに含まれている画素ごとの前記所定の視点からの距離および透明度合いを表す情報である、
請求項10に記載の仮想現実提供システム。
The first composition data is information representing a distance from a predetermined viewpoint and a degree of transparency for each pixel included in the first content.
The second composition data is information indicating a distance from the predetermined viewpoint and a degree of transparency for each pixel included in the second content.
The virtual reality providing system according to claim 10 .
端末装置が、ユーザの操作に基づく指示を受け付け、
前記端末装置が、前記指示をサーバ装置に送信し、
前記端末装置が、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算し、前記第1ステータスに基づいて前記第1オブジェクトをレンダリングした第1コンテンツを生成すると共に、前記指示を前記サーバ装置に送信し
前記サーバ装置が、前記端末装置から受信した前記指示に基づいて、前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツを生成し、生成した前記第2コンテンツを前記端末装置に送信し、
前記サーバ装置が、前記第1オブジェクトの位置および姿勢を含む第2ステータスを演算し、演算した前記第2ステータスを前記端末装置に送信し、
前記端末装置が、前記第1コンテンツと前記第2コンテンツとを合成してコンテンツを生成し、
前記端末装置が、前記第1ステータスと前記第2ステータスとが相違する場合、前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する、
仮想現実提供方法。
The terminal device accepts instructions based on user operations,
The terminal device transmits the instruction to a server device;
The terminal device calculates a first status including a position and a posture of a first object belonging to a first category among a plurality of objects, and generates first content obtained by rendering the first object based on the first status And sending the instruction to the server device ,
Based on the instruction received from the terminal device, the server device generates second content obtained by rendering a second object belonging to a second category among the plurality of objects, and the generated second content is the terminal. To the device,
The server apparatus calculates the second status, including the position and orientation of said first object, and sends the calculated the second status to the terminal device,
The terminal device generates the content by combining the first content and the second content;
When the first status is different from the second status, the terminal device generates the first content in which the first object is rendered based on the second status instead of the first status ;
Virtual reality provision method.
ユーザの操作に基づく指示を受け付ける受付部と、
前記受付部により受け付けられた前記指示に基づいて、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算する演算部と、
前記演算部により演算された前記第1ステータスに基づいて、前記第1オブジェクトをレンダリングした第1コンテンツを生成する生成部と、
前記指示に基づいて前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツ、および、前記第1オブジェクトの位置および姿勢を含む第2ステータスをサーバ装置から受信する受信部と、
前記生成部により生成した前記第1コンテンツと、前記受信部により受信した前記第2コンテンツとを合成してコンテンツを生成する合成部と、を備え、
前記生成部は、前記第1ステータスと前記第2ステータスとが相違する場合、前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する、
を備える、仮想現実提供装置。
A reception unit that receives instructions based on user operations;
A computing unit that computes a first status including a position and orientation of a first object belonging to a first category among a plurality of objects based on the instruction received by the receiving unit;
A generating unit configured to generate a first content obtained by rendering the first object based on the first status calculated by the calculating unit ;
The second content to render the second object belonging to the second category of instructions said plurality of based on the object, and the receiving unit for receiving a second status, including the position and orientation of said first object from the server device When,
A combining unit that generates the content by combining the first content generated by the generating unit and the second content received by the receiving unit ;
The generating unit, when the first status and the second status is different, in place of the first status, generating the first content obtained by rendering the first object based on the second status,
A virtual reality providing device.
コンピュータに、
ユーザの操作に基づく指示を受け付けさせ、
受け付けられた前記指示に基づいて、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算させ、
前記第1ステータスに基づいて前記第1オブジェクトをレンダリングした第1コンテンツを生成させ、
前記指示に基づいて前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツをサーバ装置から受信させ、
前記第1オブジェクトの位置および姿勢を含む第2ステータスを前記サーバ装置から受信させ、
生成した前記第1コンテンツと、受信した前記第2コンテンツとを合成してコンテンツを生成させ、
前記第1ステータスと前記第2ステータスとが相違する場合、前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する、
プログラム。
On the computer,
Accept instructions based on user operations,
Based on the received instruction, the first status including the position and orientation of the first object belonging to the first category among the plurality of objects is calculated,
Generating a first content in which the first object is rendered based on the first status ;
Based on the instruction, a second content obtained by rendering a second object belonging to a second category among the plurality of objects is received from a server device,
A second status, including the position and orientation of said first object is received from the server apparatus,
Combining the generated first content and the received second content to generate content;
When the first status is different from the second status, the first content in which the first object is rendered based on the second status is generated instead of the first status .
program.
端末装置が、ユーザの操作に基づく指示を受け付け、
前記端末装置が、前記指示をサーバ装置に送信し、
前記端末装置が、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算し、前記第1ステータスに基づいて前記第1オブジェクトをレンダリングした第1コンテンツを生成すると共に、前記指示と前記第1ステータスとを前記サーバ装置に送信し
前記サーバ装置が、前記端末装置から受信した前記指示に基づいて、前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツを生成し、生成した前記第2コンテンツを前記端末装置に送信し、
前記サーバ装置が、前記第1オブジェクトの位置および姿勢を含む第2ステータスを演算し、前記第1ステータスと前記第2ステータスとが相違する場合に前記第2ステータスを前記端末装置に送信し、
前記端末装置が、前記第1コンテンツと前記第2コンテンツとを合成してコンテンツを生成し、
前記端末装置が、前記サーバ装置から前記第2ステータスを受信した場合、前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する、
仮想現実提供方法。
The terminal device accepts instructions based on user operations,
The terminal device transmits the instruction to a server device;
The terminal device calculates a first status including a position and a posture of a first object belonging to a first category among a plurality of objects, and generates first content obtained by rendering the first object based on the first status And sending the instruction and the first status to the server device ,
Based on the instruction received from the terminal device, the server device generates second content obtained by rendering a second object belonging to a second category among the plurality of objects, and the generated second content is the terminal. To the device,
The server apparatus calculates the second status, including the position and orientation of said first object, and transmitting the second status if said first status and said second status is different to the terminal device,
The terminal device generates the content by combining the first content and the second content;
When the terminal device receives the second status from the server device , the terminal device generates the first content in which the first object is rendered based on the second status instead of the first status .
Virtual reality provision method.
ユーザの操作に基づく指示を受け付ける受付部と、
前記受付部により受け付けられた前記指示に基づいて、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算する演算部と、
前記演算部により演算された前記第1ステータスに基づいて、前記第1オブジェクトをレンダリングした第1コンテンツを生成する生成部と、
前記指示に基づいて前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツをサーバ装置から受信するとともに、前記第1カテゴリに属するオブジェクトの位置および姿勢を含む第2ステータスを前記第1ステータスと前記第2ステータスとが相違する場合に前記サーバ装置から受信する受信部と、
前記生成部により生成した前記第1コンテンツと、前記受信部により受信した前記第2コンテンツとを合成してコンテンツを生成する合成部と、を備え、
前記生成部は、前記サーバ装置から前記第2ステータスを受信した場合前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する、
を備える、仮想現実提供装置。
A reception unit that receives instructions based on user operations;
A computing unit that computes a first status including a position and orientation of a first object belonging to a first category among a plurality of objects based on the instruction received by the receiving unit;
A generating unit configured to generate a first content obtained by rendering the first object based on the first status calculated by the calculating unit ;
Based on the instruction, the second content obtained by rendering the second object belonging to the second category among the plurality of objects is received from the server device, and the second status including the position and orientation of the object belonging to the first category is received. A receiving unit for receiving from the server device when the first status and the second status are different ;
A combining unit that generates the content by combining the first content generated by the generating unit and the second content received by the receiving unit ;
The generation unit, when receiving the second status from the server apparatus, in place of the first status, generating the first content obtained by rendering the first object based on the second status,
A virtual reality providing device.
コンピュータに、
ユーザの操作に基づく指示を受け付けさせ、
受け付けられた前記指示に基づいて、複数のオブジェクトのうち第1カテゴリに属する第1オブジェクトの位置および姿勢を含む第1ステータスを演算させ、
前記第1ステータスに基づいて前記第1オブジェクトをレンダリングした第1コンテンツを生成させ、
前記指示に基づいて前記複数のオブジェクトのうち第2カテゴリに属する第2オブジェクトをレンダリングした第2コンテンツをサーバ装置から受信させ、
前記第1オブジェクトの位置および姿勢を含む第2ステータスを前記第1ステータスと前記第2ステータスとが相違する場合に前記サーバ装置から受信させ、
生成した前記第1コンテンツと、受信した前記第2コンテンツとを合成してコンテンツを生成させ、
前記サーバ装置から前記第2ステータスを受信した場合前記第1ステータスに代えて、前記第2ステータスに基づいて前記第1オブジェクトをレンダリングした前記第1コンテンツを生成する、
プログラム。
On the computer,
Accept instructions based on user operations,
Based on the received instruction, the first status including the position and orientation of the first object belonging to the first category among the plurality of objects is calculated,
Generating a first content in which the first object is rendered based on the first status ;
Based on the instruction, a second content obtained by rendering a second object belonging to a second category among the plurality of objects is received from a server device,
Wherein is received from the server apparatus when a second status, including the position and orientation of said first object and said first status and said second status is different,
Combining the generated first content and the received second content to generate content;
When the second status is received from the server device, the first content in which the first object is rendered based on the second status is generated instead of the first status .
program.
JP2016217031A 2016-11-07 2016-11-07 Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program Active JP6320488B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016217031A JP6320488B1 (en) 2016-11-07 2016-11-07 Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program
US15/699,106 US20180126272A1 (en) 2016-11-07 2017-09-08 Virtual-reality providing system, virtual-reality providing method, virtual-reality-provision supporting apparatus, virtual-reality providing apparatus, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016217031A JP6320488B1 (en) 2016-11-07 2016-11-07 Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program

Publications (2)

Publication Number Publication Date
JP6320488B1 true JP6320488B1 (en) 2018-05-09
JP2018077555A JP2018077555A (en) 2018-05-17

Family

ID=62065928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217031A Active JP6320488B1 (en) 2016-11-07 2016-11-07 Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program

Country Status (2)

Country Link
US (1) US20180126272A1 (en)
JP (1) JP6320488B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058458B1 (en) 2018-11-14 2019-12-23 주식회사 드림한스 System for providing virtual reality content capable of multi-user interaction
JP2022028091A (en) * 2018-12-19 2022-02-15 ソニーグループ株式会社 Image processing device, image processing method, and program
JP2020187706A (en) 2019-05-17 2020-11-19 キヤノン株式会社 Image processing device, image processing system, image processing method, and program
US11297116B2 (en) 2019-12-04 2022-04-05 Roblox Corporation Hybrid streaming
JP7043558B1 (en) * 2020-09-23 2022-03-29 グリー株式会社 Computer programs, methods, and server equipment
JP7429633B2 (en) 2020-12-08 2024-02-08 Kddi株式会社 Information processing systems, terminals, servers and programs
CN113101633B (en) * 2021-04-19 2024-02-02 网易(杭州)网络有限公司 Cloud game simulation operation method and device and electronic equipment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPM701394A0 (en) * 1994-07-22 1994-08-18 Monash University A graphical display system
FI20001570A (en) * 2000-06-30 2001-12-31 Nokia Corp Synchronized provision of services over a telecommunications network
CA2358222A1 (en) * 2000-10-04 2002-04-04 University Of South Florida Two-dimensional optical filter and associated methods
JP4467267B2 (en) * 2002-09-06 2010-05-26 株式会社ソニー・コンピュータエンタテインメント Image processing method, image processing apparatus, and image processing system
FR2908322B1 (en) * 2006-11-09 2009-03-06 Parrot Sa METHOD FOR DEFINING GAMING AREA FOR VIDEO GAMING SYSTEM
US10063848B2 (en) * 2007-08-24 2018-08-28 John G. Posa Perspective altering display system
US20090080803A1 (en) * 2007-09-20 2009-03-26 Mitsugu Hara Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JPWO2014196135A1 (en) * 2013-06-07 2017-02-23 株式会社スクウェア・エニックス・ホールディングス Image generating apparatus, program, terminal, and image generating system
JP5695783B1 (en) * 2014-08-13 2015-04-08 株式会社 ディー・エヌ・エー System, server device, and program

Also Published As

Publication number Publication date
US20180126272A1 (en) 2018-05-10
JP2018077555A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6320488B1 (en) Virtual reality providing system, virtual reality providing method, virtual reality providing device, and program
CN107958480B (en) Image rendering method and device and storage medium
US20170186219A1 (en) Method for 360-degree panoramic display, display module and mobile terminal
CN107223270B (en) Display data processing method and device
KR101690034B1 (en) Apparatus and method for rendering object in 3d graphic terminal
KR20090087807A (en) Method for implementing augmented reality
EP2960866A2 (en) Method and apparatus for creating curved surface model
CN103942022A (en) Mobile terminal and vehicle-mounted terminal interconnection method and system and mobile terminal
EP3697032B1 (en) Electronic device, method, and computer readable medium for dynamic layout message
CN103157281A (en) Display method and display equipment of two-dimension game scene
JP2018513441A (en) Determination of region to be superimposed, image superimposition, image display method and apparatus
US20170154466A1 (en) Interactively augmented reality enable system
KR20150071807A (en) Cloud System For A Vehicle
EP2928219A1 (en) Restriction information distribution apparatus and restriction information distribution system
WO2024066723A1 (en) Location updating method for virtual scene, and device, medium and program product
CN109462811B (en) Sound field reconstruction method, device, storage medium and device based on non-central point
CN109302668B (en) Sound field reconstruction method, device, storage medium and device based on non-central point
CN109362025B (en) Sound field reconstruction method, device, storage medium and device based on non-central point
JP5646805B2 (en) Online game server, online game system, and online game program
WO2024048425A1 (en) Virtual space control method, virtual space control device, and virtual space control system
JP5732167B1 (en) Information processing apparatus and game program
CN116563449A (en) 3D model generation method and related device
JP6174548B2 (en) Online game server, online game program, and terminal program
US20190294880A1 (en) Auxiliary display method and apparatus, and display system
JP2024067480A (en) Remote control system, and control device and program thereof

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R150 Certificate of patent or registration of utility model

Ref document number: 6320488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250