WO2022130568A1 - 実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法 - Google Patents

実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法 Download PDF

Info

Publication number
WO2022130568A1
WO2022130568A1 PCT/JP2020/047156 JP2020047156W WO2022130568A1 WO 2022130568 A1 WO2022130568 A1 WO 2022130568A1 JP 2020047156 W JP2020047156 W JP 2020047156W WO 2022130568 A1 WO2022130568 A1 WO 2022130568A1
Authority
WO
WIPO (PCT)
Prior art keywords
live image
game
control information
player
image display
Prior art date
Application number
PCT/JP2020/047156
Other languages
English (en)
French (fr)
Inventor
晃洋 ▲高▼野
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to PCT/JP2020/047156 priority Critical patent/WO2022130568A1/ja
Priority to US18/256,468 priority patent/US20240024772A1/en
Priority to JP2022569426A priority patent/JPWO2022130568A1/ja
Publication of WO2022130568A1 publication Critical patent/WO2022130568A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks

Definitions

  • the present invention relates to a live image display support device, a game system, and a live image display support method that support the display of live images of electronic games.
  • the present invention has been made in view of these problems, and an object of the present invention is to provide a technique for easily displaying a live image of an electronic game with appropriate contents.
  • An aspect of the present invention relates to a live image display support device.
  • This live image display support device is a device that supports the display of live images of electronic games, and is a data acquisition unit that extracts predetermined game parameters acquired in game processing based on the operation of each player, and the game parameters. It is characterized by having a control information generation unit that generates and outputs control information related to a suitable field of view of a live image by aggregating the above.
  • This game system processes an electronic game in cooperation with a player device, and aggregates the game parameters with a game server that outputs predetermined game parameters acquired in the game processing based on the operation of each player. It is characterized by including a live image display support device for generating and outputting control information related to a suitable field of view of a live image of an electronic game.
  • This live image display support method is a step in which a device that supports the display of a live image of an electronic game extracts a predetermined game parameter acquired in a game process based on an operation of each player, and aggregates the game parameters. It is characterized by including a step of generating and outputting control information relating to a suitable field of view of a live image.
  • a live image of an electronic game can be easily displayed with appropriate contents.
  • FIG. 1 It is a figure which illustrates the game system to which this embodiment can be applied. It is a figure which shows typically the example of the image for a player and the live image for watching a game. It is a figure which shows the internal circuit composition of the live image display support apparatus in this embodiment. It is a figure which shows the structure of the functional block of the game server and the live image display support device in this embodiment. It is a figure which shows the transition of the processing procedure and data which controls a live image in this embodiment. It is a figure for demonstrating an example of determining a suitable position of a virtual camera by clustering in this embodiment. In this embodiment, it is a figure for demonstrating the example which determines the posture of a virtual camera in consideration of the three-dimensional structure of a virtual world.
  • this embodiment it is a figure for demonstrating the example which determines the position and the posture of a virtual camera in consideration of the three-dimensional structure of a virtual world. It is a figure for demonstrating the terrain map generation method by the control information generation part in this embodiment. It is a figure which illustrates the screen for the manager which the live image display support apparatus displays on the display for a manager in the mode in which the live image manager controls a live image in this embodiment.
  • FIG. 1 illustrates a game system to which this embodiment can be applied.
  • a game system can be typically used for an e-sports event, but the scale and location are not limited as long as the live video of an electronic game in which a plurality of players participate is shown to others.
  • the game system includes a configuration in which a plurality of player devices 13a, 13b, 13c, ... Are connected to the game server 12 via a network 6 such as a LAN (Local Area Network).
  • a network 6 such as a LAN (Local Area Network).
  • the player devices 12a, 12b, 12c, ... Are terminals operated by the player, respectively, and the input devices 14a, 14b, 14c ... And the player displays 16a, 16b, 16c, ... Are wired or Connected wirelessly.
  • the player devices 13a, 13b, 13c, ... Are used as the player device 13
  • the input devices 14a, 14b, 14c ... Are used as the input device 14
  • the player displays 16a, 16b, 16c, ... are used for the player.
  • the number of player devices 13, input devices 14, and player displays 16 included in the system is not particularly limited.
  • the player device 13 may be a personal computer, a dedicated game machine, a content processing device, or the like.
  • the input device 14 may be a general controller that accepts user operations for the game.
  • the player display 16 may be a general flat plate display or a wearable display such as a head-mounted display.
  • the game server 12 establishes communication with each player device 13 and executes the game by the client-server method. That is, the game server 12 collects game data based on the player's operation from each player's device 13 and advances the game. Then, by returning the data including the operation result by another player, it is reflected on the game screen on the player display 16. Such operations of the player device 13 and the game server 12 may be general.
  • the live image display support device 10 is further connected to the game server 12 and the like.
  • the live image display support device 10 displays a live image showing the state of the game world progressing by the operation of each player on the spectator display 8.
  • the spectator display 8 is a flat plate type display that can be viewed by a plurality of spectators together, such as a large screen installed at an e-sports event venue.
  • the live image display support device 10 may be connected to an input device 18 for the manager of the live image and a display 20 for the manager.
  • the live image display support device 10 may also transmit live image data to the spectator terminals 24a and 24b via the network 22.
  • the scale of the network 22 is not limited, such as WAN (Wide Area Network) or LAN. Therefore, the spectator who uses the terminals 24a and 24b may be in the same space as the player such as an event venue, or may be in another place such as a remote place.
  • the spectator terminals 24a and 24b may be mobile terminals provided with a display, or may be an information processing device or a content reproduction device for displaying an image on the connected display 26.
  • the display 26 may be a flat plate display or a wearable display such as a head-mounted display.
  • the number of terminals 24a and 24b for spectators is not limited.
  • the terminals 24a and 24b for spectators are collectively referred to as terminals 24.
  • the live image display support device 10 collects predetermined information related to the game situation from the game server 12, and generates information that can be used for determining the field of view of the live image based on the predetermined information.
  • the live image display support device 10 may control the live image by itself using the generated information, or causes the administrator display 20 to display the information, and finally the live image manager is the input device 18. May be used to control the live image.
  • the input device 18 is a general controller, keyboard, operation panel, switch, or the like, and can be used by the administrator when controlling a live image.
  • the administrator display 20 functions as a monitor for the administrator to view various information and live images.
  • the live image display support device 10 may be a part of the game server 12. For example, by implementing a function to generate information for controlling a live image and a function to generate a live image as a part of the game software executed by the game server 12, the exposure of the game data to the outside is suppressed. May be good. Further, the live image display support device 10 may establish communication with the player device 13 and acquire data related to the game from the player device 13.
  • individual information necessary for game play is also superimposed and displayed on the player images 170a, 170b, 170c.
  • a hit point (HP) gauge eg gauge 172 showing the remaining physical strength of each character
  • an icon showing the weapons possessed eg icon 174
  • a map showing the current location in the virtual world eg map.
  • 76 etc. are displayed.
  • the place represented by the player images 170a, 170b, 170c is naturally different.
  • the places represented by the player images 170a, 170b, 170c also overlap, but the field of view may vary depending on the direction of the character and the operation of the player.
  • FIG. (B) shows an example of a live image displayed on a large screen in the venue or a terminal of a spectator.
  • a certain player image 170c is selected and used as it is for a live image.
  • the excitement of the venue may differ depending on which player image is selected.
  • the live image display support device 10 of the present embodiment collects the situation of each character and makes it available for control of the live image. That is, the live image display support device 10 acquires predetermined parameters acquired / generated on the game from the game server 12, and uses the parameters to generate predetermined information on which the live image control is based.
  • the collected game parameters will be referred to as "game parameters”
  • control information the information for controlling the live image generated by the live image display support device 10
  • the control information may include the game parameter itself.
  • game parameters are information for each player and each character, and are data necessary for game processing acquired by a game program based on the operation of each player.
  • the control information is obtained by aggregating them, and is information relating to a suitable field of view of a live image, for example, information suggesting a character or place that is desirable to be displayed.
  • the live image display support device 10 acquires the position information of each character in the virtual world as a game parameter. Then, a group of characters, that is, a place where a cluster is formed is generated as control information.
  • the live image display support device 10 may generate a live image or switch screens by itself based on the control information, or may allow the live image manager to perform the final operation. good. In the latter case, the live image display support device 10 supports the work by the live image manager by displaying the control information on the administrator display 20. In any case, the live image display support device 10 can easily display an appropriate live image with much less effort by collecting game parameters useful for controlling the live image in real time.
  • the recording medium driving unit 48 is connected.
  • the game server 12 has a game data transmission / reception unit 50 that exchanges game data with each player device 13, a game processing unit 52 that processes games, a game data storage unit 54 that stores game data, and game parameters. Includes a parameter transmission unit 56 that transmits a live image display support device 10.
  • the game data transmission / reception unit 50 immediately receives the operation contents by each player and various data generated as a result of local game processing in the player device 13.
  • the game data transmission / reception unit 50 also immediately transmits various data generated as a result of processing by the game processing unit 52 to the player device 13.
  • the data reflects, for example, the operation contents of all the players in the game world.
  • the player device 13 uses the data and reflects it in the local game processing.
  • the live image display support device 10 has a data acquisition unit 58 for acquiring game parameters, a control information generation unit 60 for generating control information, a live image acquisition unit 62 for acquiring live images, and a spectator of live image data.
  • a data output unit 64 for outputting to a display 8 or the like is included.
  • the data acquisition unit 58 acquires game parameters transmitted from the game server 12 at any time. When the player image is used as the live image, the data acquisition unit 58 may acquire the frame data of the player image from the corresponding player device 13.
  • the control information is, for example, information indicating at least one of a character, a place, and a scene suitable for displaying as a live image, or information indicating at least one of them, which is a priority in display.
  • the control information generation unit 60 assigns points to each category from the following viewpoints, and sorts in descending order of the total points to give priority.
  • Character Score, number of kills, number and importance of weapons possessed, size of movement Location: Whether or not a cluster is formed, the size of the cluster Scene: Importance of the scene such as whether or not it is in battle
  • a score giving rule is set in advance so that the stronger the character, the larger the cluster, and the higher the importance of the scene, the higher the priority, and store it inside the control information generation unit 60.
  • the control information generation unit 60 may combine a plurality of the above viewpoints and rank them as display targets. For example, if there are multiple locations where clusters of the same size are formed, the one with the higher score is given higher priority. If there are multiple characters with the same score, give higher priority to the characters in battle. By evaluating the importance of the display from various viewpoints in this way, it is possible to easily display a suitable scene with high accuracy.
  • the control information generation unit 60 may also generate information on a suitable position and posture of the virtual camera as control information. For example, when the place where the cluster is formed is targeted for display, the control information generation unit 60 may acquire the position and posture of the virtual camera so that the entire cluster is within the field of view. This makes it easier for spectators to get an overall picture of the cluster. However, in this case, if the range of the cluster is too wide, the image of each character may become small and the movement may be difficult to see, or the live image may lack power.
  • the three-dimensional structure of the virtual world is the inclination angle and height of the ground, the arrangement and height of the building, and the like.
  • the characters forming a cluster are distributed on the slopes and cliffs of a mountain, the vertical relationship of the character's position can be seen at first glance by deriving the posture of the virtual camera so that the screen faces the slopes and cliffs. You will be able to grasp it.
  • the above-mentioned limitation of the field of view can be appropriately realized by excluding the area that becomes difficult to see depending on the relationship between the inclination of the ground and the posture of the virtual camera from the field of view even in the range of the cluster.
  • the live image acquisition unit 62 acquires a live image based on the control information. For example, the live image acquisition unit 62 generates a live image by setting the position and posture of the virtual camera according to the control information and drawing the virtual world of the game. Alternatively, the live image acquisition unit 62 selects a player image to be used as the live image based on a suitable display target and priority indicated by the control information. In this case, the live image acquisition unit 62 requests the data acquisition unit 58 for a player image in which the determined display target is captured, and acquires the player image transmitted from the corresponding player device 13.
  • the live image acquisition unit 62 may continue to generate the live image by itself, or may continue to acquire the selected player image. In the latter case, the image for the player to be acquired may be appropriately switched based on the control information. Alternatively, the live image acquisition unit 62 may switch between the image generated by itself and the player image as the live image. As described above, the live image acquisition unit 62 accepts the control of the virtual camera and the screen switching operation by the live image manager via the input device 18, and generates the live image or acquires the image for the player according to the input device 18. You may.
  • the live image acquisition unit 62 may superimpose and display various information that is not displayed on the player display 16 on the live image.
  • the live image acquisition unit 62 may indicate which player each character in the live image corresponds to with characters or figures, or show the score, hit points, list of possessed weapons, provisional ranking, etc. of each character. You can do it. This makes it easier for the spectator to understand the scene represented by the live image and the situation of the game.
  • the data output unit 64 sequentially outputs the frame data of the live image acquired by the live image acquisition unit 62, and displays the frame data on the spectator display 8, the terminal 24, and the administrator display 20. In the mode in which the live image manager performs the field of view control and the switching operation of the live image, the data output unit 64 further displays the control information on the manager display 20.
  • the data output unit 64 represents information such as the priority of the display target and the position and posture of a suitable virtual camera by characters or figures.
  • the data output unit 64 may be processed so as to highlight the character to be placed in the center next in the live image being displayed.
  • FIG. 5 shows the transition of the processing procedure and the data for controlling the live image in the present embodiment.
  • the player device 13 and the game server 12 cooperate to continue the game processing according to the player's operation.
  • the game data storage unit 54 of the game server 12 continues to store various game data including the game parameters of the present embodiment (S10).
  • the parameter transmission unit 56 of the game server 12 extracts a predetermined game parameter from the game data storage unit 54 by, for example, an API provided by the game software (S12).
  • the score and position of each character (player) are extracted as game parameters.
  • the API also provides data representing the three-dimensional structure of the virtual world. These data are transmitted from the parameter transmission unit 56 to the live image display support device 10. The data representing the three-dimensional structure of the virtual world may be acquired in advance by the live image display support device 10.
  • the control information generation unit 60 of the live image display support device 10 generates control information using the transmitted game parameters and three-dimensional structure data.
  • intermediate information obtained directly from those data is generated (S14), and then the position and orientation of the virtual camera are derived (S16).
  • the score is simply sorted to prioritize the display of the characters (S14a).
  • clustering is performed based on the position information of the character, and the area of the display target candidate is extracted (S14b).
  • the control information generation unit 60 further calculates normals such as terrain using the data of the three-dimensional structure of the place, and is suitable for the virtual camera. Derivation of a good posture (S14c). At this time, the control information generation unit 60 may adjust the position of the virtual camera so as to have a suitable field of view based on the three-dimensional structure.
  • the live image acquisition unit 62 acquires the live image by drawing the game world in the corresponding field of view and outputs the live image to the spectator display 8 or the like (S18). ). By repeating the illustrated process at a predetermined frequency or as necessary, it is possible to continue to display a suitable live image so as to respond to changes in the situation of the game.
  • the procedure shown and the data used are examples, and the present embodiment is not limited.
  • FIG. 6 is a diagram for explaining an example of determining a suitable position of a virtual camera by clustering.
  • A shows the distribution of characters in the virtual world.
  • the control information generation unit 60 performs clustering by a general algorithm such as the k-means method based on the position coordinates of each character shown by the rectangle in the figure. In the illustrated example, three clusters 70a, 70b, 70c have been detected. When a plurality of clusters are formed in this way, the control information generation unit 60 selects one of the clusters as a display target according to a predetermined rule.
  • control information generation unit 60 selects the cluster to which the character with the highest score or number of kills belongs, or the cluster to which the total or average value of the scores or kills of the belonging characters belongs.
  • the game parameters used to select the cluster such as the size of the movement and the type of movement, are not particularly limited.
  • the cluster may be given a score from a plurality of viewpoints, and the cluster with the highest score may be selected. At this time, various parameters that are not shown on the player display 16 (not known to the player) may be added.
  • the control information generation unit 60 is aligned so that the optical axis of the virtual camera coincides with the center of gravity of the cluster 70b. Further, the height of the virtual camera with respect to the ground is determined so that the diameter of the cluster 70b occupies a predetermined ratio such as 90% of the size in the lateral direction of the screen.
  • FIG. (B) in the figure schematically shows a live image acquired by the live image acquisition unit 62 by setting the virtual camera in this way. This example shows how the characters are dispersed in an outdoor parking lot or the like.
  • the posture of the virtual camera is such that the image pickup surface (view screen) faces the ground which is a horizontal plane.
  • FIG. 7 is a diagram for explaining an example of determining the posture of the virtual camera in consideration of the three-dimensional structure of the virtual world.
  • the upper part of (a) and (b) shows the height of the ground in the virtual world in the vertical direction of the figure.
  • a rectangular character for example, character 82
  • the control information generation unit 60 adjusts the posture of the virtual camera based on the three-dimensional structure of the virtual world to be displayed. Specifically, as shown in the upper part of (b), the normal vector n of the ground to be displayed is acquired, and the posture of the virtual camera 84b such that the optical axis o coincides with the normal vector n is derived.
  • the normal vector n may be obtained, for example, at the point represented in the center of the live image, and when the cluster is to be displayed as shown in FIG. 6, the center of gravity of the cluster corresponds to this.
  • the height of the virtual camera 84b is adjusted so that the entire cluster is within the angle of view.
  • the live image 86b showing the actual distance between the characters can be displayed.
  • the relationship between the character and the slope may be made easier to understand by changing the position and posture of the virtual camera over time within a predetermined range.
  • the control information generation unit 60 acquires the ground normal vector at predetermined intervals in the cluster or in the display range including the cluster, for example, as shown by the arrow in the figure.
  • the control information generation unit 60 divides the cluster into regions according to the range of angles of the normal vector. Then, a region having a normal vector having an angle of 90 ° or more with respect to the normal vector (for example, the normal vector n') at the center of gravity of the largest region is excluded from the display target.
  • the angle between the normal vectors can be calculated by the inner product or the like. In the example of the figure, the region of the slope opposite to the summit A is excluded based on the normal vector n ′′.
  • the position and orientation of the virtual camera 94b are derived for the new cluster formed by the remaining characters (for example, the character 92a) as described with reference to FIG. That is, the optical axis o of the virtual camera 94b is aligned with the normal vector (for example, the normal vector n') at the center of gravity of the new cluster, and the height of the virtual camera 94b is set so that the entire cluster is within the angle of view. adjust. By doing so, as shown in (b), it is possible to display a live image showing the actual distance between the characters and the vertical relationship.
  • control information generation unit 60 may use a three-dimensional model of a virtual world and prepare a terrain map in which areas are tagged according to the type of three-dimensional structure such as plains, mountains, valleys, and buildings.
  • a terrain map in which slopes having an angle that cannot be captured when the virtual camera is set to face a certain slope are adjacent to each other, the boundary between them is not crossed from the beginning. Clustering may be performed under certain conditions.
  • FIG. 9 is a diagram for explaining a method of generating a terrain map by the control information generation unit 60.
  • the control information generation unit 60 uses the distribution of normal vectors acquired at predetermined intervals, and divides the virtual world into regions based on the angle range. For example, a region in which the inner product of normal vectors at predetermined intervals continues to be in a positive predetermined value or more is determined to be a plain or a gentle slope. Since the other regions are peaks or valleys, the control information generation unit 60 determines which of them is as shown in (a) of the figure.
  • the two surfaces 100 and 102 whose inner product is equal to or less than a predetermined value, and by extension, the two surfaces 100 and 102 have a sharp change in angle, and set the vectors h and h'from the midpoint 104 of the center of gravity of those surfaces toward the center of gravity of each of the surfaces 100 and 102. .. Then, the inner product of the vectors h and h'and the normal vectors N and N'of the surfaces 100 and 102 at their arrival points is calculated, respectively.
  • the inner product is positive, it is determined that the surfaces 100 and 102 form a mountain as shown on the left side of (a).
  • the inner product is negative, it is determined that the surfaces 100 and 102 form a valley as shown on the right side of (a).
  • control information generation unit 60 can add tags such as "plain”, “mountain”, and “valley” to the place of the virtual world as shown in the terrain map shown in the figure (b).
  • tags such as "plain”, “mountain”, and “valley” to the place of the virtual world as shown in the terrain map shown in the figure (b).
  • the above calculation method is an example, and it is understood by those skilled in the art that various methods can be considered as a method for specifying the type of the three-dimensional structure by using the three-dimensional model of the virtual world.
  • FIG. 10 illustrates a screen for an administrator to be displayed on the administrator display 20 by the live image display support device 10 in a mode in which the live image manager controls the live image.
  • the display target is set for each character.
  • the player image corresponding to the character to be displayed as the live image it is not limited to that.
  • the control information generation unit 60 may set a lower limit for the time interval for changing the display target so that the display target does not change too frequently.
  • the control information generation unit 60 recommends to the live image manager by highlighting the character 112 as shown in (a). In this example, the arrow 114 indicating the character 112 is superimposed and displayed.
  • the live image manager who recognizes that it is desirable to change the display target to the character 112 by the arrow 114 makes an input for confirming the change of the display target via, for example, the input device 18. Then, the live image acquisition unit 62 starts acquiring the live image with the character 112 deferred toward the lower center.
  • the image may be a player image of the player operating the character 112, or may be an image separately generated by the live image acquisition unit 62 by moving the virtual camera to the character 112.
  • the basis for selecting the character 112 is the HP, which is close to 100%, so the gauge 118a is highlighted by a thick line.
  • the icon 120b is highlighted by a thick line.
  • the live image manager decides which ground is valid by himself / herself, and selects one character with a cursor (not shown) or the like to perform a definite input for the next display target. Subsequent processing of the live image acquisition unit 62 is the same as in the case (a).
  • the information presented to the live image manager is not limited to the one shown in the figure, and may be any of the control information.
  • the control information generation unit 60 may display information on the suitable position and orientation of the virtual camera and its priority, so that the administrator can select either of them.
  • the live image manager may further accept minor corrections to the position and posture of the virtual camera.
  • the control information generation unit 60 may notify the live image manager that the battle has started at a place other than the display, and may accept the switching of the display target. Then, detailed specifications such as the state of the virtual camera for the location and the selection of the character to be displayed in the main may be further accepted from the live image manager.
  • a predetermined game parameter is extracted from the data acquired in the process of the game processing, and the predetermined game parameter is used to relate to a suitable field of view of the live image.
  • Generate control information This facilitates the work of generating a live image or selecting from a player image according to the progress of the game. As a result, it is possible to display a suitable live image regardless of the skill and number of staff, and it is possible to realize a lively event at low cost.
  • character clusters are also candidates for displaying live images. This makes it possible to convey the entire large-scale scene such as a team battle in an easy-to-understand manner.
  • character clusters are also candidates for displaying live images. This makes it possible to convey the entire large-scale scene such as a team battle in an easy-to-understand manner.
  • by narrowing down the display target according to a predetermined rule and adjusting the position and posture of the virtual camera by adding the three-dimensional structure of the virtual world it is possible to efficiently and easily express important parts in the game. can.
  • By deriving the appropriate position and posture of the virtual camera as information for controlling the live image it is possible not only to control the live image manually but also to fully automate it, and the scale and funds of the event, etc.
  • the embodiment can be flexibly set according to the content of the game, the processing capacity of the device, and the like.
  • the present invention can be used for various information processing devices such as a live image display device, a game server, and a personal computer, and a game system including the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

ゲーム処理の過程でゲームデータ記憶部54には、ゲームデータが格納される(S10)。ゲームサーバはそのうちキャラクタのスコアや位置などのゲームパラメータや、仮想世界の3次元構造などのデータを実況画像表示支援装置に送信する(S12)。実況画像表示支援装置はゲームパラメータを用いて優先順位をつけたりクラスタリングを行ったりし、仮想世界の地面の法線などに基づき、仮想カメラの状態などの制御用情報を生成する(S14、S16)。

Description

実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法
 本発明は、電子ゲームの実況画像の表示を支援する実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法に関する。
 近年、コンピュータゲームは個人で楽しむばかりでなく、複数のプレイヤがネットワークを介して一つのゲームに参加したり、その様子を別のユーザが観戦したりする態様が一般的になっている。なかでも、コンピュータゲームを競技と位置づけ、大会形式で行うeスポーツ(Electronic Sports)の発展は著しく、大勢の観客が見守るなか、多額の賞金を掛けて個人またはチームで競い合うイベントも多く開催されている。
 eスポーツなど観戦を伴うオンラインゲームでは、観戦者に実況映像をどのように見せるかが重要な課題となる。特にプレイヤが操作するキャラクタが仮想世界を自由に動き回ったり、プレイヤの視点を自由に移動させたりできる形式のゲームの場合、各プレイヤが見ているゲーム画面は様々となる。このため別途、観戦者用の実況映像を適切に選択したり生成したりする作業が必要となる。この作業が適切でないと、面白い場面や重要な局面を見せることができず、観戦者がストレスを感じたり盛り上がりに欠けたイベントとなったりする。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、電子ゲームの実況映像を適切な内容で容易に表示させる技術を提供することにある。
 本発明のある態様は実況画像表示支援装置に関する。この実況画像表示支援装置は、電子ゲームの実況画像の表示を支援する装置であって、各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを抽出するデータ取得部と、当該ゲームパラメータを集約することにより、実況画像の好適な視野に係る制御用情報を生成し出力する制御用情報生成部と、を備えたことを特徴とする。
 本発明の別の態様はゲームシステムに関する。このゲームシステムは、プレイヤ用デバイスとの協働により電子ゲームを処理するとともに、各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを出力するゲームサーバと、前記ゲームパラメータを集約することにより、電子ゲームの実況画像の好適な視野に係る制御用情報を生成し出力する実況画像表示支援装置と、を含むことを特徴とする。
 本発明のさらに別の態様は実況画像表示支援方法に関する。この実況画像表示支援方法は電子ゲームの実況画像の表示を支援する装置が、各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを抽出するステップと、当該ゲームパラメータを集約することにより、実況画像の好適な視野に係る制御用情報を生成し出力するステップと、を含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、電子ゲームの実況映像を適切な内容で容易に表示させることができる。
本実施の形態を適用できるゲームシステムを例示する図である。 プレイヤ用画像と観戦用の実況画像の例を模式的に示す図である。 本実施の形態における実況画像表示支援装置の内部回路構成を示す図である。 本実施の形態におけるゲームサーバと実況画像表示支援装置の機能ブロックの構成を示す図である。 本実施の形態において実況画像を制御する処理手順とデータの変遷を示す図である。 本実施の形態においてクラスタリングにより仮想カメラの好適な位置を決定する例を説明するための図である。 本実施の形態において、仮想世界の3次元構造を考慮して仮想カメラの姿勢を決定する例を説明するための図である。 本実施の形態において、仮想世界の3次元構造を考慮して仮想カメラの位置および姿勢を決定する例を説明するための図である。 本実施の形態における、制御用情報生成部による地形マップの生成手法を説明するための図である。 本実施の形態における、実況画像管理者が実況画像を制御する態様において、実況画像表示支援装置が管理者用ディスプレイに表示させる管理者用の画面を例示する図である。
 図1は本実施の形態を適用できるゲームシステムを例示している。ゲームシステムは代表的にはeスポーツのイベントに利用できるが、複数のプレイヤが参加している電子ゲームの実況映像を他者に見せる状況であれば規模や場所は限定されない。ゲームシステムは、複数のプレイヤ用デバイス13a、13b、13c、・・・がLAN(Local Area Network)などのネットワーク6を介してゲームサーバ12に接続した構成を含む。
 プレイヤ用デバイス12a、12b、12c、・・・はそれぞれ、プレイヤが操作する端末であり、入力装置14a、14b、14c・・・と、プレイヤ用ディスプレイ16a、16b、16c、・・・が有線または無線で接続される。以後、プレイヤ用デバイス13a、13b、13c、・・・をプレイヤ用デバイス13、入力装置14a、14b、14c・・・を入力装置14、プレイヤ用ディスプレイ16a、16b、16c、・・・をプレイヤ用ディスプレイ16と総称する。
 システムに含まれるプレイヤ用デバイス13、入力装置14、プレイヤ用ディスプレイ16の数は特に限定されない。プレイヤ用デバイス13は、パーソナルコンピュータ、ゲーム専用機、コンテンツ処理装置などのいずれでもよい。入力装置14は、ゲームに対するユーザ操作を受け付ける一般的なコントローラでよい。プレイヤ用ディスプレイ16は一般的な平板型ディスプレイでもよいし、ヘッドマウントディスプレイなどのウェアラブルディスレプレイでもよい。
 なおプレイヤ用デバイス13、入力装置14、プレイヤ用ディスプレイ16は、図示するようにそれぞれが別の筐体を有していてもよいし、それらの2つ以上が一体的に設けられていてもよい。例えばプレイヤ用デバイス13、入力装置14、プレイヤ用ディスプレイ16を一体的に備える携帯端末などでもよい。
 ゲームサーバ12は各プレイヤ用デバイス13と通信を確立し、クライアントサーバ方式によりゲームを実行する。すなわちゲームサーバ12は、各プレイヤ用デバイス13からプレイヤの操作に基づくゲームデータを収集してゲームを進捗させる。そして他のプレイヤによる操作結果も含めたデータを返すことにより、プレイヤ用ディスプレイ16におけるゲーム画面に反映させるようにする。このようなプレイヤ用デバイス13とゲームサーバ12の動作は一般的なものでよい。
 本実施の形態のゲームシステムではさらに、実況画像表示支援装置10がゲームサーバ12等に接続されている。実況画像表示支援装置10は、各プレイヤの操作によって進捗するゲーム世界の様子を表した実況画像を観戦者用ディスプレイ8に表示させる。観戦者用ディスプレイ8は例えば、eスポーツのイベント会場に設置された大型スクリーンなど、複数の観戦者が一緒に見ることのできる平板型のディスプレイである。実況画像表示支援装置10には観戦者用ディスプレイ8のほか、実況画像の管理者のための入力装置18と管理者用ディスプレイ20を接続してよい。
 実況画像表示支援装置10はまた、実況画像のデータを、ネットワーク22を介して観戦者の端末24a、24bに送信してもよい。ネットワーク22はWAN(Wide Area Network)やLANなど、その規模は限定されない。したがって端末24a、24bを使用する観戦者は、イベント会場などプレイヤと同じ空間にいてもよいし、遠隔地など別の場所にいてもよい。
 図示するように観戦者用の端末24a、24bは、ディスプレイを備えた携帯端末であってもよいし、接続されたディスプレイ26に画像を表示させる情報処理装置やコンテンツ再生装置などでもよい。ディスプレイ26は平板型ディスプレイでもよいし、ヘッドマウントディスプレイなどのウェアラブルディスレプレイでもよい。また観戦者用の端末24a、24bの数は限定されない。以後、観戦者用の端末24a、24bを端末24と総称する。
 いずれにしろ本実施の形態において実況画像表示支援装置10は、ゲームサーバ12からゲームの状況に係る所定の情報を収集し、それに基づき、実況画像の視野の決定に利用できる情報を生成する。実況画像表示支援装置10は、生成した情報を用いて自らが実況画像を制御してもよいし、管理者用ディスプレイ20に当該情報を表示させ、最終的には実況画像管理者が入力装置18を用いて実況画像を制御してもよい。この態様において入力装置18は、一般的なコントローラ、キーボード、操作盤、スイッチなどであり、管理者が実況画像を制御する際に用いることができる。
 管理者用ディスプレイ20は、管理者が各種情報や実況画像を見るためのモニタとして機能する。なお実況画像表示支援装置10はゲームサーバ12の一部であってもよい。例えば実況画像を制御するための情報を生成する機能や、実況画像を生成する機能を、ゲームサーバ12が実行するゲームソフトウェアの一部として実装することで、ゲームデータの外部への露出を抑えてもよい。また実況画像表示支援装置10は、プレイヤ用デバイス13と通信を確立し、ゲームに係るデータをプレイヤ用デバイス13から取得してもよい。
 ここで本実施の形態の効果を明らかにするため、一般的なeスポーツにおいて表示される実況画像について説明する。図2は、プレイヤ用画像と観戦用の実況画像の例を模式的に示している。この例では、プレイヤが操作するキャラクタが仮想世界を動き回り、遭遇した敵キャラクタと対戦するゲームを想定している。(a)は、各プレイヤがそれぞれのディスプレイで見るプレイヤ用画像を例示している。この例でプレイヤ用画像170a、170b、170cは、それぞれのプレイヤが操作するキャラクタ(例えばキャラクタ171)の後ろ姿を中央下寄りに据え置き、その周囲の仮想世界を所定の画角で表している。
 プレイヤが入力装置14を介して各自のキャラクタを移動させる操作を行うと、キャラクタの背後に固定された仮想カメラがそれに追随することで、プレイヤ用画像170a、170b、170cに表される周囲の風景が変化する。このような表示形式のゲームはTPS(Third Person Shooting)と呼ばれる一般的なものである。ただし本実施の形態が対象とするゲームの種類をこれに限定する主旨ではない。
 プレイヤ用画像170a、170b、170cには多くの場合、ゲームプレイに必要な個別の情報も重畳表示される。図示する例では、各キャラクタの残りの体力を表すヒットポイント(HP)のゲージ(例えばゲージ172)、保有している武器を示すアイコン(例えばアイコン174)、仮想世界における現在地を示す地図(例えば地図76)などが表示されている。図示するように各キャラクタが仮想世界の別の場所にいれば、当然、プレイヤ用画像170a、170b、170cに表される場所も異なる。複数のキャラクタが同じ場所にいたり戦ったりしている状況においては、プレイヤ用画像170a、170b、170cに表される場所も重複するが、キャラクタの向きやプレイヤの操作によって視野は様々となり得る。
 (b)は、会場内の大型スクリーンや観戦者の端末などに表示される実況画像の一例を示している。この例では、あるプレイヤ用画像170cを選択し、そのまま実況画像に利用している。この場合、実況画像を別途生成する必要がなく、処理を簡素化できる。一方、プレイヤ用画像の本来の用途はゲームプレイそのものにあるため、観戦者が見て楽しめるとは限らない。そのためどのプレイヤ用画像を選択するかによって、会場の盛り上がりに差が出てしまうことがあり得る。
 例えば選択したプレイヤ用画像のキャラクタがすぐに敗北してしまえば、次の表示対象を選択し直す必要が生じる。このようなことが頻繁に起こると、観戦者は脈絡のないシーンを次々見せられることになり、ゲーム世界に没頭しにくくなる。複数のプレイヤ用画像170a、170b、170cを定期的に切り替えて表示させる場合も同様である。また、選択したプレイヤ用画像のキャラクタが、戦闘を避け有利なポジションに滞在し続けたり、周囲に他のキャラクタがおらず意図せず戦闘が発生しない状態が続いたりしても盛り上がりを阻害する。
 そこで、実況画像としてプレイヤ用画像170a、170b、170cを用いず、独立した仮想カメラを設定して別途画像を生成することが考えられる。この場合、仮想カメラの位置や姿勢を自由に動かしたり切り替えたりできるため、盛り上がりが期待できる面白い場面や重要な局面を観戦者に見せることが可能となる。しかしながら全てのキャラクタの状況を把握したうえ、適切に画面を切り替えたり視野を変化させたりするには、多くの人員や高い技量が必要となりコストが増大する。このため資金が潤沢でない小規模なイベントほど、実況画像が貧弱となり盛り上がりに欠ける結果となってしまう。
 そこで本実施の形態の実況画像表示支援装置10は、各キャラクタの状況などを収集して実況画像の制御に利用できるようにする。すなわち実況画像表示支援装置10は、ゲーム上で取得/生成される所定のパラメータをゲームサーバ12から取得し、それを用いて、実況画像制御の拠り所となる所定の情報を生成する。以後、収集されるゲーム上のパラメータを「ゲームパラメータ」、実況画像表示支援装置10が生成する実況画像制御のための情報を「制御用情報」と呼ぶ。ただし制御用情報にゲームパラメータ自体が含まれていてもよい。
 典型的な例として、ゲームパラメータはプレイヤごと、キャラクタごとの情報であり、各プレイヤの操作に基づいてゲームのプログラムにより取得される、ゲーム処理に必要なデータである。制御用情報は、それらを集約させることにより得られ、実況画像の好適な視野に係る情報、例えば表示するのが望ましいキャラクタや場所を示唆する情報である。例えば実況画像表示支援装置10は、ゲームパラメータとして各キャラクタの仮想世界での位置情報を取得する。そしてキャラクタの集まり、すなわちクラスタが形成されている場所を、制御用情報として生成する。
 さらに実況画像表示支援装置10は、当該場所でのキャラクタの分散の仕方や、仮想世界での地形などに基づき、仮想カメラの好適な位置や姿勢(視点の位置や視線の方向)を制御用情報として生成してもよい。なお制御用情報は、プレイヤ画像と独立した実況画像の生成に用いるのに限らず、実況画像として利用するプレイヤ用画像の選択に利用してもよい。すなわち本実施の形態の実況画像は、プレイヤ用画像と独立に生成した画像であってもよいし、いずれかのプレイヤ用画像であってもよい。あるいはそれらを切り替えて表示してもよい。
 上述のとおり実況画像表示支援装置10は、制御用情報に基づき自らが実況画像を生成したり画面を切り替えたりしてもよいし、最終的な操作は実況画像管理者に行わせるようにしてもよい。後者の場合、実況画像表示支援装置10は、制御用情報を管理者用ディスプレイ20に表示することにより、実況画像管理者による作業を支援する。いずれにしろ実況画像表示支援装置10が、実況画像の制御に有用なゲームパラメータをリアルタイムで収集することにより、格段に少ない労力で適切な実況画像を容易に表示できる。
 図3は、実況画像表示支援装置10の内部回路構成を示している。実況画像表示支援装置10は、CPU(Central Processing Unit)30、GPU(Graphics Processing Unit)32、メインメモリ34を含む。これらの各部は、バス36を介して相互に接続されている。バス36にはさらに入出力インターフェース38が接続されている。入出力インターフェース38には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなり、ゲームサーバ12や端末24と通信を確立する通信部40、ハードディスクドライブや不揮発性メモリなどの記憶部42、観戦者用ディスプレイ8や管理者用ディスプレイ20へデータを出力する出力部44、入力装置18からデータを入力する入力部46、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部48が接続される。
 CPU30は、記憶部42に記憶されているオペレーティングシステムを実行することにより実況画像表示支援装置10の全体を制御する。CPU30はまた、リムーバブル記録媒体から読み出されてメインメモリ34にロードされた、あるいは通信部40を介してダウンロードされた各種プログラムを実行する。GPU32は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU30からの描画命令に従って描画処理を行い、出力部44に出力する。メインメモリ34はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。なおゲームサーバ12、プレイヤ用デバイス13、端末24も同様の回路構成としてよい。
 図4は、ゲームサーバ12と実況画像表示支援装置10の機能ブロックの構成を示している。同図に示す各機能ブロックは、ハードウェア的には図3で示したCPU30、GPU32、メインメモリ34などで実現でき、ソフトウェア的には、記録媒体からメモリにロードした、情報処理機能、画像描画機能、データ入出力機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 ゲームサーバ12は、各プレイヤ用デバイス13とゲーム上のデータをやりとりするゲームデータ送受信部50、ゲームを処理するゲーム処理部52、ゲーム上のデータを記憶するゲームデータ記憶部54、および、ゲームパラメータを実況画像表示支援装置10に送信するパラメータ送信部56を含む。
 ゲームデータ送受信部50は、各プレイヤによる操作内容や、プレイヤ用デバイス13におけるローカルでのゲーム処理の結果として生成された各種データを即時受信する。ゲームデータ送受信部50はまた、ゲーム処理部52による処理の結果として生成された各種データを、プレイヤ用デバイス13に即時送信する。当該データは例えば、全プレイヤによる操作内容をゲーム世界に反映させたものである。プレイヤ用デバイス13は、当該データを用い、ローカルでのゲーム処理に反映させる。
 ゲーム処理部52は、プレイヤ用デバイス13から送信された操作内容などのデータに基づきゲームを進捗させる。すなわち全てのプレイヤによる操作を反映させた、統一されたゲーム世界を形成していく。ゲーム処理部52は、その結果をゲームデータ送受信部50に供給するとともに、プレイヤ用デバイス13から送信されたデータを含め、ゲームデータ記憶部54に順次格納していく。
 パラメータ送信部56は、ゲームデータ記憶部54に格納されたゲームデータのうち所定のものを、本実施の形態のゲームパラメータとして読み出し、実況画像表示支援装置10に送信する。例えばパラメータ送信部56は、次のような情報の少なくともいずれかを取得、送信する。
 戦況:スコア、倒した敵の数(キル数)、保有する武器など
 場所:仮想世界でのキャラクタの位置
 動作:キャラクタの動作の種類や他のキャラクタとのインタラクションの種類(戦闘など)
 なおプレイヤ用画像として自分のキャラクタを表さず、プレイヤの視野を表示させるFPS(First Person Shooting)の場合、上述した「キャラクタ」を「プレイヤ」と読み替えればよい。以後の説明でも同様である。ただし本実施の形態を適用できるゲームの種類は特に限定されず、ゲームの内容に応じて上記以外の情報も収集できることは、当業者には理解されるところである。
 パラメータ送信部56は、所定の時間間隔で状況情報を送信してもよいし、変化があったときに随時、その変化分の情報を送信してもよい。送信のタイミングはゲームパラメータの種類によって様々であってよい。なおパラメータ送信部56は実際には、ゲーム処理部52が実行しているゲームソフトウェアのAPI(Application Programming Interface)を呼び出すことにより実現してもよい。
 実況画像表示支援装置10は、ゲームパラメータを取得するデータ取得部58、制御用情報を生成する制御用情報生成部60、実況画像を取得する実況画像取得部62、および実況画像のデータを観戦者用ディスプレイ8などに出力するデータ出力部64を含む。データ取得部58は、ゲームサーバ12から送信されるゲームパラメータを随時取得する。なお実況画像としてプレイヤ用画像を利用する場合、データ取得部58は、対応するプレイヤ用デバイス13からプレイヤ用画像のフレームデータを取得してよい。
 この際、データ取得部58は実況画像取得部62から、表示対象のプレイヤ用画像やキャラクタなどの指定を受け、対応するプレイヤ用デバイス13を識別したうえ、当該プレイヤ用デバイス13にプレイヤ用画像の送信を要求する。制御用情報生成部60は、データ取得部58からゲームパラメータを取得し、それを集約することにより制御用情報を生成する。ここで制御用情報生成部60は、所定のレート、またはゲームパラメータに変化が生じたときなどに随時、制御用情報を更新する。
 制御用情報は例えば、実況画像として表示するのに好適なキャラクタ、場所、場面の少なくともいずれかを示す情報、または、それらの少なくともいずれかの、表示における優先順位を示す情報などである。例えば制御用情報生成部60は、各カテゴリに次のような観点で点数をつけ、総合点が高い順にソーティングすることで優先順位とする。
 キャラクタ:スコア、キル数、保有する武器の数や重要度、動作の大きさ
 場所:クラスタを形成しているか否か、クラスタの規模
 場面:戦闘中か否かなど場面の重要度
 例えば、強いキャラクタほど、規模が大きいクラスタほど、重要度の高い場面ほど、優先順位が高くなるような点数の付与規則をあらかじめ設定し、制御用情報生成部60の内部に格納しておく。なお制御用情報生成部60は、上記の観点を複数組み合わせ、表示対象として順位づけを行ってもよい。例えば同じ規模のクラスタが形成されている複数の場所がある場合、スコアが高いキャラクタがいる方の優先順位を高くする。スコアが同位のキャラクタが複数いる場合、戦闘中のキャラクタの優先順位を高くする。このように多角的な観点で表示における重要性を評価することにより、高い精度で容易に好適な場面を表示できる。
 制御用情報生成部60はまた、仮想カメラの好適な位置や姿勢の情報を制御用情報として生成してもよい。例えばクラスタが形成されている場所を表示対象とする場合、制御用情報生成部60は、当該クラスタ全体が視野に収まるような仮想カメラの位置や姿勢を取得してもよい。これにより、観戦者は当該クラスタの全体像を把握しやすくなる。ただしこの場合、クラスタの範囲が広すぎると、各キャラクタの像が小さくなり動きが見づらくなったり、実況画像が迫力に欠けたりすることが考えられる。
 そこで制御用情報生成部60は、所定の規則に従い視野を限定してもよい。この場合も、上述したような観点でクラスタ内の領域に優先順位をつけることにより、視野に含める対象を取捨選択してよい。また制御用情報生成部60は、ゲームパラメータ以外の情報を利用して制御用情報を生成してもよい。例えば制御用情報生成部60は仮想世界の3次元構造を、表示対象の優先順位づけや仮想カメラの位置、姿勢の決定に利用してもよい。
 ここで仮想世界の3次元構造とは、地面の傾斜角度や高さ、建造物の配置や高さなどである。例えばクラスタを形成しているキャラクタが山の斜面や断崖に分布している場合、スクリーンが斜面や断崖に正対するような仮想カメラの姿勢を導出することにより、キャラクタがいる位置の上下関係を一見して把握できるようになる。また地面の傾斜と仮想カメラの姿勢の関係に依存して見えづらくなる領域については、クラスタの範囲であっても視野から除外することにより、上述した視野の限定を適切に実現できる。
 制御用情報生成部60は、最適な表示対象の決定あるいは優先順位づけと、仮想カメラの好適な位置や姿勢の導出のどちらか一方を実施してもよいし、双方を実施してもよい。例えばゲームの性質上、表示対象が固定とされている場合であっても、制御用情報生成部60の機能により好適なアングルで実況画像を表すことができる。あるいは実況画像にプレイヤ用画像を利用する場合であっても、最適な表示対象が写る画像を容易に選択できる。当然、制御用情報生成部60が、最適な表示対象を定めたうえで、それに対する仮想カメラの好適な位置や姿勢を決定してもよい。
 実況画像取得部62は、制御用情報に基づき実況画像を取得する。例えば実況画像取得部62は、制御用情報に従い仮想カメラの位置や姿勢を設定したうえ、ゲームの仮想世界を描画することにより実況画像を生成する。あるいは実況画像取得部62は、制御用情報が示す好適な表示対象や優先順位に基づき、実況画像として利用するプレイヤ用画像を選択する。この場合、実況画像取得部62は、決定した表示対象が写るプレイヤ用画像をデータ取得部58に要求し、対応するプレイヤ用デバイス13から送信されたプレイヤ用画像を取得する。
 実況画像取得部62は、自らが実況画像を生成し続けてもよいし、選択したプレイヤ用画像を取得し続けてもよい。後者の場合、制御用情報に基づき、取得対象のプレイヤ用画像を適宜切り替えてもよい。あるいは実況画像取得部62は、実況画像として、自らが生成した画像とプレイヤ用画像を切り替えてもよい。なお上述のとおり実況画像取得部62は、実況画像管理者による仮想カメラの制御や画面の切り替え操作を、入力装置18を介して受け付け、それに従い実況画像を生成したりプレイヤ用画像を取得したりしてもよい。
 いずれの態様においても、実況画像取得部62は、プレイヤ用ディスプレイ16には表示されない各種情報を、実況画像に重畳表示させてもよい。例えば実況画像取得部62は、実況画像中の各キャラクタがどのプレイヤに対応するかを文字や図形で表したり、各キャラクタのスコア、ヒットポイント、保有する武器などの一覧、暫定ランキングなどを示したりしてよい。これにより観戦者は、実況画像が表す場面やゲームの状況を理解しやすくなる。
 データ出力部64は、実況画像取得部62が取得した実況画像のフレームデータを順次出力することにより、観戦者用ディスプレイ8、端末24、および管理者用ディスプレイ20に表示させる。実況画像管理者が実況画像の視野制御や切り替え操作を行う態様においては、データ出力部64はさらに、制御用情報を管理者用ディスプレイ20に表示させる。例えばデータ出力部64は、表示対象の優先順位や、好適な仮想カメラの位置や姿勢などの情報を、文字や図で表す。あるいはデータ出力部64は、表示中の実況画像において、次に中心に据え置くべきキャラクタを強調表示するよう加工してもよい。
 次に、以上の構成により実現できるゲームシステムの動作について説明する。図5は、本実施の形態において実況画像を制御する処理手順とデータの変遷を示している。ここでプレイヤ用デバイス13とゲームサーバ12は協働により、プレイヤの操作に応じたゲーム処理を継続しているとする。この過程において、ゲームサーバ12のゲームデータ記憶部54には、本実施の形態のゲームパラメータを含む各種ゲームデータが格納され続ける(S10)。
 ゲームサーバ12のパラメータ送信部56は、例えばゲームソフトウェアが提供するAPIにより、ゲームデータ記憶部54から所定のゲームパラメータを抽出する(S12)。図示する例では、ゲームパラメータとして、各キャラクタ(プレイヤ)のスコアと位置が抽出される。この例ではさらに、仮想世界の3次元構造を表すデータもAPIによって提供される。それらのデータは、パラメータ送信部56から実況画像表示支援装置10に送信される。なお仮想世界の3次元構造を表すデータは、実況画像表示支援装置10が事前に取得しておいてもよい。
 実況画像表示支援装置10の制御用情報生成部60は、送信されたゲームパラメータや3次元構造のデータを用いて制御用情報を生成する。この例ではまず、それらのデータから直接得られる中間情報を生成したうえ(S14)、仮想カメラの位置、姿勢を導出している(S16)。具体的には、スコアを単純ソーティングすることにより、キャラクタに表示の優先順位をつける(S14a)。またキャラクタの位置情報に基づきクラスタリングを行い、表示対象候補の領域を抽出する(S14b)。
 これらの情報を総合評価することにより、例えば最強のキャラクタが属するクラスタが形成されている場所など、最適な表示対象を導出できる。そのような表示対象、ひいては仮想カメラのおよその位置が決定したら、制御用情報生成部60はさらに、当該場所の3次元構造のデータを用いて地形などの法線を計算し、仮想カメラの好適な姿勢を導出する(S14c)。制御用情報生成部60はこの際、3次元構造を踏まえて好適な視野となるよう仮想カメラの位置を調整してもよい。
 以上の処理により導出された仮想カメラの位置や姿勢に従い、実況画像取得部62は対応する視野でゲーム世界を描画するなどして実況画像を取得し、観戦者用ディスプレイ8などに出力する(S18)。図示する処理を所定の頻度、または必要に応じて繰り返すことにより、ゲームの状況の変化に対応するように、好適な実況画像を表示させ続けることができる。ただし図示する手順や用いるデータは一例であり、本実施の形態を限定するものではない。
 図6は、クラスタリングにより仮想カメラの好適な位置を決定する例を説明するための図である。(a)は、仮想世界におけるキャラクタの分布を示している。制御用情報生成部60は、同図に矩形で示す各キャラクタの位置座標に基づき、k-means法など一般的なアルゴリズムによりクラスタリングを行う。図示する例では、3つのクラスタ70a、70b、70cが検出されている。このように複数のクラスタが形成されている場合、制御用情報生成部60は所定の規則により、そのうち1つのクラスタを表示対象として選択する。
 例えば制御用情報生成部60は、スコアやキル数が最高のキャラクタが属するクラスタ、あるいは、属するキャラクタのスコアやキル数の合計や平均値が最高のクラスタを選択する。スコアやキル数のほか、動きの大きさや動作の種類など、クラスタの選択に用いるゲームパラメータは特に限定されない。例えば上述同様、複数の観点でクラスタに点数を与え、最高点のクラスタを選択してもよい。この際、プレイヤ用ディスプレイ16には示されない(プレイヤには知らされない)ような各種パラメータを加味してもよい。
 例えば事前に、プレイヤの属性や契約などに応じた表示の優先順位をキャラクタに設定しておき、当該優先順位をクラスタの点数に反映させてもよい。あるいは点数による比較を行わず、所定の条件を満たしたクラスタは即時選択されるようにしてもよい。例えば、表示させ続けることが事前に決まっているキャラクタや、ゲーム内で重要な所定のオブジェクトを保持しているキャラクタが属するクラスタは、他のクラスタとの比較なしに選択するようにしてもよい。
 また、クラスタの面積や属するキャラクタの人数に上限や下限を設け、それらを逸脱するクラスタは選択肢から除外したり優先順位を下げたりしてもよい。これにより、例えば面積が広すぎて個々のキャラクタが見づらくなるクラスタや、人数が少なくシーンの盛り上がりに欠けそうなクラスタを、なるべく表示させないようにできる。以上のような選択処理を経て、1つのクラスタ70bを選択したら、制御用情報生成部60は、当該クラスタ70bの位置および面積に応じて仮想カメラの好適な位置を導出する。
 例えば制御用情報生成部60は、仮想カメラの光軸がクラスタ70bの重心に一致するように位置合わせする。またクラスタ70bの直径が画面の短手方向のサイズの90%など、所定割合を占めるように、地面に対する仮想カメラの高さを決定する。図の(b)は、そのように仮想カメラを設定することにより、実況画像取得部62が取得する実況画像を模式的に示している。この例は、屋外の駐車場などにキャラクタが分散している様子を示している。ここで仮想カメラの姿勢は、水平面である地面に対し撮像面(ビュースクリーン)を正対させた状態としている。
 なお仮想カメラの位置や姿勢は、そのまま固定とするのに限らず、その状態を中心として所定の範囲内で時間変化させることにより映像に躍動感を与えてもよい。当該操作は、実況画像取得部62があらかじめ設定された規則に従い自動で行ってもよいし、実況画像管理者が手動で行ってもよい。また上述のとおり実況画像取得部62は、キャラクタに対応するプレイヤの名前、チームの識別、スコアの一覧などの付加情報を実況画像に重畳表示させてよい。図示するような実況画像により、観戦者は、キャラクタが集まって戦っている様子などを、見やすい倍率で全体的に見渡すことができる。
 図7は、仮想世界の3次元構造を考慮して仮想カメラの姿勢を決定する例を説明するための図である。(a)、(b)の上段は、仮想世界における地面の高さを図の縦方向に表している。この例では、仮想世界の山80の斜面に、矩形で表したキャラクタ(例えばキャラクタ82)がクラスタを形成している様子を示している。図6で説明したように当該クラスタを検出し、(a)の上段に示すように仮想カメラ84aを垂直下向きに設定すると、その下段に示すような実況画像86aが生成される。
 この場合、キャラクタ同士の距離が傾斜に応じて縮小され、実際の位置関係が把握しづらくなる。山80の傾斜が急になり断崖に近づくほど、実況画像におけるキャラクタが重なり合い、さらに見づらくなる。そこで制御用情報生成部60は、表示対象の仮想世界の3次元構造に基づき仮想カメラの姿勢を調整する。具体的には(b)の上段に示すように、表示対象の地面の法線ベクトルnを取得し、光軸oが法線ベクトルnと一致するような仮想カメラ84bの姿勢を導出する。
 ここで法線ベクトルnは、例えば実況画像の中心に表される地点について求めればよく、図6のようにクラスタを表示対象とする場合、クラスタの重心がこれに対応する。この場合、図6と同様、クラスタ全体が画角に入るように仮想カメラ84bの高さを調整する。このようにすると、(b)の下段に示すように、キャラクタ同士の実際の距離を表した実況画像86bを表示できる。この場合も仮想カメラの位置や姿勢を所定の範囲内で時間変化させることにより、キャラクタと斜面の関係をよりわかりやすくしてもよい。
 図8は、仮想世界の3次元構造を考慮して仮想カメラの位置および姿勢を決定する例を説明するための図である。上段は、仮想世界における地面の高さを図の縦方向に表している。この例も仮想世界の山90の斜面に、矩形で表したキャラクタがクラスタを形成している様子を示している。ただしこの場合、キャラクタ(例えばキャラクタ92a、92b)は、山90の片側の斜面のみならず、頂上Aを越えた反対側の斜面にも分布している。図6で説明したように当該クラスタを検出し、垂直下向きに仮想カメラ94aを設定すると、下段の(a)に示すような実況画像が生成される。
 図7で説明したように、クラスタの重心における法線ベクトルnを基準に仮想カメラの姿勢を導出してもおよそ同様の結果となる。その結果、図7のケースと同様、キャラクタ同士の距離が縮小され、実際の位置関係が把握しづらくなる。またこの場合、頂上Aの位置がわからなければ、キャラクタの上下の位置関係も把握しづらい。そこで制御用情報生成部60は、例えば図の矢印のように、クラスタ内またはそれを含む表示範囲において、所定の間隔で地面の法線ベクトルを取得する。
 そしてそれらの角度の関係に基づき、クラスタのうち表示対象とする範囲を限定する。例えば制御用情報生成部60は、法線ベクトルの角度の範囲によってクラスタを領域分割する。そして、そのうち最も大きい領域の重心における法線ベクトル(例えば法線ベクトルn’)に対し、90°など所定値以上の角度をなす法線ベクトルを有する領域を表示対象から除外する。法線ベクトル同士の角度は内積などにより算出できる。図の例では、頂上Aを境に逆側の斜面の領域が、法線ベクトルn’’を根拠に除外される。
 そして残りのキャラクタ(例えばキャラクタ92a)で形成される新たなクラスタに対し、図7で説明したように仮想カメラ94bの位置や姿勢を導出する。すなわち仮想カメラ94bの光軸oを、新たなクラスタの重心における法線ベクトル(例えば法線ベクトルn’)と一致させたうえ、当該クラスタ全体が画角に入るように仮想カメラ94bの高さを調整する。このようにすると、(b)に示すように、キャラクタ同士の実際の距離や上下関係を表した実況画像を表示できる。
 また、仮想カメラ94bから見えない領域が表示対象のクラスタから除外されているため、残りのキャラクタのみを高い倍率で表示させることができる。なお図では仮想世界の山を例示したが、建造物や海の底などでも同様に、仮想カメラの好適な位置や姿勢を導出できる。またこの説明では、制御用情報生成部60は、クラスタを検出した場所に対し、その場で法線ベクトルを求め、傾斜を考慮した制御用情報を生成した。一方、制御用情報生成部60は、事前に仮想世界の全ての領域について法線ベクトルの分布を取得するなどして、地面の傾斜角度の範囲で領域分割を行っておいてもよい。
 例えば制御用情報生成部60は、仮想世界の3次元モデルを用い、平野、山、谷、建物など3次元構造の種類によって、領域にタグを付与した地形マップを準備してもよい。この場合、図示する山90のように、ある斜面に正対するように仮想カメラを設定した場合に写らなくなるような角度を有する斜面が隣接している地形では、最初からそれらの境界を跨がない条件でクラスタリングを行ってもよい。
 図9は、制御用情報生成部60による地形マップの生成手法を説明するための図である。まず制御用情報生成部60は、所定の間隔で取得した法線ベクトルの分布を用い、その角度範囲に基づき仮想世界を領域分割する。例えば所定間隔の法線ベクトルの内積が、正の所定値以上の状態が続く領域は、平野あるいはなだらかな斜面と判定する。それ以外の領域は、山または谷であるため、制御用情報生成部60はそのいずれであるかを図の(a)に示すように判別する。
 すなわち内積が所定値以下、ひいては急激な角度変化を有する2面100、102に着目し、それらの面の重心の中点104から各面100、102の重心へ向かうベクトルh、h’を設定する。そして当該ベクトルh、h’と、それらの到達点における面100、102の法線ベクトルN、N’との内積をそれぞれ算出する。内積が正の場合、(a)の左側に示すように、面100、102は山を形成していると判定する。内積が負の場合、(a)の右側に示すように、面100、102は谷を形成していると判定する。
 ベクトルh、h’の方位を変化させれば、方位による山や谷の変化も取得できる。このような計算により、制御用情報生成部60は、図の(b)に示す地形マップのように、仮想世界の場所に対し「平野」、「山」、「谷」といったタグを付与できる。ただし上記計算手法は一例であり、仮想世界の3次元モデルを用い、3次元構造の種類を特定する手法として様々に考えられることは当業者には理解されるところである。
 いずれにしろ制御用情報生成部60は、事前に地形マップを取得しておくことで、制御用情報を効率的に生成できる。例えば上述のとおり、山の頂上や尾根を跨がないようにクラスタリングを行える。また地形の種類によって、仮想カメラの位置や姿勢の決定ポリシーを切り替えることもできる。例えば図7、8で示したように、山に形成されたクラスタであれば片側の斜面に正対するような仮想カメラの姿勢とする一方、谷に形成されたクラスタであれば、両斜面が写るような水平方向を向く姿勢としてもよい。
 図10は、実況画像管理者が実況画像を制御する態様において、実況画像表示支援装置10が管理者用ディスプレイ20に表示させる管理者用の画面を例示している。この例では、表示対象をキャラクタ単位で設定することを想定している。この場合、表示対象のキャラクタに対応するプレイヤ用画像を実況画像に利用することが考えられる。ただしそれに限る主旨ではない。
 図の(a)、(b)に示す例はいずれも、表示中の実況画像をベースとした管理者用画像を示している。すなわちこの時点での表示対象はキャラクタ110であり、実況画像には、その後ろ姿が中央下寄りに据え置かれ、周囲の仮想世界が所定の画角で表されている。ここで例えば、キャラクタ110のHPが所定値を下回るなどした場合、表示対象を別のキャラクタに変更することが考えられる。制御用情報生成部60はHPに限らず、上述したようなゲームパラメータによりキャラクタに与えた表示の優先順位を更新しつづけ、最高位のキャラクタが入れ替わったら表示対象の変更を勧告してよい。
 なお制御用情報生成部60は、表示対象を変更する時間の間隔に下限を設けることにより、あまりに頻繁に表示対象が入れ替わらないようにしてもよい。表示対象をキャラクタ112に変更する条件が満たされたら、制御用情報生成部60は、(a)に示すように当該キャラクタ112を強調表示することで、実況画像管理者にその旨を勧告する。この例では、キャラクタ112を指示する矢印114を重畳表示している。
 矢印114により、表示対象をキャラクタ112に変更するのが望ましいことを認識した実況画像管理者は、例えば入力装置18を介して表示対象の変更を確定させる入力を行う。すると実況画像取得部62は、当該キャラクタ112を中央下寄りに据え置いた実況画像の取得を開始する。当該画像は、キャラクタ112を操作しているプレイヤのプレイヤ用画像でもよいし、実況画像取得部62が仮想カメラをキャラクタ112に寄せて別途生成した画像でもよい。
 これらの処理により、実況画像においてメインで表示されるキャラクタが、キャラクタ110からキャラクタ112に切り替えられる。なお管理者用の画面において次の表示対象候補を示す手段は矢印114に限らない。例えば、キャラクタの輪郭を別の色で表したり、シルエット全体に所定色のマスクをかけたりしてもよい。
 一方、制御用情報生成部60は、次の表示対象を明示せず、実況画像管理者が最終的に判断するための参考となる情報を表示させてもよい。例えば(b)に示すように、候補となるキャラクタ112、116のゲームパラメータのうち、表示対象にできる根拠となるゲームパラメータを表示させる。この例では、HPを表すゲージ118a、118bと、保有している武器を示すアイコン(例えばアイコン120a、120b)を、各キャラクタ112、116の近傍に表している。
 このうちキャラクタ112を選択する根拠となるのは、100%近いHPにあるため、そのゲージ118aを太線で囲んで強調している。一方、キャラクタ116を選択する根拠となるのは、保有している武器にあるため、そのアイコン120bを太線で囲んで強調している。実況画像管理者は、どちらの根拠を有効とするかを自分で判断し、図示しないカーソルなどで一方のキャラクタを選択することにより、次の表示対象の確定入力を行う。その後の実況画像取得部62の処理は(a)のケースと同様である。
 なおこの場合も、管理者が容易に認識できる限り、ゲージや武器などのゲームパラメータの強調のさせ方は特に限定されない。また、武器が希少価値である度合い、HP、対応するプレイヤの過去の戦績など、定量的な比較が可能なゲームパラメータを利用する場合、カテゴリごとにソートした結果を一覧で示したり、キャラクタの近傍に順位を示したりして、管理者に優先順位がわかるようにしてもよい。また実況画像に含まれない、別の場所にいるキャラクタやクラスタを次の表示対象の候補とする場合は、別途、仮想世界を俯瞰した画像や地図を表示させることにより、それらを選択できるようにしてもよい。
 なお実況画像管理者に提示する情報は図示するものに限らず、制御用情報のいずれであってもよい。例えば制御用情報生成部60は、仮想カメラの好適な位置姿勢の情報や、その優先順位を表示させ、管理者がそのいずれかを選択できるようにしてもよい。この際、仮想カメラの位置や姿勢の微修正を実況画像管理者からさらに受け付けてもよい。あるいは制御用情報生成部60は、表示中でない場所で戦闘が開始された旨を実況画像管理者に通知し、表示対象の切り替えを受け付けてもよい。そのうえで、当該場所に対する仮想カメラの状態や、メインで表示させるキャラクタの選択など、詳細な指定を実況画像管理者からさらに受け付けてもよい。
 以上述べた本実施の形態によれば、eスポーツなどの電子ゲームにおいて、ゲーム処理の過程で取得されるデータのうち所定のゲームパラメータを抽出し、それを用いて実況画像の好適な視野に係る制御用情報を生成する。これにより、ゲームの進捗に合わせて実況画像を生成したりプレイヤ用画像から選択したりする作業が容易になる。結果として、スタッフの技量や人数を問わず好適な実況画像を表示でき、盛り上がりのあるイベントを低コストで実現できる。
 実況画像の表示対象として個々のキャラクタのほか、キャラクタのクラスタも候補とする。これにより、チームでの戦闘など規模の大きい場面の全体をわかりやすく伝えることができる。一方、所定の規則により表示対象を絞り込んだり、仮想世界の3次元構造を加味して仮想カメラの位置や姿勢を調整したりすることにより、ゲーム上で重要な部分を効率的かつ見やすく表すことができる。実況画像の制御用情報として仮想カメラの好適な位置や姿勢まで導出することにより、実況画像の制御を人手で行うのに限らず、完全に自動化することも可能であり、イベントの規模や資金、ゲームの内容、装置の処理能力などによって実施形態を臨機応変に設定できる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 以上のように本発明は、実況画像表示装置、ゲームサーバ、パーソナルコンピュータなど各種情報処理装置と、それを含むゲームシステムなどに利用可能である。
 8 観戦者用ディスプレイ、 10 実況画像表示支援装置、 12 ゲームサーバ、 13 プレイヤ用デバイス、 14 入力装置、 16 プレイヤ用ディスプレイ、 18 入力装置、 20 管理者用ディスプレイ、 22 ネットワーク、 24 端末、 30 CPU、 32 GPU、 34 メインメモリ、 40 通信部、 42 記憶部、 44 出力部、 46 入力部、 48 記録媒体駆動部、 50 ゲームデータ送受信部、 52 ゲーム処理部、 54 ゲームデータ記憶部、 56 パラメータ送信部、 58 データ取得部、 60 制御用情報生成部、 62 実況画像取得部、 64 データ出力部。

Claims (18)

  1.  電子ゲームの実況画像の表示を支援する装置であって、
     各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを抽出するデータ取得部と、
     前記ゲームパラメータを集約することにより、実況画像の好適な視野に係る制御用情報を生成し出力する制御用情報生成部と、
     を備えたことを特徴とする実況画像表示支援装置。
  2.  前記制御用情報生成部は前記制御用情報として、実況画像に対する仮想カメラの状態情報を生成することを特徴とする請求項1に記載の実況画像表示支援装置。
  3.  前記制御用情報生成部は、ゲーム上で設定されている仮想世界の3次元構造に基づき、前記仮想カメラの状態情報を生成することを特徴とする請求項2に記載の実況画像表示支援装置。
  4.  前記制御用情報生成部は、前記仮想世界における斜面の法線ベクトルを取得し、当該法線ベクトルと光軸が一致するような前記仮想カメラの姿勢を求めることを特徴とする請求項3に記載の実況画像表示支援装置。
  5.  前記状態情報に従い前記仮想カメラを設定したうえ、前記実況画像を生成する実況画像取得部をさらに備えたことを特徴とする請求項2から4のいずれかに記載の実況画像表示支援装置。
  6.  前記制御用情報生成部は、ゲームの仮想世界における、各プレイヤが操作するキャラクタの位置情報に基づきクラスタリングを行い、検出されたクラスタを表示対象とすることを特徴とする請求項1から5のいずれかに記載の実況画像表示支援装置。
  7.  前記制御用情報生成部は、前記クラスタに属する前記キャラクタに対応する前記ゲームパラメータに基づき、検出された複数のクラスタから1つを選択することを特徴とする請求項6に記載の実況画像表示支援装置。
  8.  前記制御用情報生成部は、ゲーム上で設定されている仮想世界の3次元構造に基づき、前記クラスタにおける表示対象の領域を限定することを特徴とする請求項6または7に記載の実況画像表示支援装置。
  9.  前記制御用情報生成部は、ゲーム上で設定されている仮想世界の3次元構造に基づき、構造の種類を領域に対応づけた地形マップを生成し、当該構造の種類に応じて、前記クラスタを実況画像に表すための仮想カメラの設定ポリシーを切り替えることを特徴とする請求項6から8のいずれかに記載の実況画像表示支援装置。
  10.  前記データ取得部は前記ゲームパラメータとして、プレイヤごとの戦況、ゲームの仮想世界における位置、および、行っている動作の種類の少なくともいずれかを取得することを特徴とする請求項1から9のいずれかに記載の実況画像表示支援装置。
  11.  前記制御用情報生成部は前記制御用情報として、前記ゲームパラメータを用いて所定の規則により表示対象に優先順位をつけることを特徴とする請求項1から10のいずれかに記載の実況画像表示支援装置。
  12.  前記制御用情報を、実況画像管理者が見る管理者用ディスプレイに表示させるデータ出力部をさらに備えたことを特徴とする請求項1から11のいずれかに記載の実況画像表示支援装置。
  13.  前記データ出力部は、ゲームの仮想世界においてプレイヤが操作するキャラクタのうち、次に表示対象とすべきキャラクタを強調表示し、実況画像管理者による確定入力を受け付けるすることを特徴とする請求項12に記載の実況画像表示支援装置。
  14.  前記データ出力部は、ゲームの仮想世界においてプレイヤが操作するキャラクタのうち、次に表示対象とすべきキャラクタ候補の近傍に、当該キャラクタを表示対象とすべき根拠となる前記ゲームパラメータを表示し、実況画像管理者によるキャラクタの選択入力を受け付けることを特徴とする請求項12に記載の実況画像表示支援装置。
  15.  各プレイヤがゲームプレイのために見るプレイヤ用画像のうち、前記制御用情報に基づき選択した、実況画像に用いるプレイヤ用画像のデータを取得する実況画像取得部をさらに備えたことを特徴とする請求項1に記載の実況画像表示支援装置。
  16.  プレイヤ用デバイスとの協働により電子ゲームを処理するとともに、各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを出力するゲームサーバと、
     前記ゲームパラメータを集約することにより、前記電子ゲームの実況画像の好適な視野に係る制御用情報を生成し出力する実況画像表示支援装置と、
     を含むことを特徴とするゲームシステム。
  17.  電子ゲームの実況画像の表示を支援する装置が、
     各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを抽出するステップと、
     前記ゲームパラメータを集約することにより、実況画像の好適な視野に係る制御用情報を生成し出力するステップと、
     を含むことを特徴とする実況画像表示支援方法。
  18.  電子ゲームの実況画像の表示を支援するコンピュータに、
     各プレイヤの操作に基づくゲーム処理において取得される所定のゲームパラメータを抽出する機能と、
     前記ゲームパラメータを集約することにより、実況画像の好適な視野に係る制御用情報を生成し出力する機能と、
     を実現させることを特徴とするコンピュータプログラム。
PCT/JP2020/047156 2020-12-17 2020-12-17 実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法 WO2022130568A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/047156 WO2022130568A1 (ja) 2020-12-17 2020-12-17 実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法
US18/256,468 US20240024772A1 (en) 2020-12-17 2020-12-17 Live image display support apparatus, game system, and live image display support method
JP2022569426A JPWO2022130568A1 (ja) 2020-12-17 2020-12-17

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/047156 WO2022130568A1 (ja) 2020-12-17 2020-12-17 実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法

Publications (1)

Publication Number Publication Date
WO2022130568A1 true WO2022130568A1 (ja) 2022-06-23

Family

ID=82057384

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/047156 WO2022130568A1 (ja) 2020-12-17 2020-12-17 実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法

Country Status (3)

Country Link
US (1) US20240024772A1 (ja)
JP (1) JPWO2022130568A1 (ja)
WO (1) WO2022130568A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08215433A (ja) * 1995-02-10 1996-08-27 Namco Ltd ゲーム実況中継装置
JPH11253659A (ja) * 1998-03-12 1999-09-21 Namco Ltd ゲーム用実況中継装置
JP2001000749A (ja) * 1999-06-01 2001-01-09 Genei Fu ネットワークを用いるオンラインサッカーゲームシステム及びその方法
JP2017225509A (ja) * 2016-06-20 2017-12-28 株式会社セガゲームス 映像生成システムおよび映像生成プログラム
KR20200074817A (ko) * 2018-12-17 2020-06-25 모젼스랩(주) 5g 무선통신을 이용한 다중접속자 기반의 가상게임 제공 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08215433A (ja) * 1995-02-10 1996-08-27 Namco Ltd ゲーム実況中継装置
JPH11253659A (ja) * 1998-03-12 1999-09-21 Namco Ltd ゲーム用実況中継装置
JP2001000749A (ja) * 1999-06-01 2001-01-09 Genei Fu ネットワークを用いるオンラインサッカーゲームシステム及びその方法
JP2017225509A (ja) * 2016-06-20 2017-12-28 株式会社セガゲームス 映像生成システムおよび映像生成プログラム
KR20200074817A (ko) * 2018-12-17 2020-06-25 모젼스랩(주) 5g 무선통신을 이용한 다중접속자 기반의 가상게임 제공 시스템

Also Published As

Publication number Publication date
US20240024772A1 (en) 2024-01-25
JPWO2022130568A1 (ja) 2022-06-23

Similar Documents

Publication Publication Date Title
US8568229B2 (en) Apparatus and method for displaying player character showing special movement state in network game
US11724181B2 (en) Non-transitory computer readable medium, method of controlling a game, and information processing device
US11839814B2 (en) Systems and methods for controlling camera perspectives, movements, and displays of video game gameplay
US20200254343A1 (en) Game program and game system
US12005357B2 (en) Systems and methods for controlling camera movements between storylines in a video game
JP6463346B2 (ja) ゲーム画像生成装置およびプログラム
WO2022134808A1 (zh) 虚拟场景中的数据处理方法、设备、存储介质及程序产品
US8444484B2 (en) Game device, control method of game device, and information storage medium
TWI334797B (en) Game device, method for controlling a game device, and information storage medium
WO2022130568A1 (ja) 実況画像表示支援装置、ゲームシステム、および実況画像表示支援方法
US11471779B2 (en) Spectating support apparatus, spectating support method, and spectating support program
US11117051B2 (en) Video game program and game system
JP5738525B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
CN113599829B (zh) 虚拟对象的选择方法、装置、终端及存储介质
US20210252404A1 (en) Computer-readable recording medium, game system, and method for game control
US20230018553A1 (en) Processing Apparatus, Program, And Method
JP7008677B2 (ja) ゲームプログラム、ゲーム処理方法および情報処理装置
US20230018547A1 (en) Information processing system, information processing method, and nontransitory storage medium
JP7336684B2 (ja) ゲームシステム及び装置
CN116320580A (zh) 直播界面的配置方法、装置、设备及介质
JP2023550233A (ja) 解説ビデオ生成方法、装置、サーバ及びコンピュータプログラム
JP4538331B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2013135880A (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20965956

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022569426

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18256468

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20965956

Country of ref document: EP

Kind code of ref document: A1