WO2013168547A1 - アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム - Google Patents

アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム Download PDF

Info

Publication number
WO2013168547A1
WO2013168547A1 PCT/JP2013/061745 JP2013061745W WO2013168547A1 WO 2013168547 A1 WO2013168547 A1 WO 2013168547A1 JP 2013061745 W JP2013061745 W JP 2013061745W WO 2013168547 A1 WO2013168547 A1 WO 2013168547A1
Authority
WO
WIPO (PCT)
Prior art keywords
user terminal
moving image
user
application
screen
Prior art date
Application number
PCT/JP2013/061745
Other languages
English (en)
French (fr)
Inventor
泰正 金子
直也 木原
貴裕 吉田
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Publication of WO2013168547A1 publication Critical patent/WO2013168547A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network

Definitions

  • the present invention relates to an application management apparatus, an application management apparatus control method, and an application management apparatus control program.
  • This application claims priority based on Japanese Patent Application No. 2012-109515 filed in Japan on May 11, 2012, the contents of which are incorporated herein by reference.
  • an application program is installed in the user terminal in advance, the user terminal performs arithmetic processing based on the application program, and changes and displays the screen based on the calculation result. It is.
  • an application system that uses an application via a network such as the Internet without installing an application program in a user terminal.
  • a user terminal connects to an application server via a network such as the Internet, and transmits instruction information input from the user to the application server.
  • the application server performs predetermined calculation processing according to the instruction information transmitted from the user terminal, and distributes a screen reflecting the result based on the calculation result to the user terminal in real time.
  • Some aspects of the present invention provide an application management apparatus, an application management apparatus control method, and an application management apparatus control program capable of using an application via a network.
  • the game system includes at least a plurality of application processing units, a synthesis unit, and a transmission unit.
  • the plurality of application processing units correspond to each of the user terminals, perform individual calculation processing based on individual instruction information transmitted from the plurality of user terminals, and based on the calculation result of the individual calculation processing You may be comprised so that each moving image according to each of each user terminal may be produced
  • the synthesizing unit may be configured to generate at least one synthesized moving image obtained by synthesizing the moving images generated by the plurality of application processing units so as to be displayed for each predetermined region on one screen.
  • the transmitting unit may be configured to transmit the at least one synthesized moving image to at least one user terminal among the plurality of user terminals.
  • the application management system includes at least a plurality of application processing units, a synthesis unit, and a transmission unit.
  • the plurality of application processing units correspond to each of the user terminals, perform individual calculation processing based on individual instruction information transmitted from the plurality of user terminals, and based on the calculation result of the individual calculation processing You may be comprised so that each moving image according to each of each user terminal may be produced
  • the synthesizing unit may be configured to generate at least one synthesized moving image obtained by synthesizing the moving images generated by the plurality of application processing units so as to be displayed for each predetermined region on one screen.
  • the transmitting unit may be configured to transmit the at least one synthesized moving image to at least one user terminal among the plurality of user terminals.
  • the synthesizing unit is configured such that a size of a first area in one screen on which the moving image generated based on instruction information from a first user terminal among the plurality of user terminals is displayed is the plurality of user terminals.
  • the at least one that is relatively larger than the size of the second area in the one screen on which the moving image generated based on the instruction information from the second user terminal is displayed.
  • One composite video may be generated.
  • the transmission unit may be configured to transmit the synthesized moving image to the first user terminal.
  • the application management system is generated based on instruction information from another user terminal among the plurality of user terminals in one screen of the at least one synthesized video to be transmitted to the at least one user terminal.
  • a synthesis definition information storage unit that stores synthesis definition information that defines attributes of a region where video is synthesized may be added.
  • the synthesis unit may be configured to generate the synthesized moving image to be transmitted to the at least one user terminal based on the synthesis definition information.
  • the combining unit generates a moving image generated based on instruction information from another user terminal among the plurality of user terminals in one screen of the at least one combined moving image transmitted to the at least one user terminal. May be configured to generate the synthesized moving image to be transmitted to the at least one user terminal based on synthesis definition information that defines attributes of a region to be synthesized.
  • Each of the plurality of application processing units may be configured to generate each moving image based on a calculation result of the calculation process that is a game process.
  • Another aspect of the present invention provides a method for controlling an application management system.
  • each of a plurality of application processing units corresponding to each of a plurality of user terminals performs individual calculation processing based on individual instruction information transmitted from the corresponding user terminal, Generating each moving image according to each user terminal based on the calculation result of the individual calculation processing, displaying each moving image generated by the plurality of application processing units for each predetermined area on one screen Generating at least one synthesized moving image, and transmitting the synthesized moving image to at least one user terminal among the plurality of user terminals.
  • Another aspect of the present invention provides a non-transitory storage medium that stores a computer program that is executed to perform a control method of an application management system.
  • each of a plurality of application processing units corresponding to each of a plurality of user terminals performs individual calculation processing based on individual instruction information transmitted from the corresponding user terminal, Generating each moving image according to each user terminal based on the calculation result of the individual calculation processing, displaying each moving image generated by the plurality of application processing units for each predetermined area on one screen Generating at least one synthesized moving image, and transmitting the synthesized moving image to at least one user terminal among the plurality of user terminals.
  • the application management system may include at least a combining unit.
  • the synthesizing unit generates one moving image corresponding to each user terminal generated based on a calculation result of individual calculation processing performed based on individual instruction information transmitted from each of a plurality of user terminals. It may be configured to generate at least one synthesized moving image synthesized so as to be displayed for each predetermined area on the screen.
  • the combining unit generates a moving image generated based on instruction information from another user terminal among the plurality of user terminals in one screen of the at least one combined moving image transmitted to the at least one user terminal. May be configured to generate the at least one synthesized moving image based on synthesis definition information that defines attributes of a region to be synthesized.
  • each moving image corresponding to each user terminal generated based on a calculation result of an individual calculation process performed based on individual instruction information transmitted from each of a plurality of user terminals is displayed as 1 It includes at least generating at least one synthesized moving image synthesized so as to be displayed for each predetermined area on one screen.
  • the generation of the at least one composite video is based on instruction information from another user terminal among the plurality of user terminals in one screen of the at least one composite video to be transmitted to the at least one user terminal. It may be performed based on the synthesis definition information that defines the attributes of the area where the generated moving image is synthesized.
  • each moving image corresponding to each user terminal generated based on a calculation result of an individual calculation process performed based on individual instruction information transmitted from each of a plurality of user terminals is displayed as 1 It includes at least generating at least one synthesized moving image synthesized so as to be displayed for each predetermined area on one screen.
  • the generation of the at least one composite video is based on instruction information from another user terminal among the plurality of user terminals in one screen of the at least one composite video to be transmitted to the at least one user terminal. It may be performed based on the synthesis definition information that defines the attributes of the area where the generated moving image is synthesized.
  • the application management system generates each moving image corresponding to each user terminal generated based on a calculation result of individual calculation processing performed based on individual instruction information transmitted from each of a plurality of user terminals. It includes at least a transmission unit configured to transmit at least one synthesized moving image synthesized so as to be displayed for each predetermined area on one screen to at least one user terminal among the plurality of user terminals.
  • Another aspect of the present invention provides an application management method.
  • each moving image corresponding to each user terminal generated based on a calculation result of an individual calculation process performed based on individual instruction information transmitted from each of a plurality of user terminals is displayed as 1 Transmitting at least one synthesized moving image synthesized so as to be displayed for each predetermined area on one screen to at least one user terminal among the plurality of user terminals.
  • Another aspect of the present invention provides a computer program product that is executed to perform an application management method.
  • each moving image corresponding to each user terminal generated based on a calculation result of an individual calculation process performed based on individual instruction information transmitted from each of a plurality of user terminals is displayed as 1 Transmitting at least one synthesized moving image synthesized so as to be displayed for each predetermined area on one screen to at least one user terminal among the plurality of user terminals.
  • FIG. 1 is a block diagram showing a configuration of an application system 1 according to the present embodiment.
  • the application system 1 includes a plurality of user terminals 10 (user terminal 10-1, user terminal 10-2, user terminal 10-3, etc. And applications connected to the plurality of user terminals 10 via the network 5.
  • a server 30 an example of an “application management device”.
  • the plurality of user terminals 10 have the same configuration, the description of “ ⁇ 1”, “ ⁇ 2”, etc. will be omitted as the user terminals 10 unless otherwise distinguished.
  • the network 5 is an information communication network configured by the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a dedicated line, or a combination thereof.
  • the user terminal 10 is a computer device used by a user.
  • a PC Personal Computer
  • the user terminal 10 includes input devices such as a keyboard, a mouse, and a touch panel, and accepts input of instruction information from the user.
  • the user terminal 10 includes a communication unit that communicates with the application server 30 via the network 5, a storage unit that stores various types of information, a display unit that is a display that displays information, and the like.
  • the user terminal 10 will be described as a PC.
  • the user terminal 10 uses an application service provided by the application server 30 connected via the network 5.
  • the user terminal 10 transmits instruction information input from the user to the application server 30, and displays a screen that reflects a result of application calculation processing performed by the application server 30 in accordance with the transmitted instruction information. Then, it is received from the application server 30 as a moving image in a streaming format and displayed on the display.
  • the instruction information transmitted from the user terminal 10 to the application server 30 is information indicating, for example, an application start request and operations corresponding to various functions of the application. Accordingly, the user can use the application without installing the application program in the user terminal 10.
  • the user U1 uses the user terminal 10-1
  • the user U2 uses the user terminal 10-2
  • the user U3 uses the user terminal 10-3
  • the user U4 uses the user terminal 10-4. It will be described as being used.
  • the application server 30 is a computer device that provides an application service that allows the user terminal 10 to use an application via the network 5, and includes a storage unit 31, a reception unit 33, an application control unit 34, a synthesis unit 36, and a transmission Part 37.
  • the storage unit 31 stores various types of information that are referred to in order for the application system 30 to operate.
  • the storage unit 31 stores in advance an application program for executing an application.
  • the receiving unit 33 receives instruction information transmitted from the user terminal 10.
  • the application control unit 34 performs a predetermined calculation process based on instruction information transmitted from each of the plurality of user terminals 10 and generates a moving image based on the calculation result, and a plurality of applications corresponding to each user terminal 10
  • a processing unit 35 (an application processing unit 35-1, an application processing unit 35-2, an application processing unit 35-3,...) Is provided.
  • the plurality of application processing units 35 have the same configuration, the description of “ ⁇ 1”, “ ⁇ 2”, etc. is omitted and described as the application processing unit 35 unless otherwise distinguished.
  • the application control unit 34 receives instruction information, which is an application use request, from the user terminal 10 via the reception unit 33, the application control unit 34 reads an application program stored in advance in the storage unit 31, and executes an application execution instance.
  • a certain application processing unit 35 is generated in its own storage area.
  • the application control unit 34 generates the same number of application processing units 35 as the user terminal 10 in order to generate one application processing unit 35 for one user terminal 10 that uses the application.
  • the application processing unit 35 performs predetermined calculation processing based on the instruction information transmitted from the user terminal 10 corresponding to itself, and generates a moving image based on the calculation result.
  • the arithmetic processing performed by the application processing unit 35 is, for example, processing for providing an application such as a game or desktop service.
  • an application such as a game or desktop service.
  • the application for example, a sports game such as a racing game, an action game such as a fighting game, a shooting game such as FPS (First Person Person shooter), a role playing game, a puzzle game, a simulation game, and the like can be applied.
  • the application processing unit 35 may execute an application such as office software such as word processing software, spreadsheet software, or presentation software.
  • the application processing unit 35 renders an application screen using a GPU (Graphics Processing Unit) or the like included in the application server 30, and outputs a moving image that is a continuous frame screen that changes with time series to the synthesis unit 36. .
  • GPU Graphics Processing Unit
  • the synthesizing unit 36 generates a synthesized moving image by synthesizing the moving images generated according to each of the plurality of user terminals 10 by the plurality of application processing units 35 so as to be displayed for each predetermined area on the screen. Specifically, the synthesizing unit 36 buffers the moving image generated by the application processing unit 35, encodes the moving image to a bit rate suitable for real-time moving image distribution, and generates a moving image. Then, a moving image corresponding to the plurality of user terminals 10 is combined to generate a combined moving image.
  • FIG. 2 is a diagram illustrating a screen example of a synthesized moving image generated by the synthesis unit 36.
  • the screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is reduced and displayed in the area indicated by reference sign d1-1.
  • the screen corresponding to the instruction information from the user terminal 10-2 corresponding to the user U2 is reduced and displayed.
  • the area indicated by reference numeral d1-3 is from the user terminal 10-3 corresponding to the user U3.
  • the screen corresponding to the instruction information is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed in the area denoted by reference numeral d1-4.
  • each user terminal 10 transmits to the application server 30 a moving image obtained by photographing a user who plays a musical instrument with a web camera or the like.
  • the application server 30 can produce
  • the application server 30 generates all the screens corresponding to the plurality of user terminals 10, and therefore can efficiently generate a composite moving image. For example, when application processing is performed on a user terminal, if a first user terminal and a second user terminal perform P2P (Peereto Peer) communication via the network 5, an attempt is made to generate a composite video. The screen generated in the first user terminal is transmitted to the second user terminal, and the second user terminal receives the screen transmitted from the first user terminal and combines it with its own screen for display. There is a need to.
  • P2P Peereto Peer
  • the transmitting unit 37 transmits the synthesized moving image generated by the synthesizing unit 36 to the user terminal 10.
  • the transmission unit 37 transmits the composite moving image in a streaming format.
  • Streaming is a transfer and playback method in which moving image data corresponding to time series is sequentially played back while being received. Thereby, the screen which changes according to instruction information can be displayed on the user terminal 10 in real time.
  • FIG. 3 is a diagram illustrating an operation example of the application system 1 according to the present embodiment.
  • the user terminal 10-1 connects to the application server 30 and transmits a use request (step S1).
  • the application control unit 34 generates an application (AP) processing unit 35-1 corresponding to the user terminal 10-1. .
  • the application processing unit 35-1 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-1, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (Step S1). S2).
  • the synthesizing unit 36 buffers the moving image output from the application processing unit 35-1 and encodes it to a bit rate suitable for moving image distribution.
  • a process for generating a streaming-format moving image is started (step S4).
  • the synthesis unit 36 outputs only the moving image corresponding to the user terminal 10-1 to the transmission unit 37 (step S5).
  • the transmission unit 37 starts processing for transmitting the moving image generated by the synthesis unit 36 in a streaming format (step S6).
  • the transmission unit 37 transmits the moving image to the user terminal 10-1 (Step S7).
  • the user terminal 10-2 connects to the application server 30 and transmits a use request (step S8).
  • the application control unit 34 When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-2, the application control unit 34 generates an application (AP) processing unit 35-2 corresponding to the user terminal 10-2.
  • the application processing unit 35-2 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-2, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step S9).
  • the synthesizing unit 36 buffers the moving image output from the application processing unit 35-2 and encodes it to a bit rate suitable for moving image distribution. To create a streaming video. Then, a synthesized moving image obtained by combining the moving image output from the application processing unit 35-1 and the moving image output from the application processing unit 35-2 is generated and output to the transmission unit 37 (step S11). The transmitting unit 37 transmits the synthesized moving image generated by the synthesizing unit 36 to the user terminal 10-1 and the user terminal 10-2 in a streaming format (Step S12).
  • the user terminal 10-3 connects to the application server 30 and transmits a use request (step S13).
  • the application control unit 34 When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-3, the application control unit 34 generates an application (AP) processing unit 35-3 corresponding to the user terminal 10-3.
  • the application processing unit 35-3 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-3, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step S14).
  • the synthesizing unit 36 buffers the moving image output from the application processing unit 35-3 and encodes it to a bit rate suitable for moving image distribution. To create a streaming video. Then, a composite video that combines the video output from the application processing unit 35-1, the video output from the application processing unit 35-2, and the video output from the application processing unit 35-3 is generated and transmitted. It outputs to the part 37 (step S16).
  • the transmitting unit 37 transmits the synthesized moving image generated by the synthesizing unit 36 to the user terminal 10-1, the user terminal 10-2, and the user terminal 10-3 in a streaming format (step S17).
  • the user terminal 10-4 connects to the application server 30 and transmits a use request (step S18).
  • the application control unit 34 When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-4, the application control unit 34 generates an application (AP) processing unit 35-4 corresponding to the user terminal 10-4.
  • the application processing unit 35-4 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-4, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step S19).
  • the synthesizing unit 36 buffers the moving image output from the application processing unit 35-4 and encodes it to a bit rate suitable for moving image distribution. To create a streaming video.
  • a synthesized moving image is generated by combining the moving image and output to the transmission unit 37 (step S21).
  • the transmitting unit 37 transmits the synthesized moving image generated by the synthesizing unit 36 to the user terminal 10-4 to the user terminal 10-1, the user terminal 10-2, and the user terminal 10-3 in a streaming format (step S22). ).
  • each of the plurality of user terminals 10 corresponds to the screen corresponding to the instruction information input to itself and the instruction information input to the other user terminals 10. Since the synthesized moving image synthesized with the screen is output, it is possible to grasp the status of other users' applications. In addition, since the screen corresponding to each user terminal 10 is generated in the same application server 30, a synthesized moving image is generated by combining the screens corresponding to each user terminal 10 without performing communication or the like with other devices. It is possible to generate and transmit a composite video without excessively increasing processing load and network load.
  • FIG. 4 is a block diagram showing the configuration of the application system 2 according to the present embodiment. Since the application system 2 of the present embodiment has the same configuration as that of the application system 1 of the first embodiment, the description of the same configuration as the application system 1 will be omitted, and a different configuration will be described.
  • the application provided by the application server 30 is a multi-user FPS game application in which a plurality of users form a team and the teams battle each other.
  • the application processing unit 35 of the application server 30 is a game process. A moving image is generated based on a calculation result of a certain calculation process.
  • the application system 2 of this embodiment includes a matching server 20 connected to the application server 30.
  • the matching server 20 includes a user information storage unit 21, a matching information storage unit 22, and a matching processing unit 23.
  • the application processing unit 35 supports a plurality of users who play a game as a team or an opponent. To do.
  • the application server 30 and the matching server 20 are an example of an application management apparatus.
  • the user information storage unit 21 stores user information indicating user attributes.
  • FIG. 5 is a diagram illustrating a data example of user information stored in the user information storage unit 21.
  • the user information includes information such as a user ID (Identifier), a win rate, a ranking order, and a registration date.
  • the user ID is information for identifying the user.
  • the battle win rate is information indicating the win rate of winning the opponent team in the game.
  • the ranking order is a rank based on the score, winning percentage, etc. in the game.
  • the registration date is information indicating the date when the corresponding user registered an account or the like to use the game.
  • the user information only needs to include at least the user ID.
  • the matching information storage unit 22 stores matching information indicating a correspondence between a plurality of users who play a game as a team or an opponent.
  • FIG. 6 is a diagram illustrating a data example of matching information stored in the matching information storage unit 22.
  • the matching information is associated with information of a user ID, a matching user ID (own team), and a matching user ID (partner team).
  • the user ID is information for identifying a user who uses the application.
  • the matching user ID (own team) is the user ID of another user associated with the same team as the corresponding user ID.
  • a matching user ID (an opponent team) is a user ID of another user associated with an opponent team for the team of the corresponding user ID.
  • the user whose user ID is U1 the user whose user ID is U2, the user whose user ID is U3, and the user whose user ID is U4 are the same team. It is shown that the team includes a user whose ID is U5, a user whose user ID is U6, a user whose user ID is U7, and a user whose user ID is U8. If the application is not a competitive game, the “matching user ID (partner team)” is not necessary.
  • the matching processing unit 23 generates matching information based on the matching request from the application processing unit 35 and stores it in the matching information storage unit 22. For example, the matching processing unit 23 reads the user information stored in the user information storage unit 21 and generates matching information in which users having the same battle win rate and ranking ranking are associated as the same team and the opponent team. Alternatively, for example, the matching processing unit 23 transmits and presents information on a list of users waiting for start and a list of teams waiting for an opponent to the user terminal 10 and accepts selection of the own team or the opponent team, Matching information can also be generated based on the accepted selection.
  • the matching processing unit 23 stores the generated matching information in the matching information storage unit 22, and the generated matching information is generated in the application server 30 in which the application processing unit 35 corresponding to the user included in the generated matching information is activated. Send matching information.
  • the application server 30 receives the matching information
  • the application processing units 35 corresponding to each of a plurality of users associated with the matching information can perform game control such as a battle process.
  • the combining unit 36 of the application server 30 can combine the moving images based on the user ID associated with the matching information as described later.
  • the storage unit 31 of the application server 30 in the present embodiment includes a synthesis definition information storage unit 32.
  • the composition definition information storage unit 32 sets, for each user, an attribute of an area in which a moving image generated based on instruction information from another user terminal 10 is combined in a screen of the synthetic moving image transmitted to the user terminal 10.
  • the defined composition definition information is stored.
  • FIG. 7 is a diagram illustrating a data example of the synthesis definition information stored in the synthesis definition information storage unit 32.
  • the combination definition information includes information such as a user ID, a combination target user ID, a combination position, a scale, and transparency.
  • the user ID is information for identifying the user.
  • the composition target user ID is information indicating the user ID of another user who composes the screen, for example, the user ID of a user on the same team.
  • the composition position is information indicating a position where another user's screen is combined, and a coordinate position on the screen indicating a position where the user's screen is combined is associated with each combination target user ID.
  • the scale indicates the scale of the screen of another user to be synthesized.
  • the transparency indicates the transparency of the screen of another user to be synthesized.
  • composition definition information is generated by the composition unit 36 at the start of an application, for example, and stored in the composition definition information storage unit 32.
  • the synthesizing unit 36 acquires the matching information stored in the matching information storage unit 22 of the matching server 20, and the matching user ID (own team) associated with the specific user ID in the acquired matching information is The combination definition information in which the indicated user ID is associated with the specific user ID as the combination target user ID is generated.
  • the synthesis unit 36 stores in advance the initial values of the information of the synthesis position, the scale, and the transparency in the synthesis definition information in its own storage area, and the synthesis definition information in which the initial values are associated with each other. Can be generated.
  • synthesis definition information instruction information for designating information of a synthesis position, a scale, and transparency is received from the user terminal 10 at the start of the application or during the application, and based on the received instruction information.
  • the synthesis definition information can be generated and stored in the synthesis definition information storage unit 32. Based on such synthesis definition information, the synthesis unit 36 generates a synthesized moving image.
  • the user can specify the position where the other user's screen is displayed, the transparency, and the like, and can play the game while grasping the other user's screen and situation.
  • the composition unit 36 determines that the size of the area in the screen on which the moving image generated based on the instruction information from the user terminal 10 corresponding to the main user is displayed is based on the instruction information from the other user terminals 10.
  • a synthesized moving image that is relatively large with respect to the size of the area in the screen on which the generated moving image is displayed is generated.
  • the main user is a user of the user terminal 10 that transmits the synthesized video, and the synthesis unit 36 generates a different synthesized video for each user.
  • FIG. 8 to FIG. 9 are diagrams showing examples of a composite video screen with the user U1 as the main user.
  • FIG. 8 is a diagram illustrating a first screen example of a synthesized moving image generated based on the synthesis definition information by the synthesis unit 36 of the present embodiment.
  • a screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is displayed on the entire screen indicated by the symbol d2-1, and the user corresponding to the user U2 is displayed in the region indicated by the symbol d2-2.
  • the screen corresponding to the instruction information from the terminal 10-2 is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-3 corresponding to the user U3 is reduced in the area denoted by reference numeral d2-3.
  • the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed.
  • FIG. 9 is a diagram illustrating a second screen example of the synthesized moving image generated by the synthesizing unit 36 based on the synthesis definition information.
  • the screen indicated by reference sign d3 the screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is reduced and displayed in the area indicated by reference sign d3-1.
  • the screen corresponding to the instruction information from the user terminal 10-2 corresponding to the user U2 is reduced and displayed.
  • the area from the user terminal 10-3 corresponding to the user U3 is displayed.
  • the screen corresponding to the instruction information is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed in the area d3-4.
  • FIG. 10 is a diagram illustrating a third screen example of the synthesized moving image generated by the synthesis unit 36 based on the synthesis definition information.
  • a screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is displayed on the entire screen indicated by reference sign d4-1, and the user corresponding to the user U2 is displayed in the area indicated by reference sign d4-2.
  • the screen corresponding to the instruction information from the terminal 10-2 is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-3 corresponding to the user U3 is reduced in the area indicated by reference numeral d4-3.
  • the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed.
  • the transmission part 37 transmits the synthetic
  • FIG. 11 is a diagram illustrating an operation example of the application system 2 according to the present embodiment.
  • Step S30 and step S31 are the same as step S1 and step S2 in the first embodiment.
  • the application processing unit 35-1 transmits a matching request to the matching server 20 based on the instruction information transmitted from the user terminal 10-1 (Step S32).
  • the combining unit 36 The moving image output from the application processing unit 35-1 is buffered, encoded to a bit rate suitable for moving image distribution, and a streaming moving image is generated and output (step S34).
  • the transmission unit 37 starts processing for transmitting the moving image generated by the synthesis unit 36 in a streaming format (step S35).
  • the transmission unit 37 transmits the moving image to the user terminal 10-1 (Step S36).
  • the matching processing unit 23 of the matching server 20 generates matching information in which the user U1, the user U2, the user U3, and the user U4 are associated, and stores the matching information in the matching information storage unit 22 (step S55).
  • the matching processing unit 23 of the matching server 20 transmits the generated matching information to the application server 30.
  • the application processing unit 35-1, the application processing unit 35-2, the application processing unit 35-3, and the application processing unit 35-4 receive the matching information transmitted from the matching server 20. .
  • the composition unit 36 of the application server 30 receives the matching information (step S56).
  • the synthesizing unit 36 Upon receiving the matching information transmitted from the matching server 20, the synthesizing unit 36 generates synthesis definition information for each user based on the received matching information and stores it in the synthesis definition information storage unit 32. The synthesizing unit 36 then, the moving image output from the application processing unit 35-1, the moving image output from the application processing unit 35-2, the moving image output from the application processing unit 35-3, and the application processing unit 35. -4 starts to generate a composite video synthesized from the video output from -4 based on the composite definition information for each user (step S57). When the combining unit 36 generates and outputs a combined moving image (step S58), the transmission unit 37 transmits the combined moving image generated for each user to each user terminal 10 (step S59).
  • the user can monitor the situation of other users on the same team. It can be grasped, the field of view is widened, and the game can be played while taking into consideration the conditions of other users, and the game performance is improved. Moreover, since the trend of other users in the team can be grasped more intuitively and specifically than communication by voice chat or the like, it is possible to expect an effect of increasing the strategy and immersiveness of the game.
  • FIG. 12 is a block diagram showing the configuration of the application system 3 according to the present embodiment.
  • the application system 3 according to the present embodiment has the same configuration as that of the application system 2 according to the second embodiment.
  • the application control system 130 includes a storage server 131, a reception server 133, and a plurality of application control servers 134 (applications). Control server 134-1, application control server 134-2,...), Composition server 136, and transmission server 137.
  • the application control system 130 and the matching server 20 are examples of an application management apparatus.
  • the storage server 131 has the same configuration as the storage unit 31 in the first embodiment.
  • the reception server 133 has the same configuration as that of the reception unit 33 in the first embodiment.
  • the application control server 134 has the same configuration as that of the application control unit 34 in the first embodiment.
  • the composition server 136 has the same configuration as that of the composition unit 36 in the first embodiment.
  • the transmission server 137 has the same configuration as the transmission unit 37 in the first embodiment. Even with such a configuration, it is possible to provide an application similar to that of the first embodiment or the second embodiment.
  • the program for realizing the function of the processing unit in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed to control the application. You may go.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a WWW system provided with a website providing environment (or display environment).
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
  • RAM volatile memory
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

ゲームシステムは、複数のアプリケーション処理部と、合成部と、送信部とを少なくとも含む。前記複数のアプリケーション処理部は、前記各ユーザ端末のそれぞれに対応し、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成するよう構成されてもよい。前記合成部は、前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成するよう構成されてもよい。前記送信部は、前記少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信するよう構成されてもよい。

Description

アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム
 本発明は、アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラムに関する。
 本願は、2012年5月11日に、日本に出願された特願2012-109515に基づき優先権を主張し、その内容をここに援用する。
 ユーザ端末においてアプリケーションを利用する際には、ユーザ端末に予めアプリケーションプログラムをインストールし、ユーザ端末がアプリケーションプログラムに基づいて演算処理を行い、演算結果に基づいて画面を変化させて表示するものが一般的である。
 これに対し、ユーザ端末にアプリケーションプログラムをインストールせず、インターネット等のネットワークを介してアプリケーションを利用させるアプリケーションシステムが提案されている。例えば、ユーザ端末がインターネット等のネットワークを介してアプリケーションサーバに接続し、ユーザから入力される指示情報をアプリケーションサーバに送信する。アプリケーションサーバは、ユーザ端末から送信される指示情報に応じて所定の演算処理を行い、演算結果に基づく結果を反映した画面をリアルタイムにそのユーザ端末にストリーミング配信する。これによれば、ユーザ端末が行う処理は入力と出力のみであるため、アプリケーションプログラムをインストールすることなく、従来と同様の演算結果に基づく画面を表示することができる。このようなアプリケーションシステムにより、例えばデスクトップサービスや、クラウドゲームなどのサービスが提案されている(例えば、特許文献1参照)。
特開2011-182031号公報
 しかしながら、上述のようなアプリケーションシステムにおいては、アプリケーションの演算処理がアプリケーションサーバに置き換わっているものの、従来から動作していたアプリケーションと同様の結果画面をユーザ端末に表示させるものであり、アプリケーションの機能自体に付加価値を提供するものではなかった。そこで、ネットワークを介してアプリケーションを提供するアプリケーションシステムにおいて、より豊かなアプリケーション体験を提供することが望ましい。
 本発明の幾つかの態様は、ネットワークを介してアプリケーションを利用させることが可能なアプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラムを提供する。
 本発明の一態様は、ゲームシステムを提供する。前記ゲームシステムは、複数のアプリケーション処理部と、合成部と、送信部とを少なくとも含む。前記複数のアプリケーション処理部は、前記各ユーザ端末のそれぞれに対応し、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成するよう構成されてもよい。前記合成部は、前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成するよう構成されてもよい。前記送信部は、前記少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信するよう構成されてもよい。
本発明の第1の実施形態によるアプリケーションシステムの構成例を示すブロック図である。 本発明の第1の実施形態による合成動画の画面例を示す図である。 本発明の第1の実施形態によるアプリケーションシステムの動作例を示す図である。 本発明の第2の実施形態によるアプリケーションシステムの構成例を示すブロック図である。 本発明の第2の実施形態によるユーザ情報のデータ例を示す図である。 本発明の第2の実施形態によるマッチング情報のデータ例を示す図である。 本発明の第2の実施形態による合成定義情報のデータ例を示す図である。 本発明の第2の実施形態による合成動画の第1の画面例を示す図である。 本発明の第2の実施形態による合成動画の第2の画面例を示す図である。 本発明の第2の実施形態による合成動画の第3の画面例を示す図である。 本発明の第2の実施形態によるアプリケーションシステムの動作例を示す図である。 本発明の第3の実施形態によるアプリケーションシステムの構成例を示すブロック図である。
 本発明の一態様は、アプリケーション管理システムを提供する。前記アプリケーション管理システムは、複数のアプリケーション処理部と、合成部と、送信部とを少なくとも含む。前記複数のアプリケーション処理部は、前記各ユーザ端末のそれぞれに対応し、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成するよう構成されてもよい。前記合成部は、前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成するよう構成されてもよい。前記送信部は、前記少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信するよう構成されてもよい。
前記合成部は、前記複数のユーザ端末のうちの第1のユーザ端末からの指示情報に基づいて生成された前記動画が表示される1つの画面内の第1の領域の大きさが、前記複数のユーザ端末のうちの第2のユーザ端末からの指示情報に基づいて生成された前記動画が表示される前記1つの画面内の第2の領域の大きさに対して相対的に大きい前記少なくとも1つの合成動画を生成するよう構成されてもよい。前記送信部は、前記第1のユーザ端末に対して前記合成動画を送信するよう構成されてもよい。
 前記アプリケーション管理システムは、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する合成定義情報記憶部を更んでもよい。この場合、前記合成部は、前記合成定義情報に基づいて、前記少なくとも一つのユーザ端末に送信する前記合成動画を生成するよう構成されてもよい。
前記合成部は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて、前記少なくとも一つのユーザ端末に送信する前記合成動画を生成するよう構成されてもよい。
 前記複数のアプリケーション処理部の各々は、ゲーム処理である前記演算処理の演算結果に基づいて前記各動画を生成するよう構成されてもよい。
 本発明の他の態様は、アプリケーション管理システムの制御方法を提供する。前記アプリケーション管理システムの制御方法は、複数のユーザ端末のそれぞれに対応した複数のアプリケーション処理部のそれぞれが、対応する前記ユーザ端末から送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成すること、前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成すること、前記合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信することを少なくとも含む。
 本発明の他の態様は、アプリケーション管理システムの制御方法を行うために実行されるコンピュータプログラムを記憶した非一時的記憶媒体を提供する。前記アプリケーション管理システムの制御方法は、複数のユーザ端末のそれぞれに対応した複数のアプリケーション処理部のそれぞれが、対応する前記ユーザ端末から送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成すること、前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成すること、前記合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信することを少なくとも含む。
 本発明の他の態様は、アプリケーション管理システムを提供する。前記アプリケーション管理システムは、合成部を少なくとも含んでもよい。前記合成部は、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を生成するよう構成されてもよい。
 前記合成部は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて、前記少なくとも一つの合成動画を生成するよう構成されてもよい。
 本発明の他の態様は、アプリケーション管理方法を提供する。前記アプリケーション管理方法は、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を生成することを、少なくとも含む。
 前記少なくとも一つの合成動画の生成は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて行われてもよい。
 本発明の他の態様は、アプリケーション管理方法を行うために実行されるコンピュータプログラム製品を提供する。前記アプリケーション管理方法は、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を生成することを、少なくとも含む。
 前記少なくとも一つの合成動画の生成は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて行われてもよい。
 本発明の他の態様は、アプリケーション管理システムを提供する。前記アプリケーション管理システムは、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信するよう構成された送信部を、少なくとも含む。
 本発明の他の態様は、アプリケーション管理方法を提供する。前記アプリケーション管理方法は、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信することを、少なくとも含む。
 本発明の他の態様は、アプリケーション管理方法を行うために実行されるコンピュータプログラム製品を提供する。前記アプリケーション管理方法は、複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信することを、少なくとも含む。
 以下、本発明の一実施形態について、図面を参照して説明する。
<第1の実施形態>
 まず、本発明の第1の実施形態について説明する。図1は、本実施形態によるアプリケーションシステム1の構成を示すブロック図である。アプリケーションシステム1は、複数のユーザ端末10(ユーザ端末10-1、ユーザ端末10-2、ユーザ端末10-3、・・・)と、複数のユーザ端末10にネットワーク5を介して接続されたアプリケーションサーバ30(「アプリケーション管理装置」の一例)とを備えている。ここで、複数のユーザ端末10は同様の構成であるため、特に区別しない場合には「-1」、「-2」等の記載を省略してユーザ端末10として説明する。本実施形態では、4台のユーザ端末10を示して説明するが、任意の台数のユーザ端末10がネットワーク5に接続されていてよい。
 ネットワーク5は、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、専用回線、またはこれらの組み合わせによって構成される情報通信ネットワークである。
 ユーザ端末10は、ユーザが利用するコンピュータ装置であり、例えばPC(Personal Computer)、タブレットPC、スマートフォン、ゲーム機器等が適用できる。ユーザ端末10は、キーボード、マウス、タッチパネル等の入力デバイスを備えており、ユーザからの指示情報の入力を受け付ける。また、ユーザ端末10は、ネットワーク5を介してアプリケーションサーバ30と通信する通信部や、各種情報を記憶する記憶部、情報を表示するディスプレイである表示部等を備えている。本実施形態では、ユーザ端末10はPCであるものとして説明する。
 ここで、ユーザ端末10は、ネットワーク5を介して接続されたアプリケーションサーバ30によって提供されるアプリケーションサービスを利用する。本実施形態では、ユーザ端末10は、ユーザから入力される指示情報をアプリケーションサーバ30に送信し、送信した指示情報に応じてアプリケーションサーバ30によってアプリケーションの演算処理が行われた結果を反映した画面を、ストリーミング形式による動画としてアプリケーションサーバ30から受信し、ディスプレイに表示する。ユーザ端末10がアプリケーションサーバ30に送信する指示情報とは、例えばアプリケーションの開始要求や、アプリケーションの各種機能に応じた操作を示す情報である。これにより、ユーザ端末10にアプリケーションプログラムをインストールすることなく、ユーザはアプリケーションを利用することができる。本実施形態では、ユーザU1がユーザ端末10-1を利用し、ユーザU2がユーザ端末10-2を利用し、ユーザU3がユーザ端末10-3を利用し、ユーザU4がユーザ端末10-4を利用するものとして説明する。
 アプリケーションサーバ30は、ネットワーク5を介してユーザ端末10にアプリケーションを利用させるアプリケーションサービスを提供するコンピュータ装置であり、記憶部31と、受信部33と、アプリケーション制御部34と、合成部36と、送信部37とを備えている。
 記憶部31は、アプリケーションシステム30が動作するために参照する各種情報を記憶する。例えば、記憶部31には、アプリケーションを実行するためのアプリケーションプログラムが予め記憶されている。
 受信部33は、ユーザ端末10から送信される指示情報を受信する。
 アプリケーション制御部34は、複数のユーザ端末10のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末10のそれぞれに対応した複数のアプリケーション処理部35(アプリケーション処理部35-1、アプリケーション処理部35-2、アプリケーション処理部35-3、・・・)を備えている。ここで、複数のアプリケーション処理部35は同様の構成であるため、特に区別しない場合には「-1」、「-2」等の記載を省略してアプリケーション処理部35として説明する。アプリケーション制御部34は、ユーザ端末10から、アプリケーションの利用要求である指示情報を、受信部33を介して受信すると、予め記憶部31に記憶されているアプリケーションプログラムを読み出して、アプリケーションの実行インスタンスであるアプリケーション処理部35を自身の記憶領域に生成する。アプリケーション制御部34は、アプリケーションを利用するひとつのユーザ端末10に対してひとつのアプリケーション処理部35を生成するため、ユーザ端末10と同数のアプリケーション処理部35を生成する。
 アプリケーション処理部35は、自身に対応するユーザ端末10から送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する。アプリケーション処理部35が行う演算処理は、例えば、ゲームやデスクトップサービス等のアプリケーションを提供するための処理である。ゲームとは、例えばレースゲーム等のスポーツゲーム、格闘ゲーム等のアクションゲーム、FPS(First Person shooter)等のシューティングゲーム、ロールプレイングゲーム、パズルゲーム、シミュレーションゲームなどが適用できる。あるいは、アプリケーション処理部35は、ワープロソフト、表計算ソフト、プレゼンテーションソフト等のオフィスソフト等のアプリケーションを実行するものであってもよい。ここで、アプリケーション処理部35は、アプリケーションサーバ30が備えるGPU(Graphics Processing Unit)等を用いてアプリケーション画面のレンダリングを行い、時系列とともに変化するコマ画面の連続である動画を合成部36に出力する。
 合成部36は、複数のアプリケーション処理部35によって、複数のユーザ端末10のそれぞれに応じて生成された動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する。具体的には、合成部36は、アプリケーション処理部35によって生成された動画をバッファリングし、リアルタイム動画配信に適したビットレートにエンコードして動画を生成する。そして、複数のユーザ端末10に対応する動画を合成して合成動画を生成する。図2は、合成部36が生成する合成動画の画面例を示す図である。ここでは、符号d1に示す画面において、符号d1-1の領域にはユーザU1に対応するユーザ端末10-1からの指示情報に応じた画面を縮小して表示させており、符号d1-2の領域にはユーザU2に対応するユーザ端末10-2からの指示情報に応じた画面を縮小して表示させており、符号d1-3の領域にはユーザU3に対応するユーザ端末10-3からの指示情報に応じた画面を縮小して表示させており、符号d1-4の領域にはユーザU4に対応するユーザ端末10-4からの指示情報に応じた画面を縮小して表示させている。
 このように、ひとつの画面に複数のユーザ端末10に対応する画面を含ませた合成動画を生成してユーザ端末10に送信することにより、ユーザに他のユーザのアプリケーション画面をみせることができる。これにより、例えば、ユーザはレースゲームにおける競争相手である他のユーザの状況を把握したり、複数のユーザがチームを組んでチーム同士が対戦するFPSにおいて、自身のチームであるユーザの状況を把握したりすることができる。あるいは、例えば、複数のユーザが楽器のセッションを行うアプリケーションにおいて、他のユーザの演奏画面を合成した合成動画を生成することができる。ここでは、例えば、個々のユーザ端末10が、楽器を演奏するユーザをウェブカメラ等により撮影した動画をアプリケーションサーバ30に送信する。そして、アプリケーションサーバ30は、そのユーザ以外のユーザのユーザ端末10から送信された動画を合成した合成動画を生成してユーザ端末10に送信することができる。
 また、このようにすれば、アプリケーションサーバ30は、複数のユーザ端末10に対応する画面の全てを生成しているため、合成動画を効率良く生成することができる。例えば、ユーザ端末においてアプリケーションの演算処理を行う場合、第1のユーザ端末と第2のユーザ端末とがネットワーク5を介してP2P(Peer to Peer)通信を行うことにより合成動画を生成しようとすれば、第1のユーザ端末において生成した画面を第2のユーザ端末に送信し、第2のユーザ端末は第1のユーザ端末から送信された画面を受信して、自身の画面に合成してから表示する必要がある。これでは、ユーザ端末間において個々の画面を送受信する処理負荷やネットワーク負荷がかかるとともに、第1のユーザ端末と第2のユーザ端末との双方において画面を合成する処理負荷がかかる。これに対し、本実施形態によれば、ユーザ端末10-1に対応する画面とユーザ端末10-2に対応する画面とはいずれもアプリケーションサーバ30によって生成されるため、ユーザ端末10同士がネットワーク5を介して個別に画面の送受信をする必要がない。このため、ユーザ端末10同士がネットワーク5を介してP2P通信を行う場合に比べて、各ユーザ端末10の帯域幅等の回線品質や、ユーザ端末10間のレイテンシやパケットロス率等の経路品質等の要素がアプリケーションの利用品質に影響することがなく、快適にアプリケーションを利用させることができる。またアプリケーションサーバ30が一括して画面合成処理を行うため、ユーザ端末に画面合成処理のための負荷がかかることもない。
 送信部37は、合成部36によって生成された合成動画を、ユーザ端末10に送信する。ここで、送信部37は、ストリーミング形式により合成動画を送信する。ストリーミングとは、時系列に応じた動画のデータを受信しながら順次再生させる転送、再生方式である。これにより、指示情報に応じて変化する画面をリアルタイムにユーザ端末10に表示させることができる。
 次に、図面を参照して、本実施形態によるアプリケーションシステム1の動作例を説明する。図3は、本実施形態によるアプリケーションシステム1の動作例を示す図である。
 ユーザU1によって、ユーザ端末10-1にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10-1は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS1)。アプリケーションサーバ30の受信部33が、ユーザ端末10-1から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10-1に対応するアプリケーション(AP)処理部35-1を生成する。アプリケーション処理部35-1は、ユーザ端末10-1から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS2)。アプリケーション処理部35-1が、生成した動画を出力すると(ステップS3)、合成部36は、アプリケーション処理部35-1から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する処理を開始する(ステップS4)。この時点では、合成部36は、ユーザ端末10-1に対応する動画のみを送信部37に出力する(ステップS5)。送信部37は、合成部36によって生成された動画をストリーミング形式により送信する処理を開始する(ステップS6)。送信部37は、ユーザ端末10-1に動画を送信する(ステップS7)。
 同様に、ユーザU2によって、ユーザ端末10-2にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10-2は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS8)。アプリケーションサーバ30の受信部33が、ユーザ端末10-2から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10-2に対応するアプリケーション(AP)処理部35-2を生成する。アプリケーション処理部35-2は、ユーザ端末10-2から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS9)。アプリケーション処理部35-2が、生成した動画を出力すると(ステップS10)、合成部36は、アプリケーション処理部35-2から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する。そして、アプリケーション処理部35-1から出力される動画と、アプリケーション処理部35-2から出力される動画とを合成した合成動画を生成し、送信部37に出力する(ステップS11)。送信部37は、合成部36によって生成された合成動画を、ストリーミング形式によりユーザ端末10-1とユーザ端末10-2とに送信する(ステップS12)。
 同様に、ユーザU3によって、ユーザ端末10-3にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10-3は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS13)。アプリケーションサーバ30の受信部33が、ユーザ端末10-3から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10-3に対応するアプリケーション(AP)処理部35-3を生成する。アプリケーション処理部35-3は、ユーザ端末10-3から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS14)。アプリケーション処理部35-3が、生成した動画を出力すると(ステップS15)、合成部36は、アプリケーション処理部35-3から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する。そして、アプリケーション処理部35-1から出力される動画と、アプリケーション処理部35-2から出力される動画と、アプリケーション処理部35-3から出力される動画とを合成した合成動画を生成し、送信部37に出力する(ステップS16)。送信部37は、合成部36によって生成された合成動画を、ストリーミング形式によりユーザ端末10-1とユーザ端末10-2とユーザ端末10-3とに送信する(ステップS17)。
 同様に、ユーザU4によって、ユーザ端末10-4にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10-4は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS18)。アプリケーションサーバ30の受信部33が、ユーザ端末10-4から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10-4に対応するアプリケーション(AP)処理部35-4を生成する。アプリケーション処理部35-4は、ユーザ端末10-4から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS19)。アプリケーション処理部35-4が、生成した動画を出力すると(ステップS20)、合成部36は、アプリケーション処理部35-4から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する。そして、アプリケーション処理部35-1から出力される動画と、アプリケーション処理部35-2から出力される動画と、アプリケーション処理部35-3から出力される動画と、アプリケーション処理部35-4から出力される動画とを合成した合成動画を生成し、送信部37に出力する(ステップS21)。送信部37は、合成部36によって生成された合成動画を、ストリーミング形式によりユーザ端末10-1とユーザ端末10-2とユーザ端末10-3とにユーザ端末10-4とに送信する(ステップS22)。
 以上説明したように、本実施形態によれば、複数のユーザ端末10のそれぞれには、自身に入力された指示情報に応じた画面と、他のユーザ端末10に入力された指示情報に応じた画面とが合成された合成動画が出力されるため、他のユーザのアプリケーションの状況を把握することができる。また、各ユーザ端末10に応じた画面を同一のアプリケーションサーバ30において生成しているため、他の装置と通信等を行うことなく各ユーザ端末10に応じた画面を合成した合成動画を生成することができ、処理負荷やネットワーク負荷を過剰に増加させることなく、合成動画を生成して送信することができる。
<第2の実施形態>
 次に、本発明の第2の実施形態について説明する。図4は、本実施形態によるアプリケーションシステム2の構成を示すブロック図である。本実施形態のアプリケーションシステム2は、第1の実施形態のアプリケーションシステム1と同様の構成であるので、アプリケーションシステム1と同様の構成については説明を省略し、相違する構成を説明する。本実施形態においてアプリケーションサーバ30が提供するアプリケーションは、複数のユーザがチームを組んでチーム同士が対戦するマルチユーザ対応のFPSのゲームアプリケーションであり、アプリケーションサーバ30のアプリケーション処理部35は、ゲーム処理である演算処理の演算結果に基づいて動画を生成する。
 本実施形態のアプリケーションシステム2は、アプリケーションサーバ30に接続されたマッチングサーバ20を備えている。マッチングサーバ20は、ユーザ情報記憶部21と、マッチング情報記憶部22と、マッチング処理部23とを備えており、チームや対戦相手としてゲームを進行する複数のユーザに対応するアプリケーション処理部35の対応付けを行う。なお、本実施形態では、アプリケーションサーバ30とマッチングサーバ20とがアプリケーション管理装置の一例である。
 ユーザ情報記憶部21は、ユーザの属性を示すユーザ情報を記憶する。図5は、ユーザ情報記憶部21に記憶されるユーザ情報のデータ例を示す図である。ユーザ情報には、ユーザID(Identifier)と、対戦勝率と、ランキング順位と、登録日等の情報が含まれる。ユーザIDは、ユーザを識別する情報である。対戦勝率は、ゲームにおいて相手チームに勝利した勝率を示す情報である。ランキング順位は、ゲームにおける点数や勝率等の基づく順位である。登録日は、対応するユーザがゲームを利用するためにアカウント等の登録を行った日付を示す情報である。なお、ユーザ情報には少なくともユーザIDが含まれていればよいものである。
 マッチング情報記憶部22は、チームや対戦相手としてゲームを進行する複数のユーザの対応付けを示すマッチング情報を記憶する。図6は、マッチング情報記憶部22に記憶されるマッチング情報のデータ例を示す図である。ここでは、マッチング情報には、ユーザIDと、マッチングユーザID(自チーム)と、マッチングユーザID(相手チーム)との情報が対応付けられる。ユーザIDは、アプリケーションを利用するユーザを識別する情報である。マッチングユーザID(自チーム)は、対応するユーザIDと同じチームに対応付けられた他のユーザのユーザIDである。マッチングユーザID(相手チーム)は、対応するユーザIDのチームに対する対戦相手のチームに対応付けられた他のユーザのユーザIDである。ここでは、ユーザIDがU1であるユーザと、ユーザIDがU2であるユーザと、ユーザIDがU3であるユーザと、ユーザIDがU4であるユーザとが同じチームであり、その相手チームが、ユーザIDがU5であるユーザと、ユーザIDがU6であるユーザと、ユーザIDがU7であるユーザと、ユーザIDがU8であるユーザとが含まれるチームであることが示されている。なお、アプリケーションが対戦型ゲームでない場合、「マッチングユーザID(相手チーム)」は不要である。
 マッチング処理部23は、アプリケーション処理部35からのマッチング要求に基づいて、マッチング情報を生成してマッチング情報記憶部22に記憶させる。例えば、マッチング処理部23は、ユーザ情報記憶部21に記憶されているユーザ情報を読み出して、対戦勝率やランキング順位が同程度のユーザを同じチームや相手チームとして対応付けたマッチング情報を生成する。あるいは、例えば、マッチング処理部23は、開始待ち状態のユーザの一覧や対戦相手待ちの状態のチームの一覧の情報をユーザ端末10に送信して提示し、自チームや相手チームの選択を受け付け、受け付けた選択に基づいてマッチング情報を生成することもできる。
 また、マッチング処理部23は、生成したマッチング情報をマッチング情報記憶部22に記憶させるとともに、生成したマッチング情報に含まれるユーザに対応するアプリケーション処理部35が起動されているアプリケーションサーバ30に、生成したマッチング情報を送信する。これにより、アプリケーションサーバ30がマッチング情報を受信すると、マッチング情報により対応付けられた複数のユーザのそれぞれに対応するアプリケーション処理部35同士が、対戦処理等のゲーム制御を行うことができる。また、アプリケーションサーバ30がマッチング情報を受信すると、アプリケーションサーバ30の合成部36は、後述のようにマッチング情報に対応付けられたユーザIDに基づいて動画を合成することができる。
 本実施形態におけるアプリケーションサーバ30の記憶部31は、合成定義情報記憶部32を備えている。
 合成定義情報記憶部32は、ユーザごとに、ユーザ端末10に対して送信する合成動画における画面内に、他のユーザ端末10からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する。図7は、合成定義情報記憶部32に記憶される合成定義情報のデータ例を示す図である。合成定義情報には、ユーザIDと、合成対象ユーザIDと、合成位置と、縮尺と、透明度等の情報が含まれる。ユーザIDは、ユーザを識別する情報である。合成対象ユーザIDは、画面を合成する他のユーザのユーザIDを示す情報であり、例えば同じチームのユーザのユーザIDである。合成位置は、他のユーザの画面を合成する位置を示す情報であり、合成対象ユーザIDごとに、そのユーザの画面を合成する位置を示す画面上の座標位置が対応付けられる。縮尺は、合成する他のユーザの画面の縮尺を示す。透明度は、合成する他のユーザの画面の透明度を示す。
 このような合成定義情報は、例えば、アプリケーションの開始時等に合成部36によって生成され、合成定義情報記憶部32に記憶される。例えば、合成部36は、マッチングサーバ20のマッチング情報記憶部22に記憶されているマッチング情報を取得し、取得したマッチング情報において特定のユーザIDに対応付けられているマッチングユーザID(自チーム)が示すユーザIDを、合成対象ユーザIDとしてその特定のユーザIDに対応付けた合成定義情報を生成する。ここで、合成部36は、合成定義情報のうち、合成位置と、縮尺と、透明度との情報の初期値を自身の記憶領域に予め記憶しておき、初期値を対応付けた合成定義情報を生成することができる。あるいは、合成定義情報のうち、合成位置と、縮尺と、透明度との情報を指定する指示情報を、アプリケーションの開始時やアプリケーションの進行中にユーザ端末10から受信し、受信した指示情報に基づいて合成定義情報を生成して合成定義情報記憶部32に記憶させることもできる。このような合成定義情報に基づいて、合成部36によって合成動画が生成される。このような合成定義情報により、ユーザは他のユーザの画面が表示される位置や透明度等を指定することができ、他のユーザの画面や状況を把握しながらゲームをプレイすることができる。
 例えば、合成部36は、主ユーザに対応するユーザ端末10からの指示情報に基づいて生成された動画が表示される画面内の領域の大きさが、他のユーザ端末10からの指示情報に基づいて生成された動画が表示される画面内の領域の大きさに対して相対的に大きい合成動画を生成する。主ユーザとは、その合成動画を送信するユーザ端末10のユーザであり、合成部36は、ユーザごとに異なる合成動画を生成する。図8から図9は、ユーザU1を主ユーザとした合成動画の画面例を示す図である。
 図8は、本実施形態の合成部36により、合成定義情報に基づいて生成される合成動画の第1の画面例を示す図である。ここでは、符号d2-1に示す画面全体にユーザU1に対応するユーザ端末10-1からの指示情報に応じた画面を表示させており、符号d2-2の領域にはユーザU2に対応するユーザ端末10-2からの指示情報に応じた画面を縮小して表示させており、符号d2-3の領域にはユーザU3に対応するユーザ端末10-3からの指示情報に応じた画面を縮小して表示させており、符号d2-4の領域にはユーザU4に対応するユーザ端末10-4からの指示情報に応じた画面を縮小して表示させている。
 図9は、合成部36により、合成定義情報に基づいて生成される合成動画の第2の画面例を示す図である。ここでは、符号d3に示す画面において、符号d3-1の領域にはユーザU1に対応するユーザ端末10-1からの指示情報に応じた画面を縮小して表示させており、符号d3-2の領域にはユーザU2に対応するユーザ端末10-2からの指示情報に応じた画面を縮小して表示させており、符号d3-3の領域にはユーザU3に対応するユーザ端末10-3からの指示情報に応じた画面を縮小して表示させており、符号d3-4の領域にはユーザU4に対応するユーザ端末10-4からの指示情報に応じた画面を縮小して表示させている。
 図10は、合成部36により、合成定義情報に基づいて生成される合成動画の第3の画面例を示す図である。ここでは、符号d4-1に示す画面全体にユーザU1に対応するユーザ端末10-1からの指示情報に応じた画面を表示させており、符号d4-2の領域にはユーザU2に対応するユーザ端末10-2からの指示情報に応じた画面を縮小して表示させており、符号d4-3の領域にはユーザU3に対応するユーザ端末10-3からの指示情報に応じた画面を縮小して表示させており、符号d4-4の領域にはユーザU4に対応するユーザ端末10-4からの指示情報に応じた画面を縮小して表示させている。
 ここでは、第1の画面例、第2の画面例、第3の画面例を示したが、この他にも、任意に様々な合成定義情報を生成して、任意の画面が生成されるようにしてよい。
 本実施形態において、送信部37は、ユーザごとの合成定義情報に基づいて合成部36によって生成された合成動画を、そのユーザのユーザ端末10に送信する。
 次に、図面を参照して、本実施形態によるアプリケーションシステム2の動作例を説明する。図11は、本実施形態によるアプリケーションシステム2の動作例を示す図である。
 ステップS30、ステップS31は、第1の実施形態におけるステップS1、ステップS2と同様である。アプリケーション処理部35-1は、ユーザ端末10-1から送信される指示情報に基づいて、マッチングサーバ20にマッチング要求を送信する(ステップS32)。アプリケーション処理部35-1が、ユーザ端末10-1から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成して出力すると(ステップS33)、合成部36は、アプリケーション処理部35-1から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成して出力する(ステップS34)。送信部37は、合成部36によって生成された動画をストリーミング形式により送信する処理を開始する(ステップS35)。送信部37は、ユーザ端末10-1に動画を送信する(ステップS36)。
 ステップS30からステップS36までにおいてユーザ端末10-1について行った処理と同様の処理を、ステップS37からステップS42においてユーザ端末10-2について行い、ステップS43からステップS48においてユーザ端末10-3について行い、ステップS49からステップS54においてユーザ端末10-4について行う。マッチングサーバ20のマッチング処理部23は、ユーザU1、ユーザU2、ユーザU3、ユーザU4を対応付けたマッチング情報を生成し、マッチング情報記憶部22に記憶させる(ステップS55)。マッチングサーバ20のマッチング処理部23は、生成したマッチング情報を、アプリケーションサーバ30に送信する。アプリケーションサーバ30において、アプリケーション処理部35-1と、アプリケーション処理部35-2と、アプリケーション処理部35-3と、アプリケーション処理部35-4とが、マッチングサーバ20から送信されたマッチング情報を受信する。同様に、アプリケーションサーバ30の合成部36が、マッチング情報を受信する(ステップS56)。
 合成部36は、マッチングサーバ20から送信されたマッチング情報を受信すると、受信したマッチング情報に基づいてユーザごとの合成定義情報を生成し、合成定義情報記憶部32に記憶させる。そして、合成部36は、アプリケーション処理部35-1から出力される動画と、アプリケーション処理部35-2から出力される動画と、アプリケーション処理部35-3から出力される動画と、アプリケーション処理部35-4から出力される動画とを、ユーザごとの合成定義情報に基づいて合成した合成動画の生成を開始する(ステップS57)。合成部36が合成動画を生成して出力すると(ステップS58)、送信部37は、ユーザごとに生成された合成動画を、それぞれのユーザ端末10に送信する(ステップS59)。
 以上説明したように、本実施形態によれば、マッチング情報により対応付けられたユーザ同士の画面を合成した合成動画を生成して送信することにより、ユーザは、同じチームの他のユーザの状況を把握することができ、視野が広がるとともに、他のユーザの状況を考慮しながらゲームをプレイすることができ、ゲーム性が向上する。また、ボイスチャット等によるコミュニケーション以上に、チーム内の他のユーザの動向がより直感的かつ具体的に把握できるため、ゲームの戦略性、没入性の上昇効果が期待できる。
<第3の実施形態>
 次に、本発明の第3の実施形態について説明する。第1の実施形態および第2の実施形態においては、アプリケーションサーバ30が、記憶部31から送信部37の機能部を備える例を示したが、アプリケーションシステム1やアプリケーションシステム2が備える各構成は、クラウド環境やネットワーク環境、プレイヤ数の規模、アプリケーションシステム1やアプリケーションシステム2を構成するために用意されたハードウェアの数やスペック等に応じて、任意の台数のコンピュータ装置に分散または集約して配置することができる。図12は、本実施形態によるアプリケーションシステム3の構成を示すブロック図である。本実施形態のアプリケーションシステム3は、第2の実施形態のアプリケーションシステム2と同様の構成であるが、アプリケーション制御システム130として、記憶サーバ131と、受信サーバ133と、複数のアプリケーション制御サーバ134(アプリケーション制御サーバ134-1、アプリケーション制御サーバ134-2、・・・)と、合成サーバ136と、送信サーバ137とを備えている。なお、本実施形態では、アプリケーション制御システム130とマッチングサーバ20とがアプリケーション管理装置の一例である。
 記憶サーバ131は、第1の実施形態における記憶部31と同様の構成である。受信サーバ133は、第1の実施形態における受信部33と同様の構成である。アプリケーション制御サーバ134は、第1の実施形態におけるアプリケーション制御部34と同様の構成である。合成サーバ136は、第1の実施形態における合成部36と同様の構成である。送信サーバ137は、第1の実施形態における送信部37と同様の構成である。このような構成によっても、第1の実施形態または第2の実施形態と同様のアプリケーションを提供することができる。
 なお、本発明における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりアプリケーションの制御を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ウェブサイト提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 また、本発明は上述の第1~第3の実施形態に記載したものに限定されるものではなく、本発明の趣旨の範囲内でなされる変更は、いずれも本発明の範囲に含まれるものである。
 1 アプリケーションシステム
 2 アプリケーションシステム
 3 アプリケーションシステム
 5 ネットワーク
 10 ユーザ端末
 20 マッチングサーバ
 21 ユーザ情報記憶部
 22 マッチング情報記憶部
 23 マッチング処理部
 30 アプリケーションサーバ
 31 記憶部
 32 合成定義情報記憶部
 33 受信部
 34 アプリケーション制御部
 35 アプリケーション処理部
 36 合成部
 37 送信部
 131 記憶サーバ
 132 合成定義情報記憶部
 133 受信サーバ
 134 アプリケーション制御サーバ
 135 アプリケーション処理部
 136 合成サーバ
 137 送信サーバ

Claims (18)

  1.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成するよう構成され、前記各ユーザ端末のそれぞれに対応した複数のアプリケーション処理部と、
     前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成するよう構成された合成部と、
     前記少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信するよう構成された送信部と、
     を少なくとも含むアプリケーション管理システム。
  2.  前記合成部は、前記複数のユーザ端末のうちの第1のユーザ端末からの指示情報に基づいて生成された前記動画が表示される1つの画面内の第1の領域の大きさが、前記複数のユーザ端末のうちの第2の前記ユーザ端末からの指示情報に基づいて生成された前記動画が表示される前記1つの画面内の第2の領域の大きさに対して相対的に大きい前記少なくとも1つの合成動画を生成するよう構成され、
     前記送信部は、前記第1のユーザ端末に対して前記合成動画を送信するよう構成される
     請求項1に記載のアプリケーション管理システム。
  3.  前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する合成定義情報記憶部を更に含み、
     前記合成部は、前記合成定義情報に基づいて、前記少なくとも一つのユーザ端末に送信する前記合成動画を生成するよう構成される、
     請求項1に記載のアプリケーション管理システム。
  4.  前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する合成定義情報記憶部を更に含み、
     前記合成部は、前記合成定義情報に基づいて、前記少なくとも一つのユーザ端末に送信する前記合成動画を生成するよう構成される、
     請求項2に記載のアプリケーション管理システム。
  5.  前記合成部は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて、前記少なくとも一つのユーザ端末に送信する前記合成動画を生成するよう構成される、
     請求項1に記載のアプリケーション管理システム。
  6.  前記合成部は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて、前記少なくとも一つのユーザ端末に送信する前記合成動画を生成するよう構成される、
     請求項2に記載のアプリケーション管理システム。
  7.  前記複数のアプリケーション処理部の各々は、ゲーム処理である前記演算処理の演算結果に基づいて前記各動画を生成するよう構成される、
     請求項1に記載のアプリケーション管理システム。
  8.  複数のユーザ端末のそれぞれに対応した複数のアプリケーション処理部のそれぞれが、対応する前記ユーザ端末から送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成すること、
     前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成すること、
     前記合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信すること、
     を少なくとも含むアプリケーション管理システムの制御方法。
  9.  複数のユーザ端末のそれぞれに対応した複数のアプリケーション処理部のそれぞれが、対応する前記ユーザ端末から送信される個別の指示情報に基づいて個別演算処理を行い、前記個別演算処理の演算結果に基づく各ユーザ端末のそれぞれに応じた各動画を生成すること、
     前記複数のアプリケーション処理部によって生成された前記各動画を、1つの画面における所定の領域ごとに表示されるように合成した少なくとも一つの合成動画を生成すること、
     前記合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信すること、
     を少なくとも含むアプリケーション管理システムの制御方法を行うために実行されるコンピュータプログラムを記憶した非一時的記憶媒体。
  10.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を生成するよう構成された合成部を、
     少なくとも含むアプリケーション管理システム。
  11.  前記合成部は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて、前記少なくとも一つの合成動画を生成するよう構成される、
     請求項10に記載のアプリケーション管理システム。
  12.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を生成することを、
     少なくとも含むアプリケーション管理方法。
  13.  前記少なくとも一つの合成動画の生成は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて行われる
     請求項12に記載のアプリケーション管理方法。
  14.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を生成することを、
     少なくとも含むアプリケーション管理方法を行うために実行されるコンピュータプログラム製品。
  15.  前記少なくとも一つの合成動画の生成は、前記少なくとも一つのユーザ端末に対して送信する前記少なくとも一つの合成動画における1つの画面内に前記複数のユーザ端末のうち他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報に基づいて行われる
     請求項14に記載のコンピュータプログラム製品。
  16.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信するよう構成された送信部を、
     少なくとも含むアプリケーション管理システム。
  17.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信することを、
     少なくとも含むアプリケーション管理方法。
  18.  複数のユーザ端末のそれぞれから送信される個別の指示情報に基づいて行われた個別演算処理の演算結果に基づき生成された各ユーザ端末のそれぞれに応じた各動画を、1つの画面における所定の領域ごとに表示されるように合成した、少なくとも一つの合成動画を、前記複数のユーザ端末のうち少なくとも一つのユーザ端末に送信することを、
     少なくとも含むアプリケーション管理方法を行うために実行されるコンピュータプログラム製品。
     
     
     
PCT/JP2013/061745 2012-05-11 2013-04-22 アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム WO2013168547A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-109515 2012-05-11
JP2012109515A JP2013239766A (ja) 2012-05-11 2012-05-11 アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム

Publications (1)

Publication Number Publication Date
WO2013168547A1 true WO2013168547A1 (ja) 2013-11-14

Family

ID=49550598

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/061745 WO2013168547A1 (ja) 2012-05-11 2013-04-22 アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム

Country Status (2)

Country Link
JP (1) JP2013239766A (ja)
WO (1) WO2013168547A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11478710B2 (en) 2019-09-13 2022-10-25 Square Enix Co., Ltd. Information processing device, method and medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018164227A (ja) * 2017-03-27 2018-10-18 株式会社Nttぷらら 映像配信システム及び映像配信方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007301371A (ja) * 2006-05-10 2007-11-22 Konami Gaming Inc ゲーミング装置に対してゲームおよびサービスをストリームするためのシステムおよび方法
WO2012053273A1 (ja) * 2010-10-20 2012-04-26 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、情報記憶媒体及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157782A (ja) * 1999-12-02 2001-06-12 Dowango:Kk 対戦相手決定システム
JP2011087649A (ja) * 2009-10-20 2011-05-06 Konami Digital Entertainment Co Ltd ゲームシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007301371A (ja) * 2006-05-10 2007-11-22 Konami Gaming Inc ゲーミング装置に対してゲームおよびサービスをストリームするためのシステムおよび方法
WO2012053273A1 (ja) * 2010-10-20 2012-04-26 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、情報記憶媒体及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11478710B2 (en) 2019-09-13 2022-10-25 Square Enix Co., Ltd. Information processing device, method and medium

Also Published As

Publication number Publication date
JP2013239766A (ja) 2013-11-28

Similar Documents

Publication Publication Date Title
US11260295B2 (en) Cloud-based game streaming
JP6310073B2 (ja) 描画システム、制御方法、及び記憶媒体
JP5520190B2 (ja) 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、プログラム及び情報記憶媒体
JP7158858B2 (ja) 事前に記録されたゲームプレイに対する非同期コメントをキャプチャすること
US20190308107A1 (en) System and Method for Creating and Streaming Augmented Game Sessions
JP6232423B2 (ja) 情報処理装置、描画装置、方法及びプログラム
JP6576245B2 (ja) 情報処理装置、制御方法及びプログラム
US9526989B2 (en) Method and apparatus for receiving game streaming data, and method and server for transmitting game streaming data
JP2015515284A (ja) ゲームシステム、ゲーム装置、制御方法、プログラム及び記録媒体
JP2019154780A (ja) サーバおよびプログラム
CN113272031B (zh) 用于动态用户体验的集成界面
US20220277493A1 (en) Content generation system and method
JP2016116638A (ja) ゲーム処理システム、ゲーム処理方法、およびゲーム処理プログラム
WO2012053274A1 (ja) 画像処理システム、画像処理方法、情報記憶媒体及びプログラム
WO2013168547A1 (ja) アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラム
JP2021072965A5 (ja)
JP7343285B2 (ja) コンピュータシステム、配信用端末及び配信サーバー
JP6755720B2 (ja) ゲームプログラム及び記録媒体
WO2021177439A1 (ja) コンピュータシステム、ゲームシステム、代行プレイ実行制御方法及びプログラム
JP6826295B1 (ja) コンピュータプログラム、情報処理装置及び情報処理方法
JP2021137394A (ja) コンピュータシステム、ゲームシステム、リプレイ動画提供方法及びプログラム
JP2014016828A (ja) アプリケーション管理装置、アプリケーション管理システム、アプリケーション管理方法、およびアプリケーション管理プログラム
WO2022239783A1 (ja) プログラム及び情報処理装置
JP7185172B1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR20200044195A (ko) 클라우드 컴퓨터를 이용한 게임 플레이 동영상 제공 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13788250

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13788250

Country of ref document: EP

Kind code of ref document: A1