WO2016080005A1 - プログラムおよび情報処理装置 - Google Patents

プログラムおよび情報処理装置 Download PDF

Info

Publication number
WO2016080005A1
WO2016080005A1 PCT/JP2015/067075 JP2015067075W WO2016080005A1 WO 2016080005 A1 WO2016080005 A1 WO 2016080005A1 JP 2015067075 W JP2015067075 W JP 2015067075W WO 2016080005 A1 WO2016080005 A1 WO 2016080005A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
image
game
unit
replay
Prior art date
Application number
PCT/JP2015/067075
Other languages
English (en)
French (fr)
Inventor
陽 徳永
啓悟 田村
俊雅 青木
渉一 池上
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to CN201580061533.3A priority Critical patent/CN107206281A/zh
Priority to EP15861437.0A priority patent/EP3170539B1/en
Priority to US15/502,907 priority patent/US10596451B2/en
Priority to JP2016560073A priority patent/JP6518689B2/ja
Publication of WO2016080005A1 publication Critical patent/WO2016080005A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/332Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using wireless networks, e.g. cellular phone networks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game

Definitions

  • the present invention relates to a technique for editing a game scene.
  • the game program has a “replay function” that accumulates replay data indicating a play situation by a user and reproduces a game scene of an event occurring during the game as a replay image.
  • Patent Document 1 proposes a technique for generating a reproduction image by synthesizing a captured image showing a user playing a game with a replay image.
  • Patent Literature 1 by synthesizing an image obtained by capturing the state of the play user at the time of the event occurrence with the game scene of the event that has occurred, the viewer of the playback image can replay the game, The play user can feel the atmosphere of enjoying the game or being enthusiastic.
  • the inventor of the present invention has improved the technique disclosed in Patent Document 1 and has come up with a technique for generating a more realistic image for reproduction.
  • An object of the present invention is to provide a technique for synthesizing a game image such as a play image or a replay image of a game scene and a captured image of a user.
  • a program has determined a function for generating a game image in a computer and a function for determining a user to be included in a composite image based on a play situation in a game scene.
  • a function of acquiring a user image obtained by capturing a user and a function of generating a composite image of the acquired user image and a game image are realized.
  • This apparatus includes an image generation unit that generates a game image, a user determination unit that determines a user to be included in a composite image based on a play situation in a game scene, and a user image acquisition that acquires a user image obtained by imaging the determined user. And a synthesis processing unit that generates a synthesized image of the acquired user image and the game image.
  • the information processing technology of the present invention it is possible to provide a technology for effectively synthesizing a game image and a user's captured image.
  • FIG. 1 shows an information processing system 1 according to an embodiment of the present invention.
  • the information processing system 1 realizes an environment in which a user who is a distributor distributes a game image being played live and another viewing user views the game image.
  • the information processing system 1 includes an information processing device 10 used by a distribution user, a network server 5, a shared server 11, and various terminal devices 9a and 9b. These include the Internet, a LAN (Local Area Network), and a telephone network. Etc. are connected via the network 3.
  • LAN Local Area Network
  • An access point (hereinafter referred to as “AP”) 8 has a function of a wireless access point and a router, and the information processing apparatus 10 is connected to the AP 8 wirelessly or via a wire to connect to the network server 5 on the network 3,
  • the shared server 11 is communicably connected.
  • the information processing device 10 is connected to the input device 6 operated by the user wirelessly or by wire, and the input device 6 outputs information operated by the user to the information processing device 10.
  • the information processing apparatus 10 receives the operation information from the input device 6, the information processing apparatus 10 reflects it in the processing of the system software or game software, and causes the output device 4 to output the processing result.
  • the information processing device 10 is a game device that executes a game program, and the input device 6 may be a device that supplies user operation information to the information processing device 10 such as a game controller.
  • the information processing device 10 distributes game image data being played to the terminal devices 9a and 9b in a streaming manner, and thus the information processing system 1 in the embodiment operates as a game image distribution system.
  • the network server 5 provides a game network service to the user of the information processing apparatus 10.
  • the network server 5 manages a network account for identifying the user, and the user signs in to a network service provided by the network server 5 using the network account. By signing in to the network service from the information processing apparatus 10, the user can register game save data and a virtual award (trophy) acquired during game play in the network server 5.
  • terminal device 9 In this example, three users A, B, and C play a game together on the information processing apparatus 10, and the user A is the input device 6a, the user B is the input device 6b, and the user C is the input device 6c. Are operated respectively.
  • a game image being played is displayed on the output device 4, and this game image is distributed to the viewing user's terminal devices 9 a and 9 b through the shared server 11.
  • the terminal device 9a is a personal computer and is connected to the network 3 via an AP
  • the terminal device 9b is a mobile device such as a smartphone and is connected to the network 3 via a base station.
  • the viewing user may receive the game image distribution on the same terminal device as the information processing apparatus 10.
  • the information processing device 10 and the terminal device may be connected by P2P to transmit / receive data to / from each other.
  • the terminal of the viewing user is collectively referred to as “terminal device 9”.
  • the auxiliary storage device 2 is a large-capacity storage device such as an HDD (hard disk drive) or a flash memory, and may be an external storage device connected to the information processing device 10 by a USB (Universal Serial Bus) or the like, and is a built-in storage device. There may be.
  • the output device 4 may be a television having a display for outputting an image and a speaker for outputting sound, or may be a computer display.
  • the output device 4 may be connected to the information processing device 10 with a wired cable or may be wirelessly connected.
  • the input device 6 includes a plurality of input units such as a plurality of push-type operation buttons, an analog stick that can input an analog amount, and a rotary button.
  • a camera 7 as an imaging device is provided in the vicinity of the output device 4 and images the space around the output device 4.
  • FIG. 1 shows an example in which the camera 7 is attached to the upper part of the output device 4, the camera 7 may be arranged on the side of the output device 4, and in any case, the game is played in front of the output device 4. It arrange
  • the camera 7 may be a stereo camera.
  • the game program has a “replay function” that accumulates replay data indicating a play situation by a user and reproduces a game scene of an event occurring during the game as a replay image of a highlight scene.
  • a goal scene in a soccer game is a typical event
  • the game program generates a plurality of replay images that reproduce the virtual three-dimensional space of the goal scene by changing the virtual camera viewpoint or line-of-sight direction after the game ends. Display.
  • the game program synthesizes the captured image of the camera 7 showing that the user is playing the game with the replay image, and the information processing apparatus 10 distributes the synthesized reproduction image to the terminal device 9 through the shared server 11. .
  • the captured image of the user who played the highlight scene is also delivered.
  • photographed the user may be delivered to the viewing user's terminal device 9 in real time with the game image which a user plays.
  • the captured image distributed during play of the highlight scene may be different from the captured image included in the edited highlight scene. For example, in a certain highlight scene, the captured image of user B may be distributed during play, but the captured image of user A may be included in the playback image.
  • FIG. 2A shows an external configuration of the upper surface of the input device.
  • the user operates the input device 6 by holding the left grip 78b with the left hand and holding the right grip 78a with the right hand.
  • On the upper surface of the housing, a touch pad 79 is provided in a flat area between the direction key 71 and the operation button 76.
  • the touch pad 79 also functions as a push-down button that sinks downward when pressed by the user and returns to the original position when the user releases the hand.
  • a function button 80 is provided between the two analog sticks 77a and 77b.
  • the function button 80 is used to turn on the power of the input device 6 and simultaneously activate a communication function for connecting the input device 6 and the information processing device 10. After the input device 6 is connected to the information processing device 10, the function button 80 is also used to display a home screen on the information processing device 10.
  • the SHARE button 81 is provided between the touch pad 79 and the direction key 71.
  • the SHARE button 81 is used to input an instruction from the user to the OS or system software in the information processing apparatus 10.
  • the OPTIONS button 82 is provided between the touch pad 79 and the operation button 76.
  • the OPTIONS button 82 is used to input an instruction from the user to an application (game) executed in the information processing apparatus 10. Both the SHARE button 81 and the OPTIONS button 82 may be formed as push buttons.
  • FIG. 2B shows an external configuration of the back side surface of the input device.
  • a touch pad 79 extends from the upper surface of the casing on the upper side of the casing rear side of the input device 6, and a horizontally long light emitting unit 85 is provided on the lower side of the casing rear side.
  • the light emitting unit 85 includes red (R), green (G), and blue (B) LEDs, and lights up according to light emission color information transmitted from the information processing apparatus 10.
  • the information processing device 10 enables the users A, B, and C to distinguish the input devices 6 from each other.
  • 6b, and 6c may be set to different colors, blue, red, and green, respectively.
  • each user can recognize the input device 6 used by the user by the lighting color of the light emitting unit 85, and thus the possibility of mistaking the input device 6 is reduced.
  • the upper button 83a, the lower button 84a, the upper button 83b, and the lower button 84b are provided at symmetrical positions in the longitudinal direction.
  • the upper button 83a and the lower button 84a are operated by the index finger and middle finger of the user's right hand, respectively, and the upper button 83b and the lower button 84b are operated by the index finger and the middle finger of the user's left hand, respectively.
  • the light emitting unit 85 is provided between the arrangement of the right upper button 83a and the lower button 84a and the arrangement of the left upper button 83b and the lower button 84b, so that an index finger for operating each button is provided.
  • the camera 7 can capture an image of the light-emitting unit 85 that is lit.
  • the upper button 83 may be configured as a push-type button
  • the lower button 84 may be configured as a trigger-type button that is rotatably supported.
  • FIG. 3 shows functional blocks of the information processing apparatus 10.
  • the information processing apparatus 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and wired communication.
  • a module 40, a subsystem 50, and a main system 60 are included.
  • the main system 60 includes a main CPU (Central Processing Unit), a memory and a memory controller that are main storage devices, a GPU (Graphics Processing Unit), and the like.
  • the GPU is mainly used for arithmetic processing of game programs.
  • the main CPU has a function of starting the OS and executing an application installed in the auxiliary storage device 2 in an environment provided by the OS.
  • the subsystem 50 includes a sub CPU, a memory that is a main storage device, a memory controller, and the like, and does not include a GPU.
  • the main CPU has a function of executing a game program installed in the auxiliary storage device 2 or the ROM medium 44, while the sub CPU does not have such a function.
  • the sub CPU has a function of accessing the auxiliary storage device 2 and a function of transmitting and receiving data to and from the network server 5.
  • the sub CPU is configured to have only such limited processing functions, and therefore can operate with less power consumption than the main CPU.
  • the functions of these sub CPUs are executed when the main CPU is in a standby state.
  • the information processing apparatus 10 since the subsystem 50 is operating when the main system 60 is in a standby state, the information processing apparatus 10 maintains a state where the network service provided by the network server 5 is always signed in.
  • the main power button 20 is an input unit through which an operation input from a user is performed.
  • the main power button 20 is provided on the front surface of the housing of the information processing apparatus 10 and turns on or off power supply to the main system 60 of the information processing apparatus 10. To be manipulated.
  • the power ON LED 21 is lit when the main power button 20 is turned on, and the standby LED 22 is lit when the main power button 20 is turned off.
  • the system controller 24 detects pressing of the main power button 20 by the user.
  • the clock 26 is a real-time clock, generates current date and time information, and supplies it to the system controller 24, the subsystem 50, and the main system 60.
  • the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that exchanges information between devices like a South Bridge. As illustrated, devices such as a system controller 24, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60 are connected to the device controller 30.
  • the device controller 30 absorbs the difference in electrical characteristics of each device and the difference in data transfer speed, and controls the timing of data transfer.
  • the media drive 32 is a drive device that loads and drives application software such as a game and a ROM medium 44 that records license information, and reads programs and data from the ROM medium 44.
  • the ROM medium 44 is a read-only recording medium such as an optical disc, a magneto-optical disc, or a Blu-ray disc.
  • the USB module 34 is a module that is connected to an external device with a USB cable.
  • the USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 with a USB cable.
  • the flash memory 36 is an auxiliary storage device that constitutes an internal storage.
  • the wireless communication module 38 wirelessly communicates with, for example, the input device 6 using a communication protocol such as a Bluetooth (registered trademark) protocol or an IEEE802.11 protocol.
  • the wireless communication module 38 corresponds to the third generation (3rd Generation) digital mobile phone system conforming to the IMT-2000 (International Mobile Telecommunication 2000) standard defined by the ITU (International Telecommunication Union). It may also be compatible with another generation of digital mobile phone systems.
  • the wired communication module 40 performs wired communication with an external device, and connects to the network 3 via, for example, the AP 8.
  • FIG. 4 shows a configuration of the information processing apparatus 10 that processes a game replay image.
  • the information processing apparatus 10 includes a processing unit 100, a communication unit 102, and a reception unit 104.
  • the processing unit 100 includes a program execution unit 110, a captured image acquisition unit 140, an image generation unit 150, a display processing unit 160, and a sharing processing unit 162.
  • each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the program execution unit 110 executes the game program and realizes the functions of the game progression unit 112, the replay data generation unit 114, and the replay processing unit 120.
  • the replay processing unit 120 includes a replay data acquisition unit 122, a scene determination unit 124, a replay image generation unit 126, a user determination unit 128, a user image request unit 130, a user image acquisition unit 132, and a composition processing unit 134.
  • Each function shown here is realized by executing a game program, and includes a game program, a GPU (GraphicsGraphProcessing Unit), and the like.
  • the image generation unit 150 includes a request reception unit 152, a captured image reading unit 154, a face recognition unit 156, an object recognition unit 157, and a user image generation unit 158.
  • the face recognition unit 156 is realized by a face recognition engine installed in the information processing apparatus 10.
  • the communication unit 102 receives the operation information of the input device 6 and distributes the game image generated by the processing unit 100 to the other terminal device 9 via the shared server 11.
  • the processing unit 100 has a function of generating a play image indicating a real-time play situation by the user and a replay image reproducing the past play situation.
  • a user of the terminal device 9 can access the shared server 11 connected to the network 3 and view a game image distributed from the information processing device 10.
  • the communication unit 102 is expressed as a configuration having the functions of the wireless communication module 38 and the wired communication module 40 shown in FIG. Note that the communication unit 102 may distribute the content directly to another terminal device 9.
  • the accepting unit 104 is provided between the communication unit 102 and the processing unit 100 and transmits data or information between the communication unit 102 and the processing unit 100.
  • the reception unit 104 supplies the operation information to the processing unit 100.
  • the reception unit 104 receives a game image from the program execution unit 110 and provides the game image to the communication unit 102.
  • the registered user information holding unit 170 is formed in the storage area of the auxiliary storage device 2 and holds various information related to the user registered in the information processing device 10. Specifically, the registered user information holding unit 170 is associated with a user account and used for login. Registered user information includes a passcode, a sign-in ID for signing in to the network server 5, a network account, a user online ID (user name on the network), and a user icon for representing the user. ing. Also, the registered user information holding unit 170 holds face identification data for face recognition processing as registered user information in association with the user account.
  • the face identification data is the feature quantity data of the registered user's face image, but may be face image data itself.
  • the face identification data is data to be compared in the face recognition processing by the face recognition unit 156, and is generated according to the face recognition algorithm adopted by the face recognition unit 156.
  • the face identification data may be data extracted as features of the relative positions and sizes of the parts of the face, and the shapes of eyes, nose, cheekbones and jaws.
  • the face identification data may be data extracted as difference data from the standard data of the face image.
  • the type of face identification data to be extracted is determined by the employed face recognition algorithm.
  • the face recognition unit 156 employs a known face recognition algorithm.
  • the information processing apparatus 10 accepts an operation of the input device 6 on condition that the user logs in. Accordingly, in the example illustrated in FIG. 1, each of the users A to C is logged in to the information processing apparatus 10.
  • the login user storage unit 174 is formed in the storage area of the auxiliary storage device 2 and stores user information logged in the information processing apparatus 10. As described above, the light emitting unit 85 of the input device 6 in use is lit in the light emission color set by the information processing apparatus 10.
  • the login user storage unit 174 stores the login user, the identification information of the input device 6, and the emission color of the input device 6 in association with each other.
  • the login user storage unit 174 stores the user A user account, the identification information of the input device 6a, and the input The device 6a is stored in association with being lit in blue, the user account of the user B, the identification information of the input device 6b, and the input device 6b is stored in association with being lit in red, and the user of the user C
  • the account, the identification information of the input device 6c, and the fact that the input device 6c is lit in green are stored in association with each other.
  • the game progression unit 112 executes the game program to advance the game.
  • the game progression unit 112 performs arithmetic processing for moving the game object in the three-dimensional virtual space based on the operation information input from the users A to C to the input devices 6a to 6c.
  • the game progression unit 112 may be a game program itself, and generates game image data using a GPU or the like. In this sense, the game progression unit 112 functions as a game image generation unit that generates a game image being played.
  • the display processing unit 160 outputs a game image from the output device 4, and the sharing processing unit 162 encodes the game image data and distributes it as a distribution image.
  • FIG. 5 shows an example of a game screen displayed on the output device 4.
  • users A to C each enjoy a soccer game by operating soccer players.
  • Each user selects a soccer player, and the selected soccer player may have a setting that cannot be changed during the game, but may be a setting that can be changed during the game by pressing a predetermined button of the input device 6.
  • the sharing processing unit 162 distributes the same screen as the game screen viewed by the users A to C to the terminal device 9.
  • the information processing apparatus 10 distributes a replay image that reproduces at least a past play situation among game images
  • the information processing apparatus 10 also distributes a user image obtained by capturing the user.
  • the game progression unit 112 proceeds with the game based on the operation information input to the input devices 6a to 6c.
  • the replay data generation unit 114 generates replay data for reproducing the game play situation.
  • the replay data includes at least operation information of the input devices 6a to 6c received by the game program.
  • the game program processes the operation information at the timing when the input device 6 is operated. In order to reproduce the past play situation, timing information at which the operation information is input is also necessary. Therefore, the replay data generation unit 114 associates the operation information that the users A to C have operated the input devices 6a to 6c with the timing data at which the operation information is received during the execution of the game program by the game progression unit 112, respectively. Generate replay data.
  • Timing data is generated, for example, as time information from a reference timing such as the start of execution of a game program, or a frame number of a game image. That is, the replay data is obtained by associating the operation information and operation timing of the input device 6 used by the game progression unit 112 for the game progression, and the pseudo operation timing in which the game program is included in the replay data when the replay image is generated. By accepting operation information in, game scenes played in the past can be reproduced.
  • the replay data generation unit 114 generates replay data for a period from the start to the end of the game play by the user, and stores the replay data in the replay data holding unit 166.
  • the operation information is also associated with information specifying which input device 6 is the input. Specifically, the operation information is associated with the identification information of the input device 6 that has input the operation information. Yes.
  • the replay data generation unit 114 generates event data including the content of the event that occurred during the execution of the game program by the game progression unit 112 and the timing data that has occurred, and stores it in the replay data holding unit 166.
  • the replay data generation unit 114 may generate event data at the timing when the event occurrence is detected during game play, and search for occurrence of the event from the replay data at the timing when the game play or the stage in the game ends. Event data may be generated.
  • the replay data generation unit 114 stores event occurrence information indicating the occurrence of an event together with timing data in the replay data holding unit 166 as replay data, and the replay data generation unit 114 stores the event occurrence information.
  • To generate event data For example, in a soccer game, an event is set for a game scene in which the user is excited, such as a score (goal event) or a keeper decides to make a super save (super save event).
  • events are not limited to those set in the game program, but may be set according to external circumstances. For example, when a sound of a predetermined volume or higher is input from a microphone (not shown), the replay data generation unit 114 generates event data that associates a loud voice and timing data at which the voice is produced. Generated and stored in the replay data holding unit 166. Also, when the user photographed by the camera 7 moves up, the replay data generation unit 114 generates event data that associates the user's excitement with the timing data at which the user is excited. And stored in the replay data holding unit 166.
  • the system software detects the occurrence of the event.
  • the replay data generation unit 114 is notified.
  • the replay data generation unit 114 is notified of the occurrence of the event from the system software, generates event data associated with the timing data, and stores the event data in the replay data holding unit 166.
  • the event may be set according to the operation status of the input device 6. For example, when many operations are performed in a short time compared to the normal time, such as when the button or key of the input device 6 is repeatedly hit, the replay data generation unit 114 displays the repeated hits and the timing data repeatedly hit.
  • the associated event data is generated and stored in the replay data holding unit 166.
  • a special technique can be executed by continuously operating a plurality of types of buttons, but when a plurality of types of buttons are continuously operated in a short time, the replay data generating unit 114 displays a plurality of types of buttons. May be generated and stored in the replay data holding unit 166 by associating the continuous operation with the continuously operated timing data.
  • the replay data generation unit 114 can detect the occurrence of the event. However, even when the continuous operation fails and the special move cannot be performed, a plurality of types The replay data generation unit 114 can generate event data by considering that the button has been continuously operated as an unsuccessful event of trying to make a special move.
  • the captured image acquisition unit 140 acquires captured image data from the camera 7. For example, the camera 7 images the space periodically (for example, every 1/60 seconds), and provides the captured image to the captured image acquisition unit 140 via the USB module 34.
  • the captured image acquisition unit 140 stores the acquired captured image data in the captured image data holding unit 168 in association with timing data indicating the timing of imaging.
  • the timing data may be time information from the reference timing or a game image frame number from the reference timing.
  • the frame number corresponds to the number of image frames generated from the reference timing, the frame number of the reference timing is set to 1, and each time a game image is generated thereafter, the frame number is incremented by one.
  • the replay data held in the replay data holding unit 166 and the captured image data held in the captured image data holding unit 168 each have timing data.
  • the timing data is set with reference to a certain timing.
  • the reference timing may be when the game program is started or when the user starts playing.
  • the captured image acquisition unit 140 thins out one of the two images to 1/30 seconds.
  • Each captured image may be stored in the captured image data holding unit 168.
  • the generation period of the game frame image and the imaging period of the camera 7 are not strictly synchronized, but the captured image acquisition unit 140 is acquired immediately after the game image for the game image of a certain frame number.
  • the captured image acquisition unit 140 adds timing data with a frame number of 1 to the captured image acquired immediately after that and stores the timing data in the captured image data holding unit 168. Thereafter, one of the two images is thinned out, and the frame number of the captured image is incremented by 1 and stored in the captured image data holding unit 168.
  • the frame number of the operation information included in the replay data is “N”, it means that the operation information is operation information reflected in the Nth game image generated from the reference timing, and the captured image
  • the frame number included in the data is “N”
  • the captured image data is stored in the captured image data holding unit 168 Nth from the reference timing.
  • FIG. 6 shows an example of a space photographed by the camera 7.
  • this photographing space there are three users A to C.
  • a square frame surrounding three users represents the imaging range (view angle) of the camera 7.
  • the captured image acquisition unit 140 acquires captured image data from the camera 7.
  • the camera 7 images the space every 1/60 seconds and provides the captured image to the captured image acquisition unit 140 via the USB module 34.
  • the captured image acquisition unit 140 adds the captured image with the frame number serving as timing data to the captured image data holding unit 168 at a timing that matches the frame rate of the game image (thinning out if necessary). Store.
  • the face recognition unit 156 has a function of detecting a user's face image in the captured image.
  • the face recognizing unit 156 detects and extracts a portion estimated to be a human face in the captured image, derives feature amount data of the portion, and performs face identification for holding in the registered user information holding unit 170 Compared with the data, it is determined whether or not the extracted face is the face of the registered user.
  • the face recognition unit 156 derives the degree of coincidence between the feature amount data of the extracted user's face image and the face identification data of all registered users held in the registered user information holding unit 170. This degree of coincidence is expressed numerically. For example, the degree of coincidence is derived in the form of how many points out of 100 points. If the degree of coincidence with the feature amount data of the registered face image exceeds 90 points, the face recognition unit 156 determines that the imaged user is a registered user, and determines which imaged user is Identify whether you are a registered user. If there are a plurality of items with a degree of coincidence exceeding 90 points, the face recognition unit 156 may determine that the imaged user is a registered user of face identification data from which the highest score is derived. .
  • the face recognition unit In 156 it is determined that the user included in the captured image is not the user who registered the face image. As described above, the face recognition unit 156 detects the face image of the registered user existing in the captured image using the face identification data held in the registered user information holding unit 170. As this face identification technique, a known technique may be used.
  • a replay image such as a goal scene is generated after the match is over.
  • a highlight scene such as a goal scene is defined by an event detected in the game.
  • the highlight scene may be determined by detecting that the users A to C are excited due to external circumstances.
  • the replay data acquisition unit 122 acquires the replay data and event data held in the replay data holding unit 166.
  • the scene determination unit 124 determines a game scene to be edited as a highlight scene with reference to the acquired event data.
  • the event data includes the content of the event and the occurrence timing data, but the scene period to be edited may be determined according to the content of the event.
  • the scene period of the replay image is defined as five seconds before the ball enters the goal and five seconds after the ball enters.
  • the scene determination unit 124 refers to the timing data included in the event data of the goal scene, and identifies the timing (scene start frame number) 5 seconds before the event occurrence and the timing (scene end frame number) 5 seconds later To do.
  • the replay image generation unit 126 receives the scene start frame number and the scene end frame number from the scene determination unit 124, and generates a replay image of the goal scene.
  • the replay image generation unit 126 executes the game program, and the operation information included in the replay data is input from the input devices 6a to 6c at the timing specified by the timing data associated with the operation information. And a replay image is generated. In this way, the replay image generation unit 126 provides the replay data as pseudo operation information to the game program, and generates a game image that moves the skaters in the three-dimensional virtual space.
  • the replay image generation unit 126 may generate a replay image based on the virtual camera viewpoint and line-of-sight direction during game play, but may change the virtual camera viewpoint and line-of-sight direction.
  • the replay image generation unit 126 may generate a plurality of replay images from a plurality of virtual camera viewpoints and line-of-sight directions so that the goal scene can be viewed from various angles. For example, with respect to the goal scene, the replay image generation unit 126 viewed from the distance (same or close to the play image), the second replay image focused on the movement of the player who decided to shoot, and the back of the goal A third replay image is generated. In this way, the three types of replay images are generated with different virtual camera viewpoints and line-of-sight directions.
  • the user determination unit 128 determines users to be included in the composite image.
  • the composite image is an image obtained by combining the replay image generated by the replay image generation unit 126 and the user image obtained by cutting out the captured image.
  • the user determining unit 128 refers to the replay data and determines a user based on the play situation in the game scene. Specifically, the user determination unit 128 determines a user who operates a game object (soccer player) involved in a goal event of the goal scene as a user to be included in the composite image.
  • the event information holding unit 172 holds object information for determining a user included in a captured image to be added to a replay image of an event.
  • the event information holding unit 172 also holds type information for specifying a cut-out form of the user image from the captured image. Object information and type information are associated with a replay image.
  • the event information holding unit 172 may have these event information in a table format or in a CSV format.
  • the file in which the event information is recorded is included in the game software, and is read into the auxiliary storage device 2 when the game program is started, and is used for the user determination process by the user determination unit 128.
  • FIG. 7 shows an example of event information of a goal event.
  • the replay image generation unit 126 generates the first to third replay images for the goal event.
  • the “replay image” is information for specifying the replay image.
  • the replay image item “1” is the first replay image
  • the replay image item “2” is the second replay image
  • the replay image item “3”. Indicates a third replay image.
  • the “game object” is an item for designating a user to be added to the replay image.
  • the “game object” is information for determining the user who has operated the game object as a user to be included in the composite image.
  • the game objects of the first replay image and the second replay image are “players who shot”, and therefore the user determination unit 128 operates the player who shot the first replay image and the second replay image. It is determined to add a captured image including the user who has been. Since the game object of the third replay image is “keeper”, the user determination unit 128 determines to add a captured image including the user who has operated the keeper to the third replay image.
  • the user determining unit 128 determines a user who operates a game object (soccer player) associated with a replay image of a game scene as a user to be included in the composite image.
  • a game object sin player
  • the user C is operating the keeper.
  • Type information is an item for specifying a cut-out form of the user image from the captured image.
  • FIG. 8 is a diagram for explaining a cut-out form based on type information. In the embodiment, three types of forms for extracting a user from a captured image are prepared. FIG. 8 shows an example in which the user A is cut out.
  • the cut-out area 200 is a cut-out area according to type 1
  • the cut-out area 202 is a cut-out area according to type 2
  • the cut-out area 204 is a cut-out area according to type 3.
  • Any of the cutout areas 200, 202, and 204 is set to include at least the face image of the user determined by the user determination unit 128. However, as the type number increases, the ratio of the face image in the area decreases. .
  • the type 1 cut-out area 200 is set so that the ratio of the user's face image is large.
  • the viewing user can see the expression of the play user's face well because the play user's face is greatly reflected.
  • the type 2 cutout area 202 is set to cut out the upper body of the user.
  • the viewing user can see a swell from the movement of the play user in order to reflect the upper half of the play user.
  • the type 3 cutout area 204 is set to cut out the entire captured image.
  • the cutout area 204 may be a captured image itself.
  • the viewing user can change the atmosphere during the play in order to reflect the state of the plurality of play users. I can know.
  • the type information of the cut-out area is set for the replay image as event information.
  • the game maker generates event information by determining which user's captured image is combined with the replay image to be generated and how the captured image is cut out.
  • the type 1 to 3 cut-out areas have their respective characteristics, and the game maker determines a cut-out area suitable for the replay image to be edited.
  • the first replay image viewed from a distance and the second replay image focused on the player who decided to shoot are associated with the game object “player who shot” and type information 2. It has been. Since the user who operates the player who has decided to shoot is thought to be excited and delighted, the type information 2 that easily conveys the state is selected.
  • the third replay image viewed from the back of the goal is associated with “keeper” as a game object and type information 3. Since the user who operates the keeper is thought to be discouraged, selecting the type information 1 that greatly reflects the disappointed facial expression effectively conveys the disappointed atmosphere. Such a policy may be appropriately selected by the game maker. If the cutout form is changed according to the replay image in one highlight scene, the viewing user becomes interested in the effect, and the popularity of the game program is improved.
  • the image generation unit 150 has a library that cuts out a captured image based on type information, and the contents of the library are disclosed to the game maker, so that the game maker can display event information that is devised for production. Can be generated.
  • the type information is not limited to three types, and may be more or less.
  • the replay processing unit 120 can receive provision of the cut-out user image from the image generation unit 150 only by designating the user and type information.
  • cutout area of the user A has been described with reference to FIG. 8, the cutout areas including the respective face images are set for the users B and C as well.
  • the user determining unit 128 refers to the event information shown in FIG. 7 and determines a user to be cut out from the captured image from the replay data of the goal scene.
  • the operation information included in the replay data is associated with the identification information of the input device 6 that has input the operation information, so that the user determination unit 128 identifies the input device 6 that operated the game object.
  • the input device that operated the player who shot is the input device 6a
  • the user determination unit 128 refers to the stored content of the login user storage unit 174 to confirm that the user of the input device 6a is the user A. judge.
  • the input device 6 that operated the keeper is the input device 6c
  • the user determination unit 128 refers to the stored content of the login user storage unit 174 to determine that the user of the input device 6c is the user C.
  • the target person of the user image added to the first replay image and the second replay image is the user A
  • the target person of the user image added to the third replay image is the user C.
  • the user determining unit 128 notifies the user image requesting unit 130 of the user account of the user determined as the target person to be cut out and the type information of the captured image.
  • the scene determination unit 124 notifies the user image request unit 130 of the scene start frame number and the scene end frame number.
  • the user image request unit 130 Upon receiving the notification, the user image request unit 130 designates the scene start frame number and the scene end frame number, the user account of the user, and the type information of the captured image, and issues a user image generation request for requesting the provision of the user image. It transmits to the image generation unit 150.
  • the scene start frame number and the scene end frame number specify the period of the goal scene in the goal event, and the user image generation request provides the type 2 image of the user A in the goal scene and the type 1 of the user C. Requests to provide images.
  • the request reception unit 152 receives a user image generation request. Based on the scene start frame number and the scene end frame number included in the user image generation request, the captured image reading unit 154 receives from the captured image data holding unit 168 between the scene start frame number and the scene end frame number. Read the captured image for 10 seconds. The face recognition unit 156 performs user recognition processing in the read captured image.
  • FIG. 9 shows a face identification result by the face recognition unit 156.
  • the face recognition unit 156 includes a face area 206a indicating a position in the captured image of the face of the user A, a face area 206b indicating a position in the captured image of the face of the user B, and a position in the captured image of the face of the user C.
  • a face area 206c indicating “” is set by coordinates in the camera image.
  • Each face area 206 may be set as a rectangular area circumscribing the user's face image.
  • FIG. 10 shows the cut-out area set based on the face identification result.
  • the user image generation unit 158 determines the type A clipping region 202a of the user A based on the face region 206a of the user A set by the face recognition unit 156. Also, the user image generation unit 158 determines the type 1 cut-out area 200c of the user C based on the face area 206c of the user C.
  • the user image generation unit 158 cuts out the cutout area 202a including the face image of the user A in the goal scene from the captured image and provides it to the replay processing unit 120.
  • the user image generation unit 158 cuts out the cut-out area 200 c including the face image of the user C in the goal scene from the captured image and provides it to the replay processing unit 120.
  • the user image acquisition unit 132 acquires the specified type 2 captured image of the user A and the type 1 captured image of the user C.
  • the user image generation unit 158 determines the user's cut-out area using the face identification result by the face recognition unit 156, but the object recognition unit 157 detects the input device 6 in the captured image. Using the detection result, the user image generation unit 158 may determine the user's cutout region.
  • the object recognition unit 157 searches for the input device 6 in the captured image. Since the input device 6 in use is lit in a predetermined color, the object recognition unit 157 searches the captured image for a rectangular region of the predetermined color, that is, a region lit in the shape of the light emitting unit 85. Since the user image generation request transmitted from the user image request unit 130 requests the user images of the user A and the user C, the object recognition unit 157 refers to the stored content of the login user storage unit 174 and the user A blue rectangular area that is the lighting color of the input device 6a of A and a green rectangular area that is the lighting color of the input device 6c of the user C are searched.
  • the object recognition unit 157 provides the user image generation unit 158 with the detected lighting color of the rectangular area and the position coordinates of the rectangular area.
  • the face recognizing unit 156 does not need to specify a user by face identification, but detects the presence of a face image and generates detected position coordinates (that is, position coordinates of the face area 206) as a user image. Part 158.
  • the user image generation unit 158 refers to the stored contents of the login user storage unit 174, and determines that the detected user located above the position coordinates of the blue rectangular area is the user A. Also, the user image generation unit 158 refers to the stored contents of the login user storage unit 174 and determines that the detected user located above the position coordinates of the green rectangular area is the user C. Accordingly, the user image generation unit 158 determines the type 2 clipping area 202a of the user A based on the face area 206a, and also extracts the type 1 clipping of the user C based on the face area 206c of the user C.
  • the region 200c may be defined.
  • the composition processing unit 134 generates a composite image of the user image acquired by the user image acquisition unit 132 and the replay image generated by the replay image generation unit 126.
  • FIG. 11 shows an example of a composite image.
  • the composition processing unit 134 displays the user image 210 so as to overlap the partial area of the first replay image.
  • the composition processing unit 134 may superimpose and display the user image 210 on a predetermined area in the replay image, for example, the upper right. Note that when the replay image is generated, the replay image generation unit 126 may detect a region where there is no problem even if the user image is superimposed, and notify the synthesis processing unit 134 of the region.
  • the region where there is no problem even if the user image is superimposed in the goal scene is a region where the soccer ball does not pass
  • the replay image generation unit 126 includes the upper right, lower right, lower left, and upper left regions in the replay image.
  • An area where the soccer ball does not pass may be detected and notified to the composition processing unit 134.
  • the composition processing unit 134 may determine a superimposition region. Note that the composition processing unit 134 may not slightly superimpose the user image on the replay image, but may slightly reduce the replay image and place the user image in a margin portion resulting from the reduction.
  • the composite image shown in FIG. 11 shows a state immediately before the player shoots in the goal scene.
  • FIG. 12 shows an example of a composite image.
  • the composite image shown in FIG. 12 shows the situation at the moment when the goal is determined.
  • the user image 210 shows that the user A is delighted.
  • the excitement of the user in the highlight scene can be transmitted to the viewing user.
  • the user-captured image suitable for the highlight scene is added to the replay image.
  • 11 and 12 show a combined image of the first replay image and the user A image
  • the combining processing unit 134 includes a combined image of the second replay image and the user A image
  • a composite image of the third replay image and the image of user C is also generated
  • the display processing unit 160 outputs the first replay image, the second replay image, and the third replay image from the output device 4 in this order.
  • the user determination unit 128 determines the users to be included in the composite image from the replay data of the goal scene with reference to the event information shown in FIG.
  • the user determination unit 128 may determine the users to be included in the composite image according to the priority order of the game objects associated with the event.
  • FIG. 13 shows the priority information of the goal event.
  • This priority information may constitute part of the event information and be held in the event information holding unit 172.
  • This priority information defines a priority order for determining users to be included in the composite image.
  • the first place is the “player who shot”
  • the second place is the “assist player”
  • the third place is the “keeper”.
  • the user determination unit 128 determines to add the captured image including the user who has operated the first player to the first replay image, and the user who has operated the second player to the second replay image. May be determined, and it may be determined to add a captured image including a user who has operated the third-ranked player to the third replay image.
  • the priority information may include type information for specifying the cut-out form in association with the priority order.
  • the event information shown in FIG. 7 and the priority information shown in FIG. 13 may be used together.
  • the user determining unit 128 cannot determine a user according to the event information shown in FIG. 7, the priority information shown in FIG. It may be used to determine users to be included in the composite image.
  • the user determination unit 128 directly determines the users to be included in the composite image through the embodiment, but the user determination processing by the user determination unit 128 indirectly specifies the users to be included in the composite image. Including.
  • the user determining unit 128 specifies the input device 6 used by the user. If the input device 6 is specified, the user can be directly specified only by referring to the login user storage unit 174. That is, there is a one-to-one relationship between the input device 6 and the user. Therefore, at least the user determining unit 128 indirectly determines the user to be included in the composite image by determining the input device 6 that has operated the game object. .
  • the request reception unit 152 obtains the stored contents of the login user storage unit 174 from the identification information of the input device 6.
  • the user may be specified with reference.
  • the present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention.
  • the synthesis processing unit 134 may use only the user image as a reproduction image without synthesizing the replay image and the user image. Further, when displaying or distributing a composite image of the replay image and the user image, it may be displayed or distributed together with the composite image in the previous game play.
  • the program execution unit 110 executes the game program and implements the functions of the replay processing unit 120.
  • the functions of the user image acquisition unit 132 and the composition processing unit 134 described as the replay processing unit 120 are described. May be realized by system software.
  • an event there may be a user who has obtained a positive result and a user who has obtained a negative result.
  • the user who operated the player who shot the shot and the user who operated the player who assisted had a positive result while operating the keeper who decided to shoot.
  • the user is getting negative results.
  • attribute information indicating positive or negative may be assigned to the game object, and the user image generation unit 158 cuts out the clipped image from the captured image.
  • a predetermined process may be performed on the exit area according to the attribute information assigned to the game object.
  • the user image generation unit 158 may set a background or border according to the attribute information for the cutout area.
  • the background and / or border of the cut-out area of a user who has operated a game object to which a positive attribute is assigned is set to a color or texture that expresses joy
  • the user who has operated a game object to which a negative attribute is assigned may be set to a color or texture that represents discouragement.
  • the color or texture representing joy is a bright color or a vivid texture
  • the color or texture representing discouragement may be a dark color or a texture with a heavy atmosphere. This makes it possible to express the joy and discouragement of the user not only by the user's movements and facial expressions, but also by their backgrounds and borders.
  • the replay processing unit 120 generates a composite image after the game ends. However, for example, when occurrence of an event is detected during the game, the replay processing unit 120 generates a composite image at that time. May be.
  • the type information of the cut-out area and the game object are set as the event information for the replay image, and the event information is generated by the game maker.
  • the type information and the game object may be determined by a user who distributes or may be determined by a viewing user.
  • priority information for determining the users to be included in the composite image is shown. However, the priority information may be determined by the distributing user or the viewing user regardless of the event. .
  • the reproduction image is edited by superimposing the user image on the replay image that reproduces the past play situation.
  • a play image in which the user image is superimposed on the current play situation is generated. May be.
  • the game program sets a play having a high possibility of a goal as a preliminary event.
  • the preliminary event of the goal scene is set when the player dribbling the ball enters the penalty area or when the cross ball is raised before the goal.
  • the user determination unit 128 may determine the user to be superimposed on the play image with reference to the event information set in the preliminary event, and the synthesis processing unit 134 may combine the play image and the user image. . In this way, the replay processing unit 120 can also add a user image to the current play image.
  • the user determination unit 128 may determine a user to be cut out from the captured image by referring to not only event information related to the preliminary event but also the event information described in the embodiment, and may notify the user image request unit 130 of it.
  • the user image request unit 130 transmits a user image generation request designating the user account of the user to the image generation unit 150
  • the user image generation unit 158 extracts the specified user cut-out area from the captured image currently being captured. Are cut out and provided to the replay processing unit 120.
  • the composition processing unit 134 generates a composite image of the user image acquired by the user image acquisition unit 132 and the play image of the game scene generated by the game progression unit 112, and the sharing processing unit 162 performs the game being played.
  • a composite image obtained by combining the image and the user image may be distributed live.
  • the user determination method by the user determination unit 128 may be the same as the method described in the embodiment, and after the user determination unit 128 determines a user, the user image generation unit 158 uses the captured image currently captured live. Except for cutting out the user image and generating the user image, the process of superimposing the user image on the play image is basically the same as the process of superimposing the user image on the replay image described in the embodiment.
  • FIG. 14 shows a modification of the information processing system.
  • the information processing system 300 includes information processing apparatuses 10a, 10b, and 10c operated by a user and a network server 5, which are connected via a network 3 such as the Internet or a LAN (Local Area Network).
  • a network 3 such as the Internet or a LAN (Local Area Network).
  • the user A operates the information processing apparatus 10a
  • the user B operates the information processing apparatus 10b
  • the user C operates the information processing apparatus 10c.
  • the information processing apparatuses 10a, 10b, and 10c have the same or similar functions as the information processing apparatus 10 described in the embodiments.
  • the users A to C operate the same information processing apparatus 10 and play the game together.
  • the users A to C The same soccer game is played together online by operating the information processing apparatuses 10a to 10c.
  • the replay processing function in such an information processing system 300 will be described.
  • the captured image of each user is stored in the captured image data holding unit 168 in each auxiliary storage device 2a to 2c.
  • the user determination unit 128 determines the users to be included in the composite image of the highlight scene. If the determined user is himself (user A), the captured image of user A is stored in the captured image data storage unit 168 of the auxiliary storage device 2a. Therefore, the image generation unit 150 displays the user image of user A. Is generated and provided to the synthesis processing unit 134.
  • the user image request unit 130 designates the user C's information processing apparatus 10c with the scene start frame number and scene end frame number of the game scene, the user C network account, and the type information of the captured image. Send a generation request.
  • the image generation unit 150 when receiving the user image generation request, captures a cutout region including the face image of the user C from the start to the end of the goal scene according to the type information. It is cut out from the image and provided to the information processing apparatus 10a. Thereby, the replay processing unit 120 of the information processing apparatus 10a can generate a composite image of the user C user image and the replay image.
  • the composite image generated in the information processing apparatus 10a is distributed to other game participating users, that is, users B and C, so that the game participating user can see the composite image.
  • the game programs executed in the information processing apparatuses 10a to 10c are the same, and a composite image may be generated in each of the information processing apparatuses 10a to 10c.
  • the user determining unit 128 determines a user to be included in the composite image of the highlight scene. If the determined user is other than himself / herself, the user image with respect to the information processing apparatus 10 of the user is determined. By transmitting the generation request and receiving the generated user image, it is possible to generate a composite image of the other user's user image and the replay image.
  • the external server is provided with the data for identifying the faces of the users A to C, and the captured images of the users A to C are provided to the external server so that the external server is in charge of the user image generation process. Also good.
  • the type information and user identification information included in the user image generation request may be specified by the user.
  • the soccer game has been described in the embodiment, as a matter of course, the present invention can be used for another game.
  • the event is set appropriately for each game, for example, it may be set when the user has acquired a trophy, which is a virtual award, or when the user finally succeeds in many missions. It may be.
  • DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Information processing apparatus, 100 ... Processing part, 102 ... Communication part, 104 ... Reception part, 110 ... Program execution part, 112 ... Game Progression unit, 114 ... replay data generation unit, 120 ... replay processing unit, 122 ... replay data acquisition unit, 124 ... scene determination unit, 126 ... replay image generation unit, 128 ... User determination unit 130 ... User image request unit 132 ... User image acquisition unit 134 ... Composition processing unit 140 ... Captured image acquisition unit 150 ... Image generation unit 152 ... Request receiving unit, 154... Captured image reading unit, 156... Face recognition unit, 157... Object recognition unit, 158...
  • User image generation unit 160. ⁇ Share processing unit, 66 ... replay data holding unit, 168 ... captured image data holding unit, 170 ... registered user information holding unit, 172 ... event information holding unit, 174 ... login user storage unit, 300 ... ⁇ Information processing system.
  • the present invention can be used in the technical field of editing game scenes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 リプレイデータ取得部122は、ゲームのプレイ状況を再現するためのリプレイデータを取得する。リプレイ画像生成部126は、取得したリプレイデータをもとに、ゲームシーンのリプレイ画像を生成する。ユーザ決定部128は、合成画像に含めるユーザを決定する。ユーザ画像取得部132は、決定したユーザを撮像したユーザ画像を取得する。合成処理部134は、取得したユーザ画像と、リプレイ画像との合成画像を生成する。

Description

プログラムおよび情報処理装置
 本発明は、ゲームシーンを編集する技術に関する。
 ゲームプログラムは、ユーザによるプレイ状況を示すリプレイデータを蓄積し、ゲーム中に発生したイベントのゲームシーンを、リプレイ画像として再現する「リプレイ機能」を有している。特許文献1は、ユーザがゲームをしている様子を示す撮像画像をリプレイ画像に合成して、再生用画像を生成する技術を提案している。
米国特許出願公開第2012/14658号明細書
 特許文献1に開示されるように、発生したイベントのゲームシーンに、そのイベント発生時のプレイユーザの様子を撮像した画像を合成することで、再生用画像の視聴者は、ゲームのリプレイとともに、プレイユーザがゲームを楽しんでいたり、熱中していたりする雰囲気を感じられるようになる。本発明者は特許文献1に開示された技術を改良して、より臨場感の高い再生用画像を生成する技術に想到した。
 本発明は、ゲームシーンのプレイ画像またはリプレイ画像などのゲーム画像と、ユーザの撮像画像とを合成する技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様のプログラムは、コンピュータに、ゲーム画像を生成する機能と、合成画像に含めるユーザを、ゲームシーンにおけるプレイ状況にもとづいて決定する機能と、決定したユーザを撮像したユーザ画像を取得する機能と、取得したユーザ画像と、ゲーム画像との合成画像を生成する機能と、を実現させる。
 本発明の別の態様は、情報処理装置である。この装置は、ゲーム画像を生成する画像生成部と、合成画像に含めるユーザを、ゲームシーンにおけるプレイ状況にもとづいて決定するユーザ決定部と、決定したユーザを撮像したユーザ画像を取得するユーザ画像取得部と、取得したユーザ画像と、ゲーム画像との合成画像を生成する合成処理部とを備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明の情報処理技術によると、効果的にゲーム画像とユーザの撮像画像とを合成する技術を提供することが可能となる。
本発明の実施例にかかる情報処理システムを示す図である。 入力装置の外観構成を示す図である。 情報処理装置の機能ブロックを示す図である。 ゲームのリプレイ画像を処理する構成を示す図である。 表示されるゲーム画面の一例を示す図である。 カメラによって撮影される空間の一例を示す図である。 ゴールイベントのイベント情報の例を示す図である。 タイプ情報による切り出し形態を説明するための図である。 顔認識部による顔識別結果を示す図である。 顔識別結果をもとに設定される切出領域を示す図である。 合成画像の一例を示す図である。 合成画像の一例を示す図である。 ゴールイベントの優先情報を示す図である。 情報処理システムの変形例を示す図である。
 図1は、本発明の実施例にかかる情報処理システム1を示す。情報処理システム1は、配信主となるユーザがプレイ中のゲーム画像をライブ配信し、別の視聴ユーザがゲーム画像を視聴する環境を実現する。情報処理システム1は、配信ユーザが利用する情報処理装置10と、ネットワークサーバ5と、共有サーバ11と、各種の端末装置9a、9bを備え、これらはインターネットやLAN(Local Area Network)、電話網などのネットワーク3を介して接続している。アクセスポイント(以下、「AP」とよぶ)8は、無線アクセスポイントおよびルータの機能を有し、情報処理装置10は、無線または有線経由でAP8に接続して、ネットワーク3上のネットワークサーバ5、共有サーバ11と通信可能に接続する。
 情報処理装置10は、ユーザが操作する入力装置6と無線または有線で接続し、入力装置6はユーザが操作した情報を情報処理装置10に出力する。情報処理装置10は入力装置6から操作情報を受け付けるとシステムソフトウェアやゲームソフトウェアの処理に反映し、出力装置4から処理結果を出力させる。情報処理システム1において情報処理装置10はゲームプログラムを実行するゲーム装置であり、入力装置6はゲームコントローラなど情報処理装置10に対してユーザの操作情報を供給する機器であってよい。情報処理装置10は、端末装置9a、9bに対して、プレイ中のゲーム画像データをストリーミング配信し、したがって実施例における情報処理システム1は、ゲーム画像配信システムとして動作する。
 ネットワークサーバ5は情報処理装置10のユーザに対してゲームのネットワークサービスを提供する。ネットワークサーバ5はユーザを識別するネットワークアカウントを管理しており、ユーザは、ネットワークアカウントを用いて、ネットワークサーバ5が提供するネットワークサービスにサインインする。ユーザは情報処理装置10からネットワークサービスにサインインすることで、ネットワークサーバ5に、ゲームのセーブデータや、またゲームプレイ中に獲得した仮想的な表彰品(トロフィ)を登録できる。
 この例では、3人のユーザA、B、Cが情報処理装置10で一緒にゲームをプレイしており、ユーザAは入力装置6aを、ユーザBは入力装置6bを、ユーザCは入力装置6cをそれぞれ操作している。出力装置4には、プレイ中のゲーム画像が表示されており、このゲーム画像は、共有サーバ11を通じて、視聴ユーザの端末装置9a、9bに配信されている。図1においては端末装置9aがパーソナルコンピュータであって、AP経由でネットワーク3に接続し、また端末装置9bがスマートフォンなどのモバイル機器であって、基地局を経由してネットワーク3に接続している様子を示しているが、視聴ユーザは、情報処理装置10と同じ端末装置で、ゲーム画像の配信を受けてもよい。なお別の例では、情報処理装置10と端末装置とがP2Pで接続して、互いにデータを送受信するようにしてもよい。以下、特に区別しない場合には、視聴ユーザの端末を「端末装置9」と総称する。
 補助記憶装置2はHDD(ハードディスクドライブ)やフラッシュメモリなどの大容量記憶装置であり、USB(Universal Serial Bus)などによって情報処理装置10と接続する外部記憶装置であってよく、内蔵型記憶装置であってもよい。出力装置4は画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。出力装置4は、情報処理装置10に有線ケーブルで接続されてよく、無線接続されてもよい。
 入力装置6は複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力部を有して構成される。撮像装置であるカメラ7は出力装置4の近傍に設けられ、出力装置4周辺の空間を撮像する。図1ではカメラ7が出力装置4の上部に取り付けられている例を示しているが、出力装置4の側方に配置されてもよく、いずれにしても出力装置4の前方でゲームをプレイするユーザA、B、Cを撮像できる位置に配置される。カメラ7は、ステレオカメラであってもよい。
 実施例において、ゲームプログラムは、ユーザによるプレイ状況を示すリプレイデータを蓄積し、ゲーム中に発生したイベントのゲームシーンを、ハイライトシーンのリプレイ画像として再現する「リプレイ機能」を有している。たとえばサッカーゲームにおけるゴールシーンは典型的なイベントであり、ゲームプログラムは、試合終了後に、ゴールシーンの仮想3次元空間を、仮想カメラ視点や視線方向を変えて再現した複数のリプレイ画像を生成して表示させる。このときゲームプログラムは、ユーザがゲームをしている様子を示すカメラ7の撮像画像をリプレイ画像に合成し、情報処理装置10は、合成した再生用画像を共有サーバ11を通じて端末装置9に配信する。
 このように実施例においては、プレイ終了後、編集したハイライトシーンのゲーム画像(リプレイ画像)とともに、ハイライトシーンをプレイしていたユーザの撮像画像も合わせて配信するが、プレイ中においても、ユーザを撮影した撮像画像が、ユーザがプレイするゲーム画像とともに、視聴ユーザの端末装置9にリアルタイム配信されてもよい。なお、ハイライトシーンのプレイ中に配信される撮像画像と、編集したハイライトシーンに含まれる撮像画像とは異なってもよい。たとえば、あるハイライトシーンにおいて、プレイ中にはユーザBの撮像画像が配信されていても、再生用画像にはユーザAの撮像画像が含まれるようにしてもよい。
 入力装置6のボタン構成について説明する。
[上面部の構成]
 図2(a)は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。筐体上面上において、方向キー71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
 2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置6の電源をオンし、同時に入力装置6と情報処理装置10とを接続する通信機能をアクティブにするために使用される。入力装置6が情報処理装置10と接続した後は、機能ボタン80は、情報処理装置10にホーム画面を表示させるためにも使用される。
 SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、情報処理装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。OPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、情報処理装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
[奥側側面部の構成]
 図2(b)は、入力装置奥側側面の外観構成を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。図1に示すように、3台の入力装置6a、6b、6cが使用されている場合、情報処理装置10は、ユーザA、B、Cが各入力装置6を区別できるように、入力装置6a、6b、6cの発光部85の点灯色を異なる色、それぞれ青、赤、緑と定めてよい。これにより各ユーザは、自分が使用している入力装置6を発光部85の点灯色によって認識できるため、入力装置6を取り違える可能性が低減される。
 筐体奥側側面において、上側ボタン83a、下側ボタン84aと、上側ボタン83b、下側ボタン84bとが長手方向の左右対称な位置に設けられる。上側ボタン83a、下側ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、上側ボタン83b、下側ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。図示されるように発光部85が、右側の上側ボタン83a、下側ボタン84aの並びと、左側の上側ボタン83b、下側ボタン84bの並びの間に設けられることで、各ボタンを操作する人差し指または中指によって隠れることはなく、カメラ7は、点灯した発光部85を好適に撮像できる。上側ボタン83はプッシュ式ボタンとして構成され、下側ボタン84は回動支持されたトリガー式のボタンとして構成されてよい。
 図3は、情報処理装置10の機能ブロックを示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
 メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。メインCPUはOSを起動し、OSが提供する環境下において、補助記憶装置2にインストールされたアプリケーションを実行する機能をもつ。サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えない。
 メインCPUは補助記憶装置2やROM媒体44にインストールされているゲームプログラムを実行する機能をもつ一方で、サブCPUはそのような機能をもたない。しかしながらサブCPUは補助記憶装置2にアクセスする機能、ネットワークサーバ5との間でデータを送受信する機能を有している。サブCPUは、このような制限された処理機能のみを有して構成されており、したがってメインCPUと比較して小さい消費電力で動作できる。これらのサブCPUの機能は、メインCPUがスタンバイ状態にある際に実行される。実施例の情報処理装置10は、メインシステム60のスタンバイ時にはサブシステム50が稼働しているため、ネットワークサーバ5が提供するネットワークサービスに、常時サインインした状態を維持する。
 メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。
 クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。
 デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
 メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。
 USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。なお無線通信モジュール38は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT-2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応してもよく、さらには別の世代のデジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介してネットワーク3に接続する。
 図4は、ゲームのリプレイ画像を処理する情報処理装置10の構成を示す。情報処理装置10は処理部100、通信部102および受付部104を備える。処理部100はプログラム実行部110、撮像画像取得部140、画像生成部150、表示処理部160および共有処理部162を備える。図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 プログラム実行部110は、ゲームプログラムを実行し、ゲーム進行部112、リプレイデータ生成部114およびリプレイ処理部120の各機能を実現する。リプレイ処理部120は、リプレイデータ取得部122、シーン決定部124、リプレイ画像生成部126、ユーザ決定部128、ユーザ画像要求部130、ユーザ画像取得部132および合成処理部134を有する。ここで示している各機能は、ゲームプログラムを実行することで実現され、ゲームプログラムやGPU(Graphics Processing Unit)などにより構成される。
 画像生成部150は、要求受付部152、撮像画像読出部154、顔認識部156、オブジェクト認識部157およびユーザ画像生成部158を有する。顔認識部156は、情報処理装置10に実装されている顔認識エンジンにより実現される。
 通信部102は、入力装置6の操作情報を受信し、また処理部100で生成したゲーム画像を、共有サーバ11経由で他の端末装置9に配信する。処理部100は、ユーザによるリアルタイムのプレイ状況を示すプレイ画像と、過去のプレイ状況を再現したリプレイ画像を生成する機能をもつ。端末装置9のユーザは、ネットワーク3に接続する共有サーバ11にアクセスして、情報処理装置10から配信されているゲーム画像を視聴できる。通信部102は図3に示す無線通信モジュール38および有線通信モジュール40の機能を併せ持つ構成として表現している。なお通信部102は、他の端末装置9に直接コンテンツを配信してもよい。
 受付部104は、通信部102と処理部100との間に設けられ、通信部102と処理部100との間でデータないしは情報を伝送する。受付部104は通信部102を介して入力装置6の操作情報を受け付けると、その操作情報を処理部100に供給する。また受付部104は、プログラム実行部110からゲーム画像を受け付け、通信部102に提供する。
 登録ユーザ情報保持部170は補助記憶装置2の記憶領域に形成されて、情報処理装置10に登録されているユーザに関する様々な情報を保持し、具体的には、ユーザアカウントに関連付けて、ログイン用パスコード、ネットワークサーバ5にサインインするためのサインインID、ネットワークアカウント、ユーザのオンラインID(ネットワーク上でのユーザ名)、またユーザを表現するためのユーザアイコンなどを、登録ユーザ情報として保持している。また登録ユーザ情報保持部170は、ユーザアカウントに関連付けて、顔認識処理のための顔識別用データを登録ユーザ情報として保持している。
 ここで顔識別用データは、登録ユーザの顔画像の特徴量データであるが、顔画像データそのものであってもよい。顔識別用データは、顔認識部156による顔認識処理において比較対象とされるデータであり、顔認識部156が採用する顔認識アルゴリズムにしたがって生成される。たとえば顔識別用データは、顔のパーツの相対位置や大きさ、目や鼻やほお骨やあごの形を特徴として抽出したデータであってよい。また顔識別用データは、顔画像の標準データからの差分データとして抽出したデータであってよい。どのような顔識別用データを抽出するかは、採用する顔認識アルゴリズムによって定まり、実施例では顔認識部156が既知の顔認識アルゴリズムを採用している。
 実施例の情報処理装置10は、ユーザがログインすることを条件として入力装置6の操作を受け付ける。したがって図1に示す例では、ユーザA~Cのそれぞれが、情報処理装置10にログインしている。ログインユーザ記憶部174は補助記憶装置2の記憶領域に形成されて、情報処理装置10にログインしているユーザ情報を記憶している。既述したように使用中の入力装置6の発光部85は、情報処理装置10により設定された発光色で点灯している。ログインユーザ記憶部174は、ログインユーザと、入力装置6の識別情報と、入力装置6の発光色とを対応付けて記憶する。実施例において入力装置6a、6b、6cの発光部85が、それぞれ青、赤、緑で点灯している場合、ログインユーザ記憶部174は、ユーザAのユーザアカウント、入力装置6aの識別情報、入力装置6aが青点灯していることを関連づけて記憶し、また、ユーザBのユーザアカウント、入力装置6bの識別情報、入力装置6bが赤点灯していることを関連づけて記憶し、ユーザCのユーザアカウント、入力装置6cの識別情報、入力装置6cが緑点灯していることを関連づけて記憶している。
 ゲーム進行部112はゲームプログラムを実行して、ゲームを進行させる。ゲーム進行部112は、ユーザA~Cのそれぞれから入力装置6a~6cに入力された操作情報をもとに、3次元仮想空間においてゲームオブジェクトを動かす演算処理を行う。ここでゲーム進行部112は、ゲームプログラムそのものであってよく、GPUなどを利用して、ゲーム画像データを生成する。この意味において、ゲーム進行部112は、プレイ中のゲーム画像を生成するゲーム画像生成部として機能する。表示処理部160は、ゲーム画像を出力装置4から出力し、共有処理部162は、ゲーム画像データをエンコードして、配信画像として配信する。
 図5は、出力装置4に表示されるゲーム画面の一例を示す。この例では、ユーザA~Cが、それぞれサッカー選手を操作して一緒にサッカーゲームを楽しんでいる。各ユーザはサッカー選手を選び、選んだサッカー選手は、ゲーム中に変更できない設定であってもよいが、入力装置6の所定のボタンを押すことで、ゲーム中に変更できる設定であってもよい。共有処理部162は、ユーザA~Cが見ているゲーム画面と同じ画面を、端末装置9に配信する。情報処理装置10は、ゲーム画像のうち、少なくとも過去のプレイ状況を再現したリプレイ画像を配信する際には、ユーザを撮像したユーザ画像も一緒に配信する。
 ゲーム進行部112が、入力装置6a~6cに入力された操作情報をもとにゲームを進行するが、このときリプレイデータ生成部114は、ゲームのプレイ状況を再現するためのリプレイデータを生成する。リプレイデータは、ゲームプログラムが受け付ける入力装置6a~6cの操作情報を少なくとも含む。なおゲーム中、ゲームプログラムは、入力装置6が操作されたタイミングで操作情報を処理するが、過去のプレイ状況を再現するためには、操作情報が入力されたタイミング情報も必要である。そこでリプレイデータ生成部114は、ゲーム進行部112によるゲームプログラムの実行中に、ユーザA~Cがそれぞれ入力装置6a~6cを操作した操作情報と、その操作情報を受け付けたタイミングデータとを関連づけたリプレイデータを生成する。
 タイミングデータは、たとえばゲームプログラムの実行開始などの基準タイミングからの時間情報や、ゲーム画像のフレーム番号として生成される。つまりリプレイデータは、ゲーム進行部112がゲーム進行に使用した入力装置6の操作情報および操作タイミングを関連づけたものであり、リプレイ画像の生成時には、ゲームプログラムがリプレイデータに含まれる擬似的な操作タイミングで操作情報を受け付けることで、過去にプレイしたゲームシーンを再現できる。実施例においてリプレイデータ生成部114は、ユーザによるゲームプレイの開始から終了までの期間のリプレイデータを生成し、リプレイデータ保持部166に格納する。なお操作情報には、どの入力装置6からの入力であるかを特定する情報も関連づけられており、具体的には操作情報に、その操作情報を入力した入力装置6の識別情報が関連づけられている。
 またリプレイデータ生成部114は、ゲーム進行部112によるゲームプログラムの実行中に発生したイベントの内容および発生したタイミングデータを含むイベントデータを生成して、リプレイデータ保持部166に格納する。リプレイデータ生成部114は、ゲームプレイ中にイベント発生を検出したタイミングでイベントデータを生成してもよく、またゲームプレイないしはゲーム中のステージが終了したタイミングで、リプレイデータからイベントの発生を探索して、イベントデータを生成してもよい。なお、この場合は、リプレイデータ生成部114が、リプレイデータとして、イベントの発生を示すイベント発生情報をタイミングデータとともにリプレイデータ保持部166に格納しておき、リプレイデータ生成部114は、イベント発生情報を探索して、イベントデータを生成する。たとえばサッカーゲームにおいてイベントは、得点が入ったこと(ゴールイベント)や、キーパーがスーパーセーブを決めたこと(スーパーセーブイベント)など、ユーザが盛り上がるゲームシーンに対して設定されている。
 またイベントは、ゲームプログラムに設定されたものに限らず、外部事情によって設定されてもよい。たとえば所定の音量以上の音声がマイク(図示せず)から入力された際に、リプレイデータ生成部114は、大きな声が発せられたことと、発声があったタイミングデータとを関連づけたイベントデータを生成してリプレイデータ保持部166に格納する。またカメラ7に撮影されているユーザが飛び上がるような動きをしたときに、リプレイデータ生成部114は、ユーザが興奮していることと、ユーザが興奮したタイミングデータとを関連づけたイベントデータを生成してリプレイデータ保持部166に格納する。
 ここで所定の音量以上の音声がマイクから入力されたこと、またカメラ7に撮影されているユーザが所定の動きをしたことは、システムソフトウェアにより検出され、システムソフトウェアは当該事象の発生を検出すると、リプレイデータ生成部114に通知する。リプレイデータ生成部114は、システムソフトウェアから当該事象の発生を通知されることで、タイミングデータと関連づけたイベントデータを生成し、リプレイデータ保持部166に格納する。
 さらにイベントは、入力装置6の操作状況によって設定されてもよい。たとえば入力装置6のボタンやキーが連打されるなど、通常時と比べて短時間で多くの操作がなされた際に、リプレイデータ生成部114は、連打されたことと、連打したタイミングデータとを関連づけたイベントデータを生成してリプレイデータ保持部166に格納する。格闘ゲームなどにおいては、複数種類のボタンの連続操作で必殺技を繰り出せるようにしているが、短時間に複数種類のボタンが連続操作された際に、リプレイデータ生成部114は、複数種類のボタンが連続操作されたことと、連続操作したタイミングデータとを関連づけたイベントデータを生成してリプレイデータ保持部166に格納してもよい。ゲームにおいてイベントとして設定されている必殺技が繰り出されたときには、リプレイデータ生成部114はイベント発生を検出できるが、連続操作に失敗して必殺技を出せなかったような場合においても、複数種類のボタンが連続操作されたことをもって、必殺技を出そうとして失敗したイベントとしてとらえ、リプレイデータ生成部114がイベントデータを生成することも可能である。
 撮像画像取得部140は、カメラ7から撮像画像データを取得する。たとえばカメラ7は周期的(たとえば1/60秒ごと)に空間を撮像して、撮像画像をUSBモジュール34を経由して撮像画像取得部140に提供する。撮像画像取得部140は、取得した撮像画像データを、撮像したタイミングを示すタイミングデータに関連づけて、撮像画像データ保持部168に格納する。タイミングデータは、基準タイミングからの時間情報や、基準タイミングからのゲーム画像のフレーム番号であってよい。なおフレーム番号は、基準タイミングから生成された画像フレーム数に対応し、基準タイミングのフレーム番号を1番として、その後、ゲーム画像が生成されるたびに、1ずつインクリメントされる。
 リプレイデータ保持部166に保持されるリプレイデータ、および撮像画像データ保持部168に保持される撮像画像データは、それぞれタイミングデータを有している。既述したようにタイミングデータは、あるタイミングを基準として設定され、たとえば基準となるタイミングは、ゲームプログラムが起動したときや、ユーザがプレイを開始したときであってよい。ゲームのフレーム画像が1/30秒ごとに生成され、カメラ7の撮像画像が1/60秒ごとに取得される場合、撮像画像取得部140は、2枚に1枚を間引いて1/30秒ごとの撮像画像を撮像画像データ保持部168に格納してもよい。なおゲームのフレーム画像の生成周期と、カメラ7の撮像周期とは厳密には同期しないが、あるフレーム番号のゲーム画像に対して、撮像画像取得部140は、そのゲーム画像の直後に取得された撮像画像に同じフレーム番号を付与することで、ゲーム画像と撮像画像のフレーム番号を揃えることができる。撮像画像取得部140は、プログラム実行部110から、基準タイミングを通知されると、その直後に取得した撮像画像にフレーム番号を1とするタイミングデータを付与して撮像画像データ保持部168に格納し、以後は、2枚に1枚を間引いて、撮像画像のフレーム番号を1ずつインクリメントして、撮像画像データ保持部168に格納していく。
 リプレイデータに含まれる操作情報のフレーム番号が“N”であるとき、その操作情報は、基準タイミングからN番目に生成されたゲーム画像に反映された操作情報であることを意味し、また撮像画像データに含まれるフレーム番号が“N”であるとき、その撮像画像データは、基準タイミングからN番目に撮像画像データ保持部168に格納されたことを意味する。
 図6は、カメラ7によって撮影される空間の一例を示す。この撮影空間には、3人のユーザA~Cが存在している。図6において3人のユーザを取り囲む四角の枠はカメラ7の撮像範囲(画角)を表現している。撮像画像取得部140は、カメラ7から撮像画像データを取得する。たとえばカメラ7は1/60秒ごとに空間を撮像して、撮像画像をUSBモジュール34を経由して撮像画像取得部140に提供する。既述したように撮像画像取得部140は、ゲーム画像のフレームレートに合わせたタイミングで(必要であれば間引いて)、タイミングデータとなるフレーム番号を付加した撮像画像を撮像画像データ保持部168に格納する。
 情報処理装置10の顔認識処理について説明する。
 顔認識部156は、撮像画像においてユーザの顔画像を検出する機能をもつ。ここで顔認識部156は、撮像画像において、人の顔と推定される部分を検出して抜き出し、その部分の特徴量データを導出して、登録ユーザ情報保持部170に保持された顔識別用データと比較し、抜き出した顔が登録ユーザの顔であるか否かを判定する。
 具体的に顔認識部156は、抜き出したユーザの顔画像の特徴量データと、登録ユーザ情報保持部170に保持されている全ての登録ユーザの顔識別用データとの一致度を導出する。この一致度は数値表現され、たとえば100点満点中の何点という形で一致度が導出される。登録された顔画像の特徴量データとの一致度が90点を超えていれば、顔認識部156は、撮像されたユーザが、登録ユーザであることを判定するとともに、撮像されたユーザがどの登録ユーザであるかを特定する。なお一致度が90点を超えるものが複数存在する場合には、顔認識部156は、撮像されたユーザが、最高点が導出された顔識別用データの登録ユーザであることを判定すればよい。なお、撮像画像から抜き出したユーザの顔画像の特徴量データと、全ての登録ユーザの顔識別用データとの一致度を導出した結果、一致度が90点を超えるものがなければ、顔認識部156は、撮像画像に含まれるユーザが、顔画像を登録したユーザでないことを判定する。このように顔認識部156は、登録ユーザ情報保持部170に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する。この顔識別技術は、既知の技術を用いてよい。
 ゲームプログラムによるリプレイ処理機能について説明する。
 サッカーゲームでは、試合終了後に、ゴールシーンなどのリプレイ画像を生成する。ゴールシーンなどのハイライトシーンは、ゲーム中で検出されたイベントにより定められる。なおハイライトシーンは、外部事情によりユーザA~Cが盛り上がっていることが検出されたことによって定められてもよい。
 リプレイ処理部120において、リプレイデータ取得部122は、リプレイデータ保持部166に保持されたリプレイデータおよびイベントデータを取得する。シーン決定部124は、取得したイベントデータを参照して、ハイライトシーンとして編集するゲームシーンを決定する。イベントデータには、イベントの内容および発生タイミングデータが含まれているが、イベントの内容に応じて、編集するシーン期間が定められていてよい。たとえば、ゴールのイベントに関しては、ボールがゴールに入る前の5秒間と、入った後の5秒間が、リプレイ画像のシーン期間として定められている。以下、ゴールイベントのリプレイ画像の生成処理について説明する。
 シーン決定部124は、ゴールシーンのイベントデータに含まれるタイミングデータを参照して、イベント発生時の5秒前のタイミング(シーン開始フレーム番号)と5秒後のタイミング(シーン終了フレーム番号)を特定する。リプレイ画像生成部126は、シーン決定部124からシーン開始フレーム番号とシーン終了フレーム番号を受け取り、ゴールシーンのリプレイ画像を生成する。
 具体的にリプレイ画像生成部126はゲームプログラムを実行し、リプレイデータに含まれる操作情報が、その操作情報に関連づけられているタイミングデータで特定されるタイミングで入力装置6a~6cから入力されたものとみなして、リプレイ画像を生成する。このようにリプレイ画像生成部126は、リプレイデータを擬似操作情報としてゲームプログラムに提供して、3次元仮想空間内でサーカー選手を動かすゲーム画像を生成する。
 なおリプレイ画像生成部126は、ゲームプレイ時の仮想カメラ視点や視線方向でリプレイ画像を生成してもよいが、仮想カメラ視点や視線方向を変えてもよい。またリプレイ画像生成部126は、ゴールシーンを様々な角度から見ることができるように、複数の仮想カメラ視点および視線方向から、複数のリプレイ画像を生成してもよい。たとえばゴールシーンに関してリプレイ画像生成部126は、遠目から見た(プレイ画像と同じもしくは近い)第1リプレイ画像と、シュートを決めた選手の動きにフォーカスした第2リプレイ画像と、ゴール裏から見た第3リプレイ画像とを生成する。このように3種類のリプレイ画像は、それぞれ仮想カメラ視点および視線方向を異ならせて生成される。
 ユーザ決定部128は、合成画像に含めるユーザを決定する。ここで合成画像とは、リプレイ画像生成部126により生成されるリプレイ画像と、撮像画像を切り出したユーザ画像とを合成した画像である。ユーザ決定部128は、リプレイデータを参照し、ゲームシーンにおけるプレイ状況にもとづいてユーザを決定する。具体的にユーザ決定部128は、ゴールシーンのゴールイベントに関与したゲームオブジェクト(サッカー選手)を操作したユーザを、合成画像に含めるユーザとして決定する。
 イベント情報保持部172は、イベントのリプレイ画像に付加する撮像画像に含まれるユーザを決定するためのオブジェクト情報を保持する。またイベント情報保持部172は、撮像画像からユーザ画像の切り出し形態を特定するタイプ情報も保持する。オブジェクト情報およびタイプ情報は、リプレイ画像に対応付けられる。イベント情報保持部172は、これらのイベント情報をテーブル形式で有していてもよく、CSV形式で有していてもよい。イベント情報を記録したファイルはゲームソフトウェアに含まれており、ゲームプログラムを開始する際に、補助記憶装置2に読み出され、ユーザ決定部128によるユーザ決定処理に使用される。
 図7は、ゴールイベントのイベント情報の例を示す。既述したように、リプレイ画像生成部126は、ゴールイベントについて第1~第3リプレイ画像を生成する。「リプレイ画像」はリプレイ画像を特定する情報であり、リプレイ画像の項目の“1”は第1リプレイ画像、リプレイ画像の項目の“2”は第2リプレイ画像、リプレイ画像の項目の“3”は第3リプレイ画像を示す。
 「ゲームオブジェクト」は、リプレイ画像に付加するユーザを指定するための項目であり、具体的には、当該ゲームオブジェクトを操作していたユーザを、合成画像に含めるユーザとして決定するための情報である。ここで第1リプレイ画像、第2リプレイ画像のゲームオブジェクトは、“シュートをした選手”であり、したがってユーザ決定部128は、第1リプレイ画像、第2リプレイ画像に、シュートをした選手を操作していたユーザを含む撮像画像を付加することを決定する。また第3リプレイ画像のゲームオブジェクトは“キーパー”であるため、ユーザ決定部128は、第3リプレイ画像に、キーパーを操作していたユーザを含む撮像画像を付加することを決定する。このようにユーザ決定部128は、ゲームシーンのリプレイ画像に対応付けられているゲームオブジェクト(サッカー選手)を操作したユーザを、合成画像に含めるユーザとして決定する。実施例ではゴールシーンにおいて、ユーザAがシュートをした選手を操作しており、ユーザCがキーパーを操作していたものとする。
 「タイプ情報」は、撮像画像からユーザ画像の切り出し形態を特定するための項目である。
 図8は、タイプ情報による切り出し形態を説明するための図である。実施例では、撮像画像からユーザを切り出す形態を3種類用意する。なお図8には、ユーザAを切り出す例を示している。切出領域200は、タイプ1による切出領域であり、切出領域202は、タイプ2による切出領域であり、切出領域204は、タイプ3による切出領域である。いずれの切出領域200、202、204も、ユーザ決定部128が決定したユーザの顔画像を少なくとも含むように設定されるが、タイプ番号が大きくなるにつれて、領域内の顔画像の割合は小さくなる。
 タイプ1の切出領域200は、ユーザの顔画像の割合が大きくなるように設定される。切出領域200で切り出される撮像画像は、リプレイ画像に合成された際に、プレイユーザの顔を大きく映すために、視聴ユーザは、プレイユーザの顔の表情をよく見ることができる。
 タイプ2の切出領域202は、ユーザの上半身を切り出すように設定される。切出領域202で切り出される撮像画像は、リプレイ画像に合成された際に、プレイユーザの上半身を映すために、視聴ユーザは、プレイユーザの動きから盛り上がっている様子を見ることができる。
 タイプ3の切出領域204は、撮像画像全体を切り出すように設定される。切出領域204は、撮像画像そのものであってもよい。特に複数のプレイユーザがいる場合に、切出領域204で切り出される撮像画像は、リプレイ画像に合成された際に、複数のプレイユーザの様子を映すために、視聴ユーザは、プレイ中の雰囲気を知ることができる。
 図7に示すように、切出領域のタイプ情報は、イベント情報としてリプレイ画像に対して設定されている。ゲームメーカは、生成するリプレイ画像に対して、どのユーザの撮像画像を合成し、また、撮像画像をどのように切り出すかを定めて、イベント情報を生成する。上記したように、タイプ1~3の切出領域には、それぞれの特徴があり、ゲームメーカは、編集するリプレイ画像に相応しい切出領域を定める。
 図7に示すイベント情報では、遠目から見た第1リプレイ画像と、シュートを決めた選手にフォーカスした第2リプレイ画像に、ゲームオブジェクトである“シュートをした選手”と、タイプ情報2が対応付けられている。シュートを決めた選手を操作するユーザは、興奮して大喜びすると考えられるため、その様子が伝わりやすいタイプ情報2が選択されている。一方、ゴール裏から見た第3リプレイ画像には、ゲームオブジェクトである“キーパー”と、タイプ情報3が対応付けられている。キーパーを操作するユーザは落胆すると考えられるため、がっかりした顔の表情を大きく映すタイプ情報1を選択することで、失望した雰囲気を効果的に伝えられる。このようなポリシーはゲームメーカにより適宜選択されてよい。1つのハイライトシーンにおいて、リプレイ画像に応じて切り出し形態を異ならせると、視聴ユーザは、その演出にも興味をもつようになり、ゲームプログラムの人気向上にもつながる。
 画像生成部150はタイプ情報をもとに撮像画像を切り出すライブラリを有しており、ライブラリの内容がゲームメーカに対して公開されることで、ゲームメーカは、演出に工夫をこらしたイベント情報を生成できる。なおタイプ情報は、3種類に限定されるものではなく、それ以上であってもよいし、それ以下であってもよい。リプレイ処理部120は、ユーザとタイプ情報とを指定するだけで、画像生成部150から、切り出したユーザ画像の提供を受けられるようになる。
 なお図8では、ユーザAの切出領域について説明したが、ユーザB、Cに対しても、それぞれの顔画像を含んだ切出領域が設定される。
 ユーザ決定部128は図7に示すイベント情報を参照して、ゴールシーンのリプレイデータから、撮像画像から切り出すユーザを決定する。リプレイデータに含まれる操作情報には、操作情報を入力した入力装置6の識別情報が関連づけられており、これによりユーザ決定部128は、ゲームオブジェクトを操作した入力装置6を特定する。ここでシュートをした選手を操作した入力装置が入力装置6aであり、ユーザ決定部128は、ログインユーザ記憶部174の記憶内容を参照して、入力装置6aの使用者がユーザAであることを判定する。またキーパーを操作した入力装置6が入力装置6cであり、ユーザ決定部128は、ログインユーザ記憶部174の記憶内容を参照して、入力装置6cの使用者がユーザCであることを判定する。このようにしてユーザ決定部128は、第1リプレイ画像と第2リプレイ画像に付加するユーザ画像の対象者がユーザAであり、第3リプレイ画像に付加するユーザ画像の対象者がユーザCであることを決定する。ユーザ決定部128は、切り出す対象者として決定したユーザのユーザアカウントと、撮像画像のタイプ情報とをユーザ画像要求部130に通知する。またシーン決定部124は、シーン開始フレーム番号とシーン終了フレーム番号とをユーザ画像要求部130に通知する。
 ユーザ画像要求部130は通知を受けて、シーン開始フレーム番号とシーン終了フレーム番号、ユーザのユーザアカウントと、撮像画像のタイプ情報とを指定して、ユーザ画像の提供を要求するユーザ画像生成要求を画像生成部150に送信する。シーン開始フレーム番号とシーン終了フレーム番号は、ゴールイベントにおけるゴールシーンの期間を指定しており、ユーザ画像生成要求は、このゴールシーンにおけるユーザAのタイプ2の画像の提供と、ユーザCのタイプ1の画像の提供を要求している。
 画像生成部150において、要求受付部152が、ユーザ画像生成要求を受け付ける。このユーザ画像生成要求に含まれるシーン開始フレーム番号とシーン終了フレーム番号とをもとに、撮像画像読出部154は、撮像画像データ保持部168から、シーン開始フレーム番号とシーン終了フレーム番号の間の10秒間分の撮像画像を読み出す。顔認識部156は、読み出された撮像画像中のユーザ認識処理を行う。
 図9は、顔認識部156による顔識別結果を示す。たとえば図6に示すカメラ画像がゴールシーンにおけるものである場合、左側のユーザがユーザAであること、真ん中のユーザがユーザBであること、右側のユーザがユーザCであることが判定される。顔認識部156は、ユーザAの顔の撮像画像中の位置を示す顔領域206aと、ユーザBの顔の撮像画像中の位置を示す顔領域206bと、ユーザCの顔の撮像画像中の位置を示す顔領域206cとを、カメラ画像中の座標で設定する。各顔領域206は、ユーザの顔画像に外接する矩形領域として設定されてよい。
 図10は、顔識別結果をもとに設定される切出領域を示す。ユーザ画像生成部158は、顔認識部156により設定されたユーザAの顔領域206aをもとに、ユーザAのタイプ2の切出領域202aを定める。またユーザ画像生成部158は、ユーザCの顔領域206cをもとに、ユーザCのタイプ1の切出領域200cを定める。
 ユーザ画像生成部158は、ゴールシーンにおけるユーザAの顔画像を含む切出領域202aを撮像画像から切り出し、リプレイ処理部120に提供する。またユーザ画像生成部158は、ゴールシーンにおけるユーザCの顔画像を含む切出領域200cを撮像画像から切り出し、リプレイ処理部120に提供する。ユーザ画像取得部132は、指定したユーザAのタイプ2の撮像画像およびユーザCのタイプ1の撮像画像を取得する。
 以上は、顔認識部156による顔識別結果を利用して、ユーザ画像生成部158がユーザの切出領域を定めることを示したが、オブジェクト認識部157が撮像画像中で入力装置6を検出し、その検出結果を利用して、ユーザ画像生成部158がユーザの切出領域を定めてもよい。
 オブジェクト認識部157は、撮像画像において、入力装置6を探索する。使用中の入力装置6は所定色で点灯しているため、オブジェクト認識部157は、所定色の矩形領域、すなわち発光部85の形状で点灯している領域を撮像画像中で探索する。ユーザ画像要求部130から送信されるユーザ画像生成要求が、ユーザAとユーザCのユーザ画像を要求しているため、オブジェクト認識部157は、ログインユーザ記憶部174の記憶内容を参照して、ユーザAの入力装置6aの点灯色である青色の矩形領域と、ユーザCの入力装置6cの点灯色である緑色の矩形領域を探索する。オブジェクト認識部157は、検出した矩形領域の点灯色と、矩形領域の位置座標をユーザ画像生成部158に提供する。なお、この例では、顔認識部156は、顔識別によりユーザを特定する必要はないが、顔画像が存在することを検出し、検出位置座標(すなわち顔領域206の位置座標)をユーザ画像生成部158に提供する。
 ユーザ画像生成部158は、ログインユーザ記憶部174の記憶内容を参照して、青色の矩形領域の位置座標の上方に位置する検出ユーザがユーザAであることを判定する。またユーザ画像生成部158は、ログインユーザ記憶部174の記憶内容を参照して、緑色の矩形領域の位置座標の上方に位置する検出ユーザがユーザCであることを判定する。これによりユーザ画像生成部158は、顔領域206aをもとに、ユーザAのタイプ2の切出領域202aを定め、またユーザCの顔領域206cをもとに、ユーザCのタイプ1の切出領域200cを定めてもよい。
 合成処理部134は、ユーザ画像取得部132が取得したユーザ画像と、リプレイ画像生成部126が生成したリプレイ画像との合成画像を生成する。
 図11は、合成画像の一例を示す。合成処理部134は、第1リプレイ画像の一部の領域に、ユーザ画像210を重ねて表示する。合成処理部134は、リプレイ画像中の所定の領域、たとえば右上に、ユーザ画像210を重畳表示してもよい。なおリプレイ画像生成部126は、リプレイ画像を生成する際に、ユーザ画像を重畳しても問題がない領域を検出して、その領域を合成処理部134に通知してもよい。ゴールシーンにおいてユーザ画像を重畳しても問題がない領域とは、サッカーボールが通過しない領域であり、リプレイ画像生成部126は、リプレイ画像中の右上、右下、左下、左上の領域のうち、サッカーボールが通過しない領域を検出して、合成処理部134に通知してもよい。合成処理部134は、この通知を受けて、重畳領域を定めてもよい。なお合成処理部134は、ユーザ画像をリプレイ画像に重畳させるのではなく、リプレイ画像を若干縮小して、縮小したことによる余白部分にユーザ画像を配置してもよい。図11に示す合成画像は、ゴールシーンにおいて選手がシュートをする直前の様子を示している。
 図12は、合成画像の一例を示す。図12に示す合成画像は、ゴールが決まった瞬間の様子を示している。ゴールが決まった瞬間、ユーザ画像210において、ユーザAが喜んでいる様子が示される。このように、リプレイ画像と、そのときのユーザの様子を示すユーザ画像とを合成することで、ハイライトシーンにおけるユーザの興奮を視聴ユーザにも伝えることができる。
 またイベント情報により指定されるユーザの画像が選択されることで、ハイライトシーンに相応しいユーザの撮像画像が、リプレイ画像に付加されることになる。なお図11,図12の例は、第1リプレイ画像とユーザAの画像との合成画像を示しているが、合成処理部134は、第2リプレイ画像とユーザAの画像との合成画像、および第3リプレイ画像とユーザCの画像との合成画像も生成し、表示処理部160は、第1リプレイ画像、第2リプレイ画像、第3リプレイ画像の順に出力装置4から出力する。
 実施例において、ユーザ決定部128は、図7に示すイベント情報を参照して、ゴールシーンのリプレイデータから、合成画像に含めるユーザを決定している。ユーザ決定部128は、イベントに対応付けられているゲームオブジェクトの優先順位にしたがって、合成画像に含めるユーザを決定してもよい。
 図13は、ゴールイベントの優先情報を示す。この優先情報は、イベント情報の一部を構成して、イベント情報保持部172に保持されてもよい。この優先情報は、合成画像に含めるユーザを決定するときの優先順位を定める。この例では、1位が“シュートをした選手”であり、2位が“アシストをした選手”であり、3位が“キーパー”である。ユーザ決定部128は、第1リプレイ画像に、1位の選手を操作していたユーザを含む撮像画像を付加することを決定し、第2リプレイ画像に、2位の選手を操作していたユーザを含む撮像画像を付加することを決定し、第3リプレイ画像に、3位の選手を操作していたユーザを含む撮像画像を付加することを決定してもよい。なお優先情報には、優先順位に関連づけて、切り出し形態を特定するタイプ情報が含まれてもよい。
 なお図7に示すイベント情報と、図13に示す優先情報が併用されてもよく、ユーザ決定部128が、図7に示すイベント情報にしたがってユーザを決定できない場合に、図13に示す優先情報を用いて、合成画像に含めるユーザを決定してもよい。
 以上、実施例をとおしてユーザ決定部128が、合成画像に含めるユーザを直接決定することを説明したが、ユーザ決定部128によるユーザ決定処理は、合成画像に含めるユーザを間接的に特定することも含む。ユーザ決定部128は、ユーザが使用した入力装置6を特定するが、入力装置6が特定されれば、ログインユーザ記憶部174を参照するだけで、ユーザを直接特定できる。つまり入力装置6とユーザとは一対一の関係にあり、したがって少なくともユーザ決定部128は、ゲームオブジェクトを操作した入力装置6を決定することで、合成画像に含めるユーザを間接的に決定している。ユーザ画像要求部130は、入力装置6の識別情報を含むユーザ画像生成要求を画像生成部150に送信すると、要求受付部152が、入力装置6の識別情報からログインユーザ記憶部174の記憶内容を参照して、ユーザを特定してもよい。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。たとえば合成処理部134はリプレイ画像とユーザ画像とを合成せずに、ユーザ画像のみを再生用画像として利用してもよい。またリプレイ画像とユーザ画像との合成画像を表示または配信する際には、前回のゲームプレイにおける合成画像と合わせて表示または配信してもよい。
 実施例において、プログラム実行部110は、ゲームプログラムを実行し、リプレイ処理部120の機能を実現することを説明したが、リプレイ処理部120として説明したユーザ画像取得部132および合成処理部134の機能はシステムソフトウェアにより実現されてもよい。
 イベントには、そのイベントによりポジティブな結果を得たユーザと、ネガティブな結果を得たユーザとが存在することがある。たとえばゴールイベントに関して言えば、シュートをした選手を操作していたユーザ、アシストをした選手を操作していたユーザがポジティブな結果を得ており、一方でシュートを決められたキーパーを操作していたユーザはネガティブな結果を得ている。図7に示すイベント情報や、図13に示す優先情報において、ゲームオブジェクトに対して、ポジティブまたはネガティブを示す属性情報が割り当てられていてもよく、ユーザ画像生成部158は、撮像画像から切り出した切出領域に、ゲームオブジェクトに割り当てられている属性情報に応じて、所定の加工を行ってもよい。たとえばユーザ画像生成部158は、切出領域に対して、属性情報に応じた背景ないしは縁取りを設定してもよい。たとえばポジティブ属性が割り当てられたゲームオブジェクトを操作したユーザの切出領域の背景および/または縁取りを、喜びを表す色やテクスチャに設定し、一方でネガティブ属性が割り当てられたゲームオブジェクトを操作したユーザの切出領域の背景および/または縁取りを、落胆を表す色やテクスチャに設定してもよい。喜びを表す色やテクスチャとは、明るい色や鮮やかなテクスチャであり、落胆を表す色やテクスチャとは、暗い色や重苦しい雰囲気のテクスチャであってよい。これによりユーザの動きや表情だけでなく、その背景や縁取りなどによっても、ユーザの喜びや落胆を表現できるようになる。
 実施例では、試合終了後に、リプレイ処理部120が、合成画像を生成することを説明したが、たとえば試合中にイベントの発生が検出されると、その時点でリプレイ処理部120が合成画像を生成してもよい。
 また実施例では、図7に示すように、切出領域のタイプ情報およびゲームオブジェクトが、イベント情報としてリプレイ画像に対して設定されており、イベント情報がゲームメーカによって生成されることを説明した。なお、このタイプ情報およびゲームオブジェクトは、配信するユーザによって定められてもよいし、また視聴ユーザによって定められてもよい。また図13において、合成画像に含めるユーザを決定するための優先情報を示したが、優先情報は、イベントに関係なく、配信するユーザによって定められてもよいし、視聴ユーザによって定められてもよい。
 また実施例では、過去のプレイ状況を再現するリプレイ画像に、ユーザ画像を重畳して再生用画像を編集することを説明したが、現在のプレイ状況に、ユーザ画像を重畳したプレイ画像を生成してもよい。たとえばゲームプログラムは、ゴールが生まれる可能性の高いプレイを、予備イベントとして設定する。ゴールシーンの予備イベントは、ボールをドリブルしている選手がペナルティエリアに入ったことであったり、ゴール前にクロスボールが上げられたことに設定される。このときユーザ決定部128は、予備イベントに設定されているイベント情報を参照して、プレイ画像に重畳するユーザを決定し、合成処理部134が、プレイ画像とユーザ画像とを合成してもよい。このようにリプレイ処理部120は、現在のプレイ画像に対して、ユーザ画像を付加することも可能である。
 この場合、ユーザ決定部128は、予備イベントに関するイベント情報のみならず、実施例において説明したイベント情報を参照して、撮像画像から切り出すユーザを決定し、ユーザ画像要求部130に通知してもよい。ユーザ画像要求部130が、ユーザのユーザアカウントを指定したユーザ画像生成要求を画像生成部150に送信すると、ユーザ画像生成部158が、現在撮像中の撮像画像から、指定されたユーザの切出領域を定めて切り出し、リプレイ処理部120に提供する。これにより合成処理部134は、ユーザ画像取得部132が取得したユーザ画像と、ゲーム進行部112が生成するゲームシーンのプレイ画像との合成画像を生成し、共有処理部162が、プレイ中のゲーム画像とユーザ画像とを合成した合成画像をライブ配信してもよい。ユーザ決定部128によるユーザ決定手法は、実施例で説明した手法と同じであってよく、ユーザ決定部128がユーザを決定した後、ユーザ画像生成部158が、現在ライブ撮影されている撮像画像からユーザ画像を切り出してユーザ画像を生成する点を除けば、プレイ画像にユーザ画像を重畳する処理は、基本的には実施例で説明したリプレイ画像にユーザ画像を重畳する処理と違いはない。
 図14は、情報処理システムの変形例を示す。情報処理システム300は、ユーザが操作する情報処理装置10a、10b、10cと、ネットワークサーバ5とを備え、これらはインターネットやLAN(Local Area Network)などのネットワーク3を介して接続している。この例では、ユーザAが情報処理装置10aを操作し、ユーザBが情報処理装置10bを操作し、ユーザCが情報処理装置10cを操作する。情報処理装置10a、10b、10cは、実施例で説明した情報処理装置10と同じまたは同様の機能を有する。
 実施例の情報処理システム1では、ユーザA~Cが同じ情報処理装置10を操作して、ゲームを一緒にプレイしていたが、変形例の情報処理システム300では、ユーザA~Cが、それぞれの情報処理装置10a~10cを操作して、同じサッカーゲームをオンラインで一緒にプレイしている。
 このような情報処理システム300におけるリプレイ処理機能について説明する。
 各ユーザの撮像画像は、それぞれの補助記憶装置2a~2cにおける撮像画像データ保持部168に格納される。たとえばユーザAがマスタとしての役割を果たす場合、情報処理装置10aにおいて、ユーザ決定部128が、ハイライトシーンの合成画像に含めるユーザを決定する。決定されたユーザが自分自身(ユーザA)であれば、ユーザAの撮像画像は補助記憶装置2aの撮像画像データ保持部168に保持されており、そのため画像生成部150は、ユーザAのユーザ画像を生成して、合成処理部134に提供する。
 一方、ユーザ決定部128により決定されたユーザが、自分以外(たとえばユーザC)である場合、ユーザCの撮像画像は、補助記憶装置2cの撮像画像データ保持部168に保持されている。そのためユーザ画像要求部130は、ユーザCの情報処理装置10cに対して、ゲームシーンのシーン開始フレーム番号とシーン終了フレーム番号、ユーザCのネットワークアカウントと、撮像画像のタイプ情報とを指定したユーザ画像生成要求を送信する。
 ユーザCの情報処理装置10cにおいて、画像生成部150は、ユーザ画像生成要求を受け付けると、タイプ情報にしたがって、ゴールシーンの開始から終了までの間のユーザCの顔画像を含む切出領域を撮像画像から切り出して、情報処理装置10aに提供する。これにより情報処理装置10aのリプレイ処理部120は、ユーザCのユーザ画像とリプレイ画像との合成画像を生成できる。なお情報処理装置10aにおいて生成した合成画像は、他のゲーム参加ユーザ、つまりユーザB、Cに配信されて、ゲーム参加ユーザが、合成画像を見ることができる。
 なお情報処理装置10a~10cで実行されているゲームプログラムは同じであり、各情報処理装置10a~10cにおいて合成画像を生成するようにしてもよい。各情報処理装置10a~10cにおいて、ユーザ決定部128がハイライトシーンの合成画像に含めるユーザを決定し、決定されたユーザが自分以外であれば、そのユーザの情報処理装置10に対してユーザ画像生成要求を送信し、生成されたユーザ画像を受信することで、他のユーザのユーザ画像とリプレイ画像との合成画像を生成できる。
 なお外部サーバに、ユーザA~Cの顔識別用データをもたせ、また各ユーザA~Cの撮像画像を外部サーバに提供することで、外部サーバが、ユーザ画像の生成処理を担当するようにしてもよい。
 なお図14に示す例においても、ユーザ画像生成要求に含まれるタイプ情報やユーザの識別情報は、ユーザにより指定されてもよい。
 また実施例ではサッカーゲームについて説明したが、当然のことながら、別のゲームについても本発明を利用できる。イベントはゲームごとに適宜設定され、たとえばユーザが仮想的な表彰品であるトロフィを獲得したことに設定されていてもよく、またユーザが何回もミッションに挑戦してようやく成功したことに設定されていてもよい。
1・・・情報処理システム、10・・・情報処理装置、100・・・処理部、102・・・通信部、104・・・受付部、110・・・プログラム実行部、112・・・ゲーム進行部、114・・・リプレイデータ生成部、120・・・リプレイ処理部、122・・・リプレイデータ取得部、124・・・シーン決定部、126・・・リプレイ画像生成部、128・・・ユーザ決定部、130・・・ユーザ画像要求部、132・・・ユーザ画像取得部、134・・・合成処理部、140・・・撮像画像取得部、150・・・画像生成部、152・・・要求受付部、154・・・撮像画像読出部、156・・・顔認識部、157・・・オブジェクト認識部、158・・・ユーザ画像生成部、160・・・表示処理部、162・・・共有処理部、166・・・リプレイデータ保持部、168・・・撮像画像データ保持部、170・・・登録ユーザ情報保持部、172・・・イベント情報保持部、174・・・ログインユーザ記憶部、300・・・情報処理システム。
 本発明は、ゲームシーンを編集する技術分野に利用できる。

Claims (7)

  1.  コンピュータに、
     ゲーム画像を生成する機能と、
     合成画像に含めるユーザを、ゲームシーンにおけるプレイ状況にもとづいて決定する機能と、
     決定したユーザを撮像したユーザ画像を取得する機能と、
     取得したユーザ画像と、ゲーム画像との合成画像を生成する機能と、
     を実現させるためのプログラム。
  2.  ユーザ決定機能は、ゲームシーンに対応付けられているゲームオブジェクトを操作したユーザを、合成画像に含めるユーザとして決定することを特徴とする請求項1に記載のプログラム。
  3.  ユーザ決定機能は、ゲームシーンのイベントに対応付けられているゲームオブジェクトの優先順位にしたがってユーザを決定する、ことを特徴とする請求項1または2に記載のプログラム。
  4.  決定したユーザおよびユーザ画像のタイプ情報を指定して、ユーザ画像の提供を要求する機能を、さらにコンピュータに実現させるためのプログラムであって、
     ユーザ画像取得機能は、指定したタイプ情報のユーザ画像を取得する機能を含む、ことを特徴とする請求項1から3のいずれかに記載のプログラム。
  5.  ゲームのプレイ状況を再現するためのリプレイデータを取得する機能を、さらにコンピュータに実現させるためのプログラムであって、
     ゲーム画像生成機能は、取得したリプレイデータをもとに、ゲームシーンのリプレイ画像を生成する機能を含み、
     合成画像生成機能は、取得したユーザ画像と、リプレイ画像との合成画像を生成する機能を含む、
     ことを特徴とする請求項1から4のいずれかに記載のプログラム。
  6.  請求項1から5のいずれかに記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  7.  ゲーム画像を生成する画像生成部と、
     合成画像に含めるユーザを、ゲームシーンにおけるプレイ状況にもとづいて決定するユーザ決定部と、
     決定したユーザを撮像したユーザ画像を取得するユーザ画像取得部と、
     取得したユーザ画像と、ゲーム画像との合成画像を生成する合成処理部と、
     を備えることを特徴とする情報処理装置。
PCT/JP2015/067075 2014-11-21 2015-06-12 プログラムおよび情報処理装置 WO2016080005A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580061533.3A CN107206281A (zh) 2014-11-21 2015-06-12 程序及信息处理设备
EP15861437.0A EP3170539B1 (en) 2014-11-21 2015-06-12 Program and information processing device
US15/502,907 US10596451B2 (en) 2014-11-21 2015-06-12 Program and information processing device
JP2016560073A JP6518689B2 (ja) 2014-11-21 2015-06-12 プログラムおよび情報処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014236825 2014-11-21
JP2014-236825 2014-11-21

Publications (1)

Publication Number Publication Date
WO2016080005A1 true WO2016080005A1 (ja) 2016-05-26

Family

ID=56013574

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/067075 WO2016080005A1 (ja) 2014-11-21 2015-06-12 プログラムおよび情報処理装置

Country Status (5)

Country Link
US (1) US10596451B2 (ja)
EP (1) EP3170539B1 (ja)
JP (1) JP6518689B2 (ja)
CN (1) CN107206281A (ja)
WO (1) WO2016080005A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018005153A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment America Llc Using hmd camera touch button to render images of a user captured during game play
US10870056B2 (en) * 2017-11-01 2020-12-22 Sony Interactive Entertainment Inc. Emoji-based communications derived from facial features during game play
JP2021115128A (ja) * 2020-01-23 2021-08-10 株式会社コナミデジタルエンタテインメント 配信システム、配信システム用のコンピュータプログラム、及び配信用映像の作成方法
JP2022071580A (ja) * 2020-10-28 2022-05-16 株式会社コナミデジタルエンタテインメント 映像配信システム、それに用いるコンピュータプログラム、及び制御方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11160688B2 (en) * 2016-11-10 2021-11-02 Samsung Electronics Co., Ltd. Visual aid display device and method of operating the same
CN106780662B (zh) 2016-11-16 2020-09-18 北京旷视科技有限公司 人脸图像生成方法、装置及设备
CN106780658B (zh) * 2016-11-16 2021-03-09 北京旷视科技有限公司 人脸特征添加方法、装置及设备
JP7132730B2 (ja) * 2018-03-14 2022-09-07 キヤノン株式会社 情報処理装置および情報処理方法
CN109589604A (zh) * 2019-01-24 2019-04-09 网易(杭州)网络有限公司 虚拟对象的控制方法、控制装置、存储介质和处理器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008178596A (ja) * 2007-01-25 2008-08-07 Aruze Corp サブモニタを備える複数のステーションが設置されたゲーム装置
JP2009147651A (ja) * 2007-12-13 2009-07-02 Sharp Corp 通信装置およびその制御方法、サーバおよびその制御方法、通信システム、通信装置制御プログラム、サーバ制御プログラム、並びに該プログラムを記録した記録媒体
JP2010214028A (ja) * 2009-03-19 2010-09-30 Sony Computer Entertainment Inc プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP2012174237A (ja) * 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP2012239719A (ja) * 2011-05-20 2012-12-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御方法、ならびに、プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3561632B2 (ja) * 1998-04-20 2004-09-02 大平技研工業株式会社 ビデオゲーム機
JP4045024B2 (ja) 1998-04-24 2008-02-13 富士フイルム株式会社 画像取込装置および方法
JP3942278B2 (ja) 1998-08-06 2007-07-11 株式会社バンダイナムコゲームス 通信ゲームシステム
US6894686B2 (en) * 2000-05-16 2005-05-17 Nintendo Co., Ltd. System and method for automatically editing captured images for inclusion into 3D video game play
US6578291B2 (en) * 2000-06-06 2003-06-17 John Hirsch Shoe wear indicator
US20020154214A1 (en) * 2000-11-02 2002-10-24 Laurent Scallie Virtual reality game system using pseudo 3D display driver
US20030100363A1 (en) * 2001-11-28 2003-05-29 Ali Guiseppe C. Method and apparatus for inputting appearance of computer operator into a computer program
US20060025229A1 (en) * 2003-12-19 2006-02-02 Satayan Mahajan Motion tracking and analysis apparatus and method and system implementations thereof
US8345001B2 (en) * 2004-01-06 2013-01-01 Sony Computer Entertainment Inc. Information processing system, entertainment system, and information processing system input accepting method
JP2005230056A (ja) 2004-02-17 2005-09-02 Namco Ltd ゲーム装置及びプログラム
US8177639B2 (en) * 2006-03-20 2012-05-15 Jesse Schell Controlling an interactive story through manipulation of simulated character mental state
US7965859B2 (en) * 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
CN101169808A (zh) * 2007-11-26 2008-04-30 赵明 一种融合网络和现实的超时空对战游戏的设计
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8944940B2 (en) * 2011-08-29 2015-02-03 Icuemotion, Llc Racket sport inertial sensor motion tracking analysis
CN103366782B (zh) * 2012-04-06 2014-09-10 腾讯科技(深圳)有限公司 在虚拟形象上自动播放表情的方法和装置
US9177410B2 (en) * 2013-08-09 2015-11-03 Ayla Mandel System and method for creating avatars or animated sequences using human body features extracted from a still image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008178596A (ja) * 2007-01-25 2008-08-07 Aruze Corp サブモニタを備える複数のステーションが設置されたゲーム装置
JP2009147651A (ja) * 2007-12-13 2009-07-02 Sharp Corp 通信装置およびその制御方法、サーバおよびその制御方法、通信システム、通信装置制御プログラム、サーバ制御プログラム、並びに該プログラムを記録した記録媒体
JP2010214028A (ja) * 2009-03-19 2010-09-30 Sony Computer Entertainment Inc プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP2012174237A (ja) * 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP2012239719A (ja) * 2011-05-20 2012-12-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御方法、ならびに、プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018005153A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment America Llc Using hmd camera touch button to render images of a user captured during game play
US20180001198A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment America Llc Using HMD Camera Touch Button to Render Images of a User Captured During Game Play
US10471353B2 (en) * 2016-06-30 2019-11-12 Sony Interactive Entertainment America Llc Using HMD camera touch button to render images of a user captured during game play
US11571620B2 (en) * 2016-06-30 2023-02-07 Sony Interactive Entertainment LLC Using HMD camera touch button to render images of a user captured during game play
US10870056B2 (en) * 2017-11-01 2020-12-22 Sony Interactive Entertainment Inc. Emoji-based communications derived from facial features during game play
JP2021115128A (ja) * 2020-01-23 2021-08-10 株式会社コナミデジタルエンタテインメント 配信システム、配信システム用のコンピュータプログラム、及び配信用映像の作成方法
JP7045727B2 (ja) 2020-01-23 2022-04-01 株式会社コナミデジタルエンタテインメント 配信システム、配信システム用のコンピュータプログラム、及び配信用映像の作成方法
JP2022071580A (ja) * 2020-10-28 2022-05-16 株式会社コナミデジタルエンタテインメント 映像配信システム、それに用いるコンピュータプログラム、及び制御方法
JP7325828B2 (ja) 2020-10-28 2023-08-15 株式会社コナミデジタルエンタテインメント 映像配信システム、それに用いるコンピュータプログラム、及び制御方法

Also Published As

Publication number Publication date
EP3170539B1 (en) 2020-03-04
JP6518689B2 (ja) 2019-05-22
EP3170539A1 (en) 2017-05-24
CN107206281A (zh) 2017-09-26
US20170232334A1 (en) 2017-08-17
EP3170539A4 (en) 2018-03-14
JPWO2016080005A1 (ja) 2017-06-22
US10596451B2 (en) 2020-03-24

Similar Documents

Publication Publication Date Title
WO2016080005A1 (ja) プログラムおよび情報処理装置
US11436803B2 (en) Insertion of VR spectator in live video of a live event
US11571620B2 (en) Using HMD camera touch button to render images of a user captured during game play
JP6792044B2 (ja) ヘッドマウントディスプレイによって提示されるパーソナル空間コンテンツの制御
US11179635B2 (en) Sound localization in an augmented reality view of a live event held in a real-world venue
JP6448603B2 (ja) マルチ画像インタラクティブゲーミングデバイス
JP6126305B2 (ja) 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング
US10380798B2 (en) Projectile object rendering for a virtual reality spectator
JP6396171B2 (ja) 情報処理装置
US8764565B2 (en) Apparatus and method of audio reproduction
JP2019087226A (ja) 情報処理装置、情報処理システムおよび表情画像出力方法
JP2023162234A (ja) プログラムおよびコンピュータシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15861437

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016560073

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015861437

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015861437

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE