WO2016067734A1 - 動画像処理装置、動画像処理方法及びプログラム - Google Patents

動画像処理装置、動画像処理方法及びプログラム Download PDF

Info

Publication number
WO2016067734A1
WO2016067734A1 PCT/JP2015/074186 JP2015074186W WO2016067734A1 WO 2016067734 A1 WO2016067734 A1 WO 2016067734A1 JP 2015074186 W JP2015074186 W JP 2015074186W WO 2016067734 A1 WO2016067734 A1 WO 2016067734A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
game
unit
user
client
Prior art date
Application number
PCT/JP2015/074186
Other languages
English (en)
French (fr)
Inventor
静人 福田
慎司 相澤
久生 和田
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to JP2016556413A priority Critical patent/JP6337136B2/ja
Priority to US15/325,295 priority patent/US10335679B2/en
Publication of WO2016067734A1 publication Critical patent/WO2016067734A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players

Definitions

  • the present invention relates to a moving image processing apparatus, a moving image processing method, and a program.
  • Patent Document 1 discloses a technique for storing an image of a game screen when a predetermined screen shot operation is performed during execution of a game program.
  • the present invention has been made in view of the above-mentioned problems, and one of the purposes thereof is a part representing a play content when an event occurs from a moving image representing a game play content based on the event log.
  • a moving image processing apparatus a moving image processing method, a program, and an information storage medium that can be specified.
  • a moving image processing apparatus includes a log acquisition unit that acquires a log of events that have occurred in a game, and a moving image acquisition unit that acquires a moving image representing the play content of the game. And a specifying unit that specifies a portion representing the play content of the game when the event indicated by the log occurs in the moving image.
  • the moving image processing method includes a step of acquiring a log of an event that has occurred in a game, a step of acquiring a moving image representing the play content of the game, and the log indicated by the log in the moving image. Identifying a portion representing the play content of the game when an event occurs.
  • the program according to the present invention provides a procedure for acquiring a log of events that have occurred in a game, a procedure for acquiring a moving image representing the play content of the game, and the event indicated by the log in the moving image.
  • the computer is caused to execute a procedure for specifying a part representing the play content of the game.
  • the information storage medium includes a procedure for obtaining a log of events that have occurred in a game, a procedure for obtaining a moving image representing the play content of the game, and the event indicated by the log in the moving image has occurred.
  • a computer-readable information storage medium storing a program for causing a computer to execute a procedure for specifying a portion representing the play content of the game when played.
  • the information processing apparatus further includes an extraction unit that extracts the portion specified by the specifying unit from the moving image.
  • the extracting unit may extract the part specified by the specifying unit from the moving image after the game play ends.
  • the extraction unit is implemented by a subsystem unit that operates even when the moving image processing apparatus is in a standby state, and the part that is specified by the specifying unit when the moving image processing apparatus is in a standby state May be extracted from the moving image.
  • a moving image receiving unit that receives a moving image representing the play content of the game in the device from a device capable of communicating with the moving image processing device is further included.
  • the moving image receiving unit can communicate with the moving image processing device when the moving image does not include a portion including the play content of the game at the event occurrence timing represented by the log. You may receive the moving image containing the said part from an apparatus.
  • the specifying unit specifies a portion representing the play content of the game when the event that satisfies a condition specified by a user in the moving image occurs.
  • a moving image storage unit that stores a moving image representing the play content of the game, and an event that has occurred in the game during the period in which the game play content is represented by the moving image. Based on a tag data generation unit that generates tag data indicating the log, and a portion representing the play content of the game when the event indicated by the tag data occurs in the moving image stored in the moving image storage unit And an editing moving image generation unit that generates an editing moving image obtained by editing the moving image stored in the moving image storage unit.
  • FIG. 1 is a diagram showing an example of the overall configuration of a game system 1 according to an embodiment of the present invention.
  • a game system 1 according to the present embodiment includes a game server 10 and clients 12 (12-1 to 12-n), each of which is configured with a computer as the center.
  • the game server 10 and the client 12 are connected to a computer network 14 such as the Internet.
  • the game server 10 and the client 12 can communicate with each other.
  • the game server 10 is a server computer that executes a game program installed in the game server 10 and in which a plurality of players participate. In the present embodiment, users using different clients 12 participate in the game as players. As shown in FIG. 1, the game server 10 includes, for example, a control unit 10a, a storage unit 10b, and a communication unit 10c.
  • the control unit 10a is a program control device such as a CPU, for example, and executes various types of information processing according to programs stored in the storage unit 10b.
  • the storage unit 10b is, for example, a storage element such as a ROM or a RAM, a hard disk drive, or the like.
  • the communication unit 10c is a communication interface such as a network board for exchanging data with the client 12 via the computer network 14, for example.
  • the game server 10 transmits / receives information to / from the client 12 via the communication unit 10c.
  • the client 12 is a computer used by a user, such as a personal computer, a game console, a television receiver, a portable game device, or a portable information terminal.
  • a game program played by the user is installed in the client 12. Then, the user of the client 12 plays the game as a player of the game.
  • the client 12 includes, for example, a control unit 12a, a storage unit 12b, a communication unit 12c, an output unit 12d, an input unit 12e, and a subsystem unit 12f.
  • the control unit 12a is a program control device such as a CPU, for example, and executes various types of information processing according to programs stored in the storage unit 12b.
  • the control unit 12a according to the present embodiment also includes a GPU (Graphics Processing Unit) that draws an image in a frame buffer based on graphics commands and data supplied from the CPU.
  • GPU Graphics Processing Unit
  • the storage unit 12b is, for example, a storage element such as a ROM or a RAM, a hard disk drive, or the like.
  • the storage unit 12b stores a program executed by the control unit 12a.
  • a frame buffer area in which an image is rendered by the GPU is secured.
  • the communication unit 12c is a communication interface for exchanging data with the game server 10 via the computer network 14, for example.
  • the client 12 transmits / receives information to / from the game server 10 and other clients 12 via the communication unit 12c.
  • the output unit 12d is, for example, a display unit such as a display that displays and outputs information according to an instruction input from the control unit 12a, and a sound output unit such as a speaker that outputs audio.
  • the input unit 12e is, for example, a game controller, a touch pad, a mouse, a keyboard, a microphone, a camera, or the like that outputs the content of the operation performed by the user to the control unit 12a.
  • the subsystem unit 12f includes a program control device such as a CPU provided separately from the control unit 12a and a storage element provided separately from the storage unit 12b.
  • the subsystem unit 12f is provided in the client 12 according to the present embodiment so that the client 12 can continue various processes such as network processing with low power consumption even in a standby state in which the control unit 12a and the storage unit 12b do not operate. It has been.
  • the game server 10 executes a game program installed in the game server 10 in which a plurality of users participate as players.
  • a game program installed in the game server 10 in which a plurality of users participate as players.
  • the operation of the game system 1 according to the present embodiment will be further described by taking as an example a situation in which the game is being played by three users. Note that the names of the three users are user A, user B, and user C, respectively.
  • a game program on the client 12 side corresponding to a program executed on the game server 10 is installed.
  • the game program executed on the client 12 and the game program executed on the game server 10 communicate with each other and cooperate to play the game.
  • the game server 10 manages user identification information such as the name of a user who participates in the game as a player and client 12 identification information such as the address of the client 12 used by the user.
  • the identification information of the user who participates in the game as a player and the identification information of the client 12 used by the user are associated with each other and stored in the storage unit 10b.
  • information indicating the start timing such as the start date and time of play of the game and the end timing such as the end date and time is also stored in the storage unit 10b of the game server 10.
  • a play image indicating the play content of the game is displayed on the display of the client 12 at a predetermined frame rate. Then, a copy of the play image displayed on the display, that is, a copy of the play image drawn in the frame buffer is captured, and a ring provided in the storage unit of the client 12 and capable of storing a moving image for a maximum of 15 minutes. Sequentially written to the buffer area.
  • a moving image composed of a series of play images stored in the ring buffer area is encoded and stored in the storage unit 12b of the client 12 as a moving image file.
  • the moving image is referred to as a material moving image.
  • the material moving image is composed of a plurality of frame images.
  • the frame rate when a series of play images are displayed on the display and the frame rate of the material moving image may be the same or different.
  • the resolution when a series of play images are displayed on the display and the resolution of the material moving image may be the same or different.
  • the material moving image is stored in the storage unit 12b after the start timing and end timing of capture of the play image associated with the material moving image are associated with each other.
  • the material moving image is stored in the storage unit 12b after the start date and time and end date and time of capture of the play image associated with the material moving image are associated with each other.
  • the start date / time of capture of the play image associated with the material moving image is referred to as capture start date / time
  • the end date / time of capture of the play image associated with the material moving image is referred to as capture end date / time.
  • the material moving image need not be stored in accordance with a predetermined operation.
  • a moving image composed of a series of play images stored in the ring buffer area is encoded and stored as a material moving image in the storage unit 12b of the client 12. May be.
  • a moving image composed of all of a series of displayed play images may be stored as a material moving image.
  • FIG. 2 is a diagram illustrating an example of event log data according to the present embodiment.
  • the event log data according to the present embodiment includes a log ID, game title data, event occurrence date / time data, event name data, used item name data, and related user name data.
  • the log ID is identification information of the event log data.
  • the game title data is data indicating the title of the game in which the event associated with the event log data has occurred.
  • the event occurrence date / time data is data indicating the occurrence date / time of an event associated with the event log data.
  • the event name data is data indicating the name of the event associated with the event log data.
  • the used item name data is data indicating the name of an item used in an event associated with the event log data.
  • the related user name data is data indicating the name of the user related to the event associated with the event log data.
  • FIG. 2 shows six event log data.
  • the event recorded in the game server 10 as event log data depends on the game being played in principle. For example, when a fighting game is being played, events such as achieving a certain number of continuous combos, defeating the opponent, and defeating the opponent are recorded as event log data. Also, for example, when a racing game is being played, the event has changed, the ranking has changed, it has reached the first place, the lap has ended, the final lap has ended, it has crashed, it has gone out of the course, it has collided with another car, etc. Is recorded as event log data. For example, when a puzzle game is being played, events such as achieving a certain number of chains or updating a high score are recorded as event log data.
  • event log data when a sports game is being played, events such as scored, hole-in-one, home run, hitting ball, and the like are recorded as event log data. For example, when a roll plain game or an action game is being played, events such as having achieved a certain number of continuous combos, ending a battle, or having a large number of score fluctuations are recorded as event log data. .
  • events such as the above-described generation of the material moving image, login, and logout are also recorded in the game server 10 as event log data.
  • a tag data request associated with the capture start date and time and the capture end date and time associated with the material moving image is transmitted to the game server 10. .
  • the game server 10 generates the tag data illustrated in FIG. 3 based on the log data regarding the event that occurred in the period from the capture start date and time to the capture end date and time.
  • the tag data includes a tag ID, game title data, event occurrence date / time data, event name data, used item name data, and related user name data.
  • the log ID included in the event log data is set as the tag ID included in the tag data.
  • the game title data value, event occurrence date / time data value, and event name data value included in the event log data are the same as the game title data value, event occurrence date / time value, and event name data value included in the tag data, respectively.
  • the value of used item name data and the value of related user name data included in the event log data are set as the value of used item name data and the value of related user name data included in the tag data, respectively.
  • the capture start date and time associated with the tag data request transmitted to the game server 10 is 14:57:32 on May 30, 2014. Further, it is assumed that the capture end date and time associated with the tag data request is 15:12:31 on May 30, 2014.
  • the event occurrence date and time is after the capture start date and time and before the capture end date and time, and is associated with the five event log data based on the five event log data shown in FIG. Five pieces of tag data shown in FIG. 3 are generated.
  • the game server 10 transmits the generated tag data to the client 12 that has transmitted the tag data request.
  • the client 12 receives the tag data and stores it in the storage unit 12b.
  • the tag data returned from the game server 10 in response to the transmission of the tag is stored in the storage unit 12b after being associated with the material moving image.
  • the tag data is used, for example, for editing a material moving image or generating a distribution moving image distributed on a moving image distribution site.
  • FIG. 4 is a diagram showing an example of an editing screen for editing the material moving image according to the present embodiment, which is displayed on the display of the client 12 used by the user A.
  • the material moving image is reproduced by performing a predetermined operation.
  • the frame images constituting the material moving image are sequentially displayed in the moving image display area M provided on the editing screen.
  • information associated with event log data related to a game in which a material moving image represents play content is arranged in the log area L as a list.
  • the log ID, the value of event name data, and the value of related user name data are arranged in the log area L. These pieces of information are called log information.
  • the log information is generated based on event log data returned from the game server 10 to the client 12 in response to an inquiry from the client 12 to the game server 10, for example.
  • log information associated with event log data for events that have occurred from the start date and time to the end date and time of play of the game is arranged in the log area L as a list.
  • the frame images constituting the material moving image are arranged on the editing screen.
  • the frame image arranged on the editing screen is referred to as a representative image R.
  • a moving image that is a part of a material moving image and that is composed of frame images of a plurality of consecutive frames including the frame of the representative image R will be referred to as a chapter moving image.
  • the chapter moving image may be, for example, a moving image representing a play content having a predetermined length from a predetermined time before the occurrence of the event to a predetermined time.
  • the length of the chapter moving image may be different depending on the type of event.
  • a part related to the event may be specified as a chapter moving image by an image recognition technique or the like.
  • five representative images R-1 to R-5) are arranged.
  • the material moving image is reproduced from the frame associated with the representative image R.
  • a frame image from the frame associated with the representative image R is displayed in the moving image display area M.
  • the user can set an evaluation value for a chapter moving image by performing a predetermined operation.
  • a star is arranged at the upper right of the representative image R.
  • more stars are arranged in the representative image R corresponding to the chapter moving image.
  • the representative image R when the search image S is selected, the representative image R can be searched through a search screen (not shown).
  • a representative image R corresponding to tag data whose event name data value is Kill is searched.
  • the representative image R that is the search result is highlighted.
  • frame lines are arranged around the first representative image R-1, the fourth representative image R-4, and the fifth representative image R-5, which are search results.
  • the log information associated with the representative image R that is the search result is also highlighted.
  • a circle image Ia is arranged on the left side of the log information associated with the representative image R that is the search result.
  • log information associated with event log data whose event occurrence date / time is before the capture start date / time associated with the material moving image and after the capture end date / time associated with the material moving image is also logged.
  • the region L may be arranged.
  • such log information when receiving a moving image associated with the log information from a device capable of communicating with the client 12, such log information is also designated as a log area so that the moving image can be designated. L is arranged. In this case, this is displayed in the log area L.
  • a crossed image Ib indicating that there is no representative image R corresponding to the information is arranged on the left side of the log information.
  • a material moving image including a part representing a play content of an event occurrence date and time associated with log information in which a crossed image Ib is arranged on the left side may be stored in another client 12. . In this case, this is displayed in the log area L.
  • an image Ic indicating that a moving image associated with the log information can be acquired is arranged on the right side of the log information.
  • a log of events that occur after the capture start date and time and before the capture end date and time in the material moving image is extracted as tag data from the event log that occurred in the game.
  • the tag data is associated with the material moving image.
  • the user can easily find a part representing the play content of the game when an event occurs from the material moving image using the tag data associated with the material moving image. Will be able to.
  • the material moving image can be edited and, for example, a moving image obtained by cutting out a part of the material moving image can be generated.
  • a moving image generated by editing a material moving image is referred to as an editing moving image.
  • the edited moving image is stored in the storage unit 12b of the client 12 or uploaded to a moving image public site.
  • the acquisition of tag data from the game server 10 may be performed when the client 12 is in a non-use state, such as when the client 12 is in a standby state or after the end of game play.
  • the condition setting screen illustrated in FIG. 5 is displayed. Is displayed.
  • the setting on the condition setting screen illustrated in FIG. 5 it is possible to generate an edited moving image in which a part representing a game play content when an event occurs is extracted from the material moving images.
  • a form F1 for setting conditions for a game title is arranged.
  • game A is set as a search condition.
  • the number of conditions can be increased or decreased. Therefore, it is possible to set a plurality of conditions for the game title. In this case, in this embodiment, priority is set for the plurality of conditions.
  • a form F2 for setting conditions for a period during which the material moving image included in the edited moving image is captured is arranged.
  • the period during which the material moving image is captured can be set as a search condition.
  • conditions such as the latest one month, the latest two months, and the latest one year can be set.
  • only a moving image opened on the editing screen can be set as a search target.
  • a form F3 for setting the length of time of the edited moving image to be generated is arranged.
  • 3 minutes is set as the time length of the edited moving image.
  • a form F4 for setting conditions for the chapter moving image used as the editing moving image is arranged.
  • conditions for various attributes whose values are set in the tag data can be set.
  • a condition for the evaluation value set in the chapter moving image and a condition for the event occurrence date / time can be set.
  • a condition for an event name, a condition for an item used in the event, and a condition for a user name related to the event can be set.
  • the number of conditions can be increased or decreased. Therefore, it is possible to set a plurality of conditions for various attributes whose values are set in the tag data.
  • priority is set for the plurality of conditions.
  • three conditions are set. Among these three conditions, the condition with the highest priority is “having three or more stars”, and the next priority condition is “event name is Kill”. The condition with the lowest degree is “the name of the event is Death”.
  • an execution button Ex and a cancel button Ca are arranged.
  • an edited moving image having a length set in the form F3 is generated by combining chapter moving images that satisfy the conditions set in the forms F1, F2, and F4.
  • the search may be executed in order from the highest priority until the entire length of the chapter moving image that satisfies the condition exceeds the length set in the form F3.
  • a moving image that is currently open and that has three or more stars is specified from among the chapter moving images whose game title is game A.
  • the chapter moving images specified as described above are combined to generate an edited moving image.
  • tag data associated with each chapter moving image included in the edited moving image is associated with the edited moving image.
  • the tag data may be editable by the user.
  • the chapter moving images included in the edited moving image are sequentially displayed on the display.
  • the chapter moving images specified for each of the plurality of material moving images are combined to generate an editing moving image.
  • the user generates the edited moving image that is executed in response to an operation of selecting the execution button Ex using the four check boxes Ch1 to Ch4 arranged on the condition setting screen illustrated in FIG. Options can be set.
  • the check box Ch1 is checked, the edited moving image is generated when it is in the standby state.
  • the check box Ch2 is checked, the editing moving image is not generated by the client 12 such as when the game is not played, for example, after the game is finished, or when the CPU usage rate is equal to or less than a predetermined value. Performed when in use.
  • the check box Ch3 is checked, when the generation of the edited moving image is completed, the edited moving image is uploaded to the moving image public site without requiring any user operation.
  • an edited moving image that satisfies the set condition is generated periodically, for example, every month.
  • the edited moving image uploaded to the moving image public site can be periodically updated to the generated edited moving image.
  • a monthly or yearly moving image digest moving image
  • a digest moving image for each game title may be generated periodically.
  • condition setting screen The items that can be set on the condition setting screen are not limited to the above.
  • conditions regarding the type of game may be settable.
  • an edited moving image in which chapter moving images of various categories of games are combined is generated.
  • a specific category may be designated as a condition.
  • an edited moving image is generated by combining chapter moving images of games in the category.
  • a specific game may be designated as a condition.
  • an edited moving image in which the chapter moving images of the game are combined is generated.
  • the conditions with the game played most recently may be designated.
  • an edited moving image is generated from a chapter moving image of a game played most recently.
  • an edited moving image may be generated from a chapter moving image of a game in the same category as the game played most recently.
  • the playback method of the edited moving image For example, it may be possible to set the playback speed of the edited moving image such as normal playback and 10 ⁇ playback. In this case, an editing moving image at the reproduction speed is generated. Further, for example, it may be possible to set whether or not to perform image processing such as adding noise. Here, for example, when noise is set, an editing moving image including noise is generated. Also, the method for combining chapter moving images may be settable. For example, settings such as crossfading between chapter moving images may be possible. In this case, an edited moving image that has been subjected to the cross-fade process is generated at the portion where the chapter moving images are combined. In addition, it may be possible to set whether or not to include BGM in the edited moving image and to set a song used as BGM. In this case, an editing moving image in which the music is used as the BGM for the setting is generated.
  • the subsystem unit 12f executes processing related to generation of an edited moving image as described above.
  • the subsystem unit 12f for example, as described above, selection and combination of chapter moving images, setting of playback speed, image processing, crossfade processing, setting of BGM, etc. It is executed by the subsystem unit 12f.
  • the editing moving image representing the game play contents when an event that satisfies the condition occurs is extracted from the material moving image. .
  • the client 12 may be in a standby state after the generation of the edited moving image is completed.
  • template data representing the above-described conditions may be provided to the user from a game manufacturer or seller.
  • An edited moving image may be generated from the material moving image based on the template data.
  • the moving image request screen illustrated in FIG. 6 is displayed on the display. Is displayed.
  • a material moving image or a part thereof stored in the client 12 of another user can be acquired via the moving image request screen illustrated in FIG.
  • the name of the user who uses the client 12 in which the material moving image including the game play contents at the event occurrence date and time indicated by the log information arranged on the left side of the image Ic on the editing screen is stored. Are arranged together with the radio button Ra.
  • the client 12 used by the user A stores the material moving image.
  • the inquiry of the user of the client 12 is transmitted to the game server 10.
  • the game server 10 identifies a user who uses the client 12 that may store a material moving image including a portion representing the play content of the event occurrence date and time.
  • event log data associated with the generation is stored in the game server 10. Therefore, the game server 10 can identify the user based on the event log data. Then, the game server 10 transmits the specified user name to the client 12. Based on the returned user name, the moving image request screen shown in FIG. 6 is generated.
  • the client 12 used by the user A transmits to the game server 10 a transmission request for a material moving image whose destination is the client 12 used by the user B, for example.
  • the transmission request is associated with event log data corresponding to log information arranged on the left side of the image Ic on the editing screen.
  • the transmission request is transmitted to the client 12 used by the user B through the game server 10.
  • the transmission request may be transmitted directly to the client 12 used by the user B without relaying the game server 10.
  • the moving image transmission screen illustrated in FIG. 7A is displayed on the display of the client 12 used by the user B.
  • a check box Ch5 for selecting whether or not to provide a moving image together with the user ID is arranged on the moving image transmission screen illustrated in FIG. 7A.
  • the client 12 used by the user B transmits the material moving image including the frame image at the date and time indicated by the event occurrence date and time data included in the transmitted event log data, with the client 12 used by the user A as the destination. If the check box Ch5 is checked at this time, the transmitted material moving image is shown to be provided by the user B.
  • the material moving image to be transmitted may be overlaid with text and symbols representing that the material moving image is provided by the user B, such as user ID (identification information) of the user B, for example.
  • the transmitted material moving image may be overlaid with a sentence or a symbol representing that it is not taken by the user A.
  • An icon representing user B may be overlaid on the transmitted material moving image.
  • the identification information of the user B may be associated with the material moving image to be transmitted.
  • the material moving image is transmitted to the client 12 used by the user A through the game server 10.
  • the material moving image may be transmitted directly to the client 12 used by the user A without relaying the game server 10.
  • the client 12 used by the user A receives the material moving image and stores it in the storage unit 12b.
  • the user B performs an operation of selecting the reject button Rej, the material moving image is not transmitted.
  • the user A performs the operation of selecting the chapter moving image request button Req2 after performing the operation of selecting the user name by the radio button Ra.
  • the name of the user B is selected.
  • a chapter moving image transmission request is transmitted to the client 12 used by the user B.
  • the moving image transmission screen illustrated in FIG. 7B is displayed on the display of the client 12 used by the user B. Also on the moving image transmission screen illustrated in FIG. 7B, a check box Ch5 for selecting whether or not to provide a moving image together with the user ID is arranged.
  • the client 12 used by the user B includes a frame image at the date and time indicated by the event occurrence date and time data included in the transmitted event log data based on the material moving image stored in the client 12 used by the user B. Generate chapter moving images.
  • the generated chapter moving image is transmitted to the client 12 used by the user A and stored in the storage unit 12b of the client 12. If the check box Ch5 is checked at this time, it is indicated that the chapter moving image to be transmitted is provided by the user B.
  • the chapter moving image to be transmitted may be overlaid with text and symbols indicating that the material moving image is provided by the user B, such as the user ID (identification information) of the user B, for example.
  • a sentence or a symbol indicating that it is not taken by the user A may be overlaid on the transmitted chapter moving image.
  • An icon representing user B may be overlaid on the transmitted chapter moving image.
  • the identification information of user B may be associated with the transmitted chapter moving image.
  • the user B performs an operation of selecting the reject button Rej, the chapter moving image is not transmitted.
  • the screen displayed on the display is updated to the edit screen.
  • a moving image representing the game play content at the event occurrence timing designated by the user is transmitted from the other client 12.
  • the chapter moving image is extracted from the material moving image. Also good. In this way, the chapter moving image is extracted without hindering the user's game play. Further, when the client 12 according to the present embodiment is in the standby state, the chapter moving image may be extracted from the material moving image by the subsystem unit 12f. In this way, the chapter moving image is extracted with low power consumption without operating the control unit 12a and the storage unit 12b.
  • the client 12 may control whether or not to delete the material moving image from the storage unit 12b based on, for example, tag data associated with the material moving image.
  • a material moving image associated with tag data that satisfies a predetermined condition may be deleted.
  • a material moving image associated with tag data satisfying a predetermined condition such as tag data including a predetermined event, tag data including predetermined use item name data, tag data including predetermined related user name data, or the like It may be deleted.
  • a material moving image that is not used for generation of an editing moving image for example, a material moving image that is not associated with tag data indicating an important event or a rare event may be deleted.
  • FIG. 8A is a functional block diagram showing an example of functions implemented in the game server 10 according to the present embodiment. Note that not all of the functions shown in FIG. 8A need be implemented in the game server 10 according to the present embodiment, and functions other than the functions shown in FIG. 8A may be implemented.
  • the game server 10 functionally includes, for example, an event log data storage unit 20, a tag data request reception unit 22, a tag data generation unit 24, a tag data transmission unit 26, and a log.
  • a search request receiving unit 28, a log search unit 30, a log search result transmission unit 32, a moving image request relay unit 34, and a moving image relay unit 36 are included.
  • the event log data storage unit 20 is mainly implemented by the storage unit 10b.
  • the tag data request receiving unit 22, the tag data transmitting unit 26, the log search request receiving unit 28, the log search result transmitting unit 32, the moving image request relay unit 34, and the moving image relay unit 36 are mainly implemented by the communication unit 10c.
  • the tag data generation unit 24 and the log search unit 30 are mainly implemented by the control unit 10a.
  • the above functions are implemented by causing the control unit 10a to execute a program that is installed in the game server 10 that is a computer and that includes instructions corresponding to the above functions.
  • This program is supplied to the game server 10 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via a communication network such as the Internet. .
  • FIG. 8B is a functional block diagram illustrating an example of functions implemented by the client 12 according to the present embodiment. Note that it is not necessary for the client 12 according to the present embodiment to implement all the functions illustrated in FIG. 8B, and functions other than the functions illustrated in FIG. 8B may be implemented.
  • the client 12 functionally includes, for example, a material moving image storage unit 40, a tag data request unit 42, a tag data reception unit 44, a tag data storage unit 46, and a display control unit. 48, condition storage unit 50, log search request unit 52, log search result reception unit 54, tag data acquisition unit 56, material moving image acquisition unit 58, identification unit 60, extraction unit 62, editing moving image generation unit 64, edited moving image An image storage unit 66, a moving image request unit 68, a moving image request receiving unit 70, a moving image transmitting unit 72, a moving image receiving unit 74, and a material moving image deleting unit 76 are included.
  • a material moving image storage unit 40 for example, a material moving image storage unit 40, a tag data request unit 42, a tag data reception unit 44, a tag data storage unit 46, and a display control unit. 48, condition storage unit 50, log search request unit 52, log search result reception unit 54, tag data acquisition unit 56, material moving image acquisition unit 58, identification unit 60, extraction unit
  • the material moving image storage unit 40, the tag data storage unit 46, the condition storage unit 50, and the editing moving image storage unit 66 are mainly implemented by the storage unit 12b.
  • the communication unit 12c is mainly mounted.
  • the tag data acquisition unit 56, the material moving image acquisition unit 58, the specifying unit 60, the extraction unit 62, the editing moving image generation unit 64, and the material moving image deletion unit 76 are mainly implemented by the control unit 12a or the subsystem unit 12f.
  • the display control unit 48 is mainly implemented by the control unit 12a and the output unit 12d.
  • the above functions are implemented by executing a program installed on the client 12 which is a computer and including a command corresponding to the above functions by the control unit 12a or the subsystem unit 12f.
  • This program is supplied to the client 12 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via a communication network such as the Internet.
  • the event log data storage unit 20 stores event log data illustrated in FIG.
  • the tag data request receiving unit 22 receives a tag data request transmitted from the client 12.
  • the tag data request is associated with the start timing and end timing of capture of the play image associated with the material moving image. In the present embodiment, it is assumed that the capture start date and time and the capture end date and time are associated with the tag data request.
  • the tag data generation unit 24 is a log of events that occurred in the game during the period in which the game play content is represented by a moving image representing the game play content stored in the later-described material moving image storage unit 40
  • the tag data indicating is generated.
  • the tag data generation unit 24 generates the tag data illustrated in FIG. 3 based on the event log data illustrated in FIG. 2 and the tag data request received by the tag data request reception unit 22.
  • FIG. Illustrative tag data is generated.
  • the tag data transmission unit 26 transmits the tag data generated by the tag data generation unit 24 to the client 12 that has transmitted the tag data request.
  • the log search request reception unit 28 receives a search request for event log data associated with information arranged in the log area L on the editing screen from the client 12.
  • the log search unit 30 corresponds to information arranged in the log area L on the editing screen from the event log data stored in the event log data storage unit 20 in response to reception of a search request. Search the attached event log data.
  • the log search result transmission unit 32 transmits the retrieved event log data to the client 12 that has transmitted the event log data search request.
  • the moving image request relay unit 34 relays a moving image transmission request transmitted by the client 12. For example, when the moving image request relay unit 34 receives a moving image transmission request from the user A client 12 to the user B client 12, the moving image request relay unit 34 transmits the transmission request to the user B client 12.
  • the moving image relay unit 36 relays moving images such as material moving images and chapter moving images transmitted by the client 12. For example, when the moving image relay unit 36 receives a moving image destined for the client 12 of the user A from the client 12 of the user B, the moving image relay unit 36 transmits the moving image to the client 12 of the user A.
  • the material moving image storage unit 40 stores the material moving image described above.
  • the start timing and the end timing of the play image capture associated with the material moving image are associated with the material moving image.
  • a capture start date and time and a capture end date and time are associated with the material moving image.
  • the tag data request unit 42 sends a tag data request associated with the capture start date and time and the capture end date and time associated with the material moving image stored in the material moving image storage unit 40 to the game server 10. Send.
  • the tag data receiving unit 44 receives tag data transmitted by the tag data transmitting unit 26 of the game server 10 in response to a tag data request transmitted by the tag data requesting unit 42.
  • the tag data storage unit 46 stores tag data received by the tag data receiving unit 44.
  • the display control unit 48 generates an edit screen illustrated in FIG. 4, a search screen displayed when an operation for selecting the search image S is performed, and a condition setting screen illustrated in FIG.
  • the display control unit 48 displays the name of the user arranged on the moving image request screen as a game. Queries the server 10. And the display control part 48 produces
  • the display control unit 48 generates a moving image transmission screen illustrated in FIG. 7A in response to reception of a transmission request for a material moving image. Further, the display control unit 48 generates a moving image transmission screen illustrated in FIG. 7B in response to the reception of the chapter moving image transmission request.
  • the display control unit 48 displays the screen generated as described above on the display.
  • the display control unit 48 generates a play image indicating the play content of the game at a predetermined frame rate and displays it on the display during game play.
  • the display control unit 48 stores data indicating the conditions set on the condition setting screen. 50.
  • condition storage unit 50 stores data indicating the conditions set on the condition setting screen illustrated in FIG.
  • the log search request unit 52 transmits a search request for event log data associated with information arranged in the log area L to the game server 10 when the edit screen is displayed.
  • the log search result receiving unit 54 receives event log data transmitted from the game server 10 in response to a search request for event log data.
  • the display control unit 48 generates information arranged in the log area L in the editing screen based on the event log data.
  • the tag data acquisition unit 56 acquires a log of events that occurred in the game. In this embodiment, the tag data acquisition unit 56 acquires the tag data stored in the tag data storage unit 46 as a log of events that have occurred in the game.
  • the material moving image acquisition unit 58 acquires a moving image representing the game play content.
  • the material moving image acquisition unit 58 acquires a material moving image stored in the material moving image storage unit 40, for example.
  • the specifying unit 60 specifies a portion representing the content of game play when an event indicated by an event log generated in the game occurs in the material moving image.
  • the portion corresponds to, for example, the above-described representative image R or chapter moving image.
  • the specifying unit 60 specifies event occurrence date / time data included in tag data acquired by the tag data acquiring unit 56.
  • the specifying unit 60 specifies the frame image displayed on the display at the date and time indicated by the specified event occurrence date and time in the material moving image acquired by the material moving image acquiring unit 58.
  • since the capture start date and time and the capture end date and time are associated with the material moving image, it is possible to specify the frame image displayed at the date and time based on the date and time indicated by the event occurrence date and time data. .
  • the specifying unit 60 specifies a portion representing the play content of the game when an event that satisfies the condition specified by the user in the material moving image occurs. For example, when the representative image R corresponding to the tag data whose event name data value is “Kill” is searched via the search screen described above, the specifying unit 60 includes the event name data value in the tag data whose “Kill” value is “Kill”. Specify event occurrence date and time. Then, the specifying unit 60 specifies the frame image displayed at the date and time indicated by the specified event occurrence date and time data in the material moving image.
  • the specification unit 60 when the user performs an operation of selecting the execution button Ex arranged on the condition setting screen illustrated in FIG. 5, the specification unit 60 satisfies the conditions set in the forms F1, F2, and F4. Identify the data. Then, the specifying unit 60 specifies event occurrence date / time data included in the specified tag data. Then, the specifying unit 60 specifies the frame image displayed at the date and time indicated by the specified event occurrence date and time data in the material moving image.
  • the frame image specified here is, for example, the representative image R arranged on the editing screen shown in FIG.
  • the specifying unit 60 also specifies a chapter moving image including a plurality of consecutive frame images including the specified frame image.
  • the extraction unit 62 extracts a part specified by the specifying unit 60 from the material moving image.
  • the extraction unit 62 extracts the chapter moving image specified by the specifying unit 60 from the material moving image.
  • the extracting unit 62 may extract a part specified by the specifying unit 60 from the material moving image after the game play is completed.
  • the extraction unit 62 may be implemented by the subsystem unit 12f that operates even when the client 12 is in the standby state. Then, the extracting unit 62 may extract a portion specified by the specifying unit 60 from the material moving image when the client 12 is in a standby state.
  • the extraction unit 62 may extract a portion specified by the specifying unit 60 from the material moving image when the client 12 is not in use.
  • the editing moving image generation unit 64 generates an editing moving image based on the material moving image stored in the material moving image storage unit 40.
  • the editing moving image generation unit 64 combines the chapter moving images extracted by the extraction unit 62 to generate an editing moving image.
  • the editing moving image generation unit 64 generates an editing moving image in accordance with a user operation performed via, for example, an editing screen illustrated in FIG.
  • the editing moving image generating unit 64 generates an editing moving image in which chapter moving images extracted according to the conditions set on the condition setting screen illustrated in FIG. 5 are combined.
  • the editing moving image generating unit 64 stores the editing moving image in the editing moving image storage unit 66.
  • the editing moving image generating unit 64 is a portion representing the play content of the game when the event indicated by the tag data occurs in the moving image stored in the material moving image storage unit 40. Based on this, an editing moving image is generated.
  • the editing moving image storage unit 66 stores the editing moving image generated by the editing moving image generation unit 64.
  • the moving image request unit 68 transmits a moving image transmission request addressed to the client 12 that requests transmission of moving images.
  • the moving image request unit 68 transmits the transmission request to the game server 10, but may directly transmit the transmission request to the client 12 requesting transmission of the moving image without relaying the game server 10. .
  • the material moving image request button Req1 when an operation for selecting the material moving image request button Req1 is performed on the moving image request screen illustrated in FIG. 6, the material is addressed to the client 12 of the user whose name is selected by the radio button Ra.
  • a moving image transmission request is transmitted.
  • the destination is the client 12 of the user whose name is selected by the radio button Ra.
  • a transmission request for the chapter moving image is transmitted.
  • the moving image request receiving unit 70 receives a moving image transmission request transmitted from the moving image requesting unit 68 of another client 12.
  • the moving image transmission unit 72 transmits a moving image to the client 12 that has transmitted the moving image transmission request. In this embodiment, the moving image transmission unit 72 also transmits the edited moving image to the moving image public site.
  • the moving image receiving unit 74 receives a moving image transmitted by the moving image transmitting unit 72 of another client 12.
  • the moving image receiving unit 74 of the client 12 used by the user A performs the game in the client 12 used by the user B from the client 12 used by the user B that can communicate with the client 12 used by the user A.
  • a moving image representing the play content is received.
  • the moving image receiving unit 74 does not include a part including the game play content at the event occurrence timing indicated by the tag data acquired by the tag data acquiring unit 56, the moving image receiving unit 74 receives the moving image including the part from the other client 12. An image may be received.
  • the material moving image deletion unit 76 deletes the material moving image associated with the tag data satisfying a predetermined condition as described above.
  • transmission / reception of moving images may be performed via the game server 10 or directly between the clients 12.
  • FIG. 9 is a flowchart illustrating an example of the flow of processing performed in the client 12 according to the present embodiment when an operation for selecting the execution button Ex is performed on the condition setting screen illustrated in FIG. Will be described with reference to FIG.
  • the display control unit 48 stores data indicating the conditions set on the condition setting screen illustrated in FIG. 5 in the condition storage unit 50 (S101).
  • the data indicating the condition includes data indicating whether or not the check boxes Ch1 to Ch4 are selected on the condition setting screen illustrated in FIG.
  • the specifying unit 60 confirms whether data indicating that the check box Ch1 or Ch2 has been selected is stored in the condition storage unit 50 (S102). If it is confirmed that this is the case (S102: Y), the client 12 waits until it reaches a state that satisfies the temporal condition corresponding to the selected check box Ch1 or Ch2 (S103).
  • the client 12 waits until it enters a standby state or a non-use state.
  • the check box Ch1 is selected, in the process shown in S103
  • the client 12 waits until it enters a standby state.
  • the check box Ch2 is selected, in the process shown in S103, the client 12 waits until it is in a non-use state.
  • the tag data acquisition unit 56 displays the tag data The tag data stored in the storage unit 46 is acquired (S104). Then, the identification unit 60 identifies tag data that satisfies the conditions indicated by the data stored in the condition storage unit 50 in the process shown in S101 from the tag data acquired in the process shown in S104 (S105). And the material moving image acquisition part 58 acquires the material moving image linked
  • the specifying unit 60 specifies event occurrence date / time data included in the tag data specified in the process shown in S105 (S107). Then, the specifying unit 60 specifies a chapter moving image including the frame image displayed at the date and time indicated by the event occurrence date and time data specified in the process shown in S107 in the material moving image acquired in the process shown in S106 (S108). . Then, the extraction unit 62 extracts the chapter moving image specified in the process shown in S108 from the material moving image (S109). Then, the editing moving image generating unit 64 generates an editing moving image in which the chapter moving images extracted in the process shown in S109 are combined (S110). Then, the editing moving image generation unit 64 stores the editing moving image generated by the process shown in S110 in the editing moving image storage unit 66 (S111).
  • the specifying unit 60 confirms whether or not data indicating that the check box Ch3 has been selected is stored in the condition storage unit 50 (S112). If it is confirmed that this is not the case (S112: N), the processing shown in this processing example is terminated. When it is confirmed that this is the case (S112: Y), the moving image transmitting unit 72 transmits the edited moving image stored in the process shown in S111 as described above to the moving image public site (S113).
  • the specifying unit 60 confirms whether or not data indicating that the check box Ch4 has been selected is stored in the condition storage unit 50 (S114). If it is confirmed that this is not the case (S114: N), the processing shown in this processing example is terminated. If it is confirmed that this is the case (S114: Y), the process waits until a predetermined next generation timing arrives (S115). For example, it waits until one month elapses after the editing moving image generation processing is executed. Then, when the next creation timing arrives, the processing shown in S102 and thereafter is executed again.
  • FIG. 10A shows an example of the flow of processing performed in the game system 1 according to the present embodiment when an operation for selecting the material moving image request button Req1 is performed on the moving image request screen shown in FIG.
  • This will be described with reference to an exemplary flowchart.
  • the user A performs an operation of selecting the name of the user B by the radio button Ra and then an operation of selecting the material moving image request button Req1.
  • the moving image request unit 68 of the client 12 used by the user A transmits a transmission request for a material moving image destined for the client 12 used by the user B to the game server 10. Then, the moving image request relay unit 34 of the game server 10 receives the transmission request (S201). As described above, event log data corresponding to log information arranged on the left side of the image Ic on the editing screen is associated with the transmission request. Then, the moving image request relay unit 34 of the game server 10 transmits the transmission request to the client 12 used by the user B. Then, the moving image request receiving unit 70 of the client 12 used by the user B receives the transmission request (S202). Then, the display control unit 48 of the client 12 used by the user B displays the moving image transmission screen illustrated in FIG. 7A on the display (S203).
  • the material moving image acquisition unit 58 of the client 12 used by the user B converts the material moving image including the frame image at the date and time indicated by the event occurrence date and time data included in the transmitted event log data into the material moving image. Obtained from the storage unit 40 (S204). Then, the moving image transmission unit 72 of the client 12 used by the user B transmits the material moving image acquired in the process shown in S204 with the client 12 used by the user A as the destination. Then, the moving image relay unit 36 of the game server 10 receives the material moving image (S205). Then, the moving image relay unit 36 of the game server 10 transmits the material moving image to the client 12 of the game A.
  • the moving image receiving unit 74 of the client 12 of the game A receives the material moving image (S206). Then, the moving image receiving unit 74 of the client 12 of the game A stores the material moving image received in the processing shown in S206 in the material moving image storage unit 40 (S207), and the processing shown in this processing example is finished.
  • the moving image transmission unit 72 of the client 12 used by the user B transmits to the game server 10 information indicating that the transmission request of the material moving image is rejected with the client 12 used by the user A as the destination.
  • the moving image relay unit 36 of the game server 10 receives the information.
  • the moving image relay unit 36 of the game server 10 transmits the information to the client 12 used by the user A.
  • the display control part 48 of the client 12 which the user A uses displays the said information on a display.
  • the moving image transmission unit 72 of the client 12 used by the user B rejects the material moving image transmission request with the client 12 used by the user A as the destination because the material moving image has been deleted. Information representing this is transmitted to the game server 10. Then, the moving image relay unit 36 of the game server 10 receives the information. Then, the moving image relay unit 36 of the game server 10 transmits the information to the client 12 used by the user A. And the display control part 48 of the client 12 which the user A uses displays the said information on a display.
  • FIG. 10B shows an example of the flow of processing performed in the game system 1 according to this embodiment when an operation for selecting the chapter moving image request button Req2 is performed on the moving image request screen shown in FIG.
  • This will be described with reference to an exemplary flowchart.
  • the user A has performed an operation of selecting the name of the user B by the radio button Ra and then an operation of selecting the chapter moving image request button Req2.
  • the moving image request unit 68 of the client 12 used by the user A transmits to the game server 10 a transmission request for a chapter moving image destined for the client 12 used by the user B. Then, the moving image request relay unit 34 of the game server 10 receives the transmission request (S301). As described above, event log data corresponding to log information arranged on the left side of the image Ic on the editing screen is associated with the transmission request. Then, the moving image request relay unit 34 of the game server 10 transmits the transmission request to the client 12 used by the user B. Then, the moving image request receiving unit 70 of the client 12 used by the user B receives the transmission request (S302). Then, the display control unit 48 of the client 12 used by the user B displays the moving image transmission screen illustrated in FIG. 7B on the display (S303).
  • the material moving image acquisition unit 58 of the client 12 used by the user B stores the material moving image including the frame image at the date and time indicated by the event occurrence date and time data included in the transmitted event log data. Obtained from the unit 40 (S304). Then, the specifying unit 60 of the client 12 used by the user B specifies event occurrence date / time data included in the transmitted event log data (S305). The specifying unit 60 of the client 12 used by the user B then displays the frame image displayed on the date and time indicated by the event occurrence date and time specified in the process shown in S305 from the material moving images acquired in the process shown in S304. A chapter moving image including is specified (S306).
  • the extraction unit 62 of the client 12 used by the user B extracts the chapter moving image specified in the process shown in S306 from the material moving image acquired in the process shown in S304 (S307).
  • the moving image transmission unit 72 of the client 12 used by the user B transmits the chapter moving image extracted in the process shown in S307 with the client 12 used by the user A as a destination.
  • the moving image relay unit 36 of the game server 10 receives the chapter moving image (S308), and the moving image relay unit 36 of the game server 10 transmits the chapter moving image to the client 12 of the game A.
  • the moving image receiving unit 74 of the client 12 of the game A receives the chapter moving image (S309).
  • the chapter moving image received by the moving image receiving unit 74 of the client 12 of the game A in the processing shown in S309 is stored in the edited moving image storage unit 66 (S310), and the processing shown in this processing example is finished.
  • the moving image transmission unit 72 of the client 12 used by the user B transmits information indicating that the chapter 12 moving image transmission request is rejected to the game server 10 with the client 12 used by the user A as the destination.
  • the moving image relay unit 36 of the game server 10 receives the information.
  • the moving image relay unit 36 of the game server 10 transmits the information to the client 12 used by the user A.
  • the display control part 48 of the client 12 which the user A uses displays the said information on a display.
  • the moving image transmission unit 72 of the client 12 used by the user B rejects the material moving image transmission request with the client 12 used by the user A as the destination because the material moving image has been deleted. Information representing this is transmitted to the game server 10. Then, the moving image relay unit 36 of the game server 10 receives the information. Then, the moving image relay unit 36 of the game server 10 transmits the information to the client 12 used by the user A. And the display control part 48 of the client 12 which the user A uses displays the said information on a display.
  • the transmission request for moving images and the transmission / reception of moving images do not have to be performed via the game server 10, and may be performed directly between the clients 12.
  • the moving image may not be transmitted immediately.
  • the client 12 used by the user B is in a standby state or a non-use state
  • transmission of a moving image or generation of a chapter moving image may be performed.
  • the user B deletes the material moving image before the material moving image or the chapter moving image is transmitted.
  • a screen for selecting whether or not to stop transmission of moving images to the user A may be displayed on the display of the client 12 used by the user B.
  • the material moving image may be deleted.
  • the material moving image may not be deleted.
  • event log data corresponding to the operation may be generated in response to an operation on the controller such as pressing a predetermined button.
  • event log data corresponding to the sound may be generated in response to sound input to the microphone.
  • event log data corresponding to the facial expression may be generated.
  • the user presses a predetermined button inputs a predetermined voice, expresses a predetermined facial expression, etc.
  • the represented portion can be easily extracted from the edited moving image. If it carries out like this, the edit moving image containing the part showing the play content of the game in the said timing can be produced
  • tag data may be generated not by the game server 10 but by the client 12.
  • event log data may be stored in the client 12 instead of the game server 10.
  • the present embodiment may be applied to a game in which a single user participates as a player instead of a game in which a plurality of users participate as players.
  • the client 12 may play a role that the game server 10 plays in the above description.
  • the game server 10 may be composed of a plurality of cases.
  • the client 12 may be composed of a plurality of cases.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 イベントのログに基づいて、ゲームのプレイ内容を表す動画像からイベントが発生した際のプレイ内容を表す部分を特定できる動画像処理装置、動画像処理方法及びプログラムを提供する。タグデータ取得部(56)は、ゲームにおいて発生したイベントのログを取得する。素材動画像取得部(58)は、ゲームのプレイ内容を表す動画像を取得する。特定部(60)は、動画像における、ログが示すイベントが発生した際のゲームのプレイ内容を表す部分を特定する。

Description

動画像処理装置、動画像処理方法及びプログラム
 本発明は、動画像処理装置、動画像処理方法及びプログラムに関する。
 ゲームのプレイ内容を表す静止画像や動画像をキャプチャして保存する技術が存在する。このような技術の一例として、特許文献1には、ゲームプログラムの実行中に所定のスクリーンショット操作を行うとゲーム画面の画像が保存される技術が開示されている。
米国特許出願公開第2009/0118008号明細書
 例えば配信用の動画像を生成するなどの目的で、保存された動画像のうち、ステージをクリアした、ボスキャラを倒した、などといったイベントが発生した際のプレイ内容を表す部分を特定することが行われている。しかし従来、イベントのログに基づいて、ゲームのプレイ内容を表す動画像からイベントが発生した際のプレイ内容を表す部分を特定する技術がなかった。そのため、保存された動画像のなかから当該部分を特定するためには、ユーザが当該動画像を再生してその部分を探す必要などがあった。
 本発明は上記課題に鑑みてなされたものであって、その目的の1つは、イベントのログに基づいて、ゲームのプレイ内容を表す動画像からイベントが発生した際のプレイ内容を表す部分を特定できる動画像処理装置、動画像処理方法、プログラム及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る動画像処理装置は、ゲームにおいて発生したイベントのログを取得するログ取得部と、前記ゲームのプレイ内容を表す動画像を取得する動画像取得部と、前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する特定部と、を含む。
 また、本発明に係る動画像処理方法は、ゲームにおいて発生したイベントのログを取得するステップと、前記ゲームのプレイ内容を表す動画像を取得するステップと、前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定するステップと、を含む。
 また、本発明に係るプログラムは、ゲームにおいて発生したイベントのログを取得する手順、前記ゲームのプレイ内容を表す動画像を取得する手順、前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する手順、をコンピュータに実行させる。
 また、本発明に係る情報記憶媒体は、ゲームにおいて発生したイベントのログを取得する手順、前記ゲームのプレイ内容を表す動画像を取得する手順、前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する手順、をコンピュータに実行させるプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
 本発明の一態様では、前記特定部が特定する前記部分を前記動画像から抽出する抽出部、をさらに含む。
 この態様では、前記抽出部は、前記ゲームのプレイの終了後に前記特定部が特定する前記部分を前記動画像から抽出してもよい。
 あるいは、前記抽出部は、前記動画像処理装置がスタンバイ状態であっても動作するサブシステム部によって実装されており、前記動画像処理装置がスタンバイ状態である際に前記特定部が特定する前記部分を前記動画像から抽出してもよい。
 また、本発明の一態様では、前記動画像処理装置と通信可能な装置から、当該装置における前記ゲームのプレイ内容を表す動画像を受信する動画像受信部、をさらに含む。
 この態様では、前記動画像受信部は、前記動画像に前記ログが表す前記イベントの発生タイミングにおける前記ゲームのプレイ内容を含む部分が含まれていない場合に、前記動画像処理装置と通信可能な装置から当該部分を含む動画像を受信してもよい。
 また、本発明の一態様では、前記特定部は、前記動画像における、ユーザにより指定される条件を満足する前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する。
 また、本発明の一態様では、前記ゲームのプレイ内容を表す動画像を記憶する動画像記憶部と、前記動画像によってゲームのプレイ内容が表されている期間に当該ゲームにおいて発生したイベントについての前記ログを示すタグデータを生成するタグデータ生成部と、前記動画像記憶部に記憶されている動画像における、前記タグデータが示すイベントが発生した際の前記ゲームのプレイ内容を表す部分に基づいて、前記動画像記憶部に記憶されている動画像を編集した編集動画像を生成する編集動画像生成部と、をさらに含む。
本発明の一実施形態に係るゲームシステムの全体構成の一例を示す図である。 イベントログデータの一例を示す図である。 タグデータの一例を示す図である。 編集画面の一例を示す図である。 条件設定画面の一例を示す図である。 動画像要求画面の一例を示す図である。 動画像送信画面の一例を示す図である。 動画像送信画面の別の一例を示す図である。 本発明の一実施形態に係るゲームサーバで実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るクライアントで実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るクライアントにおいて行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係るゲームシステムにおいて行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係るゲームシステムにおいて行われる処理の流れの一例を示すフロー図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1は、本発明の一実施形態に係るゲームシステム1の全体構成の一例を示す図である。図1に示すように、本実施形態に係るゲームシステム1は、いずれもコンピュータを中心に構成されたゲームサーバ10とクライアント12(12-1~12-n)とを含んでいる。ゲームサーバ10、クライアント12は、インターネットなどのコンピュータネットワーク14に接続されている。そして、ゲームサーバ10、クライアント12は、互いに通信可能になっている。
 ゲームサーバ10は、当該ゲームサーバ10にインストールされている、複数のプレイヤが参加するゲームのプログラムを実行するサーバコンピュータである。本実施形態では、それぞれ互いに異なるクライアント12を使用するユーザがプレイヤとして当該ゲームに参加する。ゲームサーバ10は、図1に示すように、例えば、制御部10aと、記憶部10bと、通信部10cと、を含む。
 制御部10aは、例えばCPU等のプログラム制御デバイスであって、記憶部10bに記憶されたプログラムに従って各種の情報処理を実行する。
 記憶部10bは、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。
 通信部10cは、例えばコンピュータネットワーク14を介してクライアント12との間でデータを授受するためのネットワークボードなどの通信インタフェースである。ゲームサーバ10は、通信部10cを経由してクライアント12との間で情報の送受信を行う。
 クライアント12は、ユーザが利用するコンピュータであり、例えば、パーソナルコンピュータ、ゲームコンソール、テレビ受像機、携帯型ゲーム装置、携帯情報端末、などである。本実施形態では、クライアント12には、ユーザがプレイするゲームのプログラムがインストールされている。そして、当該クライアント12のユーザは、当該ゲームのプレイヤとして当該ゲームをプレイする。クライアント12は、例えば、制御部12aと、記憶部12bと、通信部12cと、出力部12dと、入力部12eと、サブシステム部12fと、を含む。
 制御部12aは、例えばCPU等のプログラム制御デバイスであって、記憶部12bに記憶されたプログラムに従って各種の情報処理を実行する。本実施形態に係る制御部12aには、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。
 記憶部12bは、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部12bには、制御部12aによって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部12bには、GPUにより画像が描画されるフレームバッファの領域が確保されている。
 通信部12cは、例えばコンピュータネットワーク14を介してゲームサーバ10との間でデータを授受するための通信インタフェースである。クライアント12は、通信部12cを経由してゲームサーバ10や他のクライアント12との間で情報の送受信を行う。
 出力部12dは、例えば制御部12aから入力される指示に従って情報を表示出力するディスプレイ等の表示部や音声出力するスピーカ等の音声出力部である。
 入力部12eは、例えばユーザが行った操作の内容を制御部12aに出力するゲームコントローラ、タッチパッド、マウス、キーボード、マイク、カメラ等である。
 サブシステム部12fは、制御部12aとは別に設けられたCPU等のプログラム制御デバイスや記憶部12bとは別に設けられた記憶素子を含んでいる。サブシステム部12fは、クライアント12が、制御部12aや記憶部12bが動作しないスタンバイ状態でもネットワーク処理などの各種処理が低消費電力で継続できるようにするために本実施形態に係るクライアント12に設けられている。
 本実施形態に係るゲームサーバ10は、当該ゲームサーバ10にインストールされている、複数のユーザがプレイヤとして参加するゲームのプログラムを実行する。以下、当該ゲームが3人のユーザによってプレイされている状況を例に、本実施形態に係るゲームシステム1の動作をさらに説明する。なお、当該3人のユーザの名称は、それぞれ、ユーザA、ユーザB、及び、ユーザCであることとする。
 本実施形態に係るクライアント12には、ゲームサーバ10で実行されるプログラムに対応する、クライアント12側のゲームのプログラムがインストールされている。そして本実施形態では、クライアント12で実行されるゲームのプログラムとゲームサーバ10で実行されるゲームのプログラムとが互いに通信を行い連携することで当該ゲームがプレイされることとなる。
 そして本実施形態では、当該ゲームにプレイヤとして参加するユーザの名称などといったユーザの識別情報、当該ユーザが使用するクライアント12のアドレスなどといったクライアント12の識別情報などがゲームサーバ10で管理される。そして本実施形態では、当該ゲームにプレイヤとして参加するユーザの識別情報と、当該ユーザが使用するクライアント12の識別情報とは互いに関連付けられて記憶部10bに記憶されている。また本実施形態では、当該ゲームのプレイの開始日時等の開始タイミング、終了日時等の終了タイミングを示す情報についても、ゲームサーバ10の記憶部10bに記憶される。
 本実施形態では、クライアント12のユーザがプレイヤとして参加しているゲームのプレイ中に、当該ゲームのプレイ内容を示すプレイ画像が所定のフレームレートで当該クライアント12のディスプレイに表示される。そして、ディスプレイに表示されるプレイ画像のコピー、すなわちフレームバッファに描画されるプレイ画像のコピーがキャプチャされて、クライアント12の記憶部に設けられた、最大で15分間の動画像が記憶可能なリングバッファ領域に順次書き込まれる。
 ここで例えばユーザが、コントローラが備える所定のボタンの押下などといった所定の操作を行ったとする。すると本実施形態では、リングバッファ領域に記憶されている、一連のプレイ画像から構成される動画像がエンコードされた上で動画像のファイルとしてクライアント12の記憶部12bに記憶される。以下、当該動画像を素材動画像と呼ぶこととする。素材動画像は複数のフレーム画像から構成されている。なお一連のプレイ画像がディスプレイに表示される際のフレームレートと素材動画像のフレームレートとは同じであっても異なっていてもよい。また一連のプレイ画像がディスプレイに表示される際の解像度と素材動画像の解像度とは同じであっても異なっていてもよい。また本実施形態では素材動画像は、当該素材動画像に対応付けられるプレイ画像のキャプチャの開始タイミングと終了タイミングが関連付けられた上で記憶部12bに記憶される。ここでは例えば素材動画像は、当該素材動画像に対応付けられるプレイ画像のキャプチャの開始日時と終了日時が関連付けられた上で記憶部12bに記憶されることとする。以下、素材動画像に対応付けられるプレイ画像のキャプチャの開始日時をキャプチャ開始日時と呼び、素材動画像に対応付けられるプレイ画像のキャプチャの終了日時をキャプチャ終了日時と呼ぶこととする。
 なお素材動画像は所定の操作に応じて記憶される必要はない。例えばゲーム等における所定のイベントの発生に応じて、リングバッファ領域に記憶されている、一連のプレイ画像から構成される動画像がエンコードされた上で素材動画像としてクライアント12の記憶部12bに記憶されてもよい。また例えば表示される一連のプレイ画像のすべてから構成される動画像が素材動画像として記憶されるようにしてもよい。
 そして本実施形態では、当該ゲームのプレイ中に、予め定められたイベントが発生すると、当該イベントに対応付けられる、図2に例示するイベントログデータが生成されて、ゲームサーバ10の記憶部10bに記憶される。図2は、本実施形態に係るイベントログデータの一例を示す図である。図2に示すように、本実施形態に係るイベントログデータには、ログID、ゲームタイトルデータ、イベント発生日時データ、イベント名データ、使用アイテム名データ、関係ユーザ名データ、が含まれている。ログIDは、当該イベントログデータの識別情報である。ゲームタイトルデータは、当該イベントログデータに対応付けられるイベントが発生したゲームのタイトルを示すデータである。イベント発生日時データは、当該イベントログデータに対応付けられるイベントの発生日時を示すデータである。なおイベント発生日時データの値として、イベントの実際の発生日時の代わりに、当該イベントの発生の所定時間前の日時、あるいは所定時間後の日時が設定されてもよい。イベント名データは、当該イベントログデータに対応付けられるイベントの名称を示すデータである。使用アイテム名データは、当該イベントログデータに対応付けられるイベントで使用されたアイテムの名称を示すデータである。関係ユーザ名データは、当該イベントログデータに対応付けられるイベントに関係するユーザの名称を示すデータである。図2には、6個のイベントログデータが示されている。
 イベントログデータとしてゲームサーバ10に記録されるイベントは、原則としてプレイされているゲームに依存する。例えば格闘ゲームがプレイされている場合は、一定数以上の連続コンボを達成した、相手を倒した、相手に倒された、などのイベントがイベントログデータとして記録される。また例えばレースゲームがプレイされている場合は、順位が変わった、1位になった、ラップが終了した、最終ラップが終了した、クラッシュした、コースアウトした、他の車と衝突した、などのイベントがイベントログデータとして記録される。また例えばパズルゲームがプレイされている場合は、一定数以上の連鎖を達成した、ハイスコアを更新した、などのイベントがイベントログデータとして記録される。また例えばスポーツゲームがプレイされている場合は、得点した、ホールインワン、ホームラン、自打球などが発生した、などのイベントがイベントログデータとして記録される。また例えばロールプレインゲームやアクションゲームがプレイされている場合は、一定数以上の連続コンボを達成した、戦闘が終了した、大量のスコア変動があった、などのイベントがイベントログデータとして記録される。
 また本実施形態では、上述の素材動画像の生成が行われた、ログインした、ログアウトした、などのイベントもイベントログデータとしてゲームサーバ10に記録される。
 そして本実施形態では、素材動画像が記憶部12bに記憶されると、当該素材動画像に関連付けられているキャプチャ開始日時及びキャプチャ終了日時に関連付けられたタグデータ要求がゲームサーバ10に送信される。するとゲームサーバ10は、当該キャプチャ開始日時から当該キャプチャ終了日時までの期間に発生したイベントについてのログデータに基づいて、図3に例示するタグデータを生成する。
 図3に示すように、タグデータには、タグID、ゲームタイトルデータ、イベント発生日時データ、イベント名データ、使用アイテム名データ、関係ユーザ名データ、が含まれている。図3に示すように、イベントログデータに含まれるログIDがタグデータに含まれるタグIDとして設定される。またイベントログデータに含まれるゲームタイトルデータの値、イベント発生日時データの値、イベント名データの値が、それぞれタグデータに含まれるゲームタイトルデータの値、イベント発生日時データの値、イベント名データの値として設定される。またイベントログデータに含まれる使用アイテム名データの値、関係ユーザ名データの値が、それぞれタグデータに含まれる使用アイテム名データの値、関係ユーザ名データの値として設定される。
 例えば、ゲームサーバ10に送信されたタグデータ要求に関連付けられているキャプチャ開始日時が2014年5月30日14時57分32秒であることとする。また当該タグデータ要求に関連付けられているキャプチャ終了日時が2014年5月30日15時12分31秒であることとする。この場合、イベント発生日時が当該キャプチャ開始日時以降であって当該キャプチャ終了日時以前である、図2に示す5個のイベントログデータに基づいて、この5個のイベントログデータにそれぞれ対応付けられる、図3に示す5個のタグデータが生成される。
 そしてゲームサーバ10は、生成したタグデータを、タグデータ要求を送信したクライアント12に送信する。そしてクライアント12は当該タグデータを受信して記憶部12bに記憶させる。本実施形態では、タグの送信に応じてゲームサーバ10から返信されたタグデータは、当該素材動画像に関連付けられた上で記憶部12bに記憶される。当該タグデータは、例えば素材動画像の編集や、動画像配信サイト等で配信される配信動画像の生成などに活用される。
 図4は、ユーザAが使用するクライアント12のディスプレイに表示される、本実施形態に係る素材動画像の編集を行うための編集画面の一例を示す図である。本実施形態では、所定の操作を行うことで、素材動画像が再生される。ここでは例えば、素材動画像を構成するフレーム画像が編集画面に設けられている動画像表示領域Mに順次表示される。
 また本実施形態では、素材動画像がプレイ内容を表すゲームに関するイベントログデータに対応付けられる情報がログ領域Lに一覧として配置される。図4の例では、ログID、イベント名データの値、関係ユーザ名データの値が、ログ領域Lに配置される。これらの情報をログ情報と呼ぶこととする。ログ情報は、例えば、クライアント12からゲームサーバ10への問い合わせに応じてゲームサーバ10からクライアント12に返信されるイベントログデータに基づいて生成される。本実施形態では例えば、当該ゲームのプレイの開始日時から終了日時までに発生したイベントについてのイベントログデータに対応付けられるログ情報がログ領域Lに一覧として配置される。
 また本実施形態では、素材動画像を構成するフレーム画像のうち、タグデータに含まれるイベント発生日時データが示す日時におけるフレーム画像が編集画面に配置される。以下、編集画面に配置される当該フレーム画像を代表画像Rと呼ぶこととする。また以下、素材動画像の一部である、代表画像Rのフレームを含む複数の連続するフレームのフレーム画像から構成される動画像をチャプター動画像と呼ぶこととする。チャプター動画像は例えばイベントの発生の所定時間前から所定時間後までの所定の長さのプレイ内容を表す動画像であってもよい。またチャプター動画像の長さがイベントの種類等によって異なっていてもよい。また例えば画像認識技術などによって当該イベントに関連する部分がチャプター動画像とし特定されてもよい。図4には、5個の代表画像(R-1~R-5)が配置されている。本実施形態では、代表画像Rを選択する操作を行うことで、当該代表画像Rに対応付けられるフレームから素材動画像が再生される。ここでは例えば、当該代表画像Rに対応付けられるフレームからフレーム画像が動画像表示領域Mに表示される。また本実施形態では、ユーザは、所定の操作を行うことで、チャプター動画像に評価値を設定できるようになっている。図4の例では、代表画像Rの右上に星印が配置されている。図4の例では、評価が高いチャプター動画像であるほど、当該チャプター動画像に対応する代表画像Rに多くの星印が配置されている。
 また本実施形態では、検索画像Sを選択する操作を行うと、図示しない検索画面を介して、代表画像Rの検索が行えるようになっている。ここでは例えば、イベント名データの値がKillであるタグデータに対応する代表画像Rが検索されたこととする。本実施形態では、検索結果である代表画像Rは強調表示される。図4の例では、検索結果である、第1の代表画像R-1、第4の代表画像R-4、第5の代表画像R-5の周りに枠線が配置されている。また本実施形態では、検索結果である代表画像Rに対応付けられるログ情報も強調表示される。図4の例では検索結果である代表画像Rに対応付けられるログ情報の左側に丸印の画像Iaが配置されている。
 また本実施形態では、イベント発生日時が、素材動画像に対応付けられるキャプチャ開始日時より前、及び、素材動画像に対応付けられるキャプチャ終了日時より後のイベントログデータに対応付けられるログ情報もログ領域Lに配置される場合もある。本実施形態では後述するように、クライアント12と通信可能な装置から当該ログ情報に対応付けられる動画像を受信する際に当該動画像を指定することができるようにこのようなログ情報もログ領域Lに配置されるようになっている。この場合には、ログ領域Lにその旨が表示される。図4の例では当該ログ情報の左側には当該情報に対応する代表画像Rが存在しないことを表すバツ印の画像Ibが配置されている。また本実施形態では、左側にバツ印の画像Ibが配置されるログ情報に対応付けられるイベント発生日時のプレイ内容を表す部分を含む素材動画像が他のクライアント12に記憶されている場合がある。この場合には、ログ領域Lにその旨が表示される。図4の例では、当該ログ情報の右側に、当該ログ情報に対応付けられる動画像が取得可能であることを表す画像Icが配置されている。
 以上のように、本実施形態では、ゲームにおいて発生したイベントのログのなかから、素材動画像におけるキャプチャ開始日時以降であってキャプチャ終了日時以前に発生したイベントのログがタグデータとして抽出される。そして当該タグデータが素材動画像に関連付けられる。このようにして本実施形態によれば、ユーザは素材動画像に関連付けられたタグデータを利用して、素材動画像のなかからイベントが発生した際のゲームのプレイ内容を表す部分を簡単に見つけることができることとなる。そして本実施形態では、ユーザが図4に示す編集画面を介して操作を行うことで、素材動画像を編集して例えばその一部を切り出した動画像を生成することができるようになっている。以下、素材動画像を編集して生成される動画像を編集動画像と呼ぶこととする。当該編集動画像は、例えばクライアント12の記憶部12bに記憶されたり、動画像公開サイトにアップロードされたりする。
 なお、タグデータのゲームサーバ10からの取得が、クライアント12がスタンバイ状態である際や、ゲームのプレイの終了後などといったクライアント12が非使用状態である際に行われるようにしてもよい。
 また本実施形態では、ユーザ(ここでは例えばユーザA)が、図4に例示する編集画面に配置されている自動生成ボタンAuを選択する操作を行うと、図5に例示する条件設定画面がディスプレイに表示される。本実施形態では、図5に例示する条件設定画面における設定に従って、素材動画像のなかからイベントが発生した際のゲームのプレイ内容を表す部分が抽出された編集動画像を生成することができる。
 図5に例示する条件設定画面には、ゲームのタイトルについての条件を設定するためのフォームF1が配置されている。図5の例ではゲームAが検索条件として設定されている。なおフォームF1では、条件の数を増減させることができるようになっている。そのためゲームタイトルについての複数の条件を設定することが可能である。この場合、本実施形態では当該複数の条件には優先度が設定される。
 また図5に例示する条件設定画面には、編集動画像に含まれる素材動画像がキャプチャされた期間についての条件を設定するためのフォームF2が配置されている。フォームF2では、素材動画像がキャプチャされた期間を検索条件として設定することができる。フォームF2には、具体的には例えば、直近1ヶ月、直近2ヶ月、直近1年等の条件を設定することができる。また図5に示すように、編集画面において開かれている動画像だけを検索対象とすることもできる。
 また図5に例示する条件設定画面には、生成される編集動画像の時間の長さを設定するためのフォームF3が配置されている。図5の例では編集動画像の時間の長さとして3分間が設定されている。
 また図5に例示する条件設定画面には、編集動画像として使用されるチャプター動画像についての条件を設定するためのフォームF4が配置されている。フォームF4では、タグデータに値が設定されている各種の属性についての条件を設定することができる。フォームF4では例えば、チャプター動画像に設定された評価値についての条件、イベントの発生日時についての条件を設定することができる。またフォームF4では例えば、イベントの名称についての条件、イベントで使用されたアイテムについての条件、イベントに関係するユーザの名称についての条件も設定することができる。なおフォームF4では、条件の数を増減させることができるようになっている。そのためタグデータに値が設定されている各種の属性についての複数の条件を設定することが可能である。この場合、本実施形態では当該複数の条件には優先度が設定される。図5の例では3つの条件が設定されている。これら3つの条件のうち、優先度が最も高い条件が「星印が3個以上付与されている」であり、その次の優先度の条件が「イベントの名称がKillである」であり、優先度が最も低い条件が「イベントの名称がDeathである」である。
 図5に例示する条件設定画面には、実行ボタンExとキャンセルボタンCaが配置されている。ユーザが実行ボタンExを選択する操作を行うと、フォームF1、F2、F4に設定されている条件を満足するチャプター動画像を結合した、フォームF3に設定した長さの編集動画像が生成される。ここで例えば、条件を満足するチャプター動画像の全体の長さがフォームF3に設定した長さを超えるまで、優先度の高い条件から順に検索が実行されるようにしてもよい。図5の例では、現在開いている動画像であってゲームのタイトルがゲームAであるチャプター動画像のなかから星印が3個以上付与されているものが特定される。このようにして特定されるチャプター動画像の全体の長さが3分を超えていない場合には、現在開いている動画像であってゲームのタイトルがゲームAである残りのチャプター動画像のなかからイベントがKillであるものが追加で特定される。このようにして特定されるチャプター動画像の全体の長さが3分を超えていない場合には、現在開いている動画像であってゲームのタイトルがゲームAである残りのチャプター動画像のなかからイベントがDeathであるものが追加で特定される。本実施形態では、以上のようにして特定されたチャプター動画像が結合されて編集動画像が生成される。また本実施形態では、編集動画像に含まれるチャプター動画像それぞれに対応付けられるタグデータが、当該編集動画像に関連付けられる。当該タグデータはユーザによって編集可能であってもよい。そして本実施形態では、編集動画像を再生すると、当該編集動画像に含まれるチャプター動画像が順次連続してディスプレイに表示される。
 本実施形態では、フォームF1、F2、F4に設定されている条件を満足する素材動画像が複数存在する場合がある。この場合は、当該複数の素材動画像のそれぞれについて特定されるチャプター動画像が結合されて編集動画像が生成される。
 また本実施形態では、ユーザがキャンセルボタンCaを選択する操作を行うと、条件設定画面において設定されている条件はキャンセルされて、ディスプレイに表示される画面が編集画面に更新される。
 また本実施形態では、ユーザは、図5に例示する条件設定画面に配置されている4つのチェックボックスCh1~Ch4によって、実行ボタンExを選択する操作に応じて実行される編集動画像の生成についてのオプションを設定できる。チェックボックスCh1がチェックされる場合は、編集動画像の生成はスタンバイ状態である際に行われる。チェックボックスCh2がチェックされる場合は、編集動画像の生成は、例えばゲームのプレイの終了後などといったゲームがプレイされていない際やCPU使用率が所定値以下である際などといったクライアント12が非使用状態である際に行われる。チェックボックスCh3がチェックされる場合は、編集動画像の生成が終了すると、ユーザの操作の必要なく、当該編集動画像が動画像公開サイトにアップロードされる。チェックボックスCh4がチェックされる場合は、定期的に、例えば1ヶ月毎に、設定された条件を満足する編集動画像の生成が行われる。こうすれば例えば、動画像公開サイトにアップロードされている編集動画像を生成される編集動画像に定期的に更新できる。またチェックボックスCh4をチェックすることで、例えば月間、あるいは年間の、条件を満足する動画像(ダイジェスト動画像)の定期的な生成が可能となる。なおゲームタイトル毎のダイジェスト動画像が定期的に生成されるようにしてもよい。
 なお条件設定画面で設定可能な項目は以上のものには限定されない。例えばゲームの種類についての条件が設定可能であってもよい。ここで例えばゲームの種類についての条件が設定されない場合は、様々なカテゴリのゲームのチャプター動画像を結合した編集動画像が生成されることとなる。ここで例えば条件として特定のカテゴリを指定できてもよい。この場合は、当該カテゴリのゲームのチャプター動画像を結合した編集動画像が生成される。また上述のように条件として特定のゲームを指定できてもよい。この場合には、当該ゲームのチャプター動画像を結合した編集動画像が生成される。また直近にプレイしたゲームとの条件が指定できてもよい。この場合は、例えば直近にプレイされたゲームのチャプター動画像から編集動画像が生成される。またこの場合に、直近にプレイされたゲームと同じカテゴリのゲームのチャプター動画像から編集動画像が生成されてもよい。
 また編集動画像の再生方法について設定可能であってもよい。例えば、通常再生、10倍速再生、などといった編集動画像の再生速度についての設定が可能であってもよい。この場合は、当該再生速度の編集動画像が生成される。また例えば、ノイズを入れるなどといった画像処理を施すか否かについても設定可能であってもよい。ここで例えばノイズを入れることが設定された場合は、ノイズが入った編集動画像が生成される。またチャプター動画像同士の結合方法について設定可能であってもよい。例えばチャプター動画像同士をクロスフェードさせるなどといった設定が可能であってもよい。この場合は、チャプター動画像を結合する部分においてクロスフェード処理が施された編集動画像が生成される。また編集動画像にBGMを含めるか否かの設定や、BGMとして用いられる曲についての設定が可能であってもよい。この場合は当該設定に曲がBGMとして用いられた編集動画像が生成されることとなる。
 また以上説明したような、編集動画像の生成に関する処理を、サブシステム部12fで実行するか否かが設定可能であってもよい。ここで、サブシステム部12fで実行することが設定された場合は例えば、上述したような、チャプター動画像の選択や結合、再生速度の設定、画像処理、クロスフェード処理、BGMの設定、などはサブシステム部12fで実行されることとなる。
 以上のようにして本実施形態では、ユーザが条件を設定するだけで、当該条件を満足するイベントが発生した際のゲームのプレイ内容を表す編集動画像が素材動画像から抽出されることになる。
 なお編集動画像の生成が終了したら、クライアント12がスタンバイ状態になってもよい。
 また例えばゲームの製造者や販売者から、上述の条件を表すテンプレートデータがユーザに提供してもよい。そして当該テンプレートデータに基づいて素材動画像から編集動画像が生成されてもよい。
 また本実施形態では、ユーザ(ここでは例えばユーザA)が、図4に例示する編集画面に配置されている画像Icを選択する操作を行うと、図6に例示する動画像要求画面がディスプレイに表示される。本実施形態では、図6に例示する動画像要求画面を介して、他のユーザのクライアント12に記憶されている素材動画像又はその一部を取得できるようになっている。動画像要求画面には、編集画面において画像Icの左側に配置されているログ情報が示すイベントの発生日時におけるゲームのプレイ内容を含む素材動画像が記憶されているクライアント12を使用するユーザの名称が、ラジオボタンRaとともに配置されている。本実施形態では例えば、ユーザAが、図4に例示する編集画面に配置されている画像Icを選択する操作を行うと、ユーザAが使用するクライアント12が、当該素材動画像が記憶されているクライアント12のユーザの問い合わせをゲームサーバ10に送信する。当該問い合わせには例えばイベントの発生日時が関連付けられている。そして本実施形態では、ゲームサーバ10は、当該イベントの発生日時のプレイ内容を表す部分を含む素材動画像が記憶されている可能性があるクライアント12を使用するユーザを特定する。本実施形態では、上述のように、素材動画像の生成が行われた際に、当該生成に対応付けられるイベントログデータがゲームサーバ10に記憶される。そのため、ゲームサーバ10は当該イベントログデータに基づいて当該ユーザを特定することができるようになっている。そしてゲームサーバ10は、特定されたユーザの名称をクライアント12に送信する。そして返信されたユーザの名称に基づいて、図6に示す動画像要求画面は生成されることとなる。
 そして、ユーザAが、図6に示す動画像要求画面において、ラジオボタンRaによってユーザの名称を選択する操作を行った上で、素材動画像要求ボタンReq1を選択する操作を行ったとする。ここでは例えばユーザBの名称が選択されたこととする。するとユーザAが使用するクライアント12は、例えばユーザBが使用するクライアント12を宛先とする素材動画像の送信要求をゲームサーバ10に送信する。当該送信要求には、編集画面において画像Icの左側に配置されているログ情報に対応するイベントログデータが関連付けられている。当該送信要求は、ゲームサーバ10を中継してユーザBが使用するクライアント12に送信される。なお当該送信要求がゲームサーバ10を中継せずに直接ユーザBが使用するクライアント12に送信されてもよい。
 するとユーザBが使用するクライアント12のディスプレイには、図7Aに例示する動画像送信画面が表示される。図7Aに例示する動画像送信画面には、動画像をユーザIDとともに提供するか否かを選択するチェックボックスCh5が配置されている。ここでユーザBが許可ボタンAlを選択する操作を行ったとする。するとユーザBが使用するクライアント12は、ユーザAが使用するクライアント12を宛先として、送信されたイベントログデータに含まれるイベント発生日時データが示す日時におけるフレーム画像を含む素材動画像を送信する。なおこのときチェックボックスCh5がチェックされている場合には、送信される素材動画像は、ユーザBによって提供されたことが示されたものとなる。送信される素材動画像には、例えばユーザBのユーザID(識別情報)などといった、当該素材動画像がユーザBによって提供されたことを表す文章や記号がオーバーレイされてもよい。また送信される素材動画像に、ユーザAによって撮影されたことではないことを表す文章や記号がオーバーレイされてもよい。また送信される素材動画像に、ユーザBを表すアイコンがオーバーレイされても構わない。また送信される素材動画像にユーザBの識別情報が関連付けられてもよい。当該素材動画像は、ゲームサーバ10を中継してユーザAが使用するクライアント12に送信される。なお当該素材動画像がゲームサーバ10を中継せずに直接ユーザAが使用するクライアント12に送信されてもよい。そしてユーザAが使用するクライアント12は当該素材動画像を受信して記憶部12bに記憶させる。一方ユーザBが拒否ボタンRejを選択する操作を行うと、素材動画像の送信は行われない。
 また、ユーザAは、ラジオボタンRaによってユーザの名称を選択する操作を行った上で、チャプター動画像要求ボタンReq2を選択する操作を行ったとする。ここでは例えばユーザBの名称が選択されたこととする。すると素材動画像要求ボタンReq1と同様にして、ユーザBが使用するクライアント12にチャプター動画像の送信要求が送信される。
 するとユーザBが使用するクライアント12のディスプレイには、図7Bに例示する動画像送信画面が表示される。図7Bに例示する動画像送信画面にも、動画像をユーザIDとともに提供するか否かを選択するチェックボックスCh5が配置されている。ここでユーザBが許可ボタンAlを選択する操作を行ったとする。するとユーザBが使用するクライアント12は、ユーザBが使用するクライアント12に記憶されている素材動画像に基づいて、送信されたイベントログデータに含まれるイベント発生日時データが示す日時におけるフレーム画像を含むチャプター動画像を生成する。そして、上述の素材動画像の送信と同様にして、生成されたチャプター動画像は、ユーザAが使用するクライアント12に送信されて、当該クライアント12の記憶部12bに記憶される。なおこのときチェックボックスCh5がチェックされている場合には、送信されるチャプター動画像は、ユーザBによって提供されたことが示されたものとなる。送信されるチャプター動画像には、例えばユーザBのユーザID(識別情報)などといった、当該素材動画像がユーザBによって提供されたことを表す文章や記号がオーバーレイされてもよい。また送信されるチャプター動画像に、ユーザAによって撮影されたことではないことを表す文章や記号がオーバーレイされてもよい。また送信されるチャプター動画像に、ユーザBを表すアイコンがオーバーレイされても構わない。また送信されるチャプター動画像にユーザBの識別情報が関連付けられてもよい。一方ユーザBが拒否ボタンRejを選択する操作を行うと、チャプター動画像の送信は行われない。
 またユーザAは、キャンセルボタンCaを選択する操作を行うと、ディスプレイに表示される画面が編集画面に更新される。
 このようにして本実施形態によれば、ユーザが指定したイベントの発生タイミングにおけるゲームのプレイ内容を表す動画像が他のクライアント12から送信されることとなる。
 また本実施形態によれば、例えばFPS(ファーストパーソン・シューター)ゲームにおいて、複数のプレイヤのそれぞれの視点から見た様子を表す動画像を結合した編集動画像を生成することができることとなる。
 また上述のように、本実施形態に係るクライアント12はスタンバイ状態である際やゲームのプレイの終了後などといった非使用状態である際に、素材動画像からのチャプター動画像の抽出が行われてもよい。こうすれば、ユーザのゲームのプレイを阻害することなくチャプター動画像の抽出が行われることとなる。また本実施形態に係るクライアント12はスタンバイ状態である際に、サブシステム部12fによって素材動画像からのチャプター動画像の抽出が行われてもよい。こうすれば、制御部12aや記憶部12bを動作させずに低消費電力でチャプター動画像の抽出が行われることとなる。
 また本実施形態に係るクライアント12は例えば、素材動画像に関連付けられているタグデータに基づいて、当該素材動画像を記憶部12bから削除するか否かを制御してもよい。例えば所定の条件を満足するタグデータに関連付けられている素材動画像が削除されるようにしてもよい。例えば所定のイベントを含むタグデータ、所定の使用アイテム名データを含むタグデータ、所定の関連ユーザ名データを含むタグデータなどといった、所定の条件を満足するタグデータに関連付けられている素材動画像が削除されるようにしてもよい。具体的には例えば、編集動画像の生成に利用されないような素材動画像、例えば重要なイベントやレアなイベントを示すタグデータに関連付けられていない素材動画像が削除されるようにしてもよい。
 以下、本実施形態に係るゲームシステム1で実装される機能及び本実施形態に係るゲームシステム1で行われる処理についてさらに説明する。
 図8Aは、本実施形態に係るゲームサーバ10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るゲームサーバ10で、図8Aに示す機能のすべてが実装される必要はなく、また、図8Aに示す機能以外の機能が実装されていても構わない。
 図8Aに示すように、本実施形態に係るゲームサーバ10は、機能的には例えば、イベントログデータ記憶部20、タグデータ要求受信部22、タグデータ生成部24、タグデータ送信部26、ログ検索要求受信部28、ログ検索部30、ログ検索結果送信部32、動画像要求中継部34、動画像中継部36、を含んでいる。イベントログデータ記憶部20は、記憶部10bを主として実装される。タグデータ要求受信部22、タグデータ送信部26、ログ検索要求受信部28、ログ検索結果送信部32、動画像要求中継部34、動画像中継部36は、通信部10cを主として実装される。タグデータ生成部24、ログ検索部30は、制御部10aを主として実装される。
 以上の機能は、コンピュータであるゲームサーバ10にインストールされた、以上の機能に対応する指令を含むプログラムを制御部10aで実行することにより実装されている。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどの通信ネットワークを介してゲームサーバ10に供給される。
 図8Bは、本実施形態に係るクライアント12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るクライアント12で、図8Bに示す機能のすべてが実装される必要はなく、また、図8Bに示す機能以外の機能が実装されていても構わない。
 図8Bに示すように、本実施形態に係るクライアント12は、機能的には例えば、素材動画像記憶部40、タグデータ要求部42、タグデータ受信部44、タグデータ記憶部46、表示制御部48、条件記憶部50、ログ検索要求部52、ログ検索結果受信部54、タグデータ取得部56、素材動画像取得部58、特定部60、抽出部62、編集動画像生成部64、編集動画像記憶部66、動画像要求部68、動画像要求受信部70、動画像送信部72、動画像受信部74、素材動画像削除部76、を含んでいる。素材動画像記憶部40、タグデータ記憶部46、条件記憶部50、編集動画像記憶部66は、記憶部12bを主として実装される。タグデータ要求部42、タグデータ受信部44、ログ検索要求部52、ログ検索結果受信部54、動画像要求部68、動画像要求受信部70、動画像送信部72、動画像受信部74は、通信部12cを主として実装される。タグデータ取得部56、素材動画像取得部58、特定部60、抽出部62、編集動画像生成部64、素材動画像削除部76は、制御部12a又はサブシステム部12fを主として実装される。表示制御部48は、制御部12a及び出力部12dを主として実装される。
 以上の機能は、コンピュータであるクライアント12にインストールされた、以上の機能に対応する指令を含むプログラムを制御部12a又はサブシステム部12fで実行することにより実装されている。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどの通信ネットワークを介してクライアント12に供給される。
 イベントログデータ記憶部20は、本実施形態では、図2に例示するイベントログデータを記憶する。
 タグデータ要求受信部22は、本実施形態では、クライアント12から送信されるタグデータ要求を受信する。当該タグデータ要求には、素材動画像に対応付けられるプレイ画像のキャプチャの開始タイミングと終了タイミングとが関連付けられている。本実施形態では、当該タグデータ要求には、キャプチャ開始日時とキャプチャ終了日時とが関連付けられていることとする。
 タグデータ生成部24は、後述する素材動画像記憶部40に記憶されている、ゲームのプレイ内容を表す動画像によってゲームのプレイ内容が表されている期間に当該ゲームにおいて発生したイベントについてのログを示すタグデータを生成する。タグデータ生成部24は、本実施形態では、図2に例示するイベントログデータ、及び、タグデータ要求受信部22が受信したタグデータ要求に基づいて、図3に例示するタグデータを生成する。本実施形態では、受信したタグデータ要求に関連付けられているキャプチャ開始日時から当該タグデータ要求に関連付けられているキャプチャ終了日時までの期間に発生したイベントについてのイベントログデータに基づいて、図3に例示するタグデータが生成される。
 タグデータ送信部26は、本実施形態では、タグデータ生成部24が生成したタグデータを、タグデータ要求を送信したクライアント12に送信する。
 ログ検索要求受信部28は、本実施形態では、クライアント12から、編集画面においてログ領域Lに配置される情報に対応付けられるイベントログデータの検索要求を受信する。
 ログ検索部30は、本実施形態では、検索要求の受信に応じて、イベントログデータ記憶部20に記憶されているイベントログデータのうちから、編集画面においてログ領域Lに配置される情報に対応付けられるイベントログデータを検索する。
 ログ検索結果送信部32は、本実施形態では、イベントログデータの検索要求を送信したクライアント12に検索されたイベントログデータを送信する。
 動画像要求中継部34は、本実施形態では、クライアント12が送信する動画像の送信要求を中継する。動画像要求中継部34は、例えば、ユーザAのクライアント12から、ユーザBのクライアント12に対する動画像の送信要求を受信すると、当該送信要求をユーザBのクライアント12に送信する。
 動画像中継部36は、本実施形態では、クライアント12が送信する素材動画像やチャプター動画像などといった動画像を中継する。動画像中継部36は、例えば、ユーザBのクライアント12から、ユーザAのクライアント12を宛先とした動画像を受信すると、当該動画像をユーザAのクライアント12に送信する。
 素材動画像記憶部40は、本実施形態では、上述の素材動画像を記憶する。本実施形態では、当該素材動画像には、上述のように、当該素材動画像に対応付けられるプレイ画像のキャプチャの開始タイミングと終了タイミングが関連付けられている。素材動画像には、例えばキャプチャ開始日時とキャプチャ終了日時とが関連付けられている。
 タグデータ要求部42は、本実施形態では、素材動画像記憶部40に記憶されている素材動画像に関連付けられているキャプチャ開始日時及びキャプチャ終了日時に関連付けられたタグデータ要求をゲームサーバ10に送信する。
 タグデータ受信部44は、本実施形態では、タグデータ要求部42が送信するタグデータ要求に応じて、ゲームサーバ10のタグデータ送信部26が送信するタグデータを受信する。
 タグデータ記憶部46は、本実施形態では、タグデータ受信部44が受信するタグデータを記憶する。
 表示制御部48は、本実施形態では、図4に例示する編集画面、検索画像Sを選択する操作が行われた際に表示される検索画面、図5に例示する条件設定画面を生成する。
 また表示制御部48は、上述したように、図4に例示する編集画面に配置されている画像Icを選択する操作が行われた際に、動画像要求画面に配置されるユーザの名称をゲームサーバ10に問い合わせる。そして表示制御部48は、ゲームサーバ10から上述のようにして返信されるユーザの名称に基づいて、図6に例示する動画像要求画面を生成する。
 また表示制御部48は、素材動画像の送信要求の受信に応じて、図7Aに例示する動画像送信画面を生成する。また表示制御部48は、チャプター動画像の送信要求の受信に応じて、図7Bに例示する動画像送信画面を生成する。
 そして表示制御部48は、本実施形態では、以上のようにして生成された画面をディスプレイに表示させる。
 また表示制御部48は、本実施形態では、ゲームのプレイ中に、当該ゲームのプレイ内容を示すプレイ画像を所定のフレームレートで生成して、ディスプレイに表示させる。
 また表示制御部48は、本実施形態では、図5に例示する条件設定画面において実行ボタンExを選択する操作が行われると、当該条件設定画面において設定されている条件を示すデータを条件記憶部50に記憶させる。
 条件記憶部50は、本実施形態では、図5に例示する条件設定画面において設定されている条件を示すデータを記憶する。
 ログ検索要求部52は、本実施形態では、編集画面が表示される際にログ領域Lに配置される情報に対応付けられるイベントログデータの検索要求をゲームサーバ10に送信する。
 ログ検索結果受信部54は、本実施形態では、イベントログデータの検索要求に応じてゲームサーバ10が送信するイベントログデータを受信する。表示制御部48は、当該イベントログデータに基づいて編集画面内のログ領域Lに配置される情報を生成する。
 タグデータ取得部56は、本実施形態では、ゲームにおいて発生したイベントのログを取得する。タグデータ取得部56は、本実施形態では、タグデータ記憶部46に記憶されているタグデータをゲームにおいて発生したイベントのログとして取得する。
 素材動画像取得部58は、本実施形態では、ゲームのプレイ内容を表す動画像を取得する。素材動画像取得部58は、本実施形態では、例えば、素材動画像記憶部40に記憶されている素材動画像を取得する。
 特定部60は、本実施形態では、素材動画像における、ゲームにおいて発生したイベントのログが示すイベントが発生した際のゲームのプレイ内容を表す部分を特定する。当該部分は、本実施形態では例えば、上述の代表画像Rやチャプター動画像に相当する。特定部60は、本実施形態では例えば、タグデータ取得部56が取得するタグデータに含まれるイベント発生日時データを特定する。そして特定部60は、素材動画像取得部58が取得する素材動画像における、特定されたイベント発生日時データが示す日時にディスプレイに表示されたフレーム画像を特定する。本実施形態では、素材動画像には、キャプチャ開始日時とキャプチャ終了日時とが関連付けられているので、イベント発生日時データが示す日時に基づいて当該日時に表示されたフレーム画像の特定が可能である。
 また特定部60は、本実施形態では、素材動画像における、ユーザにより指定される条件を満足するイベントが発生した際のゲームのプレイ内容を表す部分を特定する。例えば上述の検索画面を介してイベント名データの値がKillであるタグデータに対応する代表画像Rが検索された場合は、特定部60は、イベント名データの値がKillであるタグデータに含まれるイベント発生日時データを特定する。そして特定部60は、素材動画像における、特定されたイベント発生日時データが示す日時に表示されたフレーム画像を特定する。
 また例えば、ユーザが図5に例示する条件設定画面に配置されている実行ボタンExを選択する操作を行うと、特定部60は、フォームF1、F2、F4に設定されている条件を満足するタグデータを特定する。そして、特定部60は、特定されたタグデータに含まれるイベント発生日時データを特定する。そして特定部60は、素材動画像における、特定されたイベント発生日時データが示す日時に表示されたフレーム画像を特定する。ここで特定されるフレーム画像は、例えば図4に示す編集画面に配置される代表画像Rである。
 また、特定部60は、本実施形態では、特定されるフレーム画像のフレームを含む複数の連続するフレームのフレーム画像から構成されるチャプター動画像の特定も行う。
 抽出部62は、本実施形態では、特定部60が特定する部分を素材動画像から抽出する。抽出部62は、例えば特定部60が特定するチャプター動画像を素材動画像から抽出する。抽出部62は、ゲームのプレイの終了後に特定部60が特定する部分を素材動画像から抽出してもよい。また抽出部62は、クライアント12がスタンバイ状態であっても動作するサブシステム部12fによって実装されていてもよい。そして抽出部62は、クライアント12がスタンバイ状態である際に特定部60が特定する部分を素材動画像から抽出してもよい。また抽出部62は、クライアント12が非使用状態である際に特定部60が特定する部分を素材動画像から抽出してもよい。
 編集動画像生成部64は、本実施形態では、素材動画像記憶部40に記憶されている素材動画像に基づいて編集動画像を生成する。編集動画像生成部64は、例えば抽出部62が抽出するチャプター動画像を結合して編集動画像を生成する。編集動画像生成部64は、例えば図4に例示する編集画面を介して行われるユーザの操作に応じて編集動画像を生成する。また編集動画像生成部64は、本実施形態では、図5に例示する条件設定画面に設定される条件に従って抽出されるチャプター動画像が結合された編集動画像を生成する。編集動画像生成部64は、編集動画像を生成すると当該編集動画像を編集動画像記憶部66に記憶させる。このように、編集動画像生成部64は、本実施形態では、素材動画像記憶部40に記憶されている動画像における、タグデータが示すイベントが発生した際のゲームのプレイ内容を表す部分に基づいて、編集動画像を生成する。
 編集動画像記憶部66は、本実施形態では、編集動画像生成部64が生成する編集動画像を記憶する。
 動画像要求部68は、本実施形態では、動画像の送信を要求するクライアント12を宛先とした動画像の送信要求を送信する。本実施形態では動画像要求部68は、当該送信要求をゲームサーバ10に送信するが、ゲームサーバ10を中継せずに動画像の送信を要求するクライアント12に送信要求を直接送信してもよい。本実施形態では、図6に例示する動画像要求画面において素材動画像要求ボタンReq1を選択する操作が行われた際に、ラジオボタンRaによって名称が選択されたユーザのクライアント12を宛先とした素材動画像の送信要求が送信される。また本実施形態では、図6に例示する動画像要求画面においてチャプター動画像要求ボタンReq2を選択する操作が行われた際に、ラジオボタンRaによって名称が選択されたユーザのクライアント12を宛先としたチャプター動画像の送信要求が送信される。
 動画像要求受信部70は、本実施形態では、他のクライアント12の動画像要求部68が送信する動画像の送信要求を受信する。
 動画像送信部72は、本実施形態では、動画像の送信要求を送信したクライアント12を宛先として動画像を送信する。なお動画像送信部72は、本実施形態では、編集動画像の動画像公開サイトへの送信も行う。
 動画像受信部74は、本実施形態では、他のクライアント12の動画像送信部72が送信する動画像を受信する。上述の例では、ユーザAが使用するクライアント12の動画像受信部74が、ユーザAが使用するクライアント12と通信可能なユーザBが使用するクライアント12から、ユーザBが使用するクライアント12におけるゲームのプレイ内容を表す動画像を受信する。また動画像受信部74は、タグデータ取得部56が取得するタグデータが示すイベントの発生タイミングにおけるゲームのプレイ内容を含む部分が含まれていない場合に、他のクライアント12から当該部分を含む動画像を受信してもよい。
 素材動画像削除部76は、本実施形態では、上述のように、所定の条件を満足するタグデータに関連付けられている素材動画像を削除する。
 なお動画像の送受信は、ゲームサーバ10を介して行われても、クライアント12間で直接行われても構わない。
 ここで、図5に例示する条件設定画面において実行ボタンExを選択する操作が行われた際に、本実施形態に係るクライアント12において行われる処理の流れの一例を、図9に例示するフロー図を参照しながら説明する。
 まず、表示制御部48が、図5に例示する条件設定画面において設定されている条件を示すデータを条件記憶部50に記憶させる(S101)。当該条件を示すデータには、図5に例示する条件設定画面においてチェックボックスCh1~Ch4が選択されたか否かを示すデータも含まれている。
 そして、特定部60は、チェックボックスCh1又はCh2が選択されたことを示すデータが条件記憶部50に記憶されているかどうかを確認する(S102)。そうであることが確認された場合は(S102:Y)、クライアント12は、選択されているチェックボックスCh1又はCh2に応じた時期的な条件を満足する状態になるまで待機する(S103)。ここで例えば、チェックボックスCh1とCh2の両方が選択された場合には、S103に示す処理では、クライアント12は、スタンバイ状態又は非使用状態になるまで待機する。また例えば、チェックボックスCh1が選択された場合には、S103に示す処理では、クライアント12は、スタンバイ状態になるまで待機する。また例えば、チェックボックスCh2が選択された場合には、S103に示す処理では、クライアント12は、非使用状態になるまで待機する。
 そしてS102で上述のデータが条件記憶部50に記憶されていないことが確認された場合(S102:N)、又は、S103に示す処理が終了された場合は、タグデータ取得部56が、タグデータ記憶部46に記憶されているタグデータを取得する(S104)。そして、特定部60が、S104に示す処理で取得したタグデータのうちから、S101に示す処理で条件記憶部50に記憶されたデータが示す条件を満たすタグデータを特定する(S105)。そして、素材動画像取得部58が、素材動画像記憶部40に記憶されている素材動画像のうち、S105に示す処理で特定されたタグデータに関連付けられている素材動画像を取得する(S106)。
 そして特定部60が、S105に示す処理で特定されたタグデータに含まれるイベント発生日時データを特定する(S107)。そして特定部60は、S106に示す処理で取得した素材動画像における、S107に示す処理で特定されたイベント発生日時データが示す日時に表示されたフレーム画像を含むチャプター動画像を特定する(S108)。そして抽出部62が、S108に示す処理で特定されたチャプター動画像を素材動画像から抽出する(S109)。そして編集動画像生成部64が、S109に示す処理で抽出されたチャプター動画像が結合された編集動画像を生成する(S110)。そして、編集動画像生成部64は、S110に示す処理で生成された編集動画像を編集動画像記憶部66に記憶させる(S111)。
 そして、特定部60は、チェックボックスCh3が選択されたことを示すデータが条件記憶部50に記憶されているかどうかを確認する(S112)。そうでないことが確認された場合は(S112:N)、本処理例に示す処理を終了する。そうであることが確認された場合は(S112:Y)、動画像送信部72が、上述したようにS111に示す処理で記憶された編集動画像を動画像公開サイトに送信する(S113)。
 そして、特定部60は、チェックボックスCh4が選択されたことを示すデータが条件記憶部50に記憶されているかどうかを確認する(S114)。そうでないことが確認された場合は(S114:N)、本処理例に示す処理を終了する。そうであることが確認された場合は(S114:Y)、予め定められた次の作成タイミングが到来するまで待機する(S115)。例えば編集動画像の生成処理が実行されてから1ヶ月が経過するまで待機する。そして次の作成タイミングが到来したら、S102以降に示す処理が再度実行される。
 なお上述の処理例における処理の実行順序は上述のものに限定されない。例えば、S104~S109に示す処理の一部又は全部がS102に示す処理の前に行われても構わない。
 次に、図6に示す動画像要求画面において素材動画像要求ボタンReq1を選択する操作が行われた際に、本実施形態に係るゲームシステム1において行われる処理の流れの一例を、図10Aに例示するフロー図を参照しながら説明する。ここでは例えば、ユーザAが、ラジオボタンRaによってユーザBの名称を選択する操作を行った上で素材動画像要求ボタンReq1を選択する操作を行ったこととする。
 まず、ユーザAが使用するクライアント12の動画像要求部68が、ユーザBが使用するクライアント12を宛先とした素材動画像の送信要求をゲームサーバ10に送信する。するとゲームサーバ10の動画像要求中継部34が当該送信要求を受信する(S201)。当該送信要求には、上述したように、編集画面において画像Icの左側に配置されているログ情報に対応するイベントログデータが関連付けられている。そして、ゲームサーバ10の動画像要求中継部34が当該送信要求をユーザBが使用するクライアント12に送信する。するとユーザBが使用するクライアント12の動画像要求受信部70が、当該送信要求を受け付ける(S202)。そして、ユーザBが使用するクライアント12の表示制御部48が、図7Aに例示する動画像送信画面をディスプレイに表示させる(S203)。
 ここでユーザBが許可ボタンAlを選択する操作を行ったとする。すると、そしてユーザBが使用するクライアント12の素材動画像取得部58は、送信されたイベントログデータに含まれるイベント発生日時データが示す日時におけるフレーム画像が含まれている素材動画像を素材動画像記憶部40から取得する(S204)。そしてユーザBが使用するクライアント12の動画像送信部72は、ユーザAが使用するクライアント12を宛先として、S204に示す処理で取得した素材動画像を送信する。そしてゲームサーバ10の動画像中継部36は、当該素材動画像を受信する(S205)。そして、ゲームサーバ10の動画像中継部36は、当該素材動画像をゲームAのクライアント12に送信する。するとゲームAのクライアント12の動画像受信部74が当該素材動画像を受信する(S206)。そしてゲームAのクライアント12の動画像受信部74がS206に示す処理で受信した素材動画像を素材動画像記憶部40に記憶させて(S207)、本処理例に示す処理を終了する。
 なお図10Aに示す処理例において、S203に示す処理の終了後に、ユーザBが拒否ボタンRejを選択する操作を行ったとする。すると、ユーザBが使用するクライアント12の動画像送信部72は、ユーザAが使用するクライアント12を宛先として、素材動画像の送信要求を拒否することを表す情報をゲームサーバ10に送信する。すると、ゲームサーバ10の動画像中継部36は当該情報を受信する。そして、ゲームサーバ10の動画像中継部36は、当該情報をユーザAが使用するクライアント12に送信する。そして、ユーザAが使用するクライアント12の表示制御部48は、当該情報をディスプレイに表示させる。
 また図10Aに示す処理例において、要求された素材動画像が、ユーザBが使用するクライアント12の素材動画像記憶部40から既に削除されている場合が想定される。この場合には、上記S203以降に示す処理は実行されない。その代わりに、ユーザBが使用するクライアント12の動画像送信部72は、ユーザAが使用するクライアント12を宛先として、素材動画像が削除されたことを理由に素材動画像の送信要求を拒否することを表す情報をゲームサーバ10に送信する。すると、ゲームサーバ10の動画像中継部36は当該情報を受信する。そして、ゲームサーバ10の動画像中継部36は、当該情報をユーザAが使用するクライアント12に送信する。そして、ユーザAが使用するクライアント12の表示制御部48は、当該情報をディスプレイに表示させる。
 また図10Aに示す処理例において、ユーザBが図7Aに例示する動画像送信画面においてチェックボックスCh5をチェックした上で許可ボタンAlを選択する操作を行ったとする。この場合には、上述のように、送信される素材動画像は、ユーザBによって提供されたことが示されたものとなる。
 次に、図6に示す動画像要求画面においてチャプター動画像要求ボタンReq2を選択する操作が行われた際に、本実施形態に係るゲームシステム1において行われる処理の流れの一例を、図10Bに例示するフロー図を参照しながら説明する。ここでは例えば、ユーザAが、ラジオボタンRaによってユーザBの名称を選択する操作を行った上でチャプター動画像要求ボタンReq2を選択する操作を行ったこととする。
 まず、ユーザAが使用するクライアント12の動画像要求部68が、ユーザBが使用するクライアント12を宛先としたチャプター動画像の送信要求をゲームサーバ10に送信する。するとゲームサーバ10の動画像要求中継部34が当該送信要求を受信する(S301)。当該送信要求には、上述したように、編集画面において画像Icの左側に配置されているログ情報に対応するイベントログデータが関連付けられている。そして、ゲームサーバ10の動画像要求中継部34が当該送信要求をユーザBが使用するクライアント12に送信する。するとユーザBが使用するクライアント12の動画像要求受信部70が、当該送信要求を受け付ける(S302)。そして、ユーザBが使用するクライアント12の表示制御部48が、図7Bに例示する動画像送信画面をディスプレイに表示させる(S303)。
 ここでユーザBが許可ボタンAlを選択する操作を行ったとする。すると、ユーザBが使用するクライアント12の素材動画像取得部58は、送信されたイベントログデータに含まれるイベント発生日時データが示す日時におけるフレーム画像が含まれている素材動画像を素材動画像記憶部40から取得する(S304)。そしてユーザBが使用するクライアント12の特定部60は、送信されたイベントログデータに含まれるイベント発生日時データを特定する(S305)。そしてユーザBが使用するクライアント12の特定部60は、S304に示す処理で取得された素材動画像のうちから、S305に示す処理で特定されたイベント発生日時データが示す日時に表示されたフレーム画像を含むチャプター動画像を特定する(S306)。そしてユーザBが使用するクライアント12の抽出部62は、S306に示す処理で特定されたチャプター動画像を、S304に示す処理で取得された素材動画像から抽出する(S307)。そしてユーザBが使用するクライアント12の動画像送信部72は、ユーザAが使用するクライアント12を宛先として、S307に示す処理で抽出されたチャプター動画像を送信する。そしてゲームサーバ10の動画像中継部36は、当該チャプター動画像を受信する(S308)そして、ゲームサーバ10の動画像中継部36は、当該チャプター動画像をゲームAのクライアント12に送信する。するとゲームAのクライアント12の動画像受信部74が当該チャプター動画像を受信する(S309)。そしてゲームAのクライアント12の動画像受信部74がS309に示す処理で受信したチャプター動画像を編集動画像記憶部66に記憶させて(S310)、本処理例に示す処理を終了する。
 なお図10Bに示す処理例において、S303に示す処理の終了後に、ユーザBが拒否ボタンRejを選択する操作を行ったとする。すると、ユーザBが使用するクライアント12の動画像送信部72は、ユーザAが使用するクライアント12を宛先として、チャプター動画像の送信要求を拒否することを表す情報をゲームサーバ10に送信する。すると、ゲームサーバ10の動画像中継部36は当該情報を受信する。そして、ゲームサーバ10の動画像中継部36は、当該情報をユーザAが使用するクライアント12に送信する。そして、ユーザAが使用するクライアント12の表示制御部48は、当該情報をディスプレイに表示させる。
 また図10Bに示す処理例において、要求されたチャプター動画像を含む素材動画像が、ユーザBが使用するクライアント12の素材動画像記憶部40からが既に削除されている場合が想定される。この場合には、上記S203以降に示す処理は実行されない。その代わりに、ユーザBが使用するクライアント12の動画像送信部72は、ユーザAが使用するクライアント12を宛先として、素材動画像が削除されたことを理由に素材動画像の送信要求を拒否することを表す情報をゲームサーバ10に送信する。すると、ゲームサーバ10の動画像中継部36は当該情報を受信する。そして、ゲームサーバ10の動画像中継部36は、当該情報をユーザAが使用するクライアント12に送信する。そして、ユーザAが使用するクライアント12の表示制御部48は、当該情報をディスプレイに表示させる。
 また図10Bに示す処理例において、ユーザBが図7Bに例示する動画像送信画面においてチェックボックスCh5をチェックした上で許可ボタンAlを選択する操作を行ったとする。この場合には、上述のように、送信されるチャプター動画像は、ユーザBによって提供されたことが示されたものとなる。
 なお上述のように、動画像の送信要求や動画像の送受信はゲームサーバ10を経由して行われる必要はなく、クライアント12間で直接行われてもよい。
 また、図7A又は図7Bに例示する動画像送信画面において、ユーザBが許可ボタンAlを選択する操作を行っても、即座に動画像が送信されなくても構わない。例えば、ユーザBが使用するクライアント12がスタンバイ状態や非使用状態である際に、動画像の送信やチャプター動画像の生成が行われても構わない。この場合、ユーザBが許可ボタンAlを選択する操作を行った後に、素材動画像又はチャプター動画像が送信される前にユーザBが素材動画像の削除を行うことが想定される。例えばこの場合に、ユーザBが使用するクライアント12のディスプレイに、ユーザAへの動画像の送信を取りやめるか否かを選択する画面を表示させても構わない。そしてこの場合にユーザBが動画像の送信を取りやめる選択を行った場合には、素材動画像の削除が行われても構わない。一方、ユーザBが動画像の送信を取りやめない選択を行った場合には、素材動画像の削除が行われないようにしても構わない。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えば、所定のボタンの押下などといったコントローラに対する操作に応じて、当該操作に応じたイベントログデータが生成されてもよい。また例えば、マイクに対する音声入力に応じて、当該音声に応じたイベントログデータが生成されてもよい。また例えば、カメラで所定の表情(例えば笑顔など)が検出された際に、当該表情に応じたイベントログデータが生成されてもよい。こうすれば例えば、ユーザが、ゲームのプレイ中に気になったタイミングに、所定のボタンの押下、所定の音声の入力、所定の表情の表出などを行うことで、当該タイミングにおけるプレイ内容が表されている部分を編集動画像から容易に抽出できることとなる。またこうすれば、当該タイミングにおけるゲームのプレイ内容を表す部分を含む編集動画像を生成できることとなる。
 例えば、ゲームサーバ10とクライアント12との役割分担は上述のものに限定されない。例えばタグデータの生成が、ゲームサーバ10ではなくクライアント12で行われてもよい。また例えば、イベントログデータがゲームサーバ10ではなくクライアント12に記憶されていても構わない。
 また複数のユーザがプレイヤとして参加するゲームではなく、一人のユーザがプレイヤとして参加するゲームにも本実施形態が応用されてもよい。そして例えば、クライアント12が、以上の説明においてゲームサーバ10が担っていた役割を併せて担うようにしてもよい。
 またゲームサーバ10が複数の筐体から構成されていてもよい。またクライアント12が複数の筐体から構成されていてもよい。
 また、上記の具体的な文字列や図面中の具体的な文字列は例示であり、これらの文字列には限定されない。

Claims (10)

  1.  ゲームにおいて発生したイベントのログを取得するログ取得部と、
     前記ゲームのプレイ内容を表す動画像を取得する動画像取得部と、
     前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する特定部と、
     を含むことを特徴とする動画像処理装置。
  2.  前記特定部が特定する前記部分を前記動画像から抽出する抽出部、をさらに含む、
     ことを特徴とする請求項1に記載の動画像処理装置。
  3.  前記抽出部は、前記ゲームのプレイの終了後に前記特定部が特定する前記部分を前記動画像から抽出する、
     ことを特徴とする請求項2に記載の動画像処理装置。
  4.  前記抽出部は、
     前記動画像処理装置がスタンバイ状態であっても動作するサブシステム部によって実装されており、
     前記動画像処理装置がスタンバイ状態である際に前記特定部が特定する前記部分を前記動画像から抽出する、
     ことを特徴とする請求項2に記載の動画像処理装置。
  5.  前記動画像処理装置と通信可能な装置から、当該装置における前記ゲームのプレイ内容を表す動画像を受信する動画像受信部、をさらに含む、
     ことを特徴とする請求項1から4のいずれか一項に記載の動画像処理装置。
  6.  前記動画像受信部は、前記動画像に前記ログが表す前記イベントの発生タイミングにおける前記ゲームのプレイ内容を含む部分が含まれていない場合に、前記動画像処理装置と通信可能な装置から当該部分を含む動画像を受信する、
     ことを特徴とする請求項5に記載の動画像処理装置。
  7.  前記特定部は、前記動画像における、ユーザにより指定される条件を満足する前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する、
     ことを特徴とする請求項1から6のいずれか一項に記載の動画像処理装置。
  8.  前記ゲームのプレイ内容を表す動画像を記憶する動画像記憶部と、
     前記動画像によってゲームのプレイ内容が表されている期間に当該ゲームにおいて発生したイベントについての前記ログを示すタグデータを生成するタグデータ生成部と、
     前記動画像記憶部に記憶されている動画像における、前記タグデータが示すイベントが発生した際の前記ゲームのプレイ内容を表す部分に基づいて、前記動画像記憶部に記憶されている動画像を編集した編集動画像を生成する編集動画像生成部と、をさらに含む、
     ことを特徴とする請求項1に記載の動画像処理装置。
  9.  ゲームにおいて発生したイベントのログを取得するステップと、
     前記ゲームのプレイ内容を表す動画像を取得するステップと、
     前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定するステップと、
     を含むことを特徴とする動画像処理方法。
  10.  ゲームにおいて発生したイベントのログを取得する手順、
     前記ゲームのプレイ内容を表す動画像を取得する手順、
     前記動画像における、前記ログが示す前記イベントが発生した際の前記ゲームのプレイ内容を表す部分を特定する手順、
     をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2015/074186 2014-10-27 2015-08-27 動画像処理装置、動画像処理方法及びプログラム WO2016067734A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016556413A JP6337136B2 (ja) 2014-10-27 2015-08-27 動画像処理装置、動画像処理方法及びプログラム
US15/325,295 US10335679B2 (en) 2014-10-27 2015-08-27 Video processing device, video processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-218505 2014-10-27
JP2014218505 2014-10-27

Publications (1)

Publication Number Publication Date
WO2016067734A1 true WO2016067734A1 (ja) 2016-05-06

Family

ID=55857080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/074186 WO2016067734A1 (ja) 2014-10-27 2015-08-27 動画像処理装置、動画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10335679B2 (ja)
JP (1) JP6337136B2 (ja)
WO (1) WO2016067734A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018000715A (ja) * 2016-07-06 2018-01-11 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
JP2018011849A (ja) * 2016-07-22 2018-01-25 株式会社タイトー 動画記録装置、動画配信方法及びプログラム
JP2018011850A (ja) * 2016-07-22 2018-01-25 株式会社タイトー 動画記録装置、動画生成方法、及びプログラム
JP2018112968A (ja) * 2017-01-13 2018-07-19 株式会社ミクシィ 動画管理システム
JP2018112967A (ja) * 2017-01-13 2018-07-19 株式会社ミクシィ 動画管理システム
WO2019009041A1 (ja) * 2017-07-04 2019-01-10 株式会社セガゲームス 情報処理システム及び動画再生方法
JP2019150577A (ja) * 2018-02-28 2019-09-12 エヌエイチエヌ コーポレーション ゲームプレイ画像リプレイ方法及び装置
KR20200015659A (ko) * 2020-01-31 2020-02-12 엔에이치엔 주식회사 게임 플레이 영상 리플레이 방법
KR20200075086A (ko) * 2018-12-10 2020-06-26 서울대학교산학협력단 개인화된 하이라이트 동영상 생성 시스템
JP2020191129A (ja) * 2017-01-13 2020-11-26 株式会社ミクシィ 情報処理装置、情報処理方法及びプログラム
WO2021075250A1 (ja) * 2019-10-17 2021-04-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および動画像編集方法
WO2022019270A1 (ja) * 2020-07-22 2022-01-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ゲーム動画編集方法およびメタデータサーバ
WO2024185119A1 (ja) * 2023-03-09 2024-09-12 株式会社ソニー・インタラクティブエンタテインメント サーバ装置および情報処理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102085908B1 (ko) * 2018-05-10 2020-03-09 네이버 주식회사 컨텐츠 제공 서버, 컨텐츠 제공 단말 및 컨텐츠 제공 방법
US11224804B2 (en) * 2018-07-17 2022-01-18 Roblox Corporation Personalized remote game update capture and recording system for multi-player online games
CN113615163A (zh) 2019-03-25 2021-11-05 索尼互动娱乐股份有限公司 信息处理设备
CN111800654A (zh) * 2020-06-22 2020-10-20 西安万像电子科技有限公司 视频制作方法和系统
US11617951B2 (en) * 2021-06-28 2023-04-04 Nvidia Corporation Automatically generated enhanced activity and event summaries for gameplay sessions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000157734A (ja) * 1998-11-30 2000-06-13 Square Co Ltd ゲーム装置、イベント発生処理方法及びコンピュータ読取可能な記録媒体
JP2003320170A (ja) * 2002-05-07 2003-11-11 Taito Corp 新規なリプレイシステムを備えたゲームシステム
JP2005319231A (ja) * 2004-05-01 2005-11-17 Konami Co Ltd ゲームプログラム、ゲーム装置及びゲーム方法
JP2009112550A (ja) * 2007-11-07 2009-05-28 Sony Computer Entertainment Inc ゲーム装置、画像処理方法、プログラム及び情報記憶媒体
JP2010214028A (ja) * 2009-03-19 2010-09-30 Sony Computer Entertainment Inc プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP2011072735A (ja) * 2009-10-01 2011-04-14 Konami Digital Entertainment Co Ltd ゲームシステム、ゲームシステムの制御方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6699127B1 (en) * 2000-06-20 2004-03-02 Nintendo Of America Inc. Real-time replay system for video game
JP2006087458A (ja) * 2004-09-21 2006-04-06 Sega Corp ゲームプログラム、ゲームプログラムを記録したコンピュータ読み取り可能な記録媒体、及び、ゲーム装置
US8187104B2 (en) * 2007-01-29 2012-05-29 Sony Online Entertainment Llc System and method for creating, editing, and sharing video content relating to video game events
US20090305790A1 (en) * 2007-01-30 2009-12-10 Vitie Inc. Methods and Apparatuses of Game Appliance Execution and Rendering Service

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000157734A (ja) * 1998-11-30 2000-06-13 Square Co Ltd ゲーム装置、イベント発生処理方法及びコンピュータ読取可能な記録媒体
JP2003320170A (ja) * 2002-05-07 2003-11-11 Taito Corp 新規なリプレイシステムを備えたゲームシステム
JP2005319231A (ja) * 2004-05-01 2005-11-17 Konami Co Ltd ゲームプログラム、ゲーム装置及びゲーム方法
JP2009112550A (ja) * 2007-11-07 2009-05-28 Sony Computer Entertainment Inc ゲーム装置、画像処理方法、プログラム及び情報記憶媒体
JP2010214028A (ja) * 2009-03-19 2010-09-30 Sony Computer Entertainment Inc プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP2011072735A (ja) * 2009-10-01 2011-04-14 Konami Digital Entertainment Co Ltd ゲームシステム、ゲームシステムの制御方法、及びプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018000715A (ja) * 2016-07-06 2018-01-11 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
JP2018011849A (ja) * 2016-07-22 2018-01-25 株式会社タイトー 動画記録装置、動画配信方法及びプログラム
JP2018011850A (ja) * 2016-07-22 2018-01-25 株式会社タイトー 動画記録装置、動画生成方法、及びプログラム
JP7123520B2 (ja) 2016-07-22 2022-08-23 株式会社タイトー 動画記録装置、動画生成方法、及びプログラム
JP2018112968A (ja) * 2017-01-13 2018-07-19 株式会社ミクシィ 動画管理システム
JP2018112967A (ja) * 2017-01-13 2018-07-19 株式会社ミクシィ 動画管理システム
JP2020191129A (ja) * 2017-01-13 2020-11-26 株式会社ミクシィ 情報処理装置、情報処理方法及びプログラム
WO2019009041A1 (ja) * 2017-07-04 2019-01-10 株式会社セガゲームス 情報処理システム及び動画再生方法
JP2019013349A (ja) * 2017-07-04 2019-01-31 株式会社セガゲームス 情報処理システム及び動画再生方法
JP2019150577A (ja) * 2018-02-28 2019-09-12 エヌエイチエヌ コーポレーション ゲームプレイ画像リプレイ方法及び装置
KR102177854B1 (ko) * 2018-12-10 2020-11-11 서울대학교 산학협력단 개인화된 하이라이트 동영상 생성 시스템
KR20200075086A (ko) * 2018-12-10 2020-06-26 서울대학교산학협력단 개인화된 하이라이트 동영상 생성 시스템
WO2021075250A1 (ja) * 2019-10-17 2021-04-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および動画像編集方法
JP2021062173A (ja) * 2019-10-17 2021-04-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および動画像編集方法
KR102192698B1 (ko) * 2020-01-31 2020-12-17 엔에이치엔 주식회사 게임 플레이 영상 리플레이 방법
KR20200015659A (ko) * 2020-01-31 2020-02-12 엔에이치엔 주식회사 게임 플레이 영상 리플레이 방법
WO2022019270A1 (ja) * 2020-07-22 2022-01-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ゲーム動画編集方法およびメタデータサーバ
JP2022021632A (ja) * 2020-07-22 2022-02-03 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ゲーム動画編集方法およびメタデータサーバ
JP7062724B2 (ja) 2020-07-22 2022-05-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ゲーム動画編集方法およびメタデータサーバ
WO2024185119A1 (ja) * 2023-03-09 2024-09-12 株式会社ソニー・インタラクティブエンタテインメント サーバ装置および情報処理装置

Also Published As

Publication number Publication date
US10335679B2 (en) 2019-07-02
JPWO2016067734A1 (ja) 2017-04-27
US20170182415A1 (en) 2017-06-29
JP6337136B2 (ja) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6337136B2 (ja) 動画像処理装置、動画像処理方法及びプログラム
US10071315B2 (en) Content providing method, content providing server, and content providing system
JP7049428B2 (ja) 動画配信装置、動画配信方法、動画配信プログラム
JP6434583B2 (ja) 第2のユーザによる第1のユーザのゲームプレーの遠隔制御
JP6348726B2 (ja) 情報共有システム、情報処理装置、プログラム及び情報共有方法
JP6947985B2 (ja) ゲーム動画編集プログラムならびにゲーム動画編集システム
JP6369462B2 (ja) クライアント装置、制御方法、システム、およびプログラム
US20140364206A1 (en) Information processing system, information processing device, server machine, recording medium and information processing method
CN103885768A (zh) 第二用户对第一用户的游戏玩法的远程控制
JP2015150172A (ja) 情報共有システム、情報処理装置、プログラム及び情報共有方法
US9757652B2 (en) Information processing system, information processing device, recording medium and information display method
US9682312B2 (en) Information processing system, server machine, information processing device, recording medium and information processing method
JP6247315B2 (ja) 通知システム、通知方法、プログラム、及び情報記憶媒体
JP2020061629A (ja) 情報処理装置およびコンテンツファイルの再生方法
WO2022138203A1 (ja) 制御システム、情報システム、情報処理方法およびプログラム
JP2023531929A (ja) コンピュータシミュレーションメタデータに基づくビデオテンプレートの選択
JP6070584B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2015093109A1 (ja) 情報処理装置、情報処理方法、プログラム、情報記憶媒体、情報処理システム及び管理装置
WO2020075593A1 (ja) 情報処理システム、情報処理装置およびコンテンツファイルの生成方法
JP6381550B2 (ja) キャプチャ制御システム、キャプチャ制御方法、プログラム、情報記憶媒体及び情報処理装置
JP7185172B1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2022156250A (ja) コンテンツ提供システム、サーバ装置及びプログラム
JP2023120054A (ja) プログラム、情報処理装置、及び情報処理方法
WO2015093505A1 (ja) キャプチャ通知システム、キャプチャ通知方法、プログラム、情報記憶媒体及び情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15853882

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016556413

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15325295

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15853882

Country of ref document: EP

Kind code of ref document: A1