WO2022185562A1 - プレイ記録動画作成システム - Google Patents

プレイ記録動画作成システム Download PDF

Info

Publication number
WO2022185562A1
WO2022185562A1 PCT/JP2021/026431 JP2021026431W WO2022185562A1 WO 2022185562 A1 WO2022185562 A1 WO 2022185562A1 JP 2021026431 W JP2021026431 W JP 2021026431W WO 2022185562 A1 WO2022185562 A1 WO 2022185562A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
play
image
image information
unit
Prior art date
Application number
PCT/JP2021/026431
Other languages
English (en)
French (fr)
Inventor
正啓 榊原
将司 菰下
Original Assignee
正啓 榊原
株式会社Redefine Arts
将司 菰下
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 正啓 榊原, 株式会社Redefine Arts, 将司 菰下 filed Critical 正啓 榊原
Priority to US18/044,400 priority Critical patent/US20230356096A1/en
Priority to CN202180062132.5A priority patent/CN116056768A/zh
Priority to EP21929132.5A priority patent/EP4194068A4/en
Publication of WO2022185562A1 publication Critical patent/WO2022185562A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players

Definitions

  • the present invention relates to a system for creating play-recorded moving images of computer games such as sports games, role-playing games, and fighting games.
  • e-sports electronic sports
  • competitions are held to compete for playing skills in various genres of computer games, and people called professional gamers who make a living playing computer games demonstrate their advanced playing skills.
  • a play record video of a computer game is a recording of the play screen (player screen) displayed on the display when the player plays the game.
  • the angle of view of the player screen is determined mainly to improve the operability when the player operates the character of the computer game. For example, in a baseball game, when the player operates the pitcher to make a pitching motion, the screen viewed from the mound in the direction of the catcher is set as the player screen. A screen viewed from the catcher's line of sight in the direction of the pitcher is set as the player screen.
  • the player screen is a screen that is designed with the player's operability as the main focus, and of course, the play record video that records it will also be a repeated display of those player screens with a limited angle of view.
  • the problem to be solved by the present invention is to provide a technology that can create a recorded play video that does not bore the viewer.
  • the present invention which has been made to solve the above-mentioned problems, is a system for creating a video recording of a computer game played by a player using an input terminal to operate a character that operates in a preset virtual space, a progression control unit for progressing a computer game by processing the character's actions input through the input terminal based on a predetermined algorithm; a plurality of virtual cameras set in the virtual space, each of which captures the virtual space with a predetermined angle of view; an event information storage unit that stores information on a plurality of events that may occur during the progress of the computer game and information that associates each of the plurality of events with one of the plurality of virtual cameras; an event detection unit that detects occurrence of one of the plurality of events during the progress of the computer game; An image information acquisition unit for acquiring image information representing an image of the virtual space captured by the virtual camera associated with the event when the event detection unit detects that one of the plurality of events has occurred.
  • a play-recorded moving image creation unit that creates
  • the input terminal may be equipped with, for example, a controller or keyboard for inputting through operation buttons as an input unit, and a motion capture for inputting by having the camera detect the movement of the player himself as an input unit. You may use what was provided. Further, the input terminal may include a display section for displaying a screen (player screen) necessary for the player to play the game. The angle of view of the player screen is determined mainly to improve the operability when the player operates the character of the computer game.
  • This input terminal may be one incorporated in the system of the present invention, or may be provided separately from the system of the present invention so as to be connectable to the system.
  • the image information acquisition unit may acquire image information at the time when the event detection unit detects an event. It may be one that acquires the information of the image that has been stored. In the former case, each of the plurality of virtual cameras only needs to start capturing the virtual space at the time of receiving an instruction from the image information acquisition section. On the other hand, in the latter case, each of the plurality of virtual cameras captures the virtual space continuously while the computer game is in progress, and records the image data in a predetermined image recording section. Further, the image information is not limited to the normal image (moving image) data format, and may be acquired in other data formats. For example, an image may be acquired in a data format in which position information and orientation information of a character or the like in virtual space at each point in time is associated with information on a virtual camera selected at that point in time.
  • the player operates the character through the input terminal.
  • the progression control unit processes the motion of the character input through the input terminal based on a predetermined algorithm. These operations are similar to general processing in computer games.
  • the system according to the present invention uses a plurality of virtual cameras, each of which captures a virtual space with a predetermined angle of view.
  • the event information storage unit stores information in which a plurality of events that can occur during the progress of the computer game are associated with each virtual camera.
  • An information acquisition unit acquires an image of the virtual space captured by the virtual camera associated with the event. Then, the play recorded moving image creating section creates a play recorded moving image using the image acquired by the image information acquiring section.
  • the system according to the present invention also includes: storing in the event information storage unit a second event that may occur during the progress of the computer game and an image associated with the second event;
  • the event detection unit further detects that the second event has occurred during the progress of the computer game,
  • the image associated with the second event may be read out from the event information storage section when the event detection section detects that the second event has occurred.
  • the system according to the present invention further comprises: an image information storage unit that stores the image information acquired by the image information acquisition unit; and a virtual camera image storage section for sequentially storing image information representing images of the virtual space captured by the plurality of virtual cameras.
  • images of the virtual space captured by the plurality of virtual cameras are stored in the image storage unit when each event occurs. You can edit the play record video by replacing some images with images captured in the virtual space with another virtual camera.
  • the system according to the present invention further comprises: A plurality of virtual cameras and/or image information are associated with some of the plurality of events and the second event,
  • the play record moving image creating section can be configured to create a plurality of play record moving images having different combinations of image information.
  • FIG. 1 is a configuration diagram of a main part of an embodiment of a computer game play record moving image creation system according to the present invention.
  • FIG. 11 is a configuration example of creating a play recorded video of a role-playing game using the computer game play recorded video creation system according to the present invention;
  • FIG. 11 is a configuration example of creating a play recorded video of a role-playing game using the computer game play recorded video creation
  • a computer game play recording video creation system will be described below with reference to the drawings.
  • a case of creating a play record moving image of a baseball game will be described as an example.
  • FIG. 1 is a configuration diagram of the essential parts of a computer game play recording video creation system 1 (hereinafter also simply referred to as "system") of this embodiment.
  • the system 1 of the present embodiment is roughly divided into a player terminal 10 (corresponding to an input terminal in the present invention), a moving image creator terminal 50, and the player terminal 10 and the moving image creator terminal 50 provided so as to be able to communicate with each other. It is composed of a control/processing device 20.
  • the player terminal 10 is a terminal used by a person (player) who plays a computer game.
  • the player terminal 10 includes a storage unit 11, a controller (operation input unit) 12 for the player to operate a character that operates in a virtual space in a computer game, and a display ( A display unit) 13 and a microphone (audio input unit) 14 for picking up the player's voice.
  • a motion capture, a keyboard, or the like may be used instead of the controller.
  • the moving image creator terminal 50 is a terminal used by a person (moving image creator) who intends to create a computer game play record moving image.
  • the moving image creator terminal 50 includes a storage unit 51, and an input unit 52 and a display unit 53 are connected.
  • control/processing device 20 includes, as functional blocks, a progress control unit 31, an event detection unit 32, an image information acquisition unit 33, a play recording video creation unit 34, an audio data acquisition unit 35, a video editing reception It has a section 36 , a video upload section 37 , an evaluation information collection section 38 , an evaluation information analysis section 39 and a video editing section 40 .
  • the substance of the control/processing device 20 is, for example, a general personal computer, a server computer, or a game machine, and these functional blocks are controlled by executing a program 30 for creating play record video that is pre-installed in them with a processor. is embodied.
  • the storage unit 21 is provided with an event information storage unit 22, an event occurrence storage unit 23, an image information storage unit 24, an audio data storage unit 25, and a play recorded video storage unit 26.
  • the event information storage unit 22 stores information on a plurality of events that can occur during play of the baseball game. For example, as shown in FIG. 2, this event includes: start of play, play ball, first hit, strikeout, chance (runner of own team in scoring range), home run, score, pinch (opposing team in scoring range). runners on their backs), goals conceded, come-from-behind by own team, come-from-behind by opponent team, player change, own team's lucky seven, opponent team's lucky seven, cross play, and game set.
  • each of these events is associated with one or more virtual camera information or image information.
  • An event associated with virtual camera information corresponds to an event in the present invention
  • an event associated with image information corresponds to a second event in the present invention.
  • these classifications are merely for convenience, and some of the events in this embodiment are associated with both virtual camera information and image information.
  • a reversal event can occur simultaneously with a scoring or losing event. Of these events, one of them (here, reverse) is set as a higher event than the other (scored, scored).
  • a high-level event is determined so that when the event occurs, it satisfies the generation requirements of both the event and the low-level event.
  • Other such examples include home run events (higher events) and scoring (lower events).
  • the "image" described in this specification can include both moving images and still images.
  • the virtual camera includes, for example, a camera positioned so as to catch the pitcher on the mound from the catcher's line of sight (hereafter, this virtual camera is referred to as the "pitcher camera”), and a camera arranged to catch the catcher from the mound from the pitcher's line of sight.
  • a camera hereinafter referred to as the "catcher camera”
  • a camera positioned to capture the runner hereinafter referred to as the "runner camera”
  • a camera positioned to capture the referee hereinafter referred to as the "referee camera”
  • a camera arranged to capture the entire field from the back screen hereinafter referred to as the "back screen camera”
  • first base camera third base
  • second base camera third base camera
  • home base camera a camera arranged so as to capture the entire field from above the virtual space (hereinafter, this virtual camera is referred to as a “sky camera”). The positions and angles of view of these virtual cameras are fixed.
  • the virtual camera can capture each player of your own team, including characters that appear in the game (player characters (PC)), each player of the opposing team, and non-player characters (NPCs) such as your team's manager, coach, and ball. ) at a predetermined angle of view (this virtual camera is hereinafter referred to as a “supervisor camera”).
  • Non-player characters can include things other than people, such as baseballs in play. The positions and orientations of these virtual cameras are automatically changed in accordance with the movement of the character within the virtual space.
  • the image information includes, for example, images of the players of the own team, images of the cheerleaders of the own team and other teams, and images of the coaches of the own team and the other teams.
  • the event occurrence storage unit 23 stores information about events that occurred during game play and their occurrence times.
  • a selected image storage unit 241 and a virtual camera image storage unit 242 are provided in the image information storage unit 24 .
  • the selected image storage unit 241 stores image information associated with an event detected by the event detection unit 32, which will be described later, and acquired by the image information acquisition unit 33, which will be described later. As shown in FIG. 3, the image information includes, for example, player images and cheerleader images.
  • the virtual camera image storage unit 242 stores information about the image of the virtual space captured by the virtual camera, which will be described later, during play.
  • FIG. 4 shows an example of images of the virtual space captured by the virtual cameras (examples of images captured by the pitcher camera, the batter camera, and the runner camera).
  • the image information of the virtual space acquired by each virtual camera is used in units of one play (for example, the pitcher throws the ball, the batter hits the ball, catches the ball, throws it to first base, and the referee calls out/safe). It is stored in the virtual camera image storage unit 242 in sequence, regardless of the occurrence of an event, for each unit in which a series of plays such as judgment is completed.
  • the audio data storage unit 25 commentary audio and sound effects (ball hitting sound, ball catching sound, etc.) given based on a predetermined algorithm during the progress of the game by the progress control unit 31, which will be described later, are stored in units of one play. , are stored sequentially regardless of the occurrence of events.
  • the voice data storage unit 25 also stores voice data input through the microphone 14 of the player terminal 10 during game play.
  • the progress control unit 31 progresses the game according to a predetermined algorithm.
  • the progress control unit 31 also displays a screen (player screen) necessary for the player to play the game on the display 13 of the player terminal 10 and processes input signals from the controller 12 .
  • the angle of view of the player screen is determined mainly to improve the operability when the player operates the character of the computer game.
  • a screen viewed from the mound in the direction of the catcher is set as the player screen, and the player operates the batter to make a batting motion.
  • the screen looking at the pitcher's direction from the catcher's line of sight is set as the player screen.
  • the event detection unit 32 monitors the progress of the computer game and detects the occurrence of any of the multiple events stored in the event information storage unit 22.
  • the image information acquisition unit 33 collects and selects image information associated with the event and/or virtual space image information acquired by a plurality of virtual cameras. Save in the image storage unit 241 .
  • the image of the virtual space acquired by the virtual camera is saved as data in which the information specifying the virtual camera is associated with the position information and orientation information of the character or the like in the virtual space at each time point.
  • the file size can be reduced by saving the data in the above format. In addition, editing after creating a play record moving image is facilitated.
  • the play record video creation unit 34 creates a play record video using the image information acquired by the image information acquisition unit 33 and stored in the selected image storage unit 241 .
  • the audio data acquisition unit 35 sequentially saves in the audio data storage unit 25 the live commentary and sound effects during the game, and the data of the player's voice input through the microphone 14 of the player terminal 10 during game play.
  • the video editing reception unit 36, video uploading unit 37, evaluation information collection unit 38, evaluation information analysis unit 39, and video editing unit 40 are used when editing the video after the play recording video is created. These functions will be described later together with a specific processing flow.
  • the game player and animation creator may be the same or different. Here, both are assumed to be separate. For example, when a person who provides a game on a server computer creates a recorded moving image of a player playing through a network and provides it to the player, the player and the moving image creator are different. Alternatively, when the player tries to create his own play animation, the player and the animation creator are the same. In that case, a terminal in which both the player terminal 10 and the video creator terminal 50 are integrated can be used. Note that the function of the progress control unit 31 to display the player image on the display 13 of the player terminal 10 and the function to process the input from the controller 12 are the same as those of the conventional computer game, so description thereof will be omitted.
  • the progress control unit 31 sets the ballpark where the baseball game will be held as a virtual space, and sets the plurality of virtual cameras in it. Images of the virtual space (including characters placed in the virtual space) captured by each virtual camera are sequentially stored in the virtual camera image storage unit 242 for each play.
  • the event detection unit 32 monitors the progress of the game and detects the occurrence of an event.
  • the event detection unit 32 first detects a game start event.
  • the image information acquisition unit 33 reads and selects a player image, which is an image associated with the game start event and stored in the event information storage unit 22. Save in the image storage unit 241 .
  • the event detection unit 32 After detecting the game start event, the event detection unit 32 subsequently detects the play ball event.
  • the image information acquisition unit 33 reads and selects an image of the referee, which is information associated with the playball event and stored in the image information storage unit. Save in the image storage unit 241 .
  • the event detection unit 32 continues to monitor the progress of the game even after the match has started, and detects the occurrence of any of the multiple events stored in the event information storage unit 22. For example, in the offensive inning of the own team, when the first hit is hit, when the own team has a chance, when a score is scored, or in the offensive inning of the opponent team, when the own team is in a pinch, the goal is conceded. Occasionally detect an event. In addition, the own team's lucky seven and the opposing team's lucky seven are also detected as events.
  • a come-from-behind event by the own team corresponds to both a come-from-behind event and a scoring event, but is detected as the occurrence of a come-from-behind event, which is a higher event.
  • the event detection unit 32 detects an event in which the player's team hits for the first time, the moment of the hit ends when the event is detected.
  • the image information acquisition section 33 refers to the image information stored in the virtual camera image storage section 242, and acquires the information of the image of one play in which the hit occurred.
  • the image information acquired by the batter's camera before the ball hits the bat is combined with the image information acquired by the aerial camera after that time (see Figure 2). .
  • the image information acquisition section 33 stores the acquired image in the selected image storage section 241 .
  • some events are associated with multiple pieces of image information and/or virtual cameras.
  • a loss event has two associated cameras, the pitcher's camera and the manager's camera.
  • the image information acquisition section 33 acquires each of the plurality of images and stores them in the selected image storage section 241 .
  • the chance event is associated with the team's cheering party image and the batter's camera.
  • the image information acquisition unit 33 reads out the image information associated with the event from the event information storage unit 22, and outputs an image of the virtual space (here, the batter) captured by the batter camera. Each image is acquired and stored in the selected image storage unit 241 .
  • Event detection by the event detection unit 32, image acquisition by the image information acquisition unit 33, and storage in the selected image storage unit 241 are sequentially performed until the match ends.
  • the play record video creation unit 34 creates a play record video using the image information saved in the selected image storage unit 241.
  • FIG. 5 shows a configuration example of a moving image saved in the selected image storage unit 241 when the game ends.
  • the image information is stored in the selected image storage unit 241 in chronological order as the game progresses.
  • a plurality of pieces of image information are stored in the selected image storage unit 241 for some of the events.
  • the elapsed time in FIG. 5 is the elapsed time from the start of play.
  • the event time is the time for one play related to the event, and this is the time during which the image of the event is displayed in the play record video.
  • the play recording video creation unit 34 reads image information associated with each event and creates a video by connecting them.
  • each event is used to create a plurality of types of recorded play moving images with different combinations of images.
  • the image information of each event included in each play recording video is associated with the data of the commentary voice during play, sound effects, and voice uttered by the player.
  • event 4 chance
  • event 5 pinch
  • event 6 conceded goal
  • event 7 opponent team reverse
  • event 10 pinch
  • event 12 home run
  • event 13 own team reverse
  • 128 play recorded moving images with different combinations of images are created.
  • a play record video of 6.5 minutes (total event time) is created.
  • the play recorded moving image creation unit 34 stores the play recorded moving images in the storage unit 21 and displays a screen notifying that the play recorded moving images have been created on the display unit 53 of the moving image creator terminal 50 .
  • videos corresponding to all combinations are created, but if the number of combinations becomes enormous, the play record video creation unit 34 randomly extracts some combinations from all combinations, Only corresponding moving images may be created.
  • the file of the play recorded video is transferred to the video creator terminal. 50 and stored in the storage unit 51 .
  • the video creator instructs to check the play recorded video
  • a list of created play recorded videos and a play button will be displayed.
  • the creator of the moving image can view each moving image by pressing the play button of each moving image.
  • the player's voice data ON is selected, the voice of the player during the game is output in addition to the voice of the play commentary.
  • the play record video created as described above is created from pre-saved images or images captured by a virtual camera in the virtual space. Since these images are not related to the operability of the player and are rich in variety, it is possible to create a recorded play moving image that does not bore the viewer.
  • the video creator can view the 128 types of play recording videos that have been created as appropriate, and post the one they like the most to the video posting site for others to view.
  • the moving image creator can also edit the play recorded moving image created by the play recorded moving image creating section 34 .
  • the moving image editing reception unit 36 causes the moving image creator to designate the file of the play recorded moving image as the original data for editing.
  • the moving image editing receiving unit 36 causes the moving image creator to specify the edited part of the play-recorded moving image. For example, it is possible to allow the moving picture creator to specify the editing portion by selecting the event number. In this embodiment, it is possible to delete the image at the location, replace the image at the location, or add the image to the location.
  • the image information of the part (event) specified by the video creator is deleted.
  • the moving image editing receiving unit 36 reads the image information acquired by each virtual camera during the baseball game play, stored in the virtual camera image storage unit 242. , let the video creator choose one of the virtual cameras.
  • the moving image creator selects one of the virtual cameras, the image information of the virtual space acquired by the virtual camera at the editing location (event) specified by the moving image creator is read from the virtual camera image storage unit 242 and is replaced with the image information included in the play recording video.
  • the video editing reception unit 36 performs the baseball game play stored in the virtual camera image storage unit 242 in the same way as when replacing the images.
  • the image information obtained by each virtual camera is read out during the animation, and the creator of the moving image is made to select one of the virtual cameras.
  • the moving image editing receiving unit 36 displays the image information acquired by the virtual camera between the two events specified by the moving image creator in chronological order.
  • the video creator designates image information in a desired time range from the displayed time-series image information, a video is created in the time range specified by the video creator at the editing location previously specified by the video creator.
  • the image information acquired by the virtual camera specified by the user is inserted.
  • Fig. 6 shows an example of editing a play recording video.
  • the image information for events 2, 3, 8-10 has been deleted, and the image information for events 5 and 13 has been changed.
  • the playback time of the play record video will be shortened from 6.5 minutes to 4.5 minutes.
  • a plurality of play record videos created during a single baseball game are also published on a video posting site on the Internet, etc., and evaluations from viewers of each play record video are accepted. be able to.
  • the video upload unit 37 uploads a predetermined video on the Internet server. Upload those videos to the posting site.
  • the video upload unit 37 uploads the recorded play video to the video posting site on the Internet server and accepts evaluations from an unspecified number of viewers. It is also possible to transmit the play recording video to the viewers) and receive the evaluation only from those viewers.
  • the evaluation button (good, bad) is displayed on the viewing screen at the same time as the video is played.
  • the evaluation information collection unit 38 collects information (evaluation information) that associates the information (good or bad) of the button that was pushed with the time that the button was pushed. collect.
  • the evaluation information collection unit 38 stores the evaluation information collected so far in the evaluation information storage unit 27 in association with the information (for example, file name) of the viewed video. If the viewer stops playing the video in the middle, it is assumed that the image displayed at that time did not attract the viewer's interest, and the evaluation information collection unit 38 collects information on the time when the playback was stopped (playback time) is acquired, an evaluation of ⁇ bad'' is added to the reproduction time, and stored in the evaluation information storage part 27 in association with the information of the viewed moving image together with the evaluation information collected so far.
  • the evaluation information collection unit 38 collects information on the time when the playback was stopped (playback time) is acquired, an evaluation of ⁇ bad'' is added to the reproduction time, and stored in the evaluation information storage part 27 in association with the information of the viewed moving image together with the evaluation information collected so far.
  • the evaluation information analysis unit 39 tallies the evaluation given to the play record video.
  • the evaluation information analysis unit 39 calculates the score by subtracting the number of "bad” evaluations from the number of "good” evaluations given to the images of each event included in the play recorded video.
  • the movie editing unit 40 deletes the image information of the event whose score does not meet the predetermined criteria, and creates a new play record movie. For example, when a score of 0 or more is used as a criterion, a new play-recorded moving image as shown in FIG. 8 is created by the moving image editing unit 40 . As a result, it is possible to create a recorded play video that attracts the viewer's interest more by deleting the part that the viewer evaluated as "bad" (the image that the viewer did not find appealing).
  • the evaluation information analysis unit 39 calculates a score for each event included in each of the plurality of play recorded videos.
  • the evaluation information analysis unit 39 aggregates (for example, averages) the scores obtained for the same event and the same image information. Then, the image information of the event whose total value does not meet a predetermined criterion is deleted. This criterion may be, for example, an average value of 0 or more as described above. At this point, if a plurality of total values relating to the same event (that is, total values for the same event but with different image information) remain, the one with the highest total value is selected.
  • the moving image editing unit 40 arranges the image information selected by the above process in order of elapsed time to create a new play recorded moving image. This not only deletes the parts that viewers rated as "bad”, but also automatically creates an attractive play record video by combining image information that viewers rated as "better”. be able to.
  • the moving image editing unit 40 allows the moving image creator to specify a length of the moving image that is shorter than the original play-recorded moving image, and within a range of time that is shorter than that length, the event is classified in descending order of the score or total score. It may be configured to extract a combination of image information. As a result, the video creator can create a play record video of an arbitrary length and a collection of scenes that attract viewers' interest.
  • a virtual camera was placed in the virtual space to acquire image information separately from the player's screen, but the player's screen may be associated instead of the pitcher's camera or the batter's camera. This makes it possible to reduce the number of virtual cameras and reduce the load on the processor.
  • the play record video was created using the image information associated with all the events detected by the event detection unit 32. That is, first, the play record video creation unit 34 creates a play record video including all event scenes, and then the video creator edits (deletes) as appropriate. It is also possible to specify the length of the play recorded moving image before playing the game, and to have the play recorded moving image creating section 34 create a play recorded moving image that fits within that length. Specifically, for example, the events stored in the event information storage unit 22 are prioritized, and the image information is extracted from all the events that occurred during the game play in descending order of priority and played. Create a recorded video.
  • the length of one play unit may be different depending on the type of image. For example, in the case of a still image, it is considered sufficient to display it for a few seconds. It is good to create a play record movie so that an image is displayed.
  • image information for one play is acquired regardless of the content of the event, but the length of image information acquisition may be changed depending on the type of event.
  • a plurality of virtual cameras are associated with a part of the event, and image information of the same length (for one play) obtained by the plurality of virtual cameras is obtained.
  • Image information acquired by one virtual camera at different times may be associated. For example, in the case of a chance event, in the above embodiment, image information of only one play in which the batter's out/safe is decided (for example, only the play image of the third pitch to the batter) is acquired, but the batter stands at bat. After that, it is also possible to acquire image information for a plurality of plays until the batter's out/safe decision is made.
  • the system of the present invention is not limited to sports games, and can be applied to computer games of different genres such as shooting games, fighting games, and role-playing games.
  • one or more events (conversation with a non-player character, battle with an enemy character, discovery of items, etc.) are usually set in each of one or more scenes prepared in advance. The game proceeds.
  • the image information acquired by the virtual camera of the player character may be combined with an image recording the process of the player creating an avatar of the player character in a role-playing game, a prologue of the story, and an epilogue of the story. good.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

予め設定された仮想空間において動作するキャラクターをプレイヤーが入力端末10で操作することによりコンピュータゲームをプレイした記録の動画を作成するシステム1において、コンピュータゲームを進行する進行制御部31と、仮想空間に設定される仮想カメラと、ゲーム進行中に発生し得るイベントの情報と該イベントを仮想カメラに対応づけた情報が保存されたイベント情報記憶部22と、コンピュータゲームの進行中にイベントが発生したことを検知するイベント検知部32と、イベントが発生したときに該イベントに対応付けられた仮想カメラにより捉えられた仮想空間の画像を表す画像情報を取得する画像情報取得部33と、画像情報取得部により取得された画像を用いてプレイ記録動画を作成するプレイ記録動画作成部34とを備える。

Description

プレイ記録動画作成システム
 本発明は、スポーツゲーム、ロールプレイングゲーム、格闘ゲームなどのコンピュータゲームのプレイ記録動画を作成するシステムに関する。
 近年、コンピュータゲームのプレイ技術を争うeスポーツ(エレクトロニック・スポーツ)いう新たな分野が確立されつつある。eスポーツの分野では、様々なジャンルのコンピュータゲームのプレイ技術を争う大会が開催され、コンピュータゲームをプレイすることを生業とする、プロゲーマーと呼ばれる人々が高度なプレイ技術を披露している。
 インターネット上には、種々の動画が投稿され広く公開されるサイト(動画投稿サイト)が存在する。動画投稿サイトには、プロゲーマーをはじめとする多くのプレイヤーにより、コンピュータゲームをプレイした画面を記録した動画(プレイ記録動画)が数多く投稿されている(例えば特許文献1)。
 コンピュータゲームのプレイ記録動画は、プレイヤーがそのゲームをプレイしたときにディスプレイに表示されるプレイ画面(プレイヤー画面)を記録したものである。プレイヤー画面は、コンピュータゲームのキャラクターをプレイヤーが操作する際の操作性を高めることを主眼として画角が定められている。例えば野球ゲームにおいてプレイヤーがピッチャーを操作して投球動作を行う際には、マウンド上からキャッチャー方向を見た画面がプレイヤー画面として設定され、プレイヤーがバッターを操作して打撃動作を行う際には、キャッチャーの目線でピッチャー方向を見た画面がプレイヤー画面として設定される。
特開2015-013101号公報
 プレイヤー画面は、プレイヤーの操作性を主眼において定められた画面であり、それを記録したプレイ記録動画も当然、それらの限られた画角のプレイヤー画面を繰り返し表示したものとなる。動画サイトに投稿されるプレイ記録動画の中には長時間にわたるものも存在するが、同じような画面が繰り返される単調な動画を見ているうちに他のプレイヤーはもとより、当プレイヤー自身も飽きてしまう。
 本発明が解決しようとする課題は、視聴する者を飽きさせないプレイ記録動画を作成することができる技術を提供することである。
 上記課題を解決するために成された本発明は、予め設定された仮想空間において動作するキャラクターをプレイヤーが入力端末で操作することによりコンピュータゲームをプレイした記録の動画を作成するシステムであって、
 前記入力端末を通じて入力された前記キャラクターの動作を、予め決められたアルゴリズムに基づいて処理することによりコンピュータゲームを進行する進行制御部と、
 前記仮想空間に設定され、それぞれが所定の画角で該仮想空間を捉える複数の仮想カメラと、
 前記コンピュータゲームの進行中に発生し得る複数のイベントの情報と、該複数のイベントのそれぞれを前記複数の仮想カメラのいずれかに対応づけた情報が保存されたイベント情報記憶部と、
 前記コンピュータゲームの進行中に、前記複数のイベントのいずれかが発生したことを検知するイベント検知部と、
 前記複数のイベントのいずれかが発生したことを前記イベント検知部が検知したときに当該イベントに対応付けられた仮想カメラにより捉えられた前記仮想空間の画像を表す画像情報を取得する画像情報取得部と、
 前記画像情報取得部により取得された画像を用いてプレイ記録動画を作成するプレイ記録動画作成部と
 を備えることを特徴とする。
 上記入力端末には、例えば、操作ボタンを通じた入力を行うコントローラやキーボードを入力部として備えたもの用いてもよく、プレイヤー自身の動きをカメラに検知させることにより入力を行うモーションキャプチャを入力部として備えたものを用いてもよい。また、上記入力端末は、プレイヤーがゲームをプレイするために必要な画面(プレイヤー画面)を表示する表示部を備えたものであってもよい。このプレイヤー画面は、コンピュータゲームのキャラクターをプレイヤーが操作する際の操作性を高めることを主眼として画角が定められる。この入力端末は、本発明のシステムに組み込まれたものであってもよく、あるいは本発明のシステムとは別に、該システムと接続可能に設けられたものであってもよい。
 上記画像情報取得部は、イベント検知部がイベントを検知した時点で画像情報を取得するものであってもよく、コンピュータゲームのプレイ終了後に、イベント検知部がイベントを検知したタイミングで仮想カメラにより捉えられていた画像の情報を取得するものであってもよい。前者の場合は、複数の仮想カメラのそれぞれは画像情報取得部からの指示があった時点で前記仮想空間を捉え始めるだけでよい。一方、後者の場合は、複数の仮想カメラはそれぞれコンピュータゲームの進行中に継続して仮想空間を捉えておき、所定の画像記録部にその画像データを記録しておく。さらに、上記画像情報は通常の画像(動画)データ形式に限らず、他のデータ形式で取得してもよい。例えば、画像を、各時点の仮想空間におけるキャラクター等の位置情報及び姿勢情報と、当該時点で選択されている仮想カメラの情報を対応づけたデータ形式で取得してもよい。
 本発明に係るコンピュータゲームのプレイ記録動画作成システムにおいて、プレイヤーは入力端末を通じてキャラクターを操作する。進行制御部は、入力端末を通じて入力されたキャラクターの動作を予め決められたアルゴリズムに基づいて処理する。これらの動作はコンピュータゲームにおける一般的な処理と同様である。本発明に係るシステムでは、これらの構成要素とは別に、それぞれが所定の画角で仮想空間を捉える複数の仮想カメラを使用する。イベント情報記憶部には、コンピュータゲームの進行中に発生し得る複数のイベントを、それぞれ仮想カメラと対応付けた情報が保存されており、イベント検知部がいずれかのイベントの発生を検知すると、画像情報取得部が当該イベントに対応付けられた仮想カメラで仮想空間を捉えた画像を取得する。そして、プレイ記録動画作成部が、画像情報取得部によって取得された画像を用いてプレイ記録動画を作成する。
 本発明に係るシステムでは、イベント情報記憶部に保存された複数のイベントのいずれかが発生すると、プレイヤー画面とは別に、仮想カメラで仮想空間をとらえた画像を取得し、それらを用いてプレイ記録動画を作成する。そのため、プレイヤーの操作性とは関係なく、変化に富んだ様々な画角の画像を組み合わせて、視聴する者を飽きさせないプレイ記録動画を作成することができる。
 本発明に係るシステムは、また、
 前記イベント情報記憶部に、前記コンピュータゲームの進行中に発生し得る第2イベントと該第2イベントに対応付けられた画像が保存され、
 前記イベント検知部は、前記コンピュータゲームの進行中に、さらに前記第2イベントが発生したことを検知し、
 前記第2イベントが発生したことを前記イベント検知部が検知したときに当該第2イベントに対応付けられた画像を前記イベント情報記憶部から読み出す
 ように構成することができる。
 コンピュータゲームの進行中には、キャラクター自身の動作とは直接関係がないイベントが発生し得る。例えば、野球ゲームの場合、ゲームの進行中にプレイヤーが操作するキャラクター(プレイヤーキャラクター)の動作とは関係なく、7回表裏の攻防(ラッキーセブン)が到来する。また、サッカーゲーム等では前半終了時にハーフタイムに入る。これらの第2イベントはプレイヤーによるキャラクターの操作と無関係に発生するものであるため、予め用意した画像を表示させればよい。そのような画像として、例えばラッキーセブンの攻撃前やハーフタイムにおける応援団の画像を用いることができる。上記態様のシステムでは、このようなタイミングで予め保存された画像の表示を含んだプレイ記録動画を作成することができる。
 本発明に係るシステムは、さらに、
 前記画像情報取得部により取得された画像情報を記憶する画像情報記憶部と、
 前記複数の仮想カメラにより捉えられた前記仮想空間の画像を表す画像情報が順次、保存される仮想カメラ画像記憶部と
 を備えるように構成することができる。
 上記態様のシステムでは、各イベントの発生時に複数の仮想カメラによって仮想空間をとらえた画像が画像記憶部に保存されるため、プレイ記録動画作成部により作成された動画を使用者が確認し、その一部の画像を別の仮想カメラで仮想空間を捉えた画像に差し替えてプレイ記録動画を編集することができる。
 本発明に係るシステムは、さらに、
 前記複数のイベント及び前記第2イベントのうちの一部に、仮想カメラ及び/又は画像情報が複数対応付けられており、
 前記プレイ記録動画作成部は、画像情報の組み合わせが異なる複数のプレイ記録動画を作成する
 ように構成することができる。
 上記態様のシステムでは、各イベント発生時の画像が異なる複数種類のプレイ記録動画を作成することができる。
 本発明に係るコンピュータゲームのプレイ記録動画作成システムを用いることにより、視聴する者を飽きさせないプレイ記録動画を作成することができる。
本発明に係るコンピュータゲームのプレイ記録動画作成システムの一実施例の要部構成図。 本実施例のシステムにおいてイベント情報記憶部に保存されるイベントと、該イベントに対応する画像情報又は仮想カメラの例。 本実施例のシステムにおいてイベントに対応付けられる画像情報の例。 本実施例のシステムにおいて仮想カメラで取得される画像情報の例。 本実施例のシステムにおいて作成されるプレイ記録動画の構成例。 本実施例のシステムにおけるプレイ記録動画の編集前後の構成例。 本実施例のシステムにおけるプレイ記録動画の評価情報解析例。 本実施例のシステムにおけるプレイ記録動画の編集例。 本発明に係るコンピュータゲームのプレイ記録動画作成システムを用いてロールプレイングゲームのプレイ記録動画を作成する場合の構成例。
 本発明に係るコンピュータゲームのプレイ記録動画作成システムについて、以下、図面を参照して説明する。本実施例では、野球ゲームのプレイ記録動画を作成する場合を例に説明する。
 図1は、本実施例のコンピュータゲームのプレイ記録動画作成システム1(以下、単に「システム」ともいう。)の要部構成図である。本実施例のシステム1は、大別してプレイヤー端末10(本発明における入力端末に相当)と、動画作成者端末50と、該プレイヤー端末10及び該動画作成者端末50と相互に通信可能に設けられた制御・処理装置20で構成されている。
 プレイヤー端末10は、コンピュータゲームをプレイする者(プレイヤー)が使用する端末である。プレイヤー端末10は、記憶部11と、コンピュータゲームにおいて仮想空間で動作するキャラクターをプレイヤーが操作するためのコントローラ(操作入力部)12と、該キャラクターの動作を表示するプレイヤー画面が表示されるディスプレイ(表示部)13と、プレイヤーの声を拾うマイク(音声入力部)14とを備えている。コントローラに代えてモーションキャプチャやキーボードなどを用いてもよい。
 動画作成者端末50は、コンピュータゲームのプレイ記録動画を作成しようとする者(動画作成者)が使用する端末である。動画作成者端末50は、記憶部51を備えており、入力部52と表示部53が接続されている。
 制御・処理装置20には、記憶部21のほか、機能ブロックとして、進行制御部31、イベント検知部32、画像情報取得部33、プレイ記録動画作成部34、音声データ取得部35、動画編集受付部36、動画アップロード部37、評価情報収集部38、評価情報解析部39、及び動画編集部40を備えている。制御・処理装置20の実体は、例えば、一般的なパーソナルコンピュータ、サーバコンピュータ、あるいはゲーム機であり、それらに予めインストールされたプレイ記録動画作成用プログラム30をプロセッサで実行することによりこれらの機能ブロックが具現化される。
 記憶部21には、イベント情報記憶部22、イベント発生記憶部23、画像情報記憶部24、音声データ記憶部25、及びプレイ記録動画記憶部26が設けられている。
 イベント情報記憶部22には、当該野球ゲームのプレイ中に発生し得る複数のイベントの情報が保存されている。このイベントは、例えば図2に示すような、プレイ開始、プレイボール、初ヒット、三振、チャンス(得点圏に自チームのランナーを置いた状態)、ホームラン、得点、ピンチ(得点圏に相手チームのランナーを背負った状態)、失点、自チームによる逆転、相手チームによる逆転、選手交代、自チームのラッキーセブン、相手チームのラッキーセブン、クロスプレー、及びゲームセットである。
 また、これらのイベントのそれぞれについて、1乃至複数の仮想カメラの情報又は画像情報が対応付けられている。仮想カメラの情報が対応付けられたものは本発明におけるイベントに相当し、画像情報が対応付けられたものは本発明における第2イベントに相当する。ただし、これらは便宜上の分類に過ぎず、本実施例のイベントの一部には、仮想カメラの情報と画像情報の両方が対応付けられたものもある。イベントのうち、逆転のイベントは、得点又は失点のイベントと同時に起こりうる。こうしたイベントについて、いずれか一方(ここでは逆転)のイベントが他方(得点、失点)のイベントよりも上位のイベントとして設定されている。上位のイベントは、そのイベントが発生したときに当該イベントと下位のイベントの両方の発生要件を満たすように決められる。このような例には、他に、ホームランのイベント(上位のイベント)と得点(下位のイベント)などもある。なお、本明細書に記載する「画像」には、動画像と静止画像の両方が含まれうる。
 仮想カメラには、例えば、キャッチャーの目線でマウンド上のピッチャーを捉えるように配置されるカメラ(以下、この仮想カメラを「ピッチャーカメラ」という。)、ピッチャーの目線でマウンド上からキャッチャーを捉えるように配置されるカメラ(以下、この仮想カメラを「キャッチャーカメラ」という。)、ランナーを捉えるように配置されるカメラ(以下、この仮想カメラを「ランナーカメラ」という。)、主審をそれぞれ捉えるように配置されるカメラ(以下、この仮想カメラを「主審カメラ」という。)、バックスクリーンからフィールド全体を捉えるように配置されるカメラ(以下、この仮想カメラを「バックスクリーンカメラ」という。)、一塁、二塁、三塁、及び本塁のそれぞれを所定の方向から捉えるように配置されるカメラ(以下、これらの仮想カメラを「一塁カメラ」、「二塁カメラ」、「三塁カメラ」、及び「本塁カメラ」という。)、仮想空間の上空からフィールド全体を捉えるように配置されるカメラ(以下、この仮想カメラを「上空カメラ」という。)が含まれる。これらの仮想カメラの位置及び画角は固定されている。
 また、仮想カメラには、ゲームに登場するキャラクター(プレイヤーキャラクター(PC))を含む自チームの各選手や、相手チームの各選手、自チームの監督、コーチ、ボール等のノンプレイヤーキャラクター(NPC))をそれぞれ所定の画角でとらえる位置に配置されるカメラ(以下、この仮想カメラを「監督カメラ」等という。)も含まれる。ノンプレイヤーキャラクターには、プレイ中の野球ボールといった、人物以外のものも含まれうる。これらの仮想カメラは、仮想空間内でのキャラクターの移動に追随して位置及び向きが自動的に変更される。
 画像情報としては、例えば、自チームの選手画像、自チームと他チームの応援団の画像、自チームと他チームの監督の画像が含まれる。
 イベント発生記憶部23には、ゲームのプレイ中に発生したイベント、及びその発生時間に関する情報が保存される。
 画像情報記憶部24には、選択画像記憶部241と仮想カメラ画像記憶部242が設けられている。選択画像記憶部241には、後述するイベント検知部32が検知したイベントに対応付けられ、後述する画像情報取得部33によって取得された画像情報が保存される。図3に示すように、画像情報としては、例えば選手画像や応援団画像が含まれる。
 仮想カメラ画像記憶部242には、プレイ中に、後述する仮想カメラによって捉えられた仮想空間の画像の情報が保存される。図4に、仮想カメラによって捉えられる仮想空間の画像の一例(ピッチャーカメラ、バッターカメラ、及びランナーカメラによる画像の例)を示す。各仮想カメラにより取得される仮想空間の画像情報は、1プレイ単位(例えばピッチャーがボールを投げ、バッターがそのボールを打ち、その打球を捕球して一塁に送球し、審判によりアウト/セーフのジャッジがなされる等の一連のプレイが完結する単位)毎に、イベントの発生と関係なく、順次、仮想カメラ画像記憶部242に保存される。
 音声データ記憶部25には、後記する進行制御部31によるゲームの進行中に予め決められたアルゴリズムに基づいて与えられる実況音声や効果音(打球音、捕球音など)が、1プレイ単位で、イベントの発生と関係なく、順次、保存される。また、音声データ記憶部25には、ゲームのプレイ中にプレイヤー端末10のマイク14を通じて入力された音声のデータも保存される。
 進行制御部31は、予め決められたアルゴリズムに従ってゲームを進行させる。また、進行制御部31は、プレイヤーがゲームをプレイするために必要な画面(プレイヤー画面)をプレイヤー端末10のディスプレイ13に表示し、コントローラ12からの入力信号を処理する。プレイヤー画面は、コンピュータゲームのキャラクターをプレイヤーが操作する際の操作性を高めることを主眼として画角が定められている。本実施例の野球ゲームのプレイ中にプレイヤーがピッチャーを操作して投球動作を行う際には、マウンド上からキャッチャー方向を見た画面がプレイヤー画面として設定され、プレイヤーがバッターを操作して打撃動作を行う際には、キャッチャーの目線でピッチャー方向を見た画面がプレイヤー画面として設定される。これらの機能は、従来のコンピュータゲームと同様である。本実施例の進行制御部31は、さらに、野球の試合が行われる球場を仮想空間として設定し、その仮想空間に、上記の複数の仮想カメラをそれぞれ配置する。
 イベント検知部32は、コンピュータゲームの進行をモニターし、イベント情報記憶部22に保存されている複数のイベントのいずれかの発生を検知する。
 画像情報取得部33は、イベント検知部32がイベントを検知したときに、当該イベントに対応付けられている画像情報及び/又は複数の仮想カメラにより取得される仮想空間の画像情報を収集して選択画像記憶部241に保存する。なお、仮想カメラで取得される仮想空間の画像については、仮想カメラを特定する情報と各時点での仮想空間におけるキャラクター等の位置情報及び姿勢情報とを対応付けたデータとして保存される。仮想カメラで取得される仮想空間の画像を画像データ形式あるいは動画データ形式で保存することも可能であるが、上記形式のデータとして保存することよりファイルサイズを小さくすることができる。また、プレイ記録動画を作成した後の編集も容易になる。
 プレイ記録動画作成部34は、画像情報取得部33により取得され、選択画像記憶部241に保存された画像情報を用いてプレイ記録動画を作成する。
 音声データ取得部35は、ゲーム進行中の実況音声や効果音、及びゲームのプレイ中にプレイヤー端末10のマイク14を通じて入力されたプレイヤーの声のデータを順次、音声データ記憶部25に保存する。
 動画編集受付部36、動画アップロード部37、評価情報収集部38、評価情報解析部39、及び動画編集部40は、プレイ記録動画が作成された後に動画を編集する際に用いられる。これらの機能については具体的な処理の流れと併せて後述する。
 次に、本実施例のシステム1の各部の動作を説明する。ゲームのプレイヤーと動画作成者は同一であってもよく、異なっていてもよい。ここでは、両者が別であるものとする。例えば、サーバコンピュータ上でゲームを提供する者が、ネットワークを通じてプレイヤーがプレイした記録動画を作成してプレイヤーに提供する場合、プレイヤーと動画作成者は異なる。あるいは、プレイヤーが自らのプレイ動画を作成しようとする場合には、プレイヤーと動画作成者は同一である。その場合には、プレイヤー端末10と動画作成者端末50の両方を一体化した端末を用いることができる。なお、進行制御部31が、プレイヤー端末10のディスプレイ13にプレイヤー画像を表示する機能や、コントローラ12からの入力を処理する機能については従来のコンピュータゲームと同様であるため、説明を省略する。
 プレイヤーが野球ゲームの開始を指示すると、進行制御部31は、野球の試合が展開される球場を仮想空間として設定し、その中に上記複数の仮想カメラを設定する。各仮想カメラにより仮想空間(仮想空間に配置されたキャラクターを含む)を捉えた画像は、1プレイ毎に順次、仮想カメラ画像記憶部242に保存される。
 野球ゲームが開始されると、イベント検知部32は、ゲームの進行状況を監視し、イベントの発生を検知する。イベント検知部32は、まず、ゲーム開始のイベントを検知する。イベント検知部32がゲーム開始のイベントを検知すると、画像情報取得部33は、イベント情報記憶部22に保存されている、ゲーム開始のイベントに対応付けられた画像である、選手画像を読み出して選択画像記憶部241に保存する。
 ゲーム開始のイベントを検知した後、イベント検知部32は続いてプレイボールのイベントを検知する。イベント検知部32がプレイボールのイベントを検知すると、画像情報取得部33は、画像情報記憶部に保存されている、プレイボールのイベントに対応付けられた情報である、審判の画像を読み出して選択画像記憶部241に保存する。
 イベント検知部32は、試合開始後も、引き続きゲームの進行状況を監視し、イベント情報記憶部22に保存されている複数のイベントのいずれかの発生を検知する。例えば、自チームの攻撃イニングにおいて、初ヒットを打ったとき、自チームにチャンスが到来したとき、得点が入ったときや、相手チームの攻撃イニングにおいて、自チームにピンチが到来した時、失点したときにイベントを検知する。その他、自チームのラッキーセブン、相手チームのラッキーセブンもそれぞれイベントとして検知する。なお、例えば、自チームによる逆転は、逆転と得点の両方のイベントに相当するが、より上位のイベントである逆転のイベントの発生として検知される。
 上記のゲーム開始やプレイボールとは異なり、初ヒットや得点などのイベントは、当該の1プレイが完結した時点で発生する。従って、これらのイベントのプレイ記録動画を作成するには、イベント検知部32がイベントを検知した時点よりも前の画像情報を取得する必要がある。例えば、イベント検知部32が自チームが初ヒットを打ったイベントを検知した場合、イベントが検知された時点でヒットの瞬間は終わっている。このようなイベントが検知された場合、画像情報取得部33は、仮想カメラ画像記憶部242に保存されている画像情報を参照し、そのヒットが生まれた1プレイの画像の情報を取得する。初ヒットのイベントについては、バットにボールが当たるまでの時間にバッターカメラで取得した画像情報とそれ以降の時間帯には上空カメラで取得した画像情報を組み合わせたものを取得する(図2参照)。画像情報取得部33は、取得した画像を選択画像記憶部241に保存する。
 また、イベントの中には画像情報及び/又は仮想カメラが複数、対応づけられたものもある。例えば、失点のイベントにはピッチャーカメラと監督カメラの2つが対応付けられている。こうしたイベントが検知された場合は、画像情報取得部33はそれら複数の画像をそれぞれ取得して選択画像記憶部241に保存する。また、例えば、チャンスのイベントには、自チーム応援団画像とバッターカメラが対応付けられている。こうしたイベントが検知された場合は、画像情報取得部33は、当該イベントに対応付けられた画像情報をイベント情報記憶部22から読み出すとともに、バッターカメラにより仮想空間(ここではバッター)を捉えた画像を取得し、それぞれを選択画像記憶部241に保存する。
 試合が終了するまでの間、イベント検知部32によるイベントの検知と、画像情報取得部33による画像の取得及び選択画像記憶部241への保存が順次、行われる。
 試合が終了すると、プレイ記録動画作成部34は、選択画像記憶部241に保存された画像情報を用いてプレイ記録動画を作成する。
 図5に、試合が終了した時点で選択画像記憶部241に保存される動画の構成例を示す。図5に示すように、試合開始後、試合の進行に伴って時系列で順次、選択画像記憶部241に画像情報が保存されていく。また、イベントの一部については複数の画像情報が選択画像記憶部241に保存されることになる。図5における経過時間はプレイ開始からの経過時間である。また、イベント時間は当該イベントに係る1プレイの時間であり、これはプレイ記録動画において当該イベントの画像が表示される時間となる。
 プレイ記録動画作成部34は、各イベントに対応付けられた画像情報を読み出し、それらをつなぎ合わせた動画を作成する。ここで、複数の画像情報が対応付けられたイベントが存在する場合には、それらを1つずつ用いて、画像の組み合わせが異なる複数種類のプレイ記録動画を作成する。また、各プレイ記録動画含まれる各イベントの画像情報に、プレイ中の実況音声や効果音、プレイヤーの発した音声のデータを対応付ける。
 図5に示す例では、7つのイベント(イベント4:チャンス、イベント5:ピンチ、イベント6:失点、イベント7:相手チーム逆転、イベント10:ピンチ、イベント12:ホームラン、及びイベント13:自チーム逆転)について、それぞれ2つずつ画像情報が保存されている。従って、この場合には、画像の組み合わせが異なる128個のプレイ記録動画が作成される。この例では、6.5分(イベント時間の総和)のプレイ記録動画が作成される。プレイ記録動画作成部34は、それらのプレイ記録動画を記憶部21に保存し、プレイ記録動画の作成が終了したことを通知する画面を、動画作成者端末50の表示部53に表示する。ここでは全ての組み合わせに対応する動画を作成したが、組み合わせの数が膨大になる場合は、プレイ記録動画作成部34は、全ての組み合わせの中からランダムに一部の組み合わせを抽出し、それらに対応する動画のみを作成するようにしてもよい。
 動画作成者が、プレイ記録動画の作成が終了したことを示す通知を確認した後、入力部52を通じた操作によりそれらのプレイ記録動画のダウンロードを指示すると、プレイ記録動画のファイルが動画作成者端末50にダウンロードされ、記憶部51に保存される。
 また、動画作成者がプレイ記録動画の確認を指示すると、作成されたプレイ記録動画のリストと再生ボタンが表示される。動画作成者は、各動画の再生ボタンを押すことにより、各動画を視聴することができる。各動画を確認する際には、実況及び効果音と、プレイヤーの音声データのそれぞれについてON/OFFを切り替え可能となっている。例えば、プレイヤーの音声データOFFを選択した場合には、野球ゲームのプレイ実況等の音声のみが音声データが再生される。プレイヤーの音声データONを選択した場合には、プレイ実況等の音声に加えてゲームのプレイ中にプレイヤーが発した声も出力される。
 上記のように作成されるプレイ記録動画は、予め保存された画像又は仮想カメラで仮想空間を捉えた画像から作成される。これらの画像はプレイヤーの操作性とは関係のない、変化に富んだ画像であることから、視聴する者を飽きさせないプレイ記録動画を作成することができる。
 動画作成者は、作成された128種類のプレイ記録動画を適宜、視聴し、その中で自らが最も気に入ったものを動画投稿サイトに投稿して他者に視聴させることができる。
 また、動画作成者は、プレイ記録動画作成部34が作成したプレイ記録動画を編集することもできる。動画作成者がプレイ記録動画の編集を指示すると、動画編集受付部36は、編集の元データとなるプレイ記録動画のファイルを動画作成者に指定させる。
 動画作成者が対象ファイルを指定すると、動画編集受付部36は、そのプレイ記録動画の編集箇所を動画作成者に指定させる。例えば、動画作成者にイベント番号を選択させることにより編集箇所を指定させることができる。本実施例では、当該箇所の画像の削除、当該箇所の画像の差し替え、あるいは当該箇所への画像の追加を行うことができる。
 動画作成者が当該箇所の画像の削除を指示すると、動画作成者により指定された箇所(イベント)の画像情報が削除される。
 動画作成者が当該箇所の画像の差し替えを指示すると、動画編集受付部36は、仮想カメラ画像記憶部242に保存されている、野球ゲームのプレイ中に各仮想カメラにより取得された画像情報を読み出し、動画作成者にいずれかの仮想カメラを選択させる。動画作成者が仮想カメラの1つを選択すると、動画作成者が指定した編集箇所(イベント)において当該仮想カメラにより取得された仮想空間の画像情報が仮想カメラ画像記憶部242から読み出され、先にプレイ記録動画に含まれていた画像情報と入れ替えられる。
 動画作成者が2つのイベントの間を指定して画像の追加を指示すると、動画編集受付部36は画像の差し替え時と同様に、仮想カメラ画像記憶部242に保存されている、野球ゲームのプレイ中に各仮想カメラにより取得された画像情報を読み出し、動画作成者にいずれかの仮想カメラを選択させる。動画作成者が仮想カメラの1つを選択すると、動画編集受付部36は、動画作成者が指定した2つのイベントの間に当該仮想カメラにより取得された画像情報を時系列で表示する。動画作成者が、表示された時系列の画像情報の中から所望の時間範囲の画像情報を指定すると、動画作成者が先に指定した編集箇所に、動画作成者が指定した時間範囲に動画作成者が指定した仮想カメラにより取得された画像情報が差し込まれる。
 図6に、プレイ記録動画の編集例を示す。この例では、イベント2、3、8-10の画像情報が削除され、またイベント5及び13の画像情報が変更されている。これらの画像情報の削除により、プレイ記録動画の再生時間が6.5分から4.5分に短縮される。
 本実施例のシステムでは、さらに、1回の野球ゲームのプレイ中に作成された複数のプレイ記録動画をインターネット上の動画投稿サイト等で公開し、各プレイ記録動画の視聴者からの評価を受け付けることができる。
 プレイ記録動画作成部34により作成されたプレイ記録動画、及び/又はそれを動画編集受付部36により編集したプレイ記録動画のアップロードを指示すると、動画アップロード部37は予め決められたインターネットサーバ上の動画投稿サイトにそれらの動画をアップロードする。ここでは、動画アップロード部37によりプレイ記録動画をインターネットサーバ上の動画投稿サイトにアップロードして不特定多数の視聴者による評価を受け付けるが、予め決められた視聴者(例えば本システムのユーザとして登録された者)にプレイ記録動画を送信し、それらの視聴者のみから評価を受け付けるようにしてもよい。
 インターネットサーバ上にアクセスした視聴者がいずれかの動画の再生を指示すると、当該動画の再生と同時に評価ボタン(良い、悪い)を視聴画面に表示する。視聴者が動画の再生中に評価ボタンのいずれかを押すと、評価情報収集部38は、押されたボタンの情報(良い、悪い)と押された時間を対応付けた情報(評価情報)を収集する。
 視聴者が動画を最後まで視聴すると、評価情報収集部38は、それまでに収集した評価情報を、視聴された動画の情報(例えばファイル名)に対応付けて評価情報記憶部27に保存する。視聴者が動画の再生を途中でやめた場合には、その時点で表示されていた画像が視聴者の興味を惹かなかったと見なし、評価情報収集部38は、再生が中止された時間の情報(再生時間)の情報を取得して当該再生時間に「悪い」の評価を追加し、それまでに収集した評価情報と合わせて視聴された動画の情報に対応付けて評価情報記憶部27に保存する。
 動画アップロード部37によってプレイ記録動画がアップロードされてから所定の期間(例えば1週間)が経過すると、評価情報解析部39は、当該プレイ記録動画に与えられた評価を集計する。
 まず、1つのプレイ記録動画についてのみ評価情報を収集した場合について説明する。
 図7に評価情報解析部39による解析結果の一例を示す。この例では、評価情報解析部39は、プレイ記録動画に含まれる各イベントの画像に対して付された「良い」評価の数から「悪い」評価の数を差し引くことにより評点を算出する。
 図7に示すような評点が算出されると、動画編集部40は、評点が予め決められた基準に満たないイベントの画像情報を削除して、新たなプレイ記録動画を作成する。例えば、評点が0以上であることを基準とした場合には、動画編集部40によって図8に示すような、新たなプレイ記録動画が作成される。これにより、視聴者が「悪い」と評価した部分(視聴者が魅力を感じなかった画像)を削除して、より視聴者の興味を惹くプレイ記録動画を作成することができる。
 次に、複数のプレイ記録動画について評価情報が収集された場合について説明する。
 この場合も上記同様に、評価情報解析部39は、複数のプレイ記録動画のそれぞれに含まれる各イベントについて評点を算出する。
 次に、評価情報解析部39は、同一のイベントかつ同一の画像情報について取得された評点を集計(例えば平均)する。そして、集計値が予め決められた基準に満たないイベントの画像情報を削除する。この基準は上記同様に、例えば平均値が0以上であることとすればよい。この時点で、同一のイベントに関する複数の集計値(つまり、同一のイベントであるが画像情報が異なる集計値)が残っている場合には、その中で最も集計値が高いものを選択する。
 動画編集部40は、上記処理によって選択された画像情報を経過時間の順に並べて新たなプレイ記録動画を作成する。これにより、視聴者が「悪い」と評価した部分を削除するだけでなく、さらに、視聴者がより「良い」と評価した画像情報を組み合わせた、魅力的なプレイ記録動画を自動的に作成することができる。
 また、動画編集部40が、動画作成者に、元のプレイ記録動画よりも短い動画の長さを指定させ、その長さ以下の時間に収まる範囲内で、評点又は集計点が高い順にイベントと画像情報の組み合わせを抽出するように構成してもよい。これにより動画作成者が任意の長さで、かつ視聴者の興味を惹くシーンを集めたプレイ記録動画を作成することができる。
 上記実施例は一例であって、本発明の趣旨に沿って適宜に変更することができる。
 上記実施例ではプレイヤー画面とは別に、仮想空間に仮想カメラを配置して画像情報を取得したが、ピッチャーカメラやバッターカメラに代えて、プレイヤー画面を対応付けてもよい。これにより仮想カメラの数を抑えてプロセッサに係る負荷を低減することができる。
 上記実施例では、イベント検知部32が検知した全てのイベントに対応づけられた画像情報を用いてプレイ記録動画を作成した。つまり、まず、プレイ記録動画作成部34が、全てのイベントのシーンを含むプレイ記録動画を作成し、その後、動画作成者が適宜に編集(削除)する場合を説明したが、予め動画作成者がゲームのプレイ前の時点でプレイ記録動画の長さを指定しておき、プレイ記録動画作成部34がその長さに収まるようなプレイ記録動画を作成するように構成することもできる。具体的には、例えばイベント情報記憶部22に保存されるイベントについて優先順位を付しておき、ゲームのプレイ中に発生した全てのイベントのなかから優先順位が高い順に画像情報を抽出してプレイ記録動画を作成すればよい。例えば野球ゲームの場合、打撃戦になる場合と投手戦になる場合では発生するイベントの数が大きく異なる可能性があり、上記例の方法ではプレイ記録動画作成部34が打撃戦のプレイ記録動画を作成すると長時間の動画になる可能性があるが、上記のような構成を採ることにより、プレイ内容に関係なく一定の長さのプレイ記録動画を作成することが可能となる。
 上記実施例では、イベントに対応付けられているものが静止画像であるか動画像であるか、さらには仮想カメラにより取得される画像(動画像)であるかを問わず、1プレイ単位の長さの画像情報を取得したが、画像の種類に応じて異なる長さの画像情報としてもよい。例えば、静止画像である場合、数秒表示すれば十分であると考えられることから、イベントに対応付けられた画像情報が静止画像である場合には、動画像である場合に比べて短い時間のみ当該画像を表示するようにプレイ記録動画を作成するとよい。
 上記実施例では、イベントの内容を問わず、1プレイ分の画像情報を取得するように構成したが、イベントの種類によって、画像情報を取得する長さを変えてもよい。また、上記実施例では、イベントの一部について複数の仮想カメラを対応付け、それら複数の仮想カメラによって取得される同じ長さ(1プレイ分)の画像情報を取得するようにしたが、さらに、1つの仮想カメラによって取得される、異なる時間の画像情報を対応付けるようにしてもよい。例えばチャンスのイベントの場合、上記実施例ではバッターのアウト/セーフが決する1プレイのみ(例えば当該バッターに対する3球目の投球に関するプレイ画像のみ)の画像情報を取得するが、当該バッターが打席に立った後、そのバッターのアウト/セーフが決するまでの複数プレイ分の画像情報を取得するように構成することもできる。
 上記実施例では、野球ゲームのプレイ記録動画を作成する場合を説明したが、サッカーゲーム、テニスゲーム、バスケットゲームなどの他のスポーツゲームについても上記同様のシステムを用いることができる。また、本発明のシステムはスポーツゲームに限らず、シューティングゲーム、格闘ゲーム、ロールプレイングゲーム等の異なるジャンルのコンピュータゲームにも適用することができる。
 ロールプレイングゲームでは、通常、予め用意された1乃至複数のシーンのそれぞれにおいて予め設定された1乃至複数のイベント(ノンプレイヤーキャラクターとの会話、敵キャラクターとの戦闘、アイテムの発見等)を達成ながらゲームが進行される。
 そこで、予め、上記達成条件を満たすことをそれぞれ上記実施例におけるイベントとし、当該イベントの発生時に当該キャラクタープレイヤーに対応する仮想カメラで取得された画像情報を組み込むことによってプレイ記録動画を作成することができる。
 また、プレイヤーキャラクターの仮想カメラで取得される画像情報に、プレイヤーがロールプレイングゲームにおけるプレイヤーキャラクターのアバターを作成する過程を記録した画像、物語のプロローグ、及び物語のエピローグを組み合わせるように構成してもよい。このような構成を採ることによって、物語風のプレイ記録動画を作成することができる。さらに、上記実施例と同様に、複数種類のプレイ記録動画を作成することもできる。図9に、長さが異なる複数のプレイ記録動画を作成する場合のパラメータの一例を示す。
1…プレイ記録動画作成システム
10…プレイヤー端末
 11…記憶部
 12…コントローラ
 13…ディスプレイ
 14…マイク
20…制御・処理装置
21…記憶部
 22…イベント情報記憶部
 23…イベント発生記憶部
 24…画像情報記憶部
  241…選択画像記憶部
  242…仮想カメラ画像記憶部
 25…音声データ記憶部
 26…プレイ記録動画記憶部
 27…評価情報記憶部
30…プレイ記録動画作成用プログラム
 31…進行制御部
 32…イベント検知部
 33…画像情報取得部
 34…プレイ記録動画作成部
 35…音声データ取得部
 36…動画編集受付部
 37…動画アップロード部
 38…評価情報収集部
 39…評価情報解析部
 40…動画編集部
50…動画作成者端末
 51…記憶部
 52…入力部
 53…表示部

Claims (6)

  1.  予め設定された仮想空間において動作するキャラクターをプレイヤーが入力端末で操作することによりコンピュータゲームをプレイした記録の動画を作成するシステムであって、
     前記入力端末を通じて入力された前記キャラクターの動作を、予め決められたアルゴリズムに基づいて処理することによりコンピュータゲームを進行する進行制御部と、
     前記仮想空間に設定され、それぞれが所定の画角で該仮想空間を捉える複数の仮想カメラと、
     前記コンピュータゲームの進行中に発生し得る複数のイベントの情報と、該複数のイベントのそれぞれを前記複数の仮想カメラのいずれかに対応づけた情報が保存されたイベント情報記憶部と、
     前記コンピュータゲームの進行中に、前記複数のイベントのいずれかが発生したことを検知するイベント検知部と、
     前記複数のイベントのいずれかが発生したことを前記イベント検知部が検知したときに当該イベントに対応付けられた仮想カメラにより捉えられた前記仮想空間の画像を表す画像情報を取得する画像情報取得部と、
     前記画像情報取得部により取得された画像を用いてプレイ記録動画を作成するプレイ記録動画作成部と
     を備えることを特徴とするプレイ記録動画作成システム。
  2.  前記イベント情報記憶部に、前記コンピュータゲームの進行中に発生し得る第2イベントと該第2イベントのそれぞれに対応付けられた画像情報が保存され、
     前記イベント検知部は、前記コンピュータゲームの進行中に、さらに前記第2イベントが発生したことを検知し、
     前記第2イベントが発生したことを前記イベント検知部が検知したときに当該第2イベントに対応付けられた画像情報を前記イベント情報記憶部から読み出す
     ことを特徴とする請求項1に記載のプレイ記録動画作成システム。
  3.  さらに、
     前記画像情報取得部により取得された画像情報を記憶する画像情報記憶部と、
     前記複数の仮想カメラにより捉えられた前記仮想空間の画像を表す画像情報が順次、保存される仮想カメラ画像記憶部と
     を備えることを特徴とする請求項1又は2に記載のプレイ記録動画作成システム。
  4.  前記プレイ記録動画に含まれる各イベントの画像情報に対する評価を収集する評価情報収集部と、
     前記各イベントの画像情報に対する評価が予め決められた基準を満たさない場合に当該イベントの画像情報を削除して新たなプレイ記録動画を作成する動画編集部と
     を備える、請求項1から3のいずれかに記載のプレイ記録動画作成システム。
  5.  さらに、
     前記複数のイベント及び前記第2イベントのうちの一部に、仮想カメラ及び/又は画像情報が複数対応付けられており、
     前記プレイ記録動画作成部は、画像情報の組み合わせが異なる複数のプレイ記録動画を作成する
     ことを特徴とする請求項1から4のいずれかに記載のプレイ記録動画作成システム。
  6.  前記複数のプレイ記録動画のそれぞれについて、各プレイ記録動画に含まれる各イベントの画像情報に対する評価を収集する評価情報収集部と、
     前記イベントと前記動画情報の組み合わせのそれぞれについて収集された評価を集計する評価情報解析部と、
     前記集計された結果が高い、前記イベントと前記動画情報の組み合わせを用いた、新たなプレイ記録動画を作成する動画編集部と
     を備える、請求項5に記載のプレイ記録動画作成システム。
PCT/JP2021/026431 2021-03-05 2021-07-14 プレイ記録動画作成システム WO2022185562A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/044,400 US20230356096A1 (en) 2021-03-05 2021-07-14 Gameplay recording video creation system
CN202180062132.5A CN116056768A (zh) 2021-03-05 2021-07-14 玩游戏记录视频制作系统
EP21929132.5A EP4194068A4 (en) 2021-03-05 2021-07-14 GAME PLAY VIDEO RECORDING SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021035668A JP7010444B1 (ja) 2021-03-05 2021-03-05 プレイ記録動画作成システム
JP2021-035668 2021-03-05

Publications (1)

Publication Number Publication Date
WO2022185562A1 true WO2022185562A1 (ja) 2022-09-09

Family

ID=80678857

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/026431 WO2022185562A1 (ja) 2021-03-05 2021-07-14 プレイ記録動画作成システム

Country Status (5)

Country Link
US (1) US20230356096A1 (ja)
EP (1) EP4194068A4 (ja)
JP (1) JP7010444B1 (ja)
CN (1) CN116056768A (ja)
WO (1) WO2022185562A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006006853A (ja) * 2004-06-29 2006-01-12 Namco Ltd プログラム、ゲーム端末、ゲーム装置、表示制御装置、サーバ及び情報記憶媒体
WO2013111248A1 (ja) * 2012-01-24 2013-08-01 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理システム
JP2015013101A (ja) 2013-06-07 2015-01-22 任天堂株式会社 情報処理システム、情報処理装置、サーバ装置、情報処理プログラム、サーバプログラム及び情報処理方法
JP2016189804A (ja) * 2015-03-30 2016-11-10 株式会社バンダイナムコエンターテインメント サーバシステム
US20170228600A1 (en) * 2014-11-14 2017-08-10 Clipmine, Inc. Analysis of video game videos for information extraction, content labeling, smart video editing/creation and highlights generation
JP2020515316A (ja) * 2016-12-09 2020-05-28 ユニティ アイピーアール エイピーエスUnity Ipr Aps 3dコンテンツの作成、放送、および視聴

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080268961A1 (en) * 2007-04-30 2008-10-30 Michael Brook Method of creating video in a virtual world and method of distributing and using same
US9782678B2 (en) * 2015-12-06 2017-10-10 Sliver VR Technologies, Inc. Methods and systems for computer video game streaming, highlight, and replay
GB2578592B (en) * 2018-10-31 2023-07-05 Sony Interactive Entertainment Inc Apparatus and method of video playback

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006006853A (ja) * 2004-06-29 2006-01-12 Namco Ltd プログラム、ゲーム端末、ゲーム装置、表示制御装置、サーバ及び情報記憶媒体
WO2013111248A1 (ja) * 2012-01-24 2013-08-01 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理システム
JP2015013101A (ja) 2013-06-07 2015-01-22 任天堂株式会社 情報処理システム、情報処理装置、サーバ装置、情報処理プログラム、サーバプログラム及び情報処理方法
US20170228600A1 (en) * 2014-11-14 2017-08-10 Clipmine, Inc. Analysis of video game videos for information extraction, content labeling, smart video editing/creation and highlights generation
JP2016189804A (ja) * 2015-03-30 2016-11-10 株式会社バンダイナムコエンターテインメント サーバシステム
JP2020515316A (ja) * 2016-12-09 2020-05-28 ユニティ アイピーアール エイピーエスUnity Ipr Aps 3dコンテンツの作成、放送、および視聴

Also Published As

Publication number Publication date
JP7010444B1 (ja) 2022-01-26
JP2022135703A (ja) 2022-09-15
US20230356096A1 (en) 2023-11-09
EP4194068A1 (en) 2023-06-14
EP4194068A4 (en) 2023-07-19
CN116056768A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
KR101612628B1 (ko) 실시간 분석 및 예측에 의한 참여형 스포츠 게임 시스템 및 스포츠 게임 방법
JP3496150B1 (ja) ゲームシステム、ゲームシステムの制御方法及びプログラム
US20150163562A1 (en) Live and Pseudo-Live Video Feed Selection Based on Fantasy Sports Team
TWI268798B (en) Game device, control method of game device and information memorizing media
JP2001137556A (ja) スポーツ予想ゲーム装置、方法、記録媒体及び伝送媒体
KR20140103033A (ko) 라이브 이벤트들을 위한 증강 현실
US8973083B2 (en) Phantom gaming in broadcast media system and method
JP3292852B2 (ja) 野球ゲーム装置および野球ゲームの制御方法およびその制御方法のプログラムを記録した記録媒体
US11617962B2 (en) System for creating play-recording video
US9210473B2 (en) Phantom gaming in a broadcast media, system and method
US8221222B2 (en) Game system, game control method, information recording medium, and program
JP2002200210A (ja) 野球におけるスコアメイカーシステムと、自動編集システムと、動作分析システムよりなる情報処理の方法
KR102002006B1 (ko) 하이브리드 에어하키 게임 장치 및 그 제어 방법
KR100716693B1 (ko) 영상 데이터 처리 시스템
WO2022185562A1 (ja) プレイ記録動画作成システム
US6491582B1 (en) Video game device, play control method for video game, and readable recording medium recording the method
JP3209988B2 (ja) ゲーム装置、処理方法および記録媒体
US20020092027A1 (en) Automatic image retrieval system
JP2002200348A (ja) 野球ゲームの制御方法、記録媒体及びゲーム装置
US11895356B1 (en) Systems and methods for group capture of interactive software
JP7168870B2 (ja) ゲームシステムおよびゲーム制御方法
JP7208552B2 (ja) 応援支援システムおよび応援支援方法
JP2017174240A (ja) 表示制御プログラム、方法、及び表示制御装置
JP2002292133A (ja) 野球ゲームの制御方法、ゲームプログラム、記録媒体及びゲーム装置
JP2022034508A (ja) 応援支援システム、応援支援方法、鑑賞支援システムおよび鑑賞支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21929132

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021929132

Country of ref document: EP

Effective date: 20230308

NENP Non-entry into the national phase

Ref country code: DE