JP2023120054A - Program, information processor, and information processing method - Google Patents

Program, information processor, and information processing method Download PDF

Info

Publication number
JP2023120054A
JP2023120054A JP2022023234A JP2022023234A JP2023120054A JP 2023120054 A JP2023120054 A JP 2023120054A JP 2022023234 A JP2022023234 A JP 2022023234A JP 2022023234 A JP2022023234 A JP 2022023234A JP 2023120054 A JP2023120054 A JP 2023120054A
Authority
JP
Japan
Prior art keywords
game
user
play
moving image
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022023234A
Other languages
Japanese (ja)
Other versions
JP7216314B1 (en
Inventor
大樹 親川
Daiki Shinkawa
裕貴 信夫
Yuki Shinobu
睦 道家
Mutsumi Doke
春歌 谷▲崎▼
Haruka Tanizaki
健太 日下
Kenta Kusaka
康隆 瀬戸
Yasutaka Seto
郷介 福岡
Kyosuke Fukuoka
央海 原
Hisaumi Hara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2022023234A priority Critical patent/JP7216314B1/en
Priority to JP2023003832A priority patent/JP2023120151A/en
Application granted granted Critical
Publication of JP7216314B1 publication Critical patent/JP7216314B1/en
Publication of JP2023120054A publication Critical patent/JP2023120054A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

To provide a program, an information processor, and an information processing method allowing a user to utilize an animation including a scene preferable to the user from among game animations being played in a game.SOLUTION: A program allows a processor to execute a process for outputting an object animation specified based on sound from a game animation related to play of a game in a state that a user who plays the game can utilize when a value regarding the sound in a real space detected during play of the game satisfies a predetermined condition.SELECTED DRAWING: Figure 8

Description

本発明は、プログラム、情報処理装置、及び情報処理方法に関する。 The present invention relates to a program, an information processing apparatus, and an information processing method.

ゲームプレイ中の画面(プレイ画面)を記録することで得られるゲーム動画を保存すること、又は他のユーザと共有する目的でゲーム動画を投稿することは、既に行われている(例えば、特許文献1参照)。 Saving game videos obtained by recording screens during game play (play screens), or posting game videos for the purpose of sharing with other users has already been done (for example, Patent Document 1).

特許第6247315号Patent No. 6247315

一方、ゲームのプレイ開始からプレイ終了まで連続して録画すると、ゲーム動画の容量が大きくなりすぎるため、ゲーム動画の一部分を選び出してユーザに提供する場合がある。この場合、ゲーム動画中、ユーザが利用するのに適したシーンの動画、例えば、ユーザが盛り上がったタイミングを含む期間の動画を利用可能とすることが求められる。 On the other hand, if the game is continuously recorded from the start to the end of play, the size of the game video becomes too large, so there are cases where a part of the game video is selected and provided to the user. In this case, it is required to make available a movie of a scene suitable for use by the user, for example, a movie of a period including the timing when the user is excited.

そこで、本発明は、ゲーム動画のうち、ユーザにとって好ましいシーンを含む動画を利用可能とするプログラム、情報処理装置、及び情報処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a program, an information processing apparatus, and an information processing method that make it possible to use a game video including scenes that are preferable to the user.

本発明の一つの態様に係るプログラムは、ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、ゲームのプレイと関連付けられたゲーム動画から上記の音に基づいて特定される対象動画を、ゲームをプレイしたユーザが利用可能な状態で出力する出力処理を、プロセッサに実行させることを特徴とする。 A program according to one aspect of the present invention, when a value related to sound in the real space detected during game play satisfies a predetermined condition, based on the sound from the game video associated with the game play The processor is caused to execute an output process of outputting the target moving image specified by the above in a state that can be used by the user who has played the game.

本発明の一態様によれば、ゲーム動画のうち、ユーザにとって好ましいシーン、例えば盛り上がったシーンを含む動画を利用可能とするプログラム、情報処理装置、及び情報処理方法を提供することができる。 ADVANTAGE OF THE INVENTION According to one aspect of the present invention, it is possible to provide a program, an information processing apparatus, and an information processing method that make it possible to use, among game videos, scenes that are preferable to the user, for example, videos that include exciting scenes.

複数のユーザが共同でゲームをプレイするケースにおいて、各ユーザ端末に表示されるプレイ画面の一例を示す図である。FIG. 4 is a diagram showing an example of a play screen displayed on each user terminal when a plurality of users jointly play a game; 複数のユーザが共同でゲームをプレイするケースにおいて、あるユーザのユーザ端末が音声を検知した場合のプレイ画面の一例を示す図である。FIG. 10 is a diagram showing an example of a play screen when a certain user's user terminal detects sound in a case where a plurality of users play a game together; 動画の利用を要求する画面の一例を示す図である。FIG. 10 is a diagram showing an example of a screen requesting use of moving images; ユーザ端末及びサーバの各々のハードウェア構成を示す図である。It is a figure which shows each hardware configuration of a user terminal and a server. 本発明の第1実施形態に係る情報処理装置の機能に関する図である。1 is a diagram relating to functions of an information processing apparatus according to a first embodiment of the present invention; FIG. ゲーム動画から対象動画を出力する第1の手順を示す図である。It is a figure which shows the 1st procedure which outputs an object animation from a game animation. ゲーム動画から対象動画を出力する第2の手順を示す図である。It is a figure which shows the 2nd procedure which outputs a target animation from a game animation. 共同プレイモードにおいてゲーム動画から対象動画を出力する手順を示す図である。It is a figure which shows the procedure which outputs an object animation from a game animation in joint play mode. 提示画面の一例を示す図である。It is a figure which shows an example of a presentation screen. 本発明の第1実施形態に係る情報処理フローを示す図である。It is a figure which shows the information processing flow which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る情報処理装置の構成を示す図である。1 is a diagram showing the configuration of an information processing apparatus according to a first embodiment of the present invention; FIG. 推奨画面の一例を示す図である。It is a figure which shows an example of a recommendation screen. 本発明の第2実施形態に係る情報処理フローを示す図である。It is a figure which shows the information processing flow which concerns on 2nd Embodiment of this invention. 選択動画と推奨動画との関係を示す図である。It is a figure which shows the relationship between a selection moving image and a recommended moving image.

以下、本発明のプログラム、情報処理装置及び情報処理について、複数の具体的な実施形態(第1実施形態及び第2実施形態)を挙げて、添付の図面を参照しながら説明する。 Hereinafter, a program, an information processing apparatus, and information processing according to the present invention will be described with reference to the accompanying drawings by citing a plurality of specific embodiments (first embodiment and second embodiment).

なお、以下に説明する実施形態は、本発明の理解を容易にするために挙げた一例にすぎず、本発明を限定するものではない。すなわち、本発明は、その趣旨を逸脱しない限りにおいて、以下に説明する実施形態から変更又は改良され得る。また、本発明には、その等価物が含まれる。 It should be noted that the embodiment described below is merely an example given to facilitate understanding of the present invention, and does not limit the present invention. That is, the present invention can be changed or improved from the embodiments described below without departing from the spirit of the present invention. The present invention also includes equivalents thereof.

また、以下の説明の中で参照される図面が示す画面例も一例に過ぎず、画面の構成例、表示される情報の内容、及びGUI(Graphical User Interface)等は、システム設計の仕様及びユーザの好み等に応じて自由に設計することができ、また適宜変更し得るものである。 In addition, the screen examples shown in the drawings referred to in the following description are only examples, and the configuration examples of the screens, the contents of the displayed information, GUI (Graphical User Interface), etc., may vary depending on the specifications of the system design and the user. It can be freely designed according to the user's preference, etc., and can be changed as appropriate.

[本発明が適用されるゲームについて]
本発明が適用されるゲーム(以下、単に「ゲーム」という)について、図1乃至3を参照しながら説明する。
[Regarding the game to which the present invention is applied]
A game to which the present invention is applied (hereinafter simply referred to as "game") will be described with reference to FIGS.

ゲームは、ユーザがユーザ端末を操作してプレイするオンラインゲームである。オンラインゲームには、ウェブブラウザを利用したブラウザゲーム、SNS(Social Networking Service)上で提供されるソーシャルゲーム等、モバイルゲーム等のように専用のアプリケーションソフトをダウンロードしてプレイ可能なゲーム、及びプレイバイウェブ(PBW)等の定期更新型オンラインゲーム等が含まれる。なお、ゲームのジャンル(分類)は、特に限定されるものではない。 A game is an online game played by a user operating a user terminal. Online games include browser games using a web browser, social games provided on SNS (Social Networking Service), games that can be played by downloading dedicated application software such as mobile games, and play-by-play games. Periodically updated online games such as web (PBW) are included. The genre (classification) of the game is not particularly limited.

ゲームにおいて、ユーザは、ゲーム内キャラクタ(以下、単に「キャラクタ」という)を操作して、各クエストのエリア内に設定されたフィールドにて移動させる。クエストは、クリアを目的として設定されたゲームの構成単位(ステージ)であり、ゲームにおいて1又は2以上存在する。エリアは、クエスト毎に設定されたゲーム内空間であり、フィールドは、エリア内の地形であり、例えば、床、地面又は水面のように二次元状に広がった領域である。 In the game, the user operates an in-game character (hereinafter simply referred to as "character") to move in a field set within each quest area. A quest is a constituent unit (stage) of a game set for the purpose of clearing, and there are one or more quests in the game. The area is an in-game space set for each quest, and the field is the terrain within the area, such as a two-dimensional area such as the floor, ground, or water surface.

ゲームのプレイ中、ユーザ端末10の画面には、フィールド中、キャラクタの位置に応じた領域が表示され、ユーザは、画面を見て、自分が操作するキャラクタと、キャラクタ周辺の範囲とを確認することができる。以下、ゲームのプレイ中にユーザ端末に表示される画面を「プレイ画面」とも呼ぶこととする。 During the game play, the screen of the user terminal 10 displays an area corresponding to the position of the character in the field, and the user looks at the screen to check the character that he or she operates and the range around the character. be able to. Hereinafter, the screen displayed on the user terminal while playing the game will also be referred to as the "play screen".

なお、以下の説明において、「ゲームのプレイ中」とは、各クエストをプレイする期間中、つまり、キャラクタをフィールドにて移動させる間を意味する。また、キャラクタをフィールドにて移動させることには、キャラクタが飛行体等である場合にはフィールドの上空を飛行すること、並びに、キャラクタが地中を走行可能である場合にはフィールドの下(地面の中)を移動することが含まれ得る。 In the following description, "during game play" means the period during which each quest is played, that is, the period during which the character is moved in the field. Also, to move a character in the field, if the character is an air vehicle, it must fly over the field, and if the character can run underground, it must be below the field (the ground). (inside).

ユーザは、フィールド上でキャラクタを移動させながら、フィールド上に存在する敵をキャラクタに攻撃させて倒したり、また、フィールド上に置かれた補助アイテムをキャラクタに拾得させたりする。また、各クエストのプレイ中には一つ以上のイベントが実施され、イベントの実施期間中、ユーザは、そのイベントをプレイすることができる。イベントは、各クエストにてプレイ可能なゲーム要素であり、例えば、各クエストのボス敵との戦闘、敵との試合や競争(レース)、及び所定のアイテムを入手すること等である。 While moving the character on the field, the user causes the character to attack and defeat enemies present on the field, or pick up auxiliary items placed on the field. In addition, one or more events are implemented during the play of each quest, and the user can play the event during the implementation period of the event. Events are game elements that can be played in each quest, and include, for example, battles with boss enemies of each quest, matches and competitions (races) with enemies, and acquisition of predetermined items.

ゲームは、複数のユーザが共同でプレイ可能であり、ユーザは、ゲームのプレイに際して、単独プレイモード、及び、共同プレイモード(マルチプレイモード)のいずれかを選択する。単独プレイモードは、ユーザが指定したクエストを、一人のユーザが単独でプレイするモードである。共同プレイモードは、互いに通信可能な複数のユーザが同一のクエストを共同してプレイするモードである。共同プレイを行う場合のユーザ間の通信方式は、サーバを介するクライアント・サーバ方式でもよく、あるいは、サーバを介さないP2P(ピア・ツー・ピア)方式でもよい。なお、共同プレイモードにてゲームを共同でプレイすることができるユーザの上限数(最大参加人数)は、任意に決めることができる。 The game can be played jointly by a plurality of users, and the users select either a single play mode or a joint play mode (multi-play mode) when playing the game. The single play mode is a mode in which one user plays the quest specified by the user alone. A joint play mode is a mode in which a plurality of users who can communicate with each other play the same quest jointly. The method of communication between users for cooperative play may be a client-server method via a server, or a P2P (peer-to-peer) method without a server. The upper limit of the number of users (maximum number of participants) who can jointly play the game in the joint play mode can be arbitrarily determined.

共同プレイにおいて、共同プレイが行われるクエストのフィールドには、図1に示すようにユーザ数と同数のキャラクタ(図1では、人型のキャラクタ)が配置される。複数のユーザの各々は、各自のユーザ端末10を操作して、各自のキャラクタをフィールドにて移動させる。これにより、各ユーザが操作するユーザ端末10の画面には、フィールド中、各ユーザのキャラクタの位置に応じた領域が表示される。そのため、共同プレイにおいて、各ユーザのプレイ画面は、各ユーザのキャラクタ操作に応じて変わり、図1に示すようにユーザ毎(つまり、ユーザ端末10毎)に異なる。 In the joint play, the same number of characters as the number of users (in FIG. 1, humanoid characters) are arranged in the field of the quest in which the joint play is performed, as shown in FIG. Each of the plurality of users operates his/her own user terminal 10 to move his/her character in the field. As a result, on the screen of the user terminal 10 operated by each user, an area corresponding to the position of each user's character is displayed in the field. Therefore, in the cooperative play, the play screen of each user changes according to each user's character operation, and differs for each user (that is, for each user terminal 10) as shown in FIG.

なお、各ユーザのプレイ画面、つまり、フィールド中の表示範囲は、各ユーザが操作するキャラクタの種類や性質に応じて異なってもよい。また、各ユーザのプレイ画面は、図1に示すように、フィールド中、各ユーザが操作するキャラクタ周辺を真上から見た場合の画面であるが、これに限定されず、任意の視線角度(ビューアングル)から見た場合の画面であってもよい。その場合の視線角度は、ゲームのプレイ中に各ユーザが自由に設定でき、また設定後にも自由に変更できてもよい。 Note that the play screen of each user, that is, the display range in the field may differ according to the type and nature of the character operated by each user. In addition, as shown in FIG. 1, each user's play screen is a screen when the periphery of the character operated by each user is viewed from directly above in the field, but is not limited to this, and can be set at any line-of-sight angle ( view angle). In this case, each user can freely set the line-of-sight angle while playing the game, and may also freely change the line-of-sight angle after the setting.

また、共同プレイ中、各ユーザは、他のユーザと互いに協力してプレイすることができ、例えば、自分がゲーム内で所持するアイテム等を、他のユーザが操作するキャラクタに対して使用することができる。また、他のユーザに利用(拾取)してもらうために、自分が所持するアイテムをフィールド上に配置することができる。また、各ユーザが、自分のキャラクタにフィールド上の敵を攻撃させる際に、他のユーザと連携して所定の効果(具体的には、他のユーザのキャラクタとの連携攻撃)を発動させることができる。 Also, during the co-play, each user can play in cooperation with other users. can be done. In addition, it is possible to arrange items owned by oneself on the field so that other users can use (pick up) them. In addition, when each user causes his or her character to attack an enemy on the field, the user may cooperate with other users to activate a predetermined effect (specifically, a cooperative attack with another user's character). can be done.

また、複数のユーザの各々は、共同プレイが行われるクエストにおいてイベントをプレイすることができる。具体的には、イベントの実施期間中、複数のユーザのうち、フィールド上のイベント発生箇所(例えば、ボス敵の周辺)に位置するキャラクタを操作するユーザは、イベントをプレイすることができる。この場合、イベントをプレイするユーザのプレイ画面には、イベントが実施されるシーンが表示される。他方、キャラクタがイベント発生箇所から外れたユーザは、イベントをプレイできない(例えば、イベントの演出を見ることができない)ことがあり得る。 Also, each of a plurality of users can play an event in a quest in which joint play is performed. Specifically, during the event period, a user who operates a character positioned at an event occurrence location (for example, around a boss enemy) on the field can play the event. In this case, a scene in which the event is held is displayed on the play screen of the user playing the event. On the other hand, a user whose character is out of the event occurrence location may not be able to play the event (for example, be unable to see the presentation of the event).

ところで、本発明では、ゲームのプレイ中、プレイ画面を記録(キャプチャ)してゲーム動画を録画することができる。ゲーム動画とは、ゲームのプレイと関連付けられた動画であり、プレイ画面に基づいて生成される。ゲームのプレイと関連付けられた動画は、ユーザによるプレイ内容(分かり易くは、ユーザが操作するキャラクタの動き等)を表す動画であり、ゲームのプレイ中の動画である。なお、ゲーム動画は、ゲームのプレイ中にユーザ端末に実際に表示されたプレイ画面を一定のフレームレートで記録したものでもよく、あるいは、実際のプレイ画面を編集した画像又は実際のプレイ画面から視線角度を変更した画像を記録したものでもよい。 By the way, in the present invention, it is possible to record (capture) a play screen and record a game moving image while the game is being played. A game video is a video associated with game play, and is generated based on a play screen. The moving image associated with the game play is a moving image representing the content of the play by the user (for easy understanding, the movement of a character operated by the user, etc.), and is a moving image during the game play. In addition, the game video may be a play screen that is actually displayed on the user terminal during game play recorded at a constant frame rate, or an edited image of the actual play screen or a line of sight from the actual play screen. It may be a recorded image with a different angle.

また、共同プレイモードでは、各ユーザのプレイ画面に基づくゲーム動画を、ユーザ毎(換言すると、ユーザ端末10毎)に録画することができる。共同プレイモードでは、前述したように、各ユーザのプレイ画面が各ユーザのキャラクタ操作に応じて変わるため、プレイ画面に基づくゲーム動画もユーザ毎(つまり、ユーザ端末10毎)に異なる。 Also, in the joint play mode, a game video based on the play screen of each user can be recorded for each user (in other words, for each user terminal 10). In the joint play mode, as described above, each user's play screen changes according to each user's character operation, so the game animation based on the play screen also differs for each user (that is, for each user terminal 10).

また、ゲーム動画の録画は、ゲームのプレイ開始からプレイ終了まで連続して行われる。ただし、ゲームのプレイ開始からプレイ終了まで録画したゲーム動画は、比較的大容量となる。そのため、本発明では、ゲーム動画中の一部を特定し、特定された動画(以下、対象動画という)を、ゲームをプレイしたユーザが利用可能な状態で出力することができる。対象動画をユーザが利用可能な状態で出力するとは、ユーザの要求に応じて対象動画を保存、閲覧及び使用できるように対象動画を出力することである。 Also, video recording of the game is continuously performed from the start of the game play to the end of the play. However, a game video recorded from the start of a game play to the end of the play has a relatively large capacity. Therefore, in the present invention, it is possible to specify a part of the game video and output the specified video (hereinafter referred to as the target video) in a state that can be used by the user who has played the game. Outputting the target moving image in a state in which the user can use it means outputting the target moving image so that the target moving image can be saved, browsed, and used according to the user's request.

ここで、対象動画の使用とは、対象動画を編集、加工及び共有等することであり、共有には、SNS又は動画投稿サイト等への投稿が含まれる。また、対象動画の出力とは、対象動画のデータを生成して記憶することであり、生成には、ゲーム動画の中から対象動画を切り出す(抽出する)ことが含まれ得る。
なお、ユーザが利用する前段階での対象動画の記憶先は、特に限定されず、例えば、ユーザ端末10でもよいし、ユーザ端末10と通信可能に接続されたサーバ14でもよい。
Here, use of the target moving image means editing, processing, sharing, etc. of the target moving image, and sharing includes posting to SNS, a moving image posting site, or the like. Also, outputting the target moving image means generating and storing data of the target moving image, and generating may include cutting out (extracting) the target moving image from the game moving image.
Note that the storage destination of the target moving image before being used by the user is not particularly limited.

また、本発明では、ゲームのプレイ中、現実空間の音をユーザ端末10に内蔵されたマイクによって収音して検知することができる。現実空間の音とは、ゲームをプレイするユーザが居る空間にて発生する音であり、ゲーム内の操作音、効果音及びBGMを除く音である。現実空間の音には、ゲームをプレイするユーザの音声、ユーザ周辺にいる人の音声、クラッカーや楽器等のような機器から発せられる音が含まれる。 In addition, in the present invention, it is possible to pick up and detect sounds in the real space with the built-in microphone of the user terminal 10 while playing the game. The sound in the real space is the sound generated in the space where the user playing the game exists, and is the sound other than the operation sounds, effect sounds, and BGM in the game. Sounds in the real world include the voices of the user playing the game, the voices of people around the user, and the sounds emitted from devices such as crackers and musical instruments.

また、共同プレイでは、各ユーザ端末10にて検知された音をデータ化して他のユーザ端末10に向けて送信し、送信先のユーザ端末10にて当該音を再生することができる。この機能を利用することにより、共同プレイに参加する複数のユーザは、ゲームのプレイ中、他のユーザと音声会話(いわゆるボイスチャット)を行うことができる。 Also, in joint play, the sound detected by each user terminal 10 can be converted into data and transmitted to another user terminal 10, and the sound can be reproduced by the user terminal 10 of the transmission destination. By using this function, a plurality of users participating in joint play can have voice conversations (so-called voice chat) with other users while playing the game.

なお、共同プレイモードにおいて各ユーザ端末に表示されるプレイ画面には、図2に示すように、各ユーザと対応するアイコンICが表示される。アイコンICは、各ユーザ端末10を操作するユーザの名前、又はユーザの顔の写真若しくはイラスト等を表す。そして、ゲームのプレイ中、あるユーザが発話すると、そのユーザのユーザ端末10が発話音(音声)を検知し、これに伴って、発話したユーザと対応するアイコンIC(図2中、左上のアイコンIC)が、発話音検知時の表示態様で表示される。
発話音検知時の表示態様は、どのユーザ端末10で発話音を検知したのかを識別可能な表示態様であり、具体的には、発話音を検知してない場合よりアイコンICの表示サイズが大きくなったり、アイコンICが揺れたりすることである。また、アイコンICの代わりに、検知された発話音の内容を示す文字情報を含む吹出しマークを、発話したユーザが操作するキャラクタ付近に表示してもよい。
Note that icons IC corresponding to each user are displayed on the play screen displayed on each user terminal in the joint play mode, as shown in FIG. The icon IC represents the name of the user who operates each user terminal 10, or a photograph or illustration of the user's face. Then, when a certain user speaks while playing the game, the user's user terminal 10 detects the speech sound (voice). IC) is displayed in the display mode when the speech sound is detected.
The display mode when the speech sound is detected is a display mode in which it is possible to identify which user terminal 10 has detected the speech sound. Specifically, the display size of the icon IC is larger than when the speech sound is not detected. or the icon IC shakes. Also, instead of the icon IC, a balloon mark containing character information indicating the contents of the detected utterance sound may be displayed near the character operated by the user who has made the utterance.

以上のように、共同プレイモードでは、各ユーザ端末でプレイ画面を表示しつつ、各ユーザの会話等の音(現実空間の音)を再生することができる。また、共同プレイモードにおいてゲームのプレイ中に録画されるゲーム動画、及び、ゲーム動画から特定される対象動画には、各ユーザ端末で検知された音が組み込まれ、また、上述のアイコンIC又は吹出しマークが動画中に重ねて表示される。 As described above, in the joint play mode, each user terminal can display the play screen while playing back the sounds of conversations of each user (sounds in the real space). In addition, the game video recorded during the game play in the co-play mode and the target video specified from the game video incorporate the sound detected by each user terminal, and the above-mentioned icon IC or balloon The mark is superimposed on the video.

なお、ユーザの発話音等の音を検知し、検知された音をデータ化して動画に組み込むにあたり、ゲーム開始前においてユーザの承諾を予め得ておくのがよい。仮にユーザの承諾を得られない場合には、そのユーザの発話音を検知して後述の判定処理(判定部58による判定)に用いる一方で、データ化して動画に組み込むことはしない。 It is preferable to obtain the user's consent in advance before starting the game when detecting sounds such as the user's utterances, converting the detected sounds into data, and incorporating them into the moving image. If the user's consent cannot be obtained, the user's utterance is detected and used in the determination process (determination by the determination unit 58) described later, but is not converted into data and incorporated into the moving image.

また、ユーザがSNSのアカウントを有し、ユーザ端末10にSNS用のアプリケーションプログラム(以下、SNSアプリ)がインストールされている場合、そのユーザは、対象動画をSNSに投稿することができる。具体的に説明すると、クエストの終了後にユーザがアプリ起動操作を行うと、SNSアプリが起動する。そして、ユーザがクエスト終了後に表示される画面上で投稿操作を行う(例えば、図3に示す画面中の投稿ボタンを押す)と、直前にプレイしたクエストのゲーム動画から特定された対象動画がSNSに投稿される。投稿された対象動画は、SNSの利用者によって共有され、具体的には、SNSの利用者が閲覧可能となる。なお、対象動画の投稿先は、SNS以外でもよく、例えば動画投稿サイトであってもよい。 Further, when a user has an SNS account and an application program for SNS (hereinafter referred to as an SNS application) is installed in the user terminal 10, the user can post the target moving image to the SNS. Specifically, when the user performs an application activation operation after completing the quest, the SNS application is activated. Then, when the user performs a post operation on the screen displayed after the quest is over (for example, presses the post button in the screen shown in FIG. 3), the target video specified from the game video of the quest played immediately before is posted on the SNS. Posted in. The posted target video is shared by SNS users, and specifically, can be viewed by SNS users. It should be noted that the destination of posting the target video may be other than the SNS, and may be, for example, a video posting site.

[本発明の第1実施形態について]
本発明の情報処理装置は、ゲームのプレイ中、ゲーム動画を録画し、所定の条件に基づいてゲーム動画の一部を特定し、特定された動画(対象動画)を、ゲームをプレイしたユーザが利用可能な状態で出力する。
[Regarding the first embodiment of the present invention]
The information processing apparatus of the present invention records a game video during game play, identifies a portion of the game video based on a predetermined condition, and transmits the identified video (target video) to a user who has played the game. Output as available.

本発明の第1実施形態では、各ユーザのユーザ端末10が情報処理装置を構成する。具体的には、各ユーザのユーザ端末10にインストールされたゲーム用プログラム(以下、ゲームアプリ)が実行されることで、各ユーザ端末10は、上述した本発明の情報処理装置としての機能を発揮する。
以下、第1実施形態に係る情報処理装置の構成について、図4乃至6を参照しながら説明する。なお、図4では、図示の便宜上、ユーザ端末10の台数を1台としているが、実際には、ゲームをプレイするユーザの人数に応じた台数のユーザ端末10が存在する。
In the first embodiment of the present invention, the user terminal 10 of each user constitutes an information processing device. Specifically, by executing a game program (hereinafter referred to as a game application) installed in the user terminal 10 of each user, each user terminal 10 functions as the information processing apparatus of the present invention described above. do.
The configuration of the information processing apparatus according to the first embodiment will be described below with reference to FIGS. 4 to 6. FIG. In FIG. 4, for convenience of illustration, the number of user terminals 10 is one, but in reality, there are as many user terminals 10 as there are users who play the game.

ユーザ端末10は、例えば、パソコン、スマートフォン、携帯電話、タブレット端末、ゲーム機、情報入力が可能なテレビ受像機、又はウェアラブル端末等によって構成される。ユーザ端末10は、図4に示すように通信用ネットワーク12を介してサーバ14、又は他のユーザ端末10と通信可能に接続されている。通信用ネットワーク12は、例えばインターネット又はモバイル通信ネットワークからなる通信回線網であり、LAN(Local Area Network)、WAN(Wide Area Network)、イントラネット及びイーサネット(登録商標)等を含むものであってもよい。 The user terminal 10 is configured by, for example, a personal computer, a smart phone, a mobile phone, a tablet terminal, a game machine, a television receiver capable of inputting information, a wearable terminal, or the like. The user terminal 10 is communicably connected to a server 14 or another user terminal 10 via a communication network 12 as shown in FIG. The communication network 12 is, for example, a communication network such as the Internet or a mobile communication network, and may include a LAN (Local Area Network), a WAN (Wide Area Network), an intranet, Ethernet (registered trademark), and the like. .

また、共同プレイモードにおいて複数のユーザが共同してゲーム(詳しくは、同じクエスト)をプレイする場合、各ユーザのユーザ端末10は、共通の構成である。ユーザ端末10は、ハードウェア機器として、図4に示すように、プロセッサ21、メモリ22、通信用インタフェース23、ストレージ24、入力装置25、及び出力装置26を有し、これらがバス27を介して電気的に接続されている。また、ユーザ端末10は、リアルタイムクロック(RTC)を搭載しており、RTCの機能により、ゲームのプレイ中の各時点を特定することが可能である。 Moreover, when several users play a game (specifically, the same quest) jointly in joint play mode, the user terminal 10 of each user is a common structure. The user terminal 10 has, as hardware devices, a processor 21, a memory 22, a communication interface 23, a storage 24, an input device 25, and an output device 26, as shown in FIG. electrically connected. In addition, the user terminal 10 is equipped with a real-time clock (RTC), and it is possible to specify each point in time during game play by the function of the RTC.

プロセッサ21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、MCU(Micro Controller Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、TPU(Tensor Processing Unit)又はASIC(Application Specific Integrated Circuit)等によって構成されるとよい。 The processor 21 is a CPU (Central Processing Unit), MPU (Micro-Processing Unit), MCU (Micro Controller Unit), GPU (Graphics Processing Unit), DSP (Digital Signal Processor), TPU (Tensor Processing Unit) or ASIC (Application specific integrated circuit) or the like.

メモリ22は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の半導体メモリによって構成されるとよい。 The memory 22 is preferably composed of semiconductor memories such as ROM (Read Only Memory) and RAM (Random Access Memory).

通信用インタフェース23は、例えばネットワークインターフェースカード、又は通信インタフェースボード等によって構成されるとよい。通信用インタフェース23によるデータ通信の規格については、特に限定されるものではなく、Wi-fi(登録商標)に基づく無線LANによる通信、3G~5G若しくはそれ以降の世代の移動通信システムによる通信、又はLTE(Long Term Evolution)に基づく通信等が挙げられる。 The communication interface 23 may be configured by, for example, a network interface card or a communication interface board. The standard of data communication by the communication interface 23 is not particularly limited, and communication by wireless LAN based on Wi-fi (registered trademark), communication by 3G to 5G or later generation mobile communication systems, or Communication based on LTE (Long Term Evolution) and the like can be mentioned.

ストレージ24は、フラッシュメモリ、HDD(Hard Disc Drive)、SSD(Solid State Drive)、FD(Flexible Disc)、MOディスク(Magneto-Optical disc)、CD(Compact Disc)、DVD(Digital Versatile Disc)、SDカード(Secure Digital card)、又はUSBメモリ(Universal Serial Bus memory)等によって構成されるとよい。また、ストレージ24は、ユーザ端末10内に内蔵されてもよく、外付け形式でサーバ本体に取り付けてもよい。さらに、ストレージ24は、ユーザ端末10の本体と通信可能に接続された外部コンピュータ(例えば、データベースサーバ)等によって構成されてもよい。 The storage 24 includes flash memory, HDD (Hard Disc Drive), SSD (Solid State Drive), FD (Flexible Disc), MO disc (Magneto-Optical disc), CD (Compact Disc), DVD (Digital Versatile Disc), SD It may be configured by a card (Secure Digital card), a USB memory (Universal Serial Bus memory), or the like. Further, the storage 24 may be built in the user terminal 10, or may be attached to the server body in an external form. Furthermore, the storage 24 may be configured by an external computer (for example, a database server) or the like communicably connected to the main body of the user terminal 10 .

入力装置25は、ユーザのゲーム操作を受け付ける機器であり、ユーザ端末10に設けられた操作ボタン、タッチパネル、並びに、ユーザ端末10に接続されたキーボード、マウス及びコントローラ等によって構成されるとよい。また、入力装置25には、図4に示すように収音用のマイク28が含まれる。 The input device 25 is a device that accepts a user's game operation, and may be composed of operation buttons and a touch panel provided on the user terminal 10, and a keyboard, mouse, controller, etc. connected to the user terminal 10. The input device 25 also includes a microphone 28 for picking up sound, as shown in FIG.

出力装置26は、ゲームのプレイ画面を表示し、また、音声を再生する機器であり、ユーザ端末10に設けられたディスプレイ29及びスピーカ30等を含む。なお、出力装置26は、タッチパネルディスプレイのように入力装置25と一体化したものでもよい。また、ディスプレイ29は、ユーザ端末10に対して有線又は無線の形式にて接続されたディスプレイでもよく、無線の形式にて接続されたディスプレイとしては、ヘッドマウントディスプレイ等が利用可能である。 The output device 26 is a device that displays a game play screen and reproduces sound, and includes the display 29 and the speaker 30 provided in the user terminal 10 . The output device 26 may be integrated with the input device 25 like a touch panel display. Also, the display 29 may be a display connected to the user terminal 10 in a wired or wireless format, and a head-mounted display or the like can be used as the display connected in a wireless format.

また、ユーザ端末10には、ソフトウェアとして、オペレーティングシステム(OS)用のプログラム、及びゲームアプリがインストールされている。これらのプログラムは、本発明の「プログラム」に相当し、プロセッサ21が読み取り可能な記録媒体(メディア)から読み込むことで取得してもよく、あるいは、インターネット又はイントラネット等のネットワークを介して取得(ダウンロード)してもよい。 In addition, the user terminal 10 is installed with an operating system (OS) program and a game application as software. These programs correspond to the "program" of the present invention, and may be obtained by reading from a recording medium (media) readable by the processor 21, or obtained (downloaded) via a network such as the Internet or an intranet. ).

サーバ14は、ゲームのプレイに必要なデータの生成及び送受信等、及びゲームのプレイに関する各種の情報処理を実行する。具体的に説明すると、共同プレイモードにおいて複数のユーザが共同で同じクエストをプレイする際、サーバ14は、各ユーザ端末10から各ユーザの操作内容を示すデータを受信し、各ユーザの操作に応じてゲームを進行させ、ゲームの進行度合いに応じたプレイ画面を各ユーザ端末10に表示させる。 The server 14 generates, transmits and receives data necessary for playing the game, and executes various information processing related to the playing of the game. Specifically, when a plurality of users play the same quest jointly in the joint play mode, the server 14 receives data indicating the operation content of each user from each user terminal 10, and responds to each user's operation. to progress the game, and display a play screen on each user terminal 10 in accordance with the degree of progress of the game.

また、例えば、共同プレイモードにおいて、ゲームのプレイ中に一人又は複数のユーザが発話すると、発話したユーザにより操作されるユーザ端末10が発話音(音声)を検知し、検知した音をデータ化して送信する。データ化された音(以下、音データ)は、サーバ14を経由して他のユーザのユーザ端末10に向けて送信される。音データを受信したユーザ端末10では、音データが展開されて発話音がスピーカ30から出力される。 Further, for example, in the co-play mode, when one or more users speak while playing the game, the user terminal 10 operated by the user who speaks detects the speech sound (voice), and converts the detected sound into data. Send. Sounds converted into data (hereinafter referred to as sound data) are transmitted to the user terminals 10 of other users via the server 14 . Upon receiving the sound data, the user terminal 10 expands the sound data and outputs the speech sound from the speaker 30 .

サーバ14は、ASP(Application Service Provider)、SaaS(Software as a Service)、PaaS(Platform as a Service)又はIaaS(Infrastructure as a Service)用のサーバコンピュータであってもよい。また、サーバ14には、SNSサーバが含まれる。SNSサーバは、SNS利用者の投稿を受け付け、投稿された記事又は動画を共有する。ゲームのクエストをプレイしたユーザがSNS利用者であり、そのユーザが対象動画を投稿すると、SNSサーバは、投稿された対象動画を共有する。 The server 14 may be a server computer for ASP (Application Service Provider), SaaS (Software as a Service), PaaS (Platform as a Service) or IaaS (Infrastructure as a Service). The server 14 also includes an SNS server. The SNS server receives posts from SNS users and shares posted articles or videos. A user who has played a game quest is an SNS user, and when the user posts a target video, the SNS server shares the posted target video.

サーバ14は、ハードウェア機器として、図4に示すように、プロセッサ41、メモリ42、通信用インタフェース43、ストレージ44を有し、これらがバス45を介して電気的に接続されている。また、サーバ14には、サーバ14としての機能を発揮させるためのプログラムがインストールされている。 The server 14 has, as hardware devices, a processor 41, a memory 42, a communication interface 43, and a storage 44, which are electrically connected via a bus 45, as shown in FIG. In addition, the server 14 is installed with a program for functioning as the server 14 .

次に、ユーザ端末10の構成を機能面から改めて説明すると、ユーザ端末10は、図5に示すように、操作受付部51、ゲーム進行部52、表示再生部53、記憶部54、録画部55、録音部56、検知部57、判定部58、出力部59、提示部60、保存部61、及び投稿部62を有する。これらの機能部のうち、記憶部54は、メモリ22又はストレージ24によって実現され、それ以外は、ユーザ端末10を構成する各種のハードウェア機器と、ユーザ端末10にインストールされたプログラムとが協働することで実現される。
以下、各機能部について詳しく説明する。
Next, the configuration of the user terminal 10 will be explained again from the functional aspect. As shown in FIG. , a recording unit 56 , a detection unit 57 , a determination unit 58 , an output unit 59 , a presentation unit 60 , a storage unit 61 , and a posting unit 62 . Among these functional units, the storage unit 54 is realized by the memory 22 or the storage 24, and other than that, various hardware devices that configure the user terminal 10 and programs installed in the user terminal 10 work together. It is realized by
Each functional unit will be described in detail below.

(操作受付部)
操作受付部51は、ユーザがユーザ端末10を通じて行うゲーム進行用の操作を受け付ける。操作受付部51が受け付けるユーザの操作には、ゲームのプレイ開始前、プレイ中及びプレイ終了後にユーザが行う各種の操作、具体的には、各種の選択、指定、指示、要求、命令、許可又は拒否、登録及びその他の入力操作等が含まれる。
(Operation reception part)
The operation accepting unit 51 accepts an operation for progressing the game performed by the user through the user terminal 10 . The user's operations accepted by the operation accepting unit 51 include various operations performed by the user before, during, and after the game is played, specifically, various selections, designations, instructions, requests, orders, permissions, or Rejection, registration and other input operations are included.

(ゲーム進行部)
ゲーム進行部52は、ゲームのプレイ中、サーバ14から送られてくるゲーム進行用のデータに基づき、ユーザから受け付けた操作に応じてゲームを進行させる。例えば、ユーザの移動操作を受け付けた場合、ゲーム進行部52は、そのユーザのキャラクタをフィールドにて移動させる。この際、ゲーム進行部52は、キャラクタの移動に連動させてフィールドの状態を変化させてもよく、例えば、フィールド上の敵の出現位置を変更させてもよい。また、ユーザの攻撃操作を受け付けた場合、ゲーム進行部52は、キャラクタの周辺に存在する敵をキャラクタに攻撃させる。
(Game progress part)
The game progressing unit 52 progresses the game according to the operation received from the user based on the data for progressing the game sent from the server 14 during the game play. For example, when receiving a user's movement operation, the game progression unit 52 moves the user's character in the field. At this time, the game progression section 52 may change the state of the field in conjunction with the movement of the character, for example, change the appearance position of the enemy on the field. Further, when receiving an attack operation from the user, the game progression unit 52 causes the character to attack enemies present around the character.

また、ゲームのプレイ中、所定のイベント発生条件が満たされると、サーバ14からイベント発生用のデータが送られてくる。ゲーム進行部52は、そのデータを受信すると、受信したデータに基づくイベントをゲーム内で発生させる。これにより、ユーザ(詳しくは、フィールド上のイベント発生箇所の付近に位置するキャラクタを操作するユーザ)は、発生したゲーム内イベントをプレイすることができる。 Further, when a predetermined event occurrence condition is satisfied during game play, data for event occurrence is sent from the server 14 . When receiving the data, the game progression unit 52 generates an event in the game based on the received data. As a result, the user (specifically, the user who operates the character positioned near the location where the event occurred on the field) can play the in-game event that has occurred.

(表示再生部)
表示再生部53は、ゲームのプレイ中、プレイ画面をディスプレイ29に表示したり、ゲームのBGMをスピーカ30から再生したりする。プレイ画面には、複数のユーザが共同してプレイするゲーム(クエスト)のフィールドの一部が表示されるが、その表示範囲は、ユーザが操作するキャラクタの位置に応じて変化する。そのため、プレイ画面は、ユーザ毎(換言すると、ユーザ端末10毎)に異なる。
(Display playback part)
The display/reproduction unit 53 displays a play screen on the display 29 and reproduces BGM of the game from the speaker 30 during game play. The play screen displays a part of the field of a game (quest) that is played by a plurality of users in collaboration, and the display range changes according to the position of the character operated by the user. Therefore, the play screen differs for each user (in other words, for each user terminal 10).

また、複数のユーザが音声会話(ボイスチャット)を行う場合、表示再生部53は、データ化された各ユーザの発話音をサーバ14から受信し、受信した音データを展開して各ユーザの発話音を再生する。この際、表示再生部53は、複数のユーザの各々と対応するアイコンICをプレイ画面に表示し、発話音が検知されたユーザ(すなわち、発話者)と対応するアイコンICを、発話音検知時の表示態様にて表示する。 Further, when a plurality of users have a voice conversation (voice chat), the display/playback unit 53 receives the utterance sound of each user converted into data from the server 14, develops the received sound data, and reproduces the utterance of each user. play a sound. At this time, the display/playback unit 53 displays the icon IC corresponding to each of the plurality of users on the play screen, and displays the icon IC corresponding to the user whose speech sound is detected (that is, the speaker) when the speech sound is detected. is displayed in the display mode.

(記憶部)
記憶部54は、ゲーム進行に必要な各種のデータを記憶し、例えば、ユーザが操作するキャラクタの属性や能力パラメータ等を記憶する。また、記憶部54は、ユーザのゲームプレイ履歴(プレイ回数、各回のプレイ日時、並びに、共同プレイモードにて共同でプレイした他のユーザ及びクエスト等)、及びユーザのフレンドに関する情報等を記憶する。さらに、記憶部54は、ゲームのプレイ中に録画部55により録画されたゲーム動画を一時的に記憶する。さらにまた、ゲーム動画から特定された対象動画が保存部61によって保存される場合、その対象動画のデータは記憶部54に保存(蓄積)される。
(storage unit)
The storage unit 54 stores various data necessary for progressing the game, such as attributes and ability parameters of characters operated by the user. In addition, the storage unit 54 stores the user's game play history (the number of times played, the date and time of each play, other users and quests played together in the joint play mode, etc.), information related to the user's friends, and the like. . Furthermore, the storage unit 54 temporarily stores game moving images recorded by the recording unit 55 during game play. Furthermore, when the target moving image specified from the game moving image is saved by the saving unit 61 , the data of the target moving image is saved (accumulated) in the storage unit 54 .

(録画部)
録画部55は、ゲームのプレイ中、プレイ画面を記録(キャプチャ)してゲーム動画を録画する。ゲーム動画の録画は、ゲームのプレイ開始からプレイ終了まで連続して行われる。ゲームのプレイ開始からプレイ終了まで録画したゲーム動画は、一時的に記憶部54に記憶される。また、共同プレイモードでは、共同プレイに参加する複数のユーザの各々のユーザ端末10において、録画部55が、各ユーザのプレイ画面に基づくゲーム動画をユーザ毎に録画する。この場合、各ユーザ端末10において、録画部55によって録画されるゲーム動画は、ユーザ毎(つまり、ユーザ端末10毎)に異なる。
(Recording part)
The recording unit 55 records (captures) a play screen during game play to record a game moving image. Video recording of the game is continuously performed from the start of the game play to the end of the play. A game moving image recorded from the start of the game play to the end of the play is temporarily stored in the storage unit 54. - 特許庁Also, in the joint play mode, in the user terminals 10 of each of the multiple users participating in the joint play, the recording unit 55 records a game moving image based on the play screen of each user for each user. In this case, in each user terminal 10, the game video recorded by the recording unit 55 differs for each user (that is, for each user terminal 10).

(録音部)
録音部56は、ゲームプレイ中、現実空間の音、詳しくはユーザ端末10のマイク28によって収音可能な範囲の音を録音する。ここで、現実空間の音には、例えば、ユーザ端末10を操作するユーザの音声、及び、そのユーザの周囲に居る人の音声が含まれ得る。また、共同プレイモードにおいて、複数のユーザが同じ空間内で互いに近づいた状態でゲームをプレイする場合、現実空間の音には、複数のユーザの各々の発話音が含まれ得る。
なお、録音は、ゲームのプレイ開始からプレイ終了まで連続して行われ、ゲームのプレイ開始からプレイ終了まで録音した音声データは、一時的に記憶部54に記憶される。
(Recording part)
The recording unit 56 records sounds in the real space during game play, specifically sounds within a range that can be picked up by the microphone 28 of the user terminal 10 . Here, the sound in the real space may include, for example, the voice of the user operating the user terminal 10 and the voice of people around the user. Also, in the joint play mode, when a plurality of users play the game in the same space and are close to each other, the sounds of the real space may include the speech sounds of each of the plurality of users.
Recording is continuously performed from the start of game play to the end of play, and the voice data recorded from the start of game play to the end of play is temporarily stored in the storage unit 54 .

(検知部)
検知部57は、ゲームのプレイ中に現実空間の音(以下、ゲームプレイ中の音ともいう)を検知する。具体的に説明すると、ゲームのプレイ中、ユーザ端末10のマイク28が音を収音して音信号を出力する。検知部57は、出力された音信号を受信することで、ゲームプレイ中の音を検知する。なお、検知部57は、ゲームのプレイ中に音を検知するものに限定されず、例えば、ゲームの終了後に、録音部56による録音データを解析することで、ゲームプレイ中の音を検知するものでもよい。
(detector)
The detection unit 57 detects sounds in the real space during game play (hereinafter also referred to as sounds during game play). Specifically, during game play, the microphone 28 of the user terminal 10 picks up sound and outputs a sound signal. The detection unit 57 detects sound during game play by receiving the output sound signal. Note that the detection unit 57 is not limited to detecting sounds during game play, and for example, detects sounds during game play by analyzing data recorded by the recording unit 56 after the game is over. It's okay.

(判定部)
判定部58は、判定処理を実行し、ゲームのプレイ中、検知部57により検知された音に関する値が所定の条件(以下、判定条件ともいう)を満たすか否かを判定する。音に関する値とは、検知されたゲームプレイ中の音のデータを解析することで特定される特徴量やパラメータであり、具体的には、音の音量、音域、及び発話者の人数等である。
(Judgment part)
The determination unit 58 executes determination processing and determines whether or not the value related to the sound detected by the detection unit 57 satisfies a predetermined condition (hereinafter also referred to as determination condition) during game play. Sound-related values are features and parameters identified by analyzing sound data detected during game play. Specifically, sound volume, range, number of speakers, etc. .

判定条件は、下記の条件R1、R2のいずれか一方であってもよく、条件R1及びR2の両方を組み合わせたものであってもよい。
条件R1:検知されたゲームプレイ中の音の音量が閾値以上であること。
条件R2:検知されたゲームプレイ中の音から特定される発話者の人数が閾値以上であること。
The determination condition may be either one of the following conditions R1 and R2, or a combination of both conditions R1 and R2.
Condition R1: The volume of sound detected during game play is greater than or equal to a threshold.
Condition R2: The number of speakers identified from the sound detected during game play is greater than or equal to a threshold.

条件R1における閾値、及び、条件R2における閾値は、いずれも任意に決めてもよい。また、条件R1の判定に際して音の音量を特定する方法は、特に限定されず、公知の音量認識手法を利用することができる。同様に、条件R2の判定に際して発話者の人数を特定する方法は、特に限定されず、公知の解析手法を利用することができる。 Both the threshold in condition R1 and the threshold in condition R2 may be determined arbitrarily. Also, the method for specifying the volume of sound when determining condition R1 is not particularly limited, and a known volume recognition method can be used. Similarly, the method for specifying the number of speakers when determining condition R2 is not particularly limited, and a known analysis method can be used.

以上のように、ゲームのプレイ中に検知された音に関する値が判定条件を満たすか否かを判定することにより、ゲームのプレイ中の盛り上がり度を判定することができる。 As described above, it is possible to determine the degree of excitement during game play by determining whether or not the value related to the sound detected during game play satisfies the determination condition.

また、共同プレイモードにおいて複数のユーザが共同でゲームをプレイする際、ゲームのプレイ中、予め設定された該当条件を満たしたユーザが存在するとする。この場合、複数のユーザのうち、該当条件を満たしたユーザのユーザ端末10において、判定部58が上記の判定処理を実行してもよい。ここで、該当条件とは、ゲームにおいて所定のゲーム結果に至るという条件であり、例えば、ボス敵を倒すこと、あるいはクエストの目的地(ゴール)に到達すること、あるいは他のユーザとの連携技を使用することである。 Also, when a plurality of users jointly play a game in the joint play mode, it is assumed that there is a user who satisfies a preset pertinent condition while playing the game. In this case, the determination unit 58 may perform the determination process in the user terminal 10 of the user who satisfies the corresponding condition among the plurality of users. Here, the applicable condition is a condition that a predetermined game result is reached in the game. is to use

さらに、共同プレイモードの場合、上記の判定に加えて、あるユーザが該当条件を満たした時点、又は、その時点から所定時間が経過するまでの間に、該当条件を満たしたユーザとゲームを共同でプレイする他のユーザのユーザ端末10において、判定部58が、判定処理を実行してもよい。つまり、該当条件を満たしたユーザ、及び、他のユーザのそれぞれのユーザ端末10において、検知されたゲームプレイ中の音に関する値が判定条件を満たすか否かを判定してもよい。 Furthermore, in the case of co-play mode, in addition to the above determination, when a certain user satisfies the applicable conditions, or until a predetermined time elapses from that point, the game is jointly played with the user who satisfies the applicable conditions. The determination unit 58 may perform determination processing in the user terminal 10 of another user who plays in . In other words, it may be determined whether or not values related to sounds detected during game play satisfy the determination conditions in the user terminals 10 of the user who has satisfied the relevant conditions and the other users.

また、共同プレイモードにおいて、判定部58が、判定条件(詳しくは、条件R2)の成否を判定するに際して発話者の人数を特定する場合には、一台のユーザ端末10にて検知された音から発話者の人数を特定してもよい。あるいは、各ユーザ端末10にて検知された音から発話者の人数を特定し、ユーザ端末10毎に特定された発話者の人数を足し合わせて合計人数を求めてもよい。 Further, in the joint play mode, when the determination unit 58 specifies the number of speakers when determining whether the determination condition (more specifically, condition R2) is satisfied, the sound detected by one user terminal 10 You may specify the number of speakers from. Alternatively, the number of speakers may be specified from the sound detected by each user terminal 10, and the number of speakers specified for each user terminal 10 may be added to obtain the total number of speakers.

(出力部)
出力部59は、検知されたゲームプレイ中の音に関する値が判定条件を満たした場合に、出力処理を実行する。出力処理において、出力部59は、録画部55によって録画されたゲーム動画から対象動画を特定し、その対象動画を、ゲームをプレイしたユーザが利用可能な状態で出力する。
(output part)
The output unit 59 executes an output process when the detected value related to the sound during game play satisfies the determination condition. In the output process, the output unit 59 identifies the target moving image from the game moving images recorded by the recording unit 55, and outputs the target moving image in a state that can be used by the user who has played the game.

出力処理において、録画されたゲーム動画のうち、どの部分を対象動画として特定するかは、検知部57により検知された音に基づいて決められ、具体的には、検知された音に関する値が判定条件を満たした時点に応じて決められる。例えば、出力部59は、検知された音に関する値が判定条件を満たした時点を基準時点とし、基準時点から所定時間(例えば、15秒程度)遡った時点を開始時点とし、図6Aに示すように開始時点から基準時点までの動画を対象動画として特定してもよい。 In the output process, which part of the recorded game video is specified as the target video is determined based on the sound detected by the detection unit 57. Specifically, the value related to the detected sound is determined. Determined when the conditions are met. For example, the output unit 59 sets the point of time when the value related to the detected sound satisfies the determination condition as the reference point of time, and sets the point of time preceding the reference point of time by a predetermined time (for example, about 15 seconds) as the starting point of time, as shown in FIG. 6A. Alternatively, the moving image from the start time point to the reference time point may be specified as the target moving image.

また、別の例を挙げると、出力処理では、録画されたゲーム動画のうち、検知された音に関する値が判定条件を満たした時点(基準時点)に基づいて特定されるゲーム内イベントの実施時期に応じた動画を対象動画として特定してもよい。より詳しく説明すると、検知された音の音量が閾値以上になって判定条件を満たした場合、その時点で実施中のゲーム内イベント、若しくは、その時点の直前に終了したゲーム内イベントが特定される。そして、図6Bに示すように、ゲーム動画中、特定されたゲーム内イベントの実施開始時点から実施終了時点までの動画を対象動画として特定するとよい。例えば、特定されたゲーム内イベントがボス敵との戦闘である場合には、戦闘開始から戦闘終了(つまり、敵の撃破)までの動画が対象動画として特定される。また、特定されたゲーム内イベントがユーザ間でのアイテム授受である場合には、あるユーザがアイテムを提供した時点から、別のユーザがそのアイテムを拾取した時点までの動画が対象動画として特定される。 To give another example, in the output process, the execution timing of an in-game event that is specified based on the point in time (reference point in time) at which the value related to the detected sound in the recorded game video satisfies the determination condition. You may specify the animation according to as a target animation. In more detail, when the volume of the detected sound is equal to or greater than the threshold and the determination condition is satisfied, the in-game event being executed at that point in time or the in-game event that ended immediately before that point in time is specified. . Then, as shown in FIG. 6B, it is preferable to specify, as the target video, a video from the start of implementation of the specified in-game event to the end of implementation of the specified in-game event in the game video. For example, if the identified in-game event is a battle with a boss enemy, the animation from the start of the battle to the end of the battle (that is, defeating the enemy) is identified as the target animation. Also, if the identified in-game event is the exchange of an item between users, the moving image from the time when one user provides the item to the time when another user picks up the item is identified as the target moving image. be.

また、ゲームのプレイ中、複数回検知された音の各々の値が判定条件を満たす場合、出力部59は、判定条件を満たす度に出力処理を実行する。この場合、ゲーム動画から、出力処理の実行回数と同数の対象画像が特定され、それぞれの対象画像が出力されることになる。 Further, when the value of each sound detected a plurality of times during game play satisfies the determination condition, the output unit 59 executes the output process each time the determination condition is satisfied. In this case, the same number of target images as the number of executions of the output process are specified from the game animation, and each target image is output.

また、共同プレイモードの場合、ゲームのプレイ中、判定条件が成立すると、複数のユーザの各々のユーザ端末10にて、出力部59が出力処理を実行する。より詳しく説明すると、ゲームを共同でプレイする複数のユーザのうち、該当条件を満たしたユーザのユーザ端末10にて検知された音に関する値が判定条件を満たした場合、各ユーザ端末10にて出力処理が実行される。 Further, in the case of the joint play mode, when the determination condition is satisfied during the game play, the output unit 59 executes the output process at the user terminal 10 of each of the plurality of users. To explain in more detail, among a plurality of users who play the game together, when the value related to the sound detected by the user terminal 10 of the user who satisfies the corresponding condition satisfies the judgment condition, each user terminal 10 outputs Processing is performed.

共同プレイモードの場合に各ユーザ端末10で実行される出力処理では、それぞれのユーザ端末10に表示されたプレイ画面に基づくユーザ端末10毎のゲーム動画から、ユーザ端末10毎に特定される対象動画を出力する。この場合、ユーザ端末10同士の間では、対象動画の特定範囲について同期が取られている。分かり易く説明すると、各ユーザ端末10での出力処理では、ユーザ端末10毎に録画されたゲーム動画から、ユーザ端末10間で同じタイミング(同時期)の対象動画を特定して出力する(図6C参照)。 In the output process executed at each user terminal 10 in the case of the joint play mode, the target animation specified for each user terminal 10 is selected from the game animation for each user terminal 10 based on the play screen displayed on each user terminal 10. to output In this case, the specific range of the target moving image is synchronized between the user terminals 10 . To explain in an easy-to-understand manner, in the output process at each user terminal 10, target videos of the same timing (simultaneous period) between the user terminals 10 are specified and output from the game videos recorded for each user terminal 10 (FIG. 6C reference).

なお、共同プレイモードの場合、該当条件を満たしたユーザのユーザ端末10側で判定条件を満たし、且つ、該当条件を満たしたユーザと共同でゲームをプレイする他のユーザのユーザ端末10側で判定条件を満たした場合に、各ユーザ端末10にて出力処理が実行されるようにしてもよい。つまり、該当条件を満たしたユーザのユーザ端末10にて検知された音に関する値が判定条件を満たした時点、又はその時点から所定時間が経過するまでの間に、上記他のユーザのユーザ端末10にて検知された音に関する値が判定条件を満たした場合に出力処理が実行されてもよい。 In the case of the joint play mode, the judgment condition is satisfied on the user terminal 10 side of the user who satisfies the relevant condition, and the judgment is made on the user terminal 10 side of another user who plays the game jointly with the user who satisfies the relevant condition. The output process may be executed in each user terminal 10 when the conditions are satisfied. That is, at the time when the value related to the sound detected by the user terminal 10 of the user who satisfied the corresponding condition satisfies the determination condition, or until a predetermined time elapses from that time, the user terminal 10 of the other user The output process may be executed when the value related to the sound detected in satisfies the determination condition.

(提示部)
提示部60は、ゲームのプレイ終了後に提示処理を実行する。提示処理において、提示部60は、図7に示す提示画面を表示することで、ゲームをプレイしたユーザに対して、出力部59が出力処理にて出力された対象動画を提示する。提示画面には、図7に示すように、対象動画の一シーンを示すサムネイル画像が表示される。
(presentation part)
The presentation unit 60 executes the presentation process after the play of the game is finished. In the presentation process, the presentation unit 60 displays the presentation screen shown in FIG. 7 to present the target moving image output by the output unit 59 in the output process to the user who has played the game. On the presentation screen, as shown in FIG. 7, a thumbnail image showing one scene of the target moving image is displayed.

また、ゲームのプレイ中に出力部59が出力処理を複数回実行した場合、提示処理では、複数(具体的には、出力処理の実行回数と同数)の対象動画がリスト形式で提示される。この際、提示部60は、各対象動画を、各対象動画と対応する音に応じた順序にて提示する。具体的に説明すると、提示部60は、それぞれの対象動画について、出力処理が実行される契機となった音の音量を特定し、最も音量が大きい対象動画から順に提示する。例えば、図7の提示画面では、音量が大きい対象動画であるほど、より上側の位置にサムネイル画像が表示される。これにより、ユーザは、各対象動画が録画された時点の盛り上がり具合いを、対象動画同士の間で対比することができる。
なお、上記の提示画面では、各対象動画について、サムネイル画像の他に、出力処理が実行される契機となった音の音量を示す情報、あるいは音量に基づいて決められる情報が併せて表示されてもよい。音量に基づいて決められる情報としては、例えば、音量ごとに決められるランク又はレベル(具体的には、音量レベル低、中、高等)が挙げられる。
Further, when the output unit 59 executes the output process multiple times during the game play, in the presentation process, a plurality (specifically, the same number as the number of execution times of the output process) of target moving images are presented in a list format. At this time, the presentation unit 60 presents each target moving image in an order according to the sound corresponding to each target moving image. Specifically, the presentation unit 60 identifies the volume of the sound that triggered the execution of the output process for each of the target videos, and presents the target videos in descending order of volume. For example, in the presentation screen of FIG. 7, the thumbnail image is displayed at a higher position for a target moving image with a higher volume. This allows the user to compare the degree of excitement at the time when each target moving image was recorded between the target moving images.
In addition to the thumbnail image, information indicating the volume of the sound that triggered the execution of the output process or information determined based on the volume is also displayed on the presentation screen for each target moving image. good too. Information determined based on volume includes, for example, a rank or level determined for each volume (specifically, volume level low, medium, high, etc.).

(保存部)
保存部61は、出力部59が出力した対象動画を、ユーザの保存操作に基づいて記憶部54に保存する。これに伴い、録画されたゲーム動画のうち、保存された対象動画以外の部分は、データ容量削減の観点から消去される。また、保存部61は、対象動画を保存する際、録音部56により録音された音声データのうち、対象動画が録画された時期と同じ時期に録音された音のデータ(録音データ)を併せて保存することができる。この場合、保存される録音データは、対象動画中に組み込んで対象動画と同じデータファイルとしてもよいし、対象動画とは別のデータファイルとしてもよい。
(storage unit)
The storage unit 61 stores the target moving image output by the output unit 59 in the storage unit 54 based on the user's storage operation. Along with this, of the recorded game video, portions other than the saved target video are deleted from the viewpoint of data capacity reduction. In addition, when saving the target moving image, the storage unit 61 also stores sound data (recorded data) recorded at the same time as the target moving image was recorded, among the audio data recorded by the recording unit 56. can be saved. In this case, the recorded data to be saved may be incorporated in the target moving image to be the same data file as the target moving image, or may be a data file separate from the target moving image.

また、提示部60によって複数の対象動画が提示画面に提示された場合、ユーザは、1つ以上の対象動画を保存対象として指定して保存操作を行う。この場合、保存部61は、保存対象として指定された1つ以上の対象動画を保存するとともに、指定されなかった対象動画を消去する。 Further, when a plurality of target moving images are presented on the presentation screen by the presentation unit 60, the user designates one or more target moving images to be saved and performs a saving operation. In this case, the storage unit 61 stores one or more target moving images designated as storage targets, and deletes target moving images that have not been designated.

(投稿部)
投稿部62は、出力部59が出力した対象動画を、ユーザの投稿操作に基づいてSNS又は動画投稿サイトへ投稿する。また、提示部60によって複数の対象動画が提示画面に提示された場合、ユーザは、1つ以上の対象動画を投稿対象として指定して投稿操作を行い、投稿部62は、投稿対象として指定された1つ以上の対象動画を投稿する。
(posting section)
The posting unit 62 posts the target moving image output by the output unit 59 to the SNS or the moving image posting site based on the user's posting operation. Further, when a plurality of target videos are presented on the presentation screen by the presentation unit 60, the user designates one or more target videos as posting targets and performs a posting operation, and the posting unit 62 selects one or more target videos as posting targets. Post one or more eligible videos.

[本発明の第1実施形態に係る情報処理フローについて]
本発明の第1実施形態に係る情報処理フローとして、ゲーム動画の録画に係る一連の情報処理の流れについて、図8を参照しながら説明する。
[Information processing flow according to the first embodiment of the present invention]
As an information processing flow according to the first embodiment of the present invention, a series of information processing flow related to recording a game moving image will be described with reference to FIG.

第1実施形態に係る情報処理フローでは、本発明の情報処理方法を採用している。換言すると、図8に示す情報処理フロー中の各ステップは、本発明の情報処理方法の構成要素に該当する。また、以下に説明する情報処理フローは、あくまでも一例であり、本発明の趣旨を逸脱しない範囲において不要なステップを削除したり、新たなステップを追加したり、ステップの実施順序を入れ替えてもよい。
以下では、共同プレイモードにおいて2人のユーザ(ユーザA、B)が共同してゲーム、詳しくは、同じクエストをプレイするケースを想定して説明することとする。
The information processing flow according to the first embodiment employs the information processing method of the present invention. In other words, each step in the information processing flow shown in FIG. 8 corresponds to a component of the information processing method of the present invention. Further, the information processing flow described below is merely an example, and unnecessary steps may be deleted, new steps added, or the execution order of the steps may be changed without departing from the scope of the present invention. .
Below, suppose that two users (users A and B) jointly play a game in the joint play mode, and more specifically, play the same quest.

第1実施形態に係る情報処理フローは、ユーザA、Bの各々のユーザ端末10のプロセッサ21によって実行される。情報処理フローの開始に際して、ユーザA、Bは、各自のユーザ端末10にてゲーム開始用の操作を行い、具体的には共同プレイモードを選択し、共同プレイに参加するユーザのマッチングを実施する。 The information processing flow according to the first embodiment is executed by the processors 21 of the user terminals 10 of the users A and B, respectively. At the start of the information processing flow, users A and B perform game start operations on their user terminals 10, specifically select a joint play mode, and perform matching of users participating in joint play. .

ゲームの共同プレイが開始されると、プロセッサ21は、ゲームのプレイ画面をディスプレイに表示するとともに、プレイ画面を記録(キャプチャ)してゲーム動画を録画する(S001)。ゲームのプレイ中、各ユーザ端末10に表示されるプレイ画面は、ユーザ端末10毎に異なり、各ユーザによるプレイ操作(具体的には、ユーザにより操作されるキャラクタの現在位置)に応じて変わる。そのため、録画されるゲーム動画は、ユーザ端末10毎に異なる。 When the joint play of the game is started, the processor 21 displays the play screen of the game on the display, records (captures) the play screen, and records the game video (S001). During game play, the play screen displayed on each user terminal 10 is different for each user terminal 10, and changes according to the play operation by each user (specifically, the current position of the character operated by the user). Therefore, the recorded game video differs for each user terminal 10 .

また、プロセッサ21は、ゲームプレイ中の音を録音する(S002)。例えば、ユーザ又はユーザ周辺の人が発話すると、プロセッサ21は、その発話音をゲームプレイ中の音として録音する。 The processor 21 also records sounds during game play (S002). For example, when the user or a person around the user speaks, the processor 21 records the speech sound as the sound during game play.

また、プロセッサ21は、ゲームプレイ中の音を検知し(S003)、判定処理を実行して、検知された音に関する値が判定条件を満たすか否かを判定する(S004)。ステップS004では、ユーザA、Bのうち、該当条件を満たすユーザのユーザ端末10にて検知される音に基づいて、判定条件を満たすか否かを判定してもよい。例えば、ユーザAが該当条件を満たした場合、ユーザAのユーザ端末10にて検知された音の音量、又は、検知された音から特定される発話者の人数が閾値以上であるか否かを判定してもよい。 The processor 21 also detects sound during game play (S003), executes determination processing, and determines whether or not the value of the detected sound satisfies a determination condition (S004). In step S004, it may be determined whether or not the determination condition is satisfied based on the sound detected by the user terminal 10 of the user who satisfies the corresponding condition among the users A and B. For example, when user A satisfies the applicable condition, it is determined whether the volume of sound detected by user A's user terminal 10 or the number of speakers identified from the detected sound is equal to or greater than a threshold. You can judge.

また、上記の判定に加え、ユーザAが該当条件を満たした時点、又はその時点から所定時間が経過するまでの間に、ユーザBのユーザ端末10にて検知される音の音量、又は発話者の人数が閾値以上であるか否かをさらに判定してもよい。つまり、ユーザA、Bのそれぞれのユーザ端末10にて、検知された音が判定条件を満たすか否かを判定してもよい。 In addition to the above determination, the volume of the sound detected by the user terminal 10 of the user B or the speaker is detected at the time when the user A satisfies the relevant condition or until a predetermined time elapses from that time. is equal to or greater than a threshold. That is, the user terminals 10 of the users A and B may determine whether or not the detected sound satisfies the determination condition.

そして、検知された音に関する値が判定条件を満たす場合(S004でYes)、各ユーザ端末10のプロセッサ21は、出力処理を実行する(S005)。出力処理では、ゲームのプレイ中に録画されたゲーム動画のうち、所定期間の動画を対象動画として特定し、その対象動画を、ユーザが利用可能な状態で出力する。ここで、所定期間は、検知された音に関する値が判定条件を満たした時点(基準時点)と、基準時点から一定時間遡った時点(開始時点)との間の期間である。あるいは、所定期間は、検知された音に関する値が判定条件を満たした時点で実施中のゲーム内イベント、若しくは、その時点の直前に終了したゲーム内イベントの実施開始時点から実施終了時点までの期間でもよい。 Then, if the detected sound value satisfies the determination condition (Yes in S004), the processor 21 of each user terminal 10 executes output processing (S005). In the output process, among the game videos recorded during the game play, a video of a predetermined period is specified as a target video, and the target video is output in a state that can be used by the user. Here, the predetermined period is a period between the point in time when the value of the detected sound satisfies the determination condition (reference time point) and the point in time (start time point) after a certain period of time from the reference point in time. Alternatively, the predetermined period is the period from the start to the end of the in-game event that is being implemented at the time when the value related to the detected sound satisfies the judgment condition, or the in-game event that ended immediately before that time. It's okay.

上記のステップS003~S005は、ゲームのプレイが終了するまで繰り返される(S006)。つまり、ゲームプレイ中の音が検知され、且つ、検知された音が判定条件を満たす場合には、その度に出力処理が実行されて対象動画が出力される。 The above steps S003 to S005 are repeated until the game play ends (S006). That is, every time a sound during game play is detected and the detected sound satisfies the determination condition, the output process is executed and the target moving image is output.

ゲームのプレイ(共同プレイ)が終了すると、プロセッサ21は、提示処理を実行する(S007)。提示処理では、出力処理にて出力された対象動画を提示する。具体的に説明すると、ユーザAのユーザ端末10にて実行される提示処理では、ユーザAの操作に応じたプレイ画面に基づくゲーム動画(以下、便宜上、ユーザAのゲーム動画という)から特定された対象動画が提示される。他方、ユーザBのユーザ端末10にて実行される提示処理では、ユーザBの操作に応じたプレイ画面に基づくゲーム動画(以下、便宜上、ユーザBのゲーム動画という)から特定された対象動画が提示される。 When the game play (co-play) ends, the processor 21 executes presentation processing (S007). In the presentation process, the target moving image output in the output process is presented. Specifically, in the presentation process executed on the user terminal 10 of the user A, the game video based on the play screen corresponding to the operation of the user A (hereinafter, for convenience, referred to as the game video of the user A) A target video is presented. On the other hand, in the presentation process executed by the user terminal 10 of the user B, the target video specified from the game video based on the play screen corresponding to the user B's operation (hereinafter referred to as the game video of the user B for convenience) is presented. be done.

また、ゲームのプレイ中、出力処理が複数回実行された場合、提示処理では、図7に示す提示画面において、複数(出力処理の実行回数と同数)の対象動画が、それぞれの対象動画と対応する音に応じた順序、具体的には音量に応じた順序にて提示される。 Further, when the output process is executed multiple times during game play, in the presentation process, a plurality of target videos (the same number as the number of times the output process is executed) correspond to the respective target videos on the presentation screen shown in FIG. They are presented in the order according to the sound they make, specifically in the order according to the volume.

ユーザA、Bは、それぞれ、提示された対象動画をユーザ端末10の画面にて確認し、対象動画を利用する場合には所定の操作を行う。具体的には、各ユーザは、対象動画を保存する場合には保存操作を行い(S008)、保存操作を受け付けたユーザ端末10は、保存対象の対象動画を保存する(S009)。また、各ユーザは、対象動画を投稿する場合には投稿操作を行い(S010)、投稿操作を受け付けたユーザ端末10は、投稿対象の対象動画を投稿する(S011)。
なお、提示処理にて複数の対象動画が提示された場合、ユーザは、複数の対象動画の中から1つ以上の対象動画を指定して保存操作又は投稿操作を行い、その操作を受け付けたユーザ端末10は、指定された1つ以上の対象動画を保存し、又は投稿する。
Each of the users A and B confirms the presented target moving image on the screen of the user terminal 10, and performs a predetermined operation when using the target moving image. Specifically, each user performs a saving operation when saving the target moving image (S008), and the user terminal 10 that receives the saving operation saves the target moving image to be saved (S009). Further, each user performs a posting operation when posting a target moving image (S010), and the user terminal 10 that has received the posting operation posts the target moving image to be posted (S011).
Note that when a plurality of target videos are presented in the presentation process, the user designates one or more target videos from among the plurality of target videos, performs a save operation or a post operation, and the user who accepts the operation The terminal 10 saves or posts one or more designated target videos.

以上までに説明してきたステップがすべて終了した時点で、第1実施形態に係る情報処理フローが終了する。 The information processing flow according to the first embodiment ends when all the steps described above are completed.

[本発明の第2実施形態について]
前述の第1実施形態では、各ユーザのユーザ端末10が本発明の情報処理装置を構成することとしたが、これに限定されるものではなく、サーバ14が本発明の情報処理装置を構成する構成も考えられ得る。かかる構成を本発明の第2実施形態とし、以下、図9~12を参照しながら説明することとする。
[About the second embodiment of the present invention]
In the first embodiment described above, the user terminal 10 of each user constitutes the information processing apparatus of the present invention, but the present invention is not limited to this, and the server 14 constitutes the information processing apparatus of the present invention. Configurations are also conceivable. This configuration is referred to as a second embodiment of the present invention, and will be described below with reference to FIGS.

なお、以下では、第2実施形態のうち、第1実施形態と異なる内容を主として説明し、第1実施形態と共通する内容については、説明を簡略化又は省略することとする。また、図9中、第1実施形態と共通する機能部には、図5と同じ符号を付すこととする。 In the following, the contents of the second embodiment that are different from those of the first embodiment will be mainly described, and the description of the contents that are common to the first embodiment will be simplified or omitted. In addition, in FIG. 9, the same reference numerals as in FIG. 5 are assigned to functional units that are common to the first embodiment.

第2実施形態において、サーバ14は、ゲームのプレイ中、ユーザ端末10と通信してゲーム進行用のデータをユーザ端末10との間で送受信する。また、サーバ14は、ゲームのプレイ中、ユーザ端末10が録画するゲーム動画のデータ(録画データ)、及び、ユーザ端末10が録音する音のデータ(録音データ)をユーザ端末10から受信する。 In the second embodiment, the server 14 communicates with the user terminal 10 to transmit and receive data for progressing the game to and from the user terminal 10 during game play. In addition, the server 14 receives game video data (recorded data) recorded by the user terminal 10 and sound data (recorded data) recorded by the user terminal 10 from the user terminal 10 during game play.

さらに、サーバ14は、録音データを解析することでゲームプレイ中の音を検知し、検知した音に関する値が判定条件を満たすか否かを判定する。そして、検知した音に関する値が判定条件を満たす場合、サーバ14のプロセッサ41が出力処理を実行し、ゲーム動画の中から所定期間の動画を対象動画として特定し、その対象動画をユーザが利用可能な状態で出力する。 Furthermore, the server 14 detects sound during game play by analyzing the recorded data, and determines whether or not the value related to the detected sound satisfies the determination condition. Then, when the detected value of the sound satisfies the determination condition, the processor 41 of the server 14 executes the output process, specifies a video of a predetermined period from among the game videos as the target video, and allows the user to use the target video. output in good condition.

さらにまた、共同プレイモードにおいて複数のユーザが共同でゲームをプレイする場合、プロセッサ41は、各ユーザのユーザ端末10と通信し、出力処理を含む対象動画に関する一連の処理をユーザ端末10毎に実行する。 Furthermore, when a plurality of users play the game jointly in the joint play mode, the processor 41 communicates with each user's user terminal 10 and executes a series of processes related to the target moving image including the output process for each user terminal 10. do.

第2実施形態に係るサーバ14の機能について説明すると、サーバ14は、図9に示すように、検知部57、判定部58、出力部59、提示部60、保存部61、及び投稿部62を有し、第1特定部63、第2特定部64、推奨部65、及び通知部66をさらに有する。これらの機能部は、サーバ14を構成する各種のハードウェア機器と、サーバ14にインストールされたプログラム(以下、サーバ側プログラム)とが協働することで実現される。サーバ側プログラムは、本発明の「プログラム」に相当し、プロセッサ41が読み取り可能な記録媒体から読み込むことで取得してもよく、あるいは、インターネット又はイントラネット等のネットワークを介して取得(ダウンロード)してもよい。 The functions of the server 14 according to the second embodiment will be described. As shown in FIG. and further includes a first identification unit 63 , a second identification unit 64 , a recommendation unit 65 and a notification unit 66 . These functional units are realized through cooperation between various hardware devices that configure the server 14 and programs installed in the server 14 (hereinafter referred to as server-side programs). The server-side program corresponds to the "program" of the present invention, and may be obtained by reading from a recording medium readable by the processor 41, or obtained (downloaded) via a network such as the Internet or an intranet. good too.

他方、第2実施形態において、ユーザ端末10は、図9に示すように、操作受付部51、ゲーム進行部52、表示再生部53、記憶部54、録画部55、及び録音部56を備えており、かかる点では第1実施形態と共通する。 On the other hand, in the second embodiment, the user terminal 10 includes an operation reception unit 51, a game progress unit 52, a display/playback unit 53, a storage unit 54, a recording unit 55, and a recording unit 56, as shown in FIG. This point is common to the first embodiment.

以下、サーバ14が有する機能部のうち、出力部59、提示部60、第1特定部63、第2特定部64、推奨部65、及び通知部66について説明する。なお、サーバ14が有する機能部のうち、検知部57、判定部58、保存部61及び投稿部62については、第1実施形態とほぼ同様の機能を有するものであるため、説明を省略することとする。 The output unit 59, the presentation unit 60, the first identification unit 63, the second identification unit 64, the recommendation unit 65, and the notification unit 66 among the functional units of the server 14 will be described below. Among the functional units of the server 14, the detection unit 57, the determination unit 58, the storage unit 61, and the posting unit 62 have almost the same functions as those of the first embodiment, so description thereof will be omitted. and

(第2実施形態の出力部)
第2実施形態の出力部59は、第1実施形態と同様、ゲームのプレイ中に検知された音(現実空間の音)に関する値が判定条件を満たした場合に、出力処理を実行する。出力処理では、ユーザ端末10側で録画されたゲーム動画から、判定条件を満たした音に基づいて対象動画を特定し、その対象動画を、ゲームをプレイしたユーザが利用可能な状態で出力する。この際、第2実施形態における対象動画の記憶先は、サーバ14でもよく、あるいはユーザ端末10でもよい。
(Output section of the second embodiment)
As in the first embodiment, the output unit 59 of the second embodiment executes output processing when a value related to sound (real space sound) detected during game play satisfies the determination condition. In the output process, a target moving image is specified from the game moving images recorded on the user terminal 10 side based on the sound that satisfies the determination condition, and the target moving image is output in a state that can be used by the user who has played the game. At this time, the storage destination of the target moving image in the second embodiment may be the server 14 or the user terminal 10 .

また、共同プレイモードの場合、ゲームを共同でプレイする複数のユーザの各々のユーザ端末10に表示されるプレイ画面がユーザ端末10毎に異なるが、第2実施形態では、第1実施形態と同様、出力部59が出力処理をユーザ端末10毎に実行する。つまり、第2実施形態の出力処理では、それぞれのユーザ端末10に表示されたプレイ画面に基づくユーザ端末10毎のゲーム動画から、ユーザ端末10毎に特定される対象動画を出力する。これにより、表示される映像が異なる対象動画が、ユーザ端末10の台数分(換言すると、共同プレイに参加するユーザの人数分)、出力されることになる。なお、ユーザ端末10毎の対象動画は、ゲームのプレイ中、同じタイミング(同時期)に録画された動画である。 In addition, in the case of the joint play mode, the play screens displayed on the user terminals 10 of the multiple users who play the game jointly are different for each user terminal 10. However, in the second embodiment, it is the same as in the first embodiment. , the output unit 59 executes output processing for each user terminal 10 . That is, in the output process of the second embodiment, the target video specified for each user terminal 10 is output from the game video for each user terminal 10 based on the play screen displayed on each user terminal 10 . As a result, target moving images with different displayed images are output as many as the number of user terminals 10 (in other words, as many as the number of users participating in the joint play). Note that the target moving image for each user terminal 10 is a moving image recorded at the same timing (simultaneous period) during game play.

また、共同プレイモードの場合、出力部59は、複数のユーザのうち、あるユーザのユーザ端末10に表示されたプレイ画面に基づくゲーム動画(以下、便宜上、あるユーザのゲーム動画ともいう)から特定された対象動画を、あるユーザとは異なるユーザのいずれかが利用可能な状態で出力することができる。例えば、ユーザAのゲーム動画から特定された対象動画を、ユーザBが利用可能な状態でサーバ14に出力することができる。つまり、第2実施形態では、ユーザAのゲーム動画から特定された対象動画を、ユーザBが保存したり、SNS又は動画投稿サイトに投稿したりすることができる。 Further, in the case of the joint play mode, the output unit 59 identifies from a game video based on a play screen displayed on the user terminal 10 of a certain user among a plurality of users (hereinafter also referred to as a certain user's game video for convenience). The selected target moving image can be output in a state in which it can be used by any user other than a certain user. For example, the target moving image specified from the user A's game moving image can be output to the server 14 in a state that the user B can use it. That is, in the second embodiment, the user B can save the target moving image specified from the user A's game moving image, or can post it on the SNS or the moving image posting site.

(提示部)
第2実施形態の提示部60は、第1実施形態と同様、ゲームのプレイ終了後に提示処理を実行するが、共同プレイモードの場合には、ゲームを共同でプレイした複数のユーザの各々に対して対象動画を提示する。各ユーザに提示される対象動画は、前述したように、ゲームのプレイ中、同じタイミング(同時期)に録画された動画である。
(presentation part)
As in the first embodiment, the presentation unit 60 of the second embodiment executes presentation processing after the end of playing the game. to present the target video. The target moving image presented to each user is, as described above, a moving image recorded at the same timing (simultaneous period) during game play.

また、共同プレイモードにおいて、ゲームのプレイ中に出力処理が複数回実行されて複数の対象動画が出力された場合、提示部60は、各ユーザに対して、複数の対象動画を提示する。具体的に説明すると、出力処理がm回(mは2以上の自然数)実施された場合、提示処理では、m個の対象動画が各ユーザ端末10にて提示される。また、第2実施形態の提示処理では、ユーザ毎に異なる対象動画を提示してもよい。例えば、ユーザAに対しては、ユーザAのゲーム動画から特定された対象動画を提示し、ユーザBに対しては、ユーザBのゲーム動画から特定された対象動画を提示してもよい。あるいは、共同プレイモードにてゲームを共同でプレイした複数のユーザのそれぞれに対して、全ユーザ分の対象動画を提示してもよく、例えば、ユーザA、Bの各々に対して、ユーザAのゲーム動画から特定された対象動画、及び、ユーザBのゲーム動画から特定された対象動画を提示してもよい。 Also, in the joint play mode, when the output process is executed a plurality of times during game play and a plurality of target moving images are output, the presentation unit 60 presents the plurality of target moving images to each user. Specifically, when the output process is performed m times (m is a natural number of 2 or more), m target moving images are presented on each user terminal 10 in the presentation process. Also, in the presentation process of the second embodiment, different target moving images may be presented for each user. For example, user A may be presented with a target video specified from user A's game video, and user B may be presented with a target video specified from user B's game video. Alternatively, target videos for all users may be presented to each of a plurality of users who have jointly played the game in the joint play mode. The target moving image specified from the game moving image and the target moving image specified from the user B's game moving image may be presented.

(第1特定部)
第1特定部63は、共同プレイモードにてゲームを共同でプレイする複数のユーザのうち、あるユーザ(以下、第1ユーザという)のゲーム動画から特定された対象動画を、第1ユーザに対して提示した場合に、第1特定処理を実行する。第1特定処理では、提示処理にて第1ユーザに対して提示された対象動画(すなわち、第1ユーザのゲーム動画から特定された対象動画)のうち、第1ユーザによって選択された選択動画を特定する。なお、第1ユーザによる対象動画の選択操作は、例えば、図7の提示画面を通じて行われる。
(First specified part)
The first specifying unit 63 sends the target video specified from the game video of a certain user (hereinafter referred to as the first user) among the plurality of users who jointly play the game in the joint play mode to the first user. is presented, the first specific process is executed. In the first specifying process, among the target videos presented to the first user in the presentation process (that is, the target videos specified from the game videos of the first user), the selected videos selected by the first user are selected. Identify. Note that the selection operation of the target moving image by the first user is performed through the presentation screen of FIG. 7, for example.

(第2特定部)
第2特定部64は、第1特定部63による第1特定処理の実行後に、第2特定処理を実行する。第2特定処理では、共同プレイモードにてゲームを共同でプレイする複数のユーザのうち、第2ユーザを特定する。第2ユーザとは、第1特定部63により特定された選択動画と対応するゲーム内イベントに関与したユーザであり、例えば、ゲーム内イベントに最も貢献したユーザである。なお、選択動画と対応するゲーム内イベントとは、選択動画が録画された時期と同じタイミングで実施されたゲーム内イベントである。
(Second Specified Part)
The second specifying unit 64 executes the second specifying process after the first specifying process is executed by the first specifying unit 63 . In the second identification process, the second user is identified among the users who jointly play the game in the joint play mode. The second user is a user involved in the in-game event corresponding to the selected moving image identified by the first identifying unit 63, for example, the user who contributed most to the in-game event. Note that the in-game event corresponding to the selected moving image is an in-game event held at the same timing as when the selected moving image was recorded.

より詳しく説明すると、第2特定部64は、ゲームプレイ中に録画された各ユーザのゲーム動画から、上記のゲーム内イベントが実施される間のプレイ画面に基づく動画をユーザ毎に特定する。その後、第2特定部64は、ユーザ毎に特定された動画を解析し、その解析結果から、上記のゲーム内イベントにおける各ユーザのプレイ内容を特定する。そして、第2特定部64は、特定された各ユーザのプレイ内容に基づいて第2ユーザを特定する。例えば、選択動画と対応するゲーム内イベントがボス敵との戦闘である場合、ボス敵を倒したキャラクタを操作するユーザが第2ユーザとして特定される。 More specifically, the second identifying unit 64 identifies, for each user, a moving image based on a play screen while the above-described in-game event is being carried out, from the game moving images of each user recorded during game play. After that, the second identifying unit 64 analyzes the moving image identified for each user, and identifies the play contents of each user in the in-game event from the analysis result. And the 2nd specific|specification part 64 specifies a 2nd user based on the play content of each specified user. For example, if the in-game event corresponding to the selected moving image is a battle with a boss enemy, the user who operates the character that defeated the boss enemy is identified as the second user.

(推奨部)
推奨部65は、第2特定部64による第2特定処理の実行後に、推奨処理を実行する。推奨処理では、第2ユーザのゲーム動画から特定された対象動画、詳しくは、選択動画と同じタイミングで録画された対象動画を、第1ユーザに対して推奨する。推奨処理では、図10に示すように、推奨される対象動画(以下、推奨動画)のサムネイル画像が第1ユーザのユーザ端末10に表示される。これにより、第1ユーザは、自分の選択動画と同時期に第2ユーザのユーザ端末10にて録画された動画(推奨動画)を確認することができる。この結果、例えば、あるゲーム内イベントに関して、第1ユーザに対して提示された対象動画には映っていない映像(例えば、ボス敵を倒したシーン)を、第2ユーザのユーザ端末10にて録画された動画から入手することができる。
(recommended part)
The recommendation unit 65 executes the recommendation processing after the second identification unit 64 executes the second identification processing. In the recommendation process, the target video identified from the second user's game video, more specifically, the target video recorded at the same timing as the selected video is recommended to the first user. In the recommendation process, as shown in FIG. 10, a thumbnail image of a recommended target video (hereinafter referred to as a recommended video) is displayed on the user terminal 10 of the first user. Thereby, the first user can check the video (recommended video) recorded on the user terminal 10 of the second user at the same time as the video selected by the first user. As a result, for example, regarding a certain in-game event, a video not shown in the target video presented to the first user (for example, a scene in which a boss enemy is defeated) is recorded on the user terminal 10 of the second user. You can get it from the video.

そして、第1ユーザは、図10に示す推奨画面を通じて保存操作及び投稿操作等の利用操作を行うことにより、推奨動画を利用することができ、具体的には、推奨動画をユーザ端末10に保存し、又は推奨動画をSNSや動画投稿サイトに投稿することができる。 Then, the first user can use the recommended video by performing a usage operation such as a save operation and a posting operation through the recommendation screen shown in FIG. Alternatively, the recommended videos can be posted on SNS or video posting sites.

(通知部)
通知部66は、共同プレイモードにおいてゲームを共同でプレイする複数のユーザの中の一人が、提示処理にて提示された対象動画に対して利用操作を行った場合に通知処理を実行する。通知処理において、通知部66は、上記の利用操作に関する情報、具体的には、利用操作を行ったユーザ、利用(詳しくは保存又は投稿)の対象とされた対象動画、及び利用方法等を、利用操作を行ったユーザ以外のユーザに通知する。
(notification section)
The notification unit 66 executes notification processing when one of the users who play the game together in the joint play mode performs a use operation on the target moving image presented in the presentation processing. In the notification process, the notification unit 66 collects information regarding the above-described usage operation, specifically, the user who performed the usage operation, the target video to be used (more specifically, saved or posted), the usage method, etc. Notify users other than the user who performed the usage operation.

次に、本発明の第2実施形態に係る情報処理フローについて、図11を参照しながら説明する。第2実施形態に係る情報処理フローでは、本発明の情報処理方法を採用しており、図11に示す情報処理フロー中の各ステップは、本発明の情報処理方法の構成要素に該当する。
なお、以下では、共同プレイモードにおいて2人のユーザ(ユーザA、B)がゲームを共同でプレイするケースを想定して説明することとする。
Next, an information processing flow according to the second embodiment of the invention will be described with reference to FIG. The information processing flow according to the second embodiment employs the information processing method of the present invention, and each step in the information processing flow shown in FIG. 11 corresponds to the constituent elements of the information processing method of the present invention.
In the following description, it is assumed that two users (users A and B) play the game together in the joint play mode.

第2実施形態に係る情報処理フローの各ステップは、サーバ14のプロセッサ41と、ユーザA、Bの各々のユーザ端末10のプロセッサ21とによって実施される。また、第2実施形態に係る情報処理フローのうち、ステップS021~S027は、図11に示すように、図8に示す第1実施形態に係る情報処理フローにおけるS001~S007と概ね共通する。 Each step of the information processing flow according to the second embodiment is performed by the processor 41 of the server 14 and the processors 21 of the user terminals 10 of the users A and B, respectively. Further, as shown in FIG. 11, steps S021 to S027 in the information processing flow according to the second embodiment are generally common to steps S001 to S007 in the information processing flow according to the first embodiment shown in FIG.

また、ゲームのプレイ中にゲーム動画を録画するステップS021、及び、ゲームのプレイ中の音録音するステップS022は、図11に示すように、ユーザA、Bの各々のユーザ端末10のプロセッサ21によって実施され、ステップS023以降は、サーバ14のプロセッサ41によって実施される。また、プロセッサ41は、ゲームのプレイ中、録画されたゲーム動画のデータ(録画データ)、及び録音された音のデータ(録音データ)を各ユーザ端末10から随時受信する。 Further, the step S021 of recording a game video during game play and the step S022 of recording sound during game play are performed by the processors 21 of the user terminals 10 of the users A and B, respectively, as shown in FIG. is executed, and step S023 and subsequent steps are executed by the processor 41 of the server 14. FIG. In addition, the processor 41 receives recorded game video data (recorded data) and recorded sound data (recorded data) from each user terminal 10 at any time during game play.

ここで、ステップS027で実行される提示処理において、3つの対象動画p1、p2、p3がユーザA、Bに対して提示され、それぞれは、ゲームプレイ中のタイミングt1、t2、t3に録画された動画であるとする。また、3つの対象動画p1、p2、p3は、それぞれ、ゲーム内イベントと対応付けられており、例えば、対象動画p3は、「ボス敵との戦闘」というゲーム内イベントが実施されている期間に録画された動画である。
なお、以下では、ユーザAに対して提示される3つの対象動画を、「対象動画pa1、pa2、pa3」とし、ユーザBに対して提示される3つの対象動画を、「対象動画pb1、pb2、pb3」とする(図12参照)。
Here, in the presentation process executed in step S027, three target moving images p1, p2, and p3 are presented to users A and B, and recorded at timings t1, t2, and t3 during game play, respectively. Suppose it is a video. Also, the three target videos p1, p2, and p3 are each associated with an in-game event. It is a recorded video.
Note that, hereinafter, the three target videos presented to the user A are referred to as “target videos pa1, pa2, pa3”, and the three target videos presented to the user B are referred to as “target videos pb1, pb2 , pb3” (see FIG. 12).

ユーザA、Bは、それぞれ、提示処理にて提示された対象動画をユーザ端末10の画面にて確認し、1つ以上の対象動画を選択する選択操作をユーザ端末10にて行う。サーバ14のプロセッサ41は、ユーザ端末10との通信を通じて選択操作を受け付けると(S028)、第1特定処理を実行する(S029)。例えば、ユーザAによる選択操作を受け付けた場合、プロセッサ41は、ユーザAを第1ユーザとして第1特定処理を実行し、同処理では、ユーザAによって選択された選択動画を特定する。
ここで、選択動画は、図12に示すように、ユーザAに対して提示された3つの対象動画pa1、pa2、pa3のうち、対象動画pa3であるとする。
Each of the users A and B confirms the target moving images presented in the presentation process on the screen of the user terminal 10 and performs a selection operation on the user terminal 10 to select one or more target moving images. When the processor 41 of the server 14 receives the selection operation through communication with the user terminal 10 (S028), it executes the first specifying process (S029). For example, when receiving a selection operation by user A, the processor 41 performs first identification processing with user A as the first user, and identifies the selected moving image selected by user A in the processing.
Here, it is assumed that the selected moving image is the target moving image pa3 among the three target moving images pa1, pa2, and pa3 presented to the user A, as shown in FIG.

その後、プロセッサ41は、第2特定処理を実行し、ユーザA、Bのうち、選択動画pa3と対応するゲーム内イベントに関与したユーザを第2ユーザとして特定する(S030)。図12のケースを例に挙げて説明すると、ユーザAにより選択された選択動画pa3は、前述したように、ボス敵との戦闘というゲーム内イベントに対応している。ここで、上記のゲーム内イベントにおいてユーザBがボス敵を倒した場合、プロセッサ41は、第2特定処理においてユーザBを第2ユーザとして特定する。 After that, the processor 41 executes a second identification process, and identifies the user who was involved in the in-game event corresponding to the selected moving image pa3 among the users A and B as the second user (S030). Taking the case of FIG. 12 as an example, the selected moving image pa3 selected by the user A corresponds to the in-game event of the battle with the boss enemy, as described above. Here, when the user B defeats the boss enemy in the in-game event, the processor 41 identifies the user B as the second user in the second identification process.

その後、プロセッサ41は、推奨処理を実行し、図12に示すように、第2ユーザであるユーザBのゲーム動画から特定された対象動画であって、選択動画pa3と同じタイミングで録画された対象動画pb3を、第1ユーザであるユーザAに対して推奨する(S031)。そして、ユーザAが推奨動画pb3に対して保存操作又は投稿操作を行うと(S032、S034)、プロセッサ41が、その操作を受け付けて、推奨動画pb3を保存し、又は投稿する(S033、S035)。 After that, the processor 41 executes the recommendation process, and as shown in FIG. 12, the target moving image specified from the game moving image of the user B who is the second user and recorded at the same timing as the selected moving image pa3. Movie pb3 is recommended to user A who is the first user (S031). Then, when the user A performs a save operation or a post operation on the recommended video pb3 (S032, S034), the processor 41 accepts the operation and saves or posts the recommended video pb3 (S033, S035). .

なお、図11には図示していないが、ユーザA、Bは、提示処理にて提示された3つの対象動画p1、p2、p3のうち、1つ以上の対象動画を指定して保存操作又は投稿操作を行ってもよい。この場合、プロセッサ41は、指定された対象動画を、保存操作を行ったユーザのユーザ端末10に保存し、又はSNS等へ投稿するとよい。そして、プロセッサ41は、通知処理を実行し、利用操作(具体的には、保存操作又は投稿操作)に関する情報を、利用操作を行ったユーザ以外のユーザに通知するとよい。 Note that although not shown in FIG. 11, the users A and B specify one or more of the three target videos p1, p2, and p3 presented in the presentation process, and perform a save operation or Posting operations may be performed. In this case, the processor 41 may save the specified target moving image in the user terminal 10 of the user who performed the saving operation, or post it to SNS or the like. Then, the processor 41 may execute notification processing to notify the user other than the user who performed the usage operation of the information regarding the usage operation (specifically, the save operation or the posting operation).

以上までに説明してきたステップがすべて終了した時点で、第2実施形態に係る情報処理フローが終了する。 The information processing flow according to the second embodiment ends when all the steps described above are completed.

[第2実施形態の変形例について]
本発明の第2実施形態に関して、上述したケースでは、共同プレイモードにおいてゲームを共同でプレイする複数のユーザの各々のゲーム動画から対象動画を特定することとした。つまり、上述のケースにおいて、サーバ14のプロセッサ41は、各ユーザ端末10にて録画されたゲーム動画からユーザ端末10毎に対象動画を特定することとしたが、これに限定されるものではない。例えば、複数のユーザのうち、いずれかのユーザ(以下、特定ユーザという)のゲーム動画から対象動画を特定してもよい。
[Regarding Modified Example of Second Embodiment]
Regarding the second embodiment of the present invention, in the case described above, the target moving image is specified from the game moving images of each of the multiple users who play the game together in the joint play mode. That is, in the case described above, the processor 41 of the server 14 identifies the target moving image for each user terminal 10 from the game moving images recorded by each user terminal 10, but the present invention is not limited to this. For example, among a plurality of users, the target moving image may be specified from the game moving image of one of the users (hereinafter referred to as a specific user).

つまり、第2実施形態の出力処理では、特定ユーザのユーザ端末10に表示されたプレイ画面に基づくゲーム動画から特定された対象動画を、複数のユーザとは異なるユーザのいずれかが利用可能な状態で出力してもよい。ここで、特定ユーザは、ゲームプレイ中にユーザ端末10にて検知された音に基づいて特定されるユーザ、例えば、複数のユーザのうち、検知された音の音量が最も大きいユーザでもよい。あるいは、特定ユーザは、ゲームにおいて所定の結果が得られるプレイを行ったユーザ、例えば、ボス敵との戦闘のようなゲーム内イベントをクリアしたユーザ、又は他のユーザのキャラクタとの連携攻撃を行ったユーザでもよい。 In other words, in the output process of the second embodiment, the target moving image specified from the game moving image based on the play screen displayed on the user terminal 10 of the specific user can be used by any one of the users different from the plurality of users. can be output with Here, the specific user may be the user identified based on the sound detected by the user terminal 10 during game play, for example, the user whose detected sound volume is the loudest among a plurality of users. Alternatively, the specific user may be a user who has played a game in which a predetermined result is obtained, for example, a user who has cleared an in-game event such as a battle with a boss enemy, or a cooperative attack with another user's character. user.

[その他の実施形態]
以上までに、本発明のプログラム、情報処理装置及び情報処理方法に関して、幾つかの具体例を挙げて説明してきたが、上述した実施形態は、あくまでも一例に過ぎず、他の実施形態も考えられ得る。
[Other embodiments]
So far, the program, the information processing apparatus, and the information processing method of the present invention have been described with some specific examples, but the above-described embodiment is merely an example, and other embodiments can also be considered. obtain.

上述した実施形態では、共同プレイ(マルチプレイ)が可能なゲームを例に挙げて説明したが、本発明は、共同プレイに対応していなゲーム、すなわち一人のユーザが単独でプレイするゲームにも適用可能である。 In the above-described embodiment, a game in which joint play (multi-play) is possible has been described as an example, but the present invention is also applicable to games that do not support joint play, that is, games played by one user alone. It is possible.

また、上述した実施形態では、ゲームプレイ中に検知された音に基づいて、ゲーム動画から対象動画が特定されることとしたが、これに加えて、ゲームにおけるユーザのプレイ内容に基づいて対象動画を特定してもよい。その場合、提示処理では、音に基づいて特定された対象動画と、プレイ内容に基づいて特定された対象動画とを提示することになるが、その際には、上述の実施形態と同様に、各対象動画を、各対象動画と対応する音に応じた順序にて提示するとよい。 Further, in the above-described embodiment, the target video is identified from the game video based on the sound detected during game play. may be specified. In that case, in the presentation process, the target moving image specified based on the sound and the target moving image specified based on the play content are presented. Each target moving image may be presented in an order according to each target moving image and the corresponding sound.

また、ゲームプレイ中に検知される音、及び、ゲームにおけるユーザのプレイ内容と、に基づいて、ゲーム動画から対象動画を特定してもよい。具体的に説明すると、ゲームをプレイするユーザにはスコア(音に関する値の一例に相当)が設定され、ゲームプレイ中のユーザの行動に応じて、そのユーザのスコア(点数)を加算する。例えば、所定時間内に一定数以上の敵を倒したり、囚われた仲間のキャラクタを救助したり、ある音量以上で会話したり、操作しているキャラクタが敵に囲まれたり、ボス敵を倒したりした場合には、それぞれの行動に応じてスコアが随時加算される。ちなみに、加点対象の行動としては、上記以外の行動が含まれてもよい。
そして、スコアが規定値を超えた際には、その時点の前後数秒間の部分を対象動画として特定し、特定された対象動画がゲームプレイ終了後(詳しくは、クエストのプレイ終了後)に出力されるとよい。
なお、上記のスコアは、加点対象の行動が一定時間以上行われない場合には時間経過とともに減点されてもよい。このような場合には、短時間の中で加点対象の行動が繰り返し行われるケース、例えば、ボス敵を倒した直後に盛り上がって大音量で会話する場面で対象動画が特定される。反対に、時々ボイスチャットで会話する程度の盛り上がりでは、対象動画を特定して出力する処理(出力処理)が実行されにくくなる。
Alternatively, the target video may be identified from the game video based on the sound detected during game play and the content of the user's play in the game. Specifically, a score (corresponding to an example of a value related to sound) is set for a user playing the game, and the user's score (points) is added according to the user's behavior during game play. For example, defeating a certain number of enemies within a given time, rescuing a fellow character who has been captured, talking at a certain volume or higher, being surrounded by enemies, defeating a boss enemy, etc. If you do, the score will be added as needed according to each action. Incidentally, actions other than those described above may be included as actions to which points are added.
Then, when the score exceeds the specified value, the part for a few seconds before and after that point is specified as the target video, and the specified target video is output after the game play (more specifically, after the quest is finished). should be.
It should be noted that the above score may be deducted as time elapses when the action to be added is not performed for a certain period of time or longer. In such a case, the target moving image is specified in a case where the actions to be added are repeatedly performed in a short period of time, for example, in a scene where the player gets excited and talks at a high volume immediately after defeating the boss enemy. On the other hand, if the conversation is as lively as occasional voice chat, it becomes difficult to execute the process of specifying and outputting the target moving image (output process).

また、上述した実施形態では、ゲームプレイ中に録画されたゲーム動画のうち、対象動画以外の部分は消去されることとしたが、これに限定されず、対象動画以外の動画は、低解像度化した状態で残してもよい。
また、上述した実施形態では、ゲームプレイ中に録画されたゲーム動画のうち、対象動画以外の部分をゲームプレイ終了後に消去することとしたが、ゲームプレイ中、対象動画として特定されない動画を、その録画時点から一定時間が経過した後に消去してもよい。つまり、ゲームプレイ中、直近一定時間分の動画を残し、それ以前のゲーム動画を消去してもよい。
Further, in the above-described embodiment, of the game videos recorded during game play, portions other than the target video are deleted, but the present invention is not limited to this. You can leave it as it is.
Further, in the above-described embodiment, of the game videos recorded during the game play, portions other than the target video are deleted after the game play ends. It may be erased after a certain period of time has elapsed from the time of recording. In other words, during game play, the video for the most recent fixed time period may be left, and the previous game videos may be deleted.

[まとめ]
本発明は、以下の[1]~[16]に示す構成により達成され、それぞれの構成により、種々の効果を奏することができる。
[1] ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、ゲームのプレイと関連付けられたゲーム動画から上記の音に基づいて特定される対象動画を、ゲームをプレイしたユーザが利用可能な状態で出力する出力処理を、プロセッサに実行させるプログラム。
上記のプログラムによれば、ゲーム動画のうち、ゲームプレイ中の音に応じて特定される部分を対象動画として出力するので、ユーザは、例えば、ゲームのプレイ中、盛り上がったシーンの動画を利用できるようになる。
[summary]
The present invention is achieved by the configurations shown in [1] to [16] below, and various effects can be achieved by each configuration.
[1] When a value related to sound in the real space detected during game play satisfies a predetermined condition, a target video identified based on the above sound from game videos associated with game play, A program that causes a processor to execute output processing to output in a state that can be used by the user who has played the game.
According to the above program, the part of the game video that is specified according to the sound during game play is output as the target video, so that the user can use the video of the exciting scene during game play, for example. become.

[2] 本発明では、上記の音の音量が閾値以上である場合に、出力処理をプロセッサに実行させてもよい。
上記の構成によれば、ゲームのプレイ中、検知された音の音量が所定値(閾値)以上になった時点、すなわち盛り上がった時点の動画を的確に特定することができる。
[2] In the present invention, the processor may be caused to execute output processing when the volume of the sound is equal to or greater than the threshold.
According to the above configuration, during play of the game, it is possible to accurately specify the moving image at the time when the volume of the detected sound reaches or exceeds a predetermined value (threshold value), that is, at the time when the game becomes lively.

[3] 本発明では、ゲームのプレイ中に検知された音から特定される発話者の人数が閾値以上である場合に、出力処理をプロセッサに実行させてもよい。
上記の構成によれば、ゲームのプレイ中、発話者の人数が所定人数(閾値)以上になった時点、すなわち盛り上がった時点の動画を的確に特定することができる。
[3] In the present invention, the processor may be caused to execute the output process when the number of speakers identified from sounds detected during game play is equal to or greater than a threshold.
According to the above configuration, during the game play, it is possible to accurately specify the moving image at the time when the number of speakers reaches a predetermined number (threshold value) or more, that is, at the time when the game becomes lively.

[4] 本発明では、ゲームにおいて該当条件を満たしたユーザのユーザ端末にて検知される音に関する値が所定の条件を満たす場合に、出力処理をプロセッサに実行させてもよい。
上記の構成では、該当条件を満たしたユーザのユーザ端末にて検知される音(音声)を重視し、その音の値が所定の条件を満たすことをトリガーとして出力処理を実行する。このような構成であれば、例えば、ゲームにて特定のイベントに関与したユーザ(具体的には、ボス敵を倒したユーザ)が大きな歓声を挙げた場合に、その音声を検知して出力処理を実行することで、その時点の動画を対象動画として利用することができる。
[4] In the present invention, a processor may be caused to execute an output process when a value relating to sound detected by a user terminal of a user who satisfies the relevant condition in the game satisfies a predetermined condition.
In the above configuration, emphasis is placed on the sound (sound) detected by the user terminal of the user who satisfies the relevant conditions, and output processing is executed when the value of the sound satisfies a predetermined condition as a trigger. With such a configuration, for example, when a user involved in a specific event in a game (specifically, a user who defeated a boss enemy) shouts loudly, the sound is detected and output processing is performed. By executing , the video at that time can be used as the target video.

[5] 本発明では、ゲームをプレイしているユーザが該当条件を満たした時点、又は時点から所定時間が経過するまでの間に、該当条件を満たしたユーザとゲームを共同でプレイする他のユーザの端末にて検知される音に関する値が所定の条件を満たす場合に、出力処理をプロセッサに実行させてもよい。
上記の構成では、あるユーザが該当条件を満たした時点と同時期、又はその時点から所定期間以内に、他のユーザの端末にて検知される音に関する値が所定の条件を満たす場合に、出力処理を実行する。これにより、例えば、該当条件を満たしたユーザ(具体的には、ボス敵を倒したユーザ等)が大きな歓声を挙げ、且つ、他のユーザも盛り上がった場合に、その時点の動画を対象動画として利用することができる。
[5] In the present invention, when the user who is playing the game satisfies the applicable condition, or until a predetermined time elapses from the point of time, another user who plays the game jointly with the user who satisfies the applicable condition The processor may be caused to execute the output process when the value related to the sound detected by the user's terminal satisfies a predetermined condition.
In the above configuration, at the same time as when a certain user satisfies the corresponding condition, or within a predetermined period from that time, when the value related to the sound detected by the other user's terminal satisfies the predetermined condition, the output Execute the process. As a result, for example, when a user who satisfies the relevant conditions (specifically, a user who defeated a boss enemy, etc.) cheers loudly and other users also get excited, the video at that time is set as the target video. can be used.

[6] 本発明において、出力処理では、ゲーム動画のうち、上記の値が所定の条件を満たした時点に基づいて特定されるゲーム内イベントの実施時期に応じた対象動画を出力してもよい。
上記の構成では、例えば、ゲーム動画のうち、盛り上がった時点又はその直前に行われているゲーム内イベントのシーンの動画を対象動画として利用することができる。
[6] In the present invention, in the output process, among the game videos, the target video may be output according to the implementation timing of the in-game event specified based on the point in time when the above value satisfies a predetermined condition. .
In the above configuration, for example, among game videos, a video of a scene of an in-game event that is taking place at or immediately before the excitement of the game can be used as the target video.

[7] 本発明では、ゲームを共同でプレイする複数のユーザの各々のユーザ端末に表示されるプレイ画面がユーザ端末毎に異なってもよい。この場合、出力処理では、複数のユーザのうち、特定ユーザのユーザ端末に表示されたプレイ画面に基づくゲーム動画から特定された対象動画を、複数のユーザのうち、特定ユーザとは異なるユーザのいずれかが利用可能な状態で出力してもよい。
上記の構成では、ユーザ端末毎に異なるゲーム動画が録画される場合に、特定ユーザのゲーム動画から特定された対象動画を、特定ユーザ以外のユーザが利用することができる。これにより、例えば、ゲームプレイ中、盛り上がったシーン(具体的には、ボス敵を倒した場面等)に関与したユーザのゲーム動画から特定された対象動画を、そのシーンに関与できなかったユーザであっても利用することができる。
[7] In the present invention, the play screen displayed on each user terminal of a plurality of users who play the game together may be different for each user terminal. In this case, in the output process, among the plurality of users, the target animation specified from the game animation based on the play screen displayed on the user terminal of the specific user is output to any of the plurality of users different from the specific user. or may be output in a state in which it is available.
In the above configuration, when different game videos are recorded for each user terminal, users other than the specific user can use the target video identified from the game videos of the specific user. As a result, for example, during the game play, the target video specified from the game video of the user who was involved in the exciting scene (specifically, the scene of defeating the boss enemy, etc.) can be displayed by the user who was not involved in the scene. It can be used even if there is.

[8] 本発明において、出力処理では、検知された音を用いて特定された特定ユーザのユーザ端末に表示されたプレイ画面に基づくゲーム動画から特定された対象動画を出力してもよい。
上記の構成によれば、例えば、ゲームのプレイ中、あるユーザが特定のイベントに関与して大きな歓声を挙げた場合、その音声を検知することにより、上記のユーザが特定ユーザとして特定される。この結果、そのユーザのゲーム動画から特定された対象動画、詳しくは、当該ユーザが歓声を挙げた時点の対象動画が利用可能となる。
[8] In the present invention, in the output process, the target moving image specified from the game moving image based on the play screen displayed on the user terminal of the specified user specified using the detected sound may be output.
According to the above configuration, for example, when a user participates in a specific event during game play and gives a loud cheer, the user is identified as the specific user by detecting the sound. As a result, the target video identified from the user's game video, more specifically, the target video at the time when the user gave a cheer becomes available.

[9] 本発明において、出力処理では、ゲームにおいて所定の結果が得られるプレイを行った特定ユーザのユーザ端末に表示されたプレイ画面に基づくゲーム動画から特定された対象動画を出力してもよい。
上記の構成によれば、ゲームにおいてボス敵を倒したり、又はレアなアイテムを入手したりする等、所定の結果が得られることでユーザが盛り上がった場合、そのシーンの動画を対象動画として利用することができる。
[9] In the present invention, in the output process, a target moving image specified from a game moving image based on a play screen displayed on a user terminal of a specific user who has played a game in which a predetermined result is obtained may be output. .
According to the above configuration, when the user is excited by obtaining a predetermined result such as defeating the boss enemy or obtaining a rare item in the game, the video of that scene is used as the target video. be able to.

[10] 本発明では、出力処理にて出力された対象動画を、ゲームをプレイしたユーザに対して提示する提示処理を、プロセッサに実行させてもよい。また、ゲームのプレイ中、出力処理が複数回実行された場合に、提示処理では、複数の対象動画を、対象動画と対応する音に応じた順序にて提示するとよい。
上記の構成によれば、提示処理が実行されることにより、ユーザは、ゲーム動画から特定された複数の対象動画を確認することができる。この際、複数の対象動画は、それぞれの対象動画と対応する音(具体的には、音量等)に応じた順序にて提示されるので、ユーザは、ゲームプレイ中の盛り上がり具合に応じた順序で、複数の対象動画を確認することができる。
[10] In the present invention, the processor may be caused to execute presentation processing for presenting the target moving image output in the output processing to the user who has played the game. Also, when the output process is executed multiple times during game play, the presentation process preferably presents a plurality of target videos in an order according to the sounds corresponding to the target videos.
According to the above configuration, by executing the presentation process, the user can confirm a plurality of target videos specified from the game videos. At this time, the plurality of target videos are presented in an order according to the sound (specifically, volume, etc.) corresponding to each target video. , you can check multiple target videos.

[11] 本発明では、ゲームを共同でプレイする複数のユーザの各々のユーザ端末に表示されたプレイ画面がユーザ端末毎に異なってもよい。この場合において、出力処理では、それぞれのユーザ端末に表示されたプレイ画面に基づくユーザ端末毎のゲーム動画から、ユーザ端末毎に特定される対象動画を出力するとよい。
上記の構成によれば、ゲームを共同でプレイする複数のユーザのそれぞれのユーザ端末では、ユーザ端末毎に異なるゲーム動画が録画される。そのため、ゲームの共同プレイ中に出力処理が実行されると、ユーザ毎に異なる対象動画が出力されるので、利用可能な対象動画の種類(バリエーション)が増える。
[11] In the present invention, the play screen displayed on each user terminal of a plurality of users who play the game together may be different for each user terminal. In this case, in the output process, it is preferable to output the target moving image specified for each user terminal from the game moving image for each user terminal based on the play screen displayed on each user terminal.
According to the above configuration, at the user terminals of the users who play the game together, different game videos are recorded for each user terminal. Therefore, when the output process is executed during the joint play of the game, different target moving images are output for each user, so the types (variations) of usable target moving images increase.

[12] 本発明では、複数のユーザのうち、第1ユーザのユーザ端末に表示されたプレイ画面に基づくゲーム動画から特定された対象動画のうち、第1ユーザによって選択された選択動画を特定する第1特定処理と、複数のユーザのうち、選択動画と対応するゲーム内イベントに関与した第2ユーザを特定する第2特定処理と、第2ユーザのプレイ画面に基づくゲーム動画から特定された対象動画を、第1ユーザに対して推奨する推奨処理と、をプロセッサに実行させてもよい。
上記の構成では、第1ユーザによって選択された対象動画(選択動画)と同じ時期、又はその直前に実施されたゲーム内イベントに関与した第2ユーザを特定し、第2ユーザのゲーム動画から特定された対象動画を、第1ユーザに対して推奨する。これにより、上記のゲーム内イベントに関与できなかった第1ユーザに、ゲーム内イベントに関与した第2ユーザのゲーム動画から特定された対象動画を、推奨することができる。
[12] In the present invention, among a plurality of users, a selected moving image selected by the first user is specified from among the target moving images specified from the game moving images based on the play screen displayed on the user terminal of the first user. A first identification process, a second identification process of identifying a second user involved in an in-game event corresponding to the selected video among a plurality of users, and a target identified from the game video based on the play screen of the second user A recommendation process for recommending the moving image to the first user may be performed by the processor.
In the above configuration, the second user involved in the in-game event held at the same time as the target video (selected video) selected by the first user or immediately before that is identified, and identified from the second user's game video. The selected target moving image is recommended to the first user. This makes it possible to recommend the target moving image identified from the game moving images of the second user who was involved in the in-game event to the first user who was unable to participate in the in-game event.

[13] 本発明において、第2特定処理では、複数のユーザの各々のプレイ画面に基づくゲーム動画中、ゲーム内イベントにおける複数のユーザの各々のプレイ内容に基づいて第2ユーザを特定してもよい。
上記の構成では、ゲーム内イベントのプレイ内容に基づいて第2ユーザを特定する。これにより、例えば、ゲーム内イベントで活躍したユーザ(具体的には、ボス敵を倒したユーザや他のユーザと連携技を行ったユーザ)を第2ユーザとして特定し、そのユーザのゲーム動画から特定された対象動画を、第1ユーザに推奨することができる。
[13] In the present invention, in the second identification process, the second user may be identified based on the play content of each of the plurality of users in the in-game event in the game animation based on the play screen of each of the plurality of users. good.
In the above configuration, the second user is specified based on the play content of the in-game event. As a result, for example, a user who played an active role in an in-game event (specifically, a user who defeated a boss enemy or a user who performed a cooperative technique with another user) is identified as a second user, and the user's game video is The identified target video can be recommended to the first user.

[14] 本発明において、提示処理では、複数のユーザの各々に対して対象動画を提示してもよい。また、複数のユーザの中の一人が、提示処理にて提示された対象動画に対して利用操作を行った場合に、利用操作に関する情報を、利用操作を行ったユーザ以外のユーザに通知する通知処理をプロセッサに実行させるとよい。
上記の構成では、ゲームを共同でプレイした複数のユーザの各々に対して対象動画を提示し、一人のユーザが、提示された対象動画を利用した場合、そのことを他のユーザに知らせることができる。これにより、各ユーザは、提示された対象動画が利用(保存又は投稿)されたこと、及び、対象動画を利用したユーザを把握することができる。
[14] In the present invention, in the presentation process, the target moving image may be presented to each of a plurality of users. Further, when one of a plurality of users performs a usage operation on the target moving image presented in the presentation process, a notification for notifying users other than the user who performed the usage operation of information regarding the usage operation. Processing may be performed by a processor.
In the above configuration, the target moving image is presented to each of a plurality of users who have played the game together, and when one user uses the presented target moving image, the other users can be notified of that fact. can. Thereby, each user can understand that the presented target moving image has been used (saved or posted) and the user who has used the target moving image.

[15] 本発明の情報処理装置は、ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、ゲームのプレイと関連付けられたゲーム動画から上記の音に基づいて特定される対象動画を、ゲームをプレイしたユーザが利用可能な状態で出力する出力部を備えることを特徴とする。
上記の情報処理装置によれば、ゲーム動画のうち、ゲームプレイ中の音に応じて特定される部分が対象動画として出力され、ユーザは、例えば、ゲームのプレイ中、盛り上がったシーンの動画を利用可能となる。
[15] The information processing apparatus of the present invention detects the sound based on the sound from the game video associated with the play of the game when the value related to the sound in the real space detected during the play of the game satisfies a predetermined condition. and an output unit that outputs the target moving image specified by the above in a state that can be used by the user who has played the game.
According to the above information processing device, a part of the game video that is specified according to the sound during game play is output as the target video, and the user can use the video of the exciting scene during the game play, for example. It becomes possible.

[16] 本発明の情報処理方法は、ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、ゲームのプレイと関連付けられたゲーム動画から上記の音に基づいて特定される対象動画を、ゲームをプレイしたユーザが利用可能な状態で出力する出力処理をプロセッサが実行することを特徴とする。
上記の情報処理方法によれば、ゲーム動画のうち、ゲームプレイ中の音に応じて特定される部分が対象動画として出力され、ユーザは、例えば、ゲームのプレイ中、盛り上がったシーンの動画を利用可能となる。
[16] In the information processing method of the present invention, when a value related to sound in the real space detected during game play satisfies a predetermined condition, the above sound is extracted from a game moving image associated with game play. The processor executes an output process of outputting the target moving image specified by the above in a state that can be used by the user who has played the game.
According to the information processing method described above, a portion of the game video that is specified according to the sound during game play is output as the target video, and the user can, for example, use the video of an exciting scene during game play. It becomes possible.

10 ユーザ端末(情報処理装置)
12 ネットワーク
14 サーバ
21 プロセッサ
22 メモリ
23 通信用インタフェース
24 ストレージ
25 入力装置
26 出力装置
27 バス
28 マイク
29 ディスプレイ
30 スピーカ
41 プロセッサ
42 メモリ
43 通信用インタフェース
44 ストレージ
51 操作受付部
52 ゲーム進行部
53 表示再生部
54 記憶部
55 録画部
56 録音部
57 検知部
58 判定部
59 出力部
60 提示部
61 保存部
62 投稿部
63 第1特定部
64 第2特定部
65 推奨部
66 通知部
IC アイコン
10 user terminal (information processing device)
12 network 14 server 21 processor 22 memory 23 communication interface 24 storage 25 input device 26 output device 27 bus 28 microphone 29 display 30 speaker 41 processor 42 memory 43 communication interface 44 storage 51 operation reception unit 52 game progress unit 53 display playback unit 54 storage unit 55 recording unit 56 recording unit 57 detection unit 58 determination unit 59 output unit 60 presentation unit 61 storage unit 62 posting unit 63 first identification unit 64 second identification unit 65 recommendation unit 66 notification unit IC icon

Claims (16)

ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、前記ゲームのプレイと関連付けられたゲーム動画から前記音に基づいて特定される対象動画を、前記ゲームをプレイしたユーザが利用可能な状態で出力する出力処理を、プロセッサに実行させるプログラム。 When a value related to sound in the real space detected during game play satisfies a predetermined condition, a target video identified based on the sound from the game video associated with the play of the game is selected from the game. A program that causes the processor to execute output processing that outputs in a state that can be used by the user who played the game. 前記音の音量が閾値以上である場合に、前記出力処理をプロセッサに実行させる、請求項1に記載のプログラム。 2. The program according to claim 1, causing a processor to execute said output process when the volume of said sound is equal to or greater than a threshold. 前記ゲームのプレイ中に検知された前記音から特定される発話者の人数が閾値以上である場合に、前記出力処理をプロセッサに実行させる、請求項1に記載のプログラム。 2. The program according to claim 1, which causes a processor to execute the output process when the number of speakers identified from the sound detected during play of the game is equal to or greater than a threshold. 前記ゲームにおいて該当条件を満たしたユーザのユーザ端末にて検知される前記音に関する前記値が前記所定の条件を満たす場合に、前記出力処理をプロセッサに実行させる、請求項1乃至3のいずれか一項に記載のプログラム。 4. A processor according to any one of claims 1 to 3, causing a processor to execute said output processing when said value related to said sound detected by a user terminal of a user who satisfies said condition in said game satisfies said predetermined condition. The program described in Section. 前記ゲームをプレイしているユーザが該当条件を満たした時点、又は該時点から所定時間が経過するまでの間に、前記該当条件を満たしたユーザと前記ゲームを共同でプレイする他のユーザの端末にて検知される前記音に関する値が前記所定の条件を満たす場合に、前記出力処理をプロセッサに実行させる、請求項1乃至3のいずれか一項に記載のプログラム。 When the user playing the game satisfies the applicable condition, or until a predetermined time elapses from that point, the terminal of another user who plays the game jointly with the user who satisfies the applicable condition 4. The program according to any one of claims 1 to 3, which causes a processor to execute the output process when the value related to the sound detected in satisfies the predetermined condition. 前記出力処理では、前記ゲーム動画のうち、前記値が前記所定の条件を満たした時点に基づいて特定されるゲーム内イベントの実施時期に応じた前記対象動画を出力する、請求項1乃至5のいずれか一項に記載のプログラム。 6. The method according to any one of claims 1 to 5, wherein in the output process, the target moving image is output from the game moving image according to the implementation time of an in-game event specified based on the point in time when the value satisfies the predetermined condition. A program according to any one of paragraphs. 前記ゲームを共同でプレイする複数のユーザの各々のユーザ端末に表示されるプレイ画面が前記ユーザ端末毎に異なる場合において、前記出力処理では、前記複数のユーザのうち、特定ユーザの前記ユーザ端末に表示された前記プレイ画面に基づく前記ゲーム動画から特定された前記対象動画を、前記複数のユーザのうち、前記特定ユーザとは異なるユーザのいずれかが利用可能な状態で出力する、請求項1乃至6のいずれか一項に記載のプログラム。 When the play screen displayed on each of the user terminals of the plurality of users who play the game together is different for each of the user terminals, in the output process, among the plurality of users, the user terminal of a specific user: 1. Outputting the target moving image specified from the game moving image based on the displayed play screen in a state in which any one of the plurality of users different from the specified user can use the target moving image. 7. The program according to any one of 6. 前記出力処理では、検知された前記音を用いて特定された前記特定ユーザの前記ユーザ端末に表示された前記プレイ画面に基づく前記ゲーム動画から特定された前記対象動画を出力する、請求項7に記載のプログラム。 8. The method according to claim 7, wherein in the output process, the target moving image specified from the game moving image based on the play screen displayed on the user terminal of the specific user specified using the detected sound is output. program as described. 前記出力処理では、前記ゲームにおいて所定の結果が得られるプレイを行った前記特定ユーザの前記ユーザ端末に表示された前記プレイ画面に基づく前記ゲーム動画から特定された前記対象動画を出力する、請求項7に記載のプログラム。 wherein in the output process, the target moving image specified from the game moving image based on the play screen displayed on the user terminal of the specific user who has played the game with a predetermined result is output. 7. The program according to 7. 前記出力処理にて出力された前記対象動画を、前記ゲームをプレイしたユーザに対して提示する提示処理を、プロセッサに実行させ、
前記ゲームのプレイ中、前記出力処理が複数回実行された場合に、前記提示処理では、複数の前記対象動画を、前記対象動画と対応する前記音に応じた順序にて提示する、請求項1乃至9のいずれか一項に記載のプログラム。
causing a processor to execute presentation processing for presenting the target moving image output in the output processing to a user who has played the game;
2. When said output process is executed a plurality of times during play of said game, said presentation process presents a plurality of said target videos in an order according to said sounds corresponding to said target videos. 10. The program according to any one of items 1 to 9.
前記ゲームを共同でプレイする複数のユーザの各々のユーザ端末に表示されたプレイ画面が前記ユーザ端末毎に異なる場合において、
前記出力処理では、それぞれの前記ユーザ端末に表示された前記プレイ画面に基づく前記ユーザ端末毎の前記ゲーム動画から、前記ユーザ端末毎に特定される前記対象動画を出力する、請求項10に記載のプログラム。
When the play screen displayed on each user terminal of a plurality of users who play the game together is different for each user terminal,
11. The method according to claim 10, wherein in the output process, the target moving image specified for each user terminal is output from the game moving image for each user terminal based on the play screen displayed on each user terminal. program.
前記複数のユーザのうち、第1ユーザの前記ユーザ端末に表示された前記プレイ画面に基づく前記ゲーム動画から特定された前記対象動画のうち、前記第1ユーザによって選択された選択動画を特定する第1特定処理と、
前記複数のユーザのうち、前記選択動画と対応するゲーム内イベントに関与した第2ユーザを特定する第2特定処理と、
前記第2ユーザのプレイ画面に基づく前記ゲーム動画から特定された前記対象動画を、前記第1ユーザに対して推奨する推奨処理と、をプロセッサに実行させる、請求項11に記載のプログラム。
identifying a selected moving image selected by the first user from among the target moving images specified from the game moving image based on the play screen displayed on the user terminal of the first user among the plurality of users; 1 specific processing;
a second identification process of identifying a second user involved in an in-game event corresponding to the selected moving image among the plurality of users;
12. The program according to claim 11, causing a processor to execute a recommendation process of recommending the target moving image specified from the game moving image based on the play screen of the second user to the first user.
前記第2特定処理では、前記複数のユーザの各々の前記プレイ画面に基づく前記ゲーム動画中、前記ゲーム内イベントにおける前記複数のユーザの各々のプレイ内容に基づいて前記第2ユーザを特定する、請求項12に記載のプログラム。 wherein, in the second identification process, the second user is identified based on play content of each of the plurality of users in the in-game event in the game video based on the play screen of each of the plurality of users. Item 13. The program according to item 12. 前記提示処理では、前記複数のユーザの各々に対して前記対象動画を提示し、
前記複数のユーザの中の一人が、前記提示処理にて提示された前記対象動画に対して利用操作を行った場合に、前記利用操作に関する情報を、前記利用操作を行ったユーザ以外のユーザに通知する通知処理をプロセッサに実行させる、請求項11乃至13のいずれか一項に記載のプログラム。
In the presentation process, the target moving image is presented to each of the plurality of users;
when one of the plurality of users performs a usage operation on the target moving image presented in the presentation process, information about the usage operation is provided to a user other than the user who has performed the usage operation; 14. The program according to any one of claims 11 to 13, which causes a processor to execute notification processing of notifying.
ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、前記ゲームのプレイと関連付けられたゲーム動画から前記音に基づいて特定される対象動画を、前記ゲームをプレイしたユーザが利用可能な状態で出力する出力部を備える、情報処理装置。 When a value related to sound in the real space detected during game play satisfies a predetermined condition, a target video identified based on the sound from the game video associated with the play of the game is selected from the game. An information processing device comprising an output unit that outputs in a state that can be used by a user who has played the game. ゲームのプレイ中に検知された現実空間の音に関する値が所定の条件を満たした場合に、前記ゲームのプレイと関連付けられたゲーム動画から前記音に基づいて特定される対象動画を、前記ゲームをプレイしたユーザが利用可能な状態で出力する出力処理をプロセッサが実行する、情報処理方法。 When a value related to sound in the real space detected during game play satisfies a predetermined condition, a target video identified based on the sound from the game video associated with the play of the game is selected from the game. An information processing method in which a processor executes output processing to output in a state that can be used by a user who has played the game.
JP2022023234A 2022-02-17 2022-02-17 Program, information processing device, and information processing method Active JP7216314B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022023234A JP7216314B1 (en) 2022-02-17 2022-02-17 Program, information processing device, and information processing method
JP2023003832A JP2023120151A (en) 2022-02-17 2023-01-13 Program, information processor, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022023234A JP7216314B1 (en) 2022-02-17 2022-02-17 Program, information processing device, and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023003832A Division JP2023120151A (en) 2022-02-17 2023-01-13 Program, information processor, and information processing method

Publications (2)

Publication Number Publication Date
JP7216314B1 JP7216314B1 (en) 2023-02-01
JP2023120054A true JP2023120054A (en) 2023-08-29

Family

ID=85119974

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022023234A Active JP7216314B1 (en) 2022-02-17 2022-02-17 Program, information processing device, and information processing method
JP2023003832A Pending JP2023120151A (en) 2022-02-17 2023-01-13 Program, information processor, and information processing method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023003832A Pending JP2023120151A (en) 2022-02-17 2023-01-13 Program, information processor, and information processing method

Country Status (1)

Country Link
JP (2) JP7216314B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184067A (en) * 1999-10-14 2001-07-06 Sony Computer Entertainment Inc Entertainment system, entertainment device, recording medium and program
JP2014121610A (en) * 2012-12-21 2014-07-03 Sony Computer Entertainment America Llc Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
JP2015515284A (en) * 2013-02-06 2015-05-28 株式会社スクウェア・エニックス・ホールディングス GAME SYSTEM, GAME DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
WO2015156177A1 (en) * 2014-04-07 2015-10-15 株式会社ソニー・コンピュータエンタテインメント Game moving image distribution device, game moving image distribution method, and game moving image distribution program
JP2019170861A (en) * 2018-03-29 2019-10-10 株式会社ドワンゴ Content processing system, content processing method, timer control server and timer control program
JP2020096660A (en) * 2018-12-17 2020-06-25 株式会社カプコン Game animation editing program and game animation editing system
JP2021078950A (en) * 2019-11-21 2021-05-27 Kddi株式会社 Game management device, game management method, and program
JP6951654B1 (en) * 2021-03-16 2021-10-20 株式会社ミクシィ Information processing equipment, information processing methods, and programs

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184067A (en) * 1999-10-14 2001-07-06 Sony Computer Entertainment Inc Entertainment system, entertainment device, recording medium and program
JP2014121610A (en) * 2012-12-21 2014-07-03 Sony Computer Entertainment America Llc Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
JP2015515284A (en) * 2013-02-06 2015-05-28 株式会社スクウェア・エニックス・ホールディングス GAME SYSTEM, GAME DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
WO2015156177A1 (en) * 2014-04-07 2015-10-15 株式会社ソニー・コンピュータエンタテインメント Game moving image distribution device, game moving image distribution method, and game moving image distribution program
JP2019170861A (en) * 2018-03-29 2019-10-10 株式会社ドワンゴ Content processing system, content processing method, timer control server and timer control program
JP2020096660A (en) * 2018-12-17 2020-06-25 株式会社カプコン Game animation editing program and game animation editing system
JP2021078950A (en) * 2019-11-21 2021-05-27 Kddi株式会社 Game management device, game management method, and program
JP6951654B1 (en) * 2021-03-16 2021-10-20 株式会社ミクシィ Information processing equipment, information processing methods, and programs

Also Published As

Publication number Publication date
JP2023120151A (en) 2023-08-29
JP7216314B1 (en) 2023-02-01

Similar Documents

Publication Publication Date Title
JP7158858B2 (en) Capturing asynchronous comments on pre-recorded gameplay
JP7049428B2 (en) Video distribution device, video distribution method, video distribution program
JP6244127B2 (en) Content providing method, content providing server, and content providing system
US11213757B2 (en) Information processing apparatus, information processing method, and program
US9403088B2 (en) Method of controlling computer device, storage medium, and computer device
KR101903821B1 (en) Avatars of friends as non-player-characters
JP6369462B2 (en) Client device, control method, system, and program
JP6337136B2 (en) Moving image processing apparatus, moving image processing method, and program
JP2005346705A (en) Multisensory emoticon in communication system
KR101138917B1 (en) Game system using network, computer readable medium on which game program is recorded, game device, and method for controlling game using network
KR101629378B1 (en) Apparstus and method of providing replay movie in massively multiplayer online role playing game
JP2014155544A (en) Server device, program, and online game system
JP7344948B2 (en) system
JP2012045422A (en) Program, information storage medium, and game system
JP7216314B1 (en) Program, information processing device, and information processing method
JP2022130494A (en) computer system
JP7260794B2 (en) Game system and game control method
KR102430547B1 (en) Apparatus for creation of contents of game play
JP2015013056A (en) Game program and game apparatus
JP2022012889A (en) Computer program and computer device
KR20200116315A (en) Method for providing game service from server to electronic device
JP7256398B2 (en) computer system
JP7157343B2 (en) Computer system and information presentation method
JP2022100853A (en) Game program and game device
JP2024017662A (en) Entertainment system, program, server and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R150 Certificate of patent or registration of utility model

Ref document number: 7216314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150