JP7302256B2 - HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS - Google Patents

HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS Download PDF

Info

Publication number
JP7302256B2
JP7302256B2 JP2019080361A JP2019080361A JP7302256B2 JP 7302256 B2 JP7302256 B2 JP 7302256B2 JP 2019080361 A JP2019080361 A JP 2019080361A JP 2019080361 A JP2019080361 A JP 2019080361A JP 7302256 B2 JP7302256 B2 JP 7302256B2
Authority
JP
Japan
Prior art keywords
scene
game
excitement
highlight
scenes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019080361A
Other languages
Japanese (ja)
Other versions
JP2020174971A5 (en
JP2020174971A (en
Inventor
由喜 鈴木
晃史 久徳
竜哉 ▲吉▼村
悠太 安海
俊平 佐久間
林 王
龍 江
道 小御門
恭汰 百武
秀隆 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019080361A priority Critical patent/JP7302256B2/en
Publication of JP2020174971A publication Critical patent/JP2020174971A/en
Publication of JP2020174971A5 publication Critical patent/JP2020174971A5/ja
Application granted granted Critical
Publication of JP7302256B2 publication Critical patent/JP7302256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a program for generating a highlight moving image, a method for generating a highlight moving image, and an information processing apparatus.

近年、e-Sprotsを代表としたコンピュータゲームの観戦が盛り上がりを見せており、観戦時においては、ダイジェストとしてゲーム中で盛り上がりのある白熱したハイライトシーンの提示が行われている。このようなハイライトシーンを提示する従来技術としては、コンテンツの画像または音声データから抽出される特徴データに基づいて演算される評価値に基づいて、コンテンツの中のハイライトシーンを検出するものが知られている。 2. Description of the Related Art In recent years, watching computer games such as e-Sprots has become popular, and when watching a game, exciting highlight scenes of the game are presented as a digest. As a conventional technique for presenting such a highlight scene, there is a technique for detecting a highlight scene in content based on an evaluation value calculated based on feature data extracted from image or audio data of the content. Are known.

特開2007-123981号公報JP-A-2007-123981

しかしながら、上記の従来技術では、コンテンツの画像または音声データによりハイライトシーンを検出することから、コンピュータゲームの観衆側の盛り上がりとは無関係なものがハイライトシーンとして提示される場合があるという問題がある。 However, in the above-described prior art, since the highlight scene is detected from the image or audio data of the content, there is a problem that the highlight scene may be presented as a highlight scene unrelated to the excitement of the audience of the computer game. be.

1つの側面では、コンピュータゲームの観衆が盛り上がるハイライトシーンの提示を支援できるハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置を提供することを目的とする。 An object of one aspect of the present invention is to provide a highlight movie generation program, a highlight movie generation method, and an information processing apparatus that can support the presentation of highlight scenes that excite the audience of a computer game.

第1の案では、ハイライト動画生成プログラムは、分割する処理と、算出する処理と、生成する処理と、出力する処理とをコンピュータに実行させる。分割する処理は、コンピュータゲームの動画像をシーンごとに分割する。算出する処理は、分割したシーンごとに、シーンに含まれるゲーム画像に基づき、コンピュータゲームのゲーム画像からゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、シーンを観衆が視聴した場合の盛り上がり度を算出する。生成する処理は、算出した盛り上がり度に基づき、分割したシーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する。出力する処理は、生成したハイライト動画を出力する。 In the first proposal, the highlight moving image generation program causes a computer to execute division processing, calculation processing, generation processing, and output processing. The dividing process divides the moving image of the computer game into scenes. The calculation process is based on the game image included in the scene for each divided scene, using a prediction model that predicts the degree of excitement of the audience who viewed the game image from the game image of the computer game. Calculate the degree of excitement in the case. The generating process selects a scene to be used for the highlight moving image from among the divided scenes based on the calculated excitement level, and generates the highlight moving image. The output process outputs the generated highlight video.

本発明の1実施態様によれば、コンピュータゲームの観衆が盛り上がるハイライトシーンの提示を支援できる。 According to one embodiment of the present invention, it is possible to support the presentation of highlight scenes that excite the audience of a computer game.

図1は、実施形態の概要を説明する説明図である。FIG. 1 is an explanatory diagram for explaining the outline of the embodiment. 図2は、ゲーム動画の画面例を説明する説明図である。FIG. 2 is an explanatory diagram for explaining a screen example of a game moving image. 図3は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。FIG. 3 is a block diagram of a functional configuration example of the information processing apparatus according to the embodiment; 図4は、予測モデルの生成処理例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of processing for generating a prediction model. 図5は、予測モデルによる盛り上がり度の算出例を説明する説明図である。FIG. 5 is an explanatory diagram for explaining an example of calculation of the excitement degree by the prediction model. 図6は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。6 is a flowchart illustrating an operation example of the information processing apparatus according to the embodiment; FIG. 図7は、シーンごとの分割例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of division for each scene. 図8は、各シーンの盛り上がり度の計算を説明する説明図である。FIG. 8 is an explanatory diagram for explaining the calculation of the excitement degree of each scene. 図9は、各シーンの盛り上がり度の計算を説明する説明図である。FIG. 9 is an explanatory diagram for explaining the calculation of the excitement degree of each scene. 図10は、ハイライト動画の生成を説明する説明図である。FIG. 10 is an explanatory diagram illustrating generation of a highlight video. 図11は、ハイライト動画の提供例を説明する説明図である。FIG. 11 is an explanatory diagram illustrating an example of providing a highlight video. 図12は、ハイライト動画生成プログラムを実行するコンピュータの一例を示すブロック図である。FIG. 12 is a block diagram showing an example of a computer that executes a highlight moving image generation program.

以下、図面を参照して、実施形態にかかるハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明するハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。 A highlight video generation program, a highlight video generation method, and an information processing apparatus according to embodiments will be described below with reference to the drawings. Configurations having the same functions in the embodiments are denoted by the same reference numerals, and overlapping descriptions are omitted. Note that the highlight moving image generation program, highlight moving image generation method, and information processing apparatus described in the following embodiments are merely examples, and do not limit the embodiments. Moreover, each of the following embodiments may be appropriately combined within a non-contradictory range.

[実施形態の概要について]
図1は、実施形態の概要を説明する説明図である。本実施形態では、例えばe-Sprotsなどのコンピュータゲームの動画像(以下、ゲーム動画と呼ぶ)をもとに、盛り上がりのある白熱したハイライトシーンをダイジェストとして見せるハイライト動画を作成する。このハイライト動画を作成する情報制御装置としては、例えばPC(パーソナルコンピュータ)などを適用することができる。
[Overview of Embodiment]
FIG. 1 is an explanatory diagram for explaining the outline of the embodiment. In this embodiment, for example, based on a video image of a computer game such as e-Sprots (hereinafter referred to as a game video), a highlight video that presents a digest of exciting highlight scenes is created. For example, a PC (personal computer) or the like can be applied as an information control device for creating this highlight moving image.

なお、ハイライト動画を作成するコンピュータゲームについては、シューティングゲーム、ストラテジーゲーム、格闘ゲーム、スポーツゲーム、レーシングゲーム、パズルゲームなどであり、特に限定しない。本実施形態では、一例として、複数のプレイヤーが対戦する対戦型ゲームであり、ゲーム上の各プレイヤーを上から俯瞰したゲーム画面のリアルタイムストラテジーゲームを例示する。 Note that computer games for creating highlight videos include shooting games, strategy games, fighting games, sports games, racing games, puzzle games, etc., and are not particularly limited. In the present embodiment, as an example, a real-time strategy game, which is a battle-type game in which a plurality of players compete against each other, is illustrated with a game screen in which each player in the game is viewed from above.

図1に示すように、情報処理装置は、まず、ハイライト作成に関するデータ入力を受け付ける(S1)。具体的には、情報制御装置は、ハイライトを作成したいゲーム動画と、作成したいハイライトのシーン数および1シーンあたりの秒数などの設定情報とのデータ入力を受け付ける。 As shown in FIG. 1, the information processing apparatus first receives data input regarding highlight creation (S1). Specifically, the information control device receives data input of a game video for which highlights are to be created and setting information such as the number of highlight scenes to be created and the number of seconds per scene.

ゲーム動画については、ゲームの開始から終了までのゲーム画面に関する動画像であり、所定のフレームレート(例えば30fps)の動画データである。 The game moving image is a moving image related to the game screen from the start to the end of the game, and is moving image data of a predetermined frame rate (for example, 30 fps).

図2は、ゲーム動画の画面例を説明する説明図である。図2に示すように、ゲーム動画Gは、例えば、プレイ中のゲーム画面G1と、プレイヤーの様子やゲームに関する各種ステータスなどを表示するインフォメーション画面G2とを有する。ゲーム画面G1は、仮想的なカメラの映像として、ゲーム内のプレイヤーP1、P2を上方から俯瞰した構成となっている。なお、ゲーム画面G1の画面構成は、各プレイヤーP1、P2を上から俯瞰したものに限定するものではなく、ゲーム内のプレイヤーP1、P2としてゲームフィールドを眺めたものであってもよい。 FIG. 2 is an explanatory diagram for explaining a screen example of a game moving image. As shown in FIG. 2, the game animation G includes, for example, a game screen G1 during play and an information screen G2 that displays the state of the player and various statuses related to the game. The game screen G1 has a configuration in which the players P1 and P2 in the game are viewed from above as images of a virtual camera. The screen configuration of the game screen G1 is not limited to a bird's-eye view of the players P1 and P2, and may be a view of the game field as the players P1 and P2 in the game.

また、ゲーム画面G1では、カメラ切替りにより、プレイヤーP1、P2に関する視点の切り替りが行われる。例えば、ゲーム画面G1は、プレイヤーP1を画面中心としたプレイヤーP1に関する視点の連続シーン(図中の上段)から、カメラ切替りにより、プレイヤーP2を画面中心としたプレイヤーP2に関する視点の連続シーン(図中の中段)に切り替わる。同様に、ゲーム画面G1は、カメラ切替りにより、プレイヤーP2に関する視点の連続シーン(図中の中段)からプレイヤーP1に関する視点の連続シーン(図中の下段)へと戻る。 Also, on the game screen G1, the viewpoints of the players P1 and P2 are switched by camera switching. For example, the game screen G1 changes from a continuous scene (upper part in the drawing) of the viewpoint of the player P1 centered on the player P1 to a continuous scene of the viewpoint of the player P2 centered on the player P2 (Fig. middle row). Similarly, the game screen G1 returns from the continuous scene of the viewpoint of the player P2 (middle part of the figure) to the continuous scene of the viewpoint of the player P1 (lower part of the figure) by switching the camera.

次いで、情報処理装置は、ハイライト作成に関するデータ入力をもとに、ハイライト動画を作成する(S2)。具体的には、情報処理装置は、ゲーム動画をカメラ切り替りのタイミングでシーンごとに分割する(S2a)。ここで、情報処理装置は、分割した各シーンがゲームの前半・中盤・後半のどこのパートにあたるかをタグ付けする。 Next, the information processing device creates a highlight moving image based on data input regarding highlight creation (S2). Specifically, the information processing device divides the game video into scenes at the timing of camera switching (S2a). Here, the information processing device tags which of the first half, middle stage, and second half of the game each divided scene corresponds to.

また、情報処理装置は、ゲーム動画を所定時間(例えば1秒)ごとの静止画像(以下、ゲーム画像)に分割する。具体的には、情報処理装置は、所定のフレームレートのゲーム動画について、例えば、1秒間隔でフレームの抽出を行う。 Further, the information processing device divides the game moving image into still images (hereinafter referred to as game images) at intervals of a predetermined time (for example, 1 second). Specifically, the information processing device extracts frames at intervals of, for example, one second from a game video having a predetermined frame rate.

次いで、情報処理装置は、分割した各ゲーム画像について、ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを利用して、観衆が視聴した場合の盛り上がり度を計算する(S2b)。盛り上がり度の計算に利用する予測モデルは、ゲーム画像に対する観衆の盛り上がり度が正解として付与された教師データをもとに、ディープラーニングなどの機械学習により作成した学習モデルである(詳細は後述する)。 Next, the information processing device uses a prediction model for predicting the degree of excitement of the spectators who viewed the game image for each of the divided game images, and calculates the degree of excitement when the spectators view the game image (S2b). The predictive model used to calculate the degree of excitement is a learning model created by machine learning such as deep learning, based on training data in which the degree of excitement of the audience for the game image is given as the correct answer (details will be described later). .

次いで、情報処理装置は、S2aで分割した各シーンについて、設定情報で指定した秒数に切り取る。次いで、情報処理装置は、S2bで計算した各ゲーム画像の盛り上がり度をもとに、切り取った各シーンを観衆が視聴した場合の盛り上がり度を計算(予測)する(S2c)。一例として、情報処理装置は、各シーンに含まれるゲーム画像の盛り上がり度の平均を求める。 Next, the information processing device cuts each scene divided in S2a into the number of seconds designated by the setting information. Next, the information processing device calculates (predicts) the degree of excitement when the audience views each cut scene based on the degree of excitement of each game image calculated in S2b (S2c). As an example, the information processing device obtains the average excitement degree of the game images included in each scene.

次いで、情報処理装置は、各シーンの盛り上がり度に基づき、分割したシーンの中から指定したシーン数のシーンを選定してつなぎ合わせ、ハイライト動画を生成する(S2d)。例えば、情報処理装置は、盛り上がり度順にシーンを並べ、盛り上がり度が高いものから順に選定する。次いで、情報処理装置は、選定したシーンを時系列順に並べてつなぎ合わせることでハイライト動画を生成する。 Next, the information processing device selects and joins a specified number of scenes from among the divided scenes based on the excitement level of each scene to generate a highlight video (S2d). For example, the information processing apparatus arranges the scenes in order of excitement level and selects the scenes in descending order of excitement. Next, the information processing device arranges the selected scenes in chronological order and connects them to generate a highlight video.

ここで、情報処理装置は、前半・中盤・後半のどこのパートのシーンであるかを示すタグを参照し、パートごとに少なくとも1つのシーンを選定するようにする。これにより、前半、中盤、後半それぞれにおいて盛り上がりのあるシーンを含む、ゲームの開始から終了までの一連のダイジェストにふさわしいハイライト動画を生成することができる。 Here, the information processing device refers to the tag indicating which part of the first half, middle stage, or latter half the scene belongs to, and selects at least one scene for each part. As a result, it is possible to generate a highlight video suitable for a series of digests from the start to the end of the game, including exciting scenes in each of the first half, the middle stage, and the second half.

次いで、情報処理装置は、生成したハイライト動画のディプレイへの表示、ファイル出力などにより、ハイライト動画をユーザに出力する(S3)。これにより、ユーザは、コンピュータゲームのゲーム動画から、観衆が盛り上がるハイライトシーンのハイライト動画を容易に得ることができる。 Next, the information processing apparatus outputs the highlight moving image to the user by displaying the generated highlight moving image on the display, outputting the file, or the like (S3). As a result, the user can easily obtain a highlight video of a highlight scene that excites the audience from a game video of a computer game.

[情報処理装置について]
図3は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図3に示すように、情報処理装置1は、通信部10、記憶部20および制御部30を有する。
[About the information processing device]
FIG. 3 is a block diagram of a functional configuration example of the information processing apparatus according to the embodiment; As shown in FIG. 3 , the information processing device 1 has a communication section 10 , a storage section 20 and a control section 30 .

通信部10は、有線又は無線を問わず接続する外部機器との通信を制御する。通信部10は、例えばNIC(Network Interface Card)等の通信インタフェース等である。 The communication unit 10 controls communication with a connected external device regardless of whether it is wired or wireless. The communication unit 10 is, for example, a communication interface such as a NIC (Network Interface Card).

記憶部20は、例えば制御部30が実行するプログラム、ゲーム動画情報21、設定情報22、予測モデル情報23およびシーン別情報DB24などの各種データを記憶する。記憶部20は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。 The storage unit 20 stores various data such as programs executed by the control unit 30, game moving image information 21, setting information 22, prediction model information 23, and scene-specific information DB 24, for example. The storage unit 20 corresponds to a semiconductor memory device such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, or a storage device such as HDD (Hard Disk Drive).

ゲーム動画情報21は、ハイライトを作成したいゲーム動画や、教師データを作成するためのゲーム動画など、各種ゲーム動画の情報である。具体的には、ゲーム動画情報21は、AVI形式、MPEG-4形式などの所定のファイルフォーマットの動画ファイルである。なお、教師データを作成するためのゲーム動画には、ゲーム動画の観客席における音量、すなわち観衆が発した音量が音量データとして含まれているものとする。 The game video information 21 is information on various game videos such as a game video for which highlights are to be created and a game video for creating teacher data. Specifically, the game moving image information 21 is a moving image file in a predetermined file format such as AVI format or MPEG-4 format. It is assumed that the game moving image for creating the teacher data contains the sound volume of the game moving image at the spectator seats, that is, the sound volume uttered by the spectators as sound volume data.

設定情報22は、例えば、ハイライト作成に関するデータ入力において受け付けた各種設定データである。具体的には、設定情報22には、作成したいハイライトのシーン数および1シーンあたりの秒数などが含まれる。 The setting information 22 is, for example, various setting data received in data input related to highlight creation. Specifically, the setting information 22 includes the number of highlight scenes to be created, the number of seconds per scene, and the like.

予測モデル情報23は、ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルに関する情報である。 The prediction model information 23 is information relating to a prediction model for predicting the excitement level of the spectators who viewed the game image.

ここで、予測モデルは、例えば、ゲーム画像に対して観衆の盛り上がり度を予測するようにディープラーニングなどの機械学習により作成した学習モデルである。学習モデルとしては、例えば、脳のニューロンを模したユニットを入力層から中間層を経て出力層に至る間に階層的に結合したニューラルネットワークを適用できる。したがって、予測モデル情報23は、ディープラーニングなどの機械学習による学習済み学習モデル(予測モデル)に関する情報(例えば、ニューラルネットワークの各ノードにおけるパラメータ)などである。 Here, the prediction model is, for example, a learning model created by machine learning such as deep learning so as to predict the excitement level of the audience for the game image. As a learning model, for example, a neural network in which units simulating brain neurons are hierarchically connected from an input layer to an output layer via an intermediate layer can be applied. Therefore, the prediction model information 23 is information (for example, parameters in each node of the neural network) related to a learning model (prediction model) that has been trained by machine learning such as deep learning.

シーン別情報DB24は、ゲーム動画情報21のゲーム動画より分割した各シーンについての各種情報を格納するデータベースである(詳細は後述する)。 The scene-by-scene information DB 24 is a database that stores various kinds of information about each scene divided from the game moving image of the game moving image information 21 (details will be described later).

制御部30は、情報処理装置1の全体的な処理を司る処理部である。制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。 The control unit 30 is a processing unit that controls overall processing of the information processing device 1 . The control unit 30 is implemented by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like executing a program stored in an internal storage device using a RAM as a work area. Also, the control unit 30 may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部30は、入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37を有する。なお、入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。 The control unit 30 has an input unit 31 , a division unit 32 , a teacher data creation unit 33 , a prediction model creation unit 34 , a degree of excitement calculation unit 35 , a highlight video creation unit 36 and an output unit 37 . Note that the input unit 31, the dividing unit 32, the teacher data creating unit 33, the prediction model creating unit 34, the degree of excitement calculating unit 35, the highlight moving image creating unit 36, and the output unit 37 are examples of electronic circuits possessed by the processor and It is an example of a process to execute.

入力部31は、通信部10などを介して入力される各種データの入力処理を行う処理部である。例えば、入力部31は、ハイライトを作成したいゲーム動画や、教師データを作成するためのゲーム動画などの入力を受け付けてゲーム動画情報21として記憶部20に格納する。また、入力部31は、作成したいハイライトのシーン数およびシーンの秒数などの入力を受け付けて設定情報22として記憶部20に格納する。また、入力部31は、予測モデルを外部機器で作成する場合に入力される予測モデルに関する情報を予測モデル情報23として記憶部20に格納する。 The input unit 31 is a processing unit that performs input processing of various data input via the communication unit 10 or the like. For example, the input unit 31 receives inputs such as game videos for which highlights are to be created and game videos for creating teacher data, and stores them in the storage unit 20 as game video information 21 . The input unit 31 also receives input such as the number of highlight scenes to be created and the number of seconds of the scene, and stores the input as the setting information 22 in the storage unit 20 . The input unit 31 also stores information about the prediction model that is input when the prediction model is created by an external device in the storage unit 20 as the prediction model information 23 .

分割部32は、ゲーム動画の分割に関する処理を行う処理部である。分割部32は、記憶部20に格納されたゲーム動画情報21を読み出し、所定の条件を満たすシーンの区切りでゲーム動画を分割する。例えば、分割部32は、1フレームごとに前後のフレームにおけるRGB値を比較し、所定値以上の差分があったところでゲーム動画を分割する。これにより、分割部32は、ゲーム動画をカメラ切り替りのタイミングで、シーンごとに分割する。 The dividing unit 32 is a processing unit that performs processing related to dividing the game moving image. The dividing unit 32 reads out the game moving image information 21 stored in the storage unit 20 and divides the game moving image at scene boundaries that satisfy a predetermined condition. For example, the dividing unit 32 compares the RGB values of the frames before and after each frame, and divides the game moving image when there is a difference equal to or greater than a predetermined value. As a result, the dividing unit 32 divides the game video into scenes at the timing of camera switching.

また、分割部32は、所定間隔のフレームを抽出することで、ゲーム動画を所定時間(例えば1秒)ごとのゲーム画像に分割する。次いで、分割部32は、抽出したゲーム画像を教師データ作成部33や盛り上がり度計算部35などに出力する。 Further, the dividing unit 32 divides the game moving image into game images at predetermined time intervals (for example, one second) by extracting frames at predetermined intervals. Next, the division unit 32 outputs the extracted game image to the teacher data creation unit 33, excitement degree calculation unit 35, and the like.

また、分割部32は、分割したシーンに関する情報をシーン別情報DB24に格納する。具体的には、分割部32は、分割したシーンを識別するシーン名(例えばシーンA、シーンB…)ごとに、各シーンについて抽出したゲーム画像などの情報をシーン別情報DB24に格納する。 Further, the dividing unit 32 stores information about the divided scenes in the scene-by-scene information DB 24 . Specifically, the dividing unit 32 stores information such as a game image extracted for each scene in the scene-by-scene information DB 24 for each scene name (for example, scene A, scene B, . . . ) that identifies the divided scenes.

教師データ作成部33は、教師データを作成するためのゲーム動画より、ゲーム画像と、ゲーム画像に対する観衆の盛り上がり度とを組み合わせたデータセット(教師データ)を作成する処理部である。 The teacher data creation unit 33 is a processing unit that creates a data set (teacher data) by combining game images and the degree of excitement of the audience with respect to the game images from game animations for creating teacher data.

予測モデル作成部34は、教師データ作成部33が作成した教師データをもとに、ディープラーニングなどの機械学習により予測モデルを作成する処理部である。 The prediction model creation unit 34 is a processing unit that creates a prediction model by machine learning such as deep learning based on the teacher data created by the teacher data creation unit 33 .

ここで、予測モデルの作成について詳細に説明する。図4は、予測モデルの作成処理例を示すフローチャートである。 Here, the creation of the prediction model will be described in detail. FIG. 4 is a flowchart illustrating an example of processing for creating a prediction model.

図4に示すように、処理が開始されると、分割部32は、教師データを作成するためのゲーム動画について、所定時間(例えば1秒)ごとのゲーム画像と、音量(ゲーム動画の観客席における音量)とに分割する(S10)。 As shown in FIG. 4, when the process is started, the dividing unit 32 divides the game video for creating teacher data into a game image at predetermined time intervals (for example, one second) and volume (spectator seats of the game video). volume) and (S10).

次いで、教師データ作成部33は、所定時間ごとに分割した音量について正規化を行う(S11)。具体的には、教師データ作成部33は、ゲーム動画より分割した全ての音量の中で、最大のものを1とし、最小のものを0として、音量に応じた値(0~1)に正規化する。この正規化により、観衆が発した音量が最も大きく、盛り上がりが最大のところは1となり、盛り上がりが最小のところは0となる。 Next, the teacher data creation unit 33 normalizes the volume divided for each predetermined time (S11). Specifically, the teacher data creation unit 33 sets the maximum volume to 1 and the minimum volume to 0 among all the volumes divided from the game video, and normalizes the values (0 to 1) according to the volume. become Due to this normalization, 1 is assigned to the loudest and most excited sounds of the audience, and 0 is assigned to the least enthusiastic sounds.

次いで、教師データ作成部33は、正規化した音量のデータを、音量に応じた複数のカテゴリに分類する(S12)。例えば、教師データ作成部33は、音量に応じて0~3までのカテゴリに分類する場合、正規化した音量が0.8以上である場合に3(非常に盛り上がっている)とする。また、教師データ作成部33は、正規化した音量が0.6以上、0.8未満である場合に2(盛り上がっている)とする。また、教師データ作成部33は、正規化した音量が0.4以上、0.6未満である場合に1(少し盛り上がっている)とする。また、教師データ作成部33は、正規化した音量が0.4未満である場合に0(盛り上がっていない)とする。このように、教師データ作成部33は、観衆の盛り上がりに応じたカテゴリに分類する。 Next, the teacher data creation unit 33 classifies the normalized volume data into a plurality of categories according to volume (S12). For example, when classifying into categories from 0 to 3 according to the volume, the teacher data creation unit 33 assigns 3 (extremely exciting) when the normalized volume is 0.8 or more. Also, the teacher data creation unit 33 assigns 2 (excited) when the normalized volume is 0.6 or more and less than 0.8. Also, the teacher data creation unit 33 sets 1 (slightly raised) when the normalized volume is 0.4 or more and less than 0.6. Also, the teacher data creation unit 33 sets the normalized volume to 0 (not upbeat) when it is less than 0.4. In this way, the teacher data creation unit 33 classifies the images into categories according to the excitement of the audience.

次いで、教師データ作成部33は、所定時間ごとに分割したゲーム画像がどのカテゴリであるかを判別する(S13)。具体的には、教師データ作成部33は、分割したゲーム画像のところの音量を、どのカテゴリに分類したかをもとにカテゴリを判別する。 Next, the training data creation unit 33 determines which category the game image divided at predetermined time intervals belongs to (S13). Specifically, the teacher data creation unit 33 determines the category based on which category the volume of the divided game image is classified.

次いで、教師データ作成部33は、分割した各ゲーム画像について、上記のS11~S13の処理を行うことで、ゲーム画像と、ゲーム画像に対する音量データ(観衆の盛り上がりを示すカテゴリ値)のデータセット(教師データ)を作成する(S14)。 Next, the training data creation unit 33 performs the above-described processing of S11 to S13 on each of the divided game images, thereby creating a data set ( teacher data) is created (S14).

次いで、予測モデル作成部34は、作成したデータセットをもとに、ディープラーニングなどの機械学習により、盛り上がり度(観衆の盛り上がりを示すカテゴリ値)を予測する予測モデル2を作成する(S15)。次いで、予測モデル作成部34は、作成した予測モデル2に関する情報を予測モデル情報23として記憶部20に格納する。 Next, the prediction model creation unit 34 creates a prediction model 2 that predicts the degree of excitement (category value indicating the excitement of the audience) by machine learning such as deep learning based on the created data set (S15). Next, the predictive model creating unit 34 stores the created predictive model 2 information as the predictive model information 23 in the storage unit 20 .

例えば、予測モデル作成部34は、予測モデル2の入力層にゲーム画像を入力し、演算結果を示す出力値を出力層から出力させる。次いで、予測モデル作成部34は、ゲーム動画に付与された正解のラベル(観衆の盛り上がりを示すカテゴリ値)と、出力値との比較に基づいて、予測モデル2のニューラルネットワークの各ノードにおけるパラメータを学習する。具体的には、予測モデル作成部34は、出力値と正解のラベルとの比較結果を用いた誤差逆伝播(error Back Propagation:BP)法などによって、ニューラルネットワークのパラメータを学習する。次いで、予測モデル作成部34は、作成した予測モデル2における各ノードのパラメータ値などの情報を予測モデル情報23として記憶部20に格納する。 For example, the predictive model creation unit 34 inputs a game image to the input layer of the predictive model 2 and causes the output layer to output an output value indicating the calculation result. Next, the prediction model creation unit 34 sets the parameters at each node of the neural network of the prediction model 2 based on the comparison between the correct label (category value indicating the excitement of the audience) given to the game video and the output value. learn. Specifically, the prediction model creation unit 34 learns the parameters of the neural network by error back propagation (BP) method using the comparison result between the output value and the correct label. Next, the predictive model creating unit 34 stores information such as parameter values of each node in the created predictive model 2 in the storage unit 20 as the predictive model information 23 .

このように作成した予測モデル2を用いることで、情報処理装置1では、ゲーム画像から観衆の盛り上がり度を算出(予測)する。図5は、予測モデル2による盛り上がり度の算出例を説明する説明図である。 By using the prediction model 2 created in this way, the information processing device 1 calculates (predicts) the excitement level of the audience from the game image. FIG. 5 is an explanatory diagram for explaining an example of calculation of the excitement degree by the prediction model 2. As shown in FIG.

図5に示すように、予測モデル2は、例えば20万枚以上のゲーム画像と、ゲーム画像に対する盛り上がり度との組み合わせであるデータセット2aを用いたディープラーニングなどの機械学習が行われている。このため、情報処理装置1は、予測モデル2を用いることで、ゲーム動画Gから例えば1秒ごとに抽出した各ゲーム画像G10における盛り上がり度を算出することができる。具体的には、情報処理装置1は、予測モデル2に各ゲーム画像G10を入力することで、予測モデル2より盛り上がり度の出力を得る。 As shown in FIG. 5, the prediction model 2 is subjected to machine learning such as deep learning using a data set 2a that is a combination of, for example, 200,000 or more game images and the degree of excitement for the game images. Therefore, by using the prediction model 2, the information processing device 1 can calculate the degree of excitement in each game image G10 extracted from the game moving image G every second, for example. Specifically, the information processing apparatus 1 inputs each game image G10 to the prediction model 2, and obtains an output of the degree of excitement from the prediction model 2. FIG.

図3に戻り、盛り上がり度計算部35は、分割部32が分割したシーンごとに、当該シーンに含まれるゲーム画像G10に基づき、予測モデル2を用いてシーンを観衆が視聴した場合の盛り上がり度を予測する処理部である。 Returning to FIG. 3, for each scene divided by the dividing unit 32, the excitement level calculation unit 35 calculates the excitement level when the audience views the scene using the prediction model 2 based on the game image G10 included in the scene. It is a processing unit that predicts.

ハイライト動画作成部36は、盛り上がり度計算部35が予測した盛り上がり度に基づき、分割したシーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する処理部である。出力部37は、ハイライト動画作成部36が生成したハイライト動画を出力する処理部である。 The highlight moving image creating unit 36 is a processing unit that selects a scene to be used for the highlight moving image from among the divided scenes based on the excitement degree predicted by the excitement calculating unit 35, and generates the highlight moving image. The output unit 37 is a processing unit that outputs the highlight moving image generated by the highlight moving image generating unit 36 .

ここで、盛り上がり度計算部35、ハイライト動画作成部36および出力部37に関する処理の詳細について説明する。図6は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。 Here, the details of the processing relating to the excitement level calculation unit 35, the highlight moving image creation unit 36, and the output unit 37 will be described. 6 is a flowchart illustrating an operation example of the information processing apparatus according to the embodiment; FIG.

図6に示すように、処理が開始されると、入力部31は、ハイライトを作成したいゲーム動画Gの入力を受け付ける(S20)。受け付けたゲーム動画Gについては、ゲーム動画情報21として記憶部20に格納される。 As shown in FIG. 6, when the process is started, the input unit 31 receives an input of a game animation G for which highlights are to be created (S20). The received game animation G is stored in the storage unit 20 as the game animation information 21 .

次いで、分割部32は、ゲーム動画情報21を読み出して、ゲーム動画Gをシーンごとに分割する(S21)。また、分割部32は、ゲーム動画Gをゲームの開始から終了までの複数のパートに分割(区分)する(S22)。 Next, the dividing unit 32 reads out the game moving image information 21 and divides the game moving image G into scenes (S21). Further, the dividing unit 32 divides (divides) the game animation G into a plurality of parts from the start to the end of the game (S22).

図7は、シーンごとの分割例を示す説明図である。図7に示すように、分割部32は、ゲーム動画Gにおけるゲーム画像G10a、G10b、…の前後のRGB値を比較する。次いで、分割部32は、前後のRGB値の変化が所定値より大きいところ(変化大)でカメラの切り替りが発生したと判断して、シーン分割を行う。図示例では、分割部32は、ゲーム画像G10bとゲーム画像G10cの間で変化大であったことから、シーンAと、シーンBとに分割している。分割部32は、分割した各シーン(シーンA、シーンB、…)について、シーン名などを付与した上でシーン別情報DB24に登録する。 FIG. 7 is an explanatory diagram showing an example of division for each scene. As shown in FIG. 7, the dividing unit 32 compares the RGB values before and after the game images G10a, G10b, . Next, the dividing unit 32 determines that the camera has switched when the change in RGB values before and after is greater than a predetermined value (large change), and performs scene division. In the illustrated example, the dividing unit 32 divides the game image G10b and the game image G10c into scene A and scene B because there is a large change. The dividing unit 32 assigns a scene name and the like to each of the divided scenes (scene A, scene B, . . . ) and registers them in the scene-specific information DB 24 .

また、分割部32は、ゲーム開始から終了までの複数のパートに分割(区分)した上で、各シーンがどのパートに含まれるかを示すシーンタグを付与する。例えば、分割部32は、ゲーム開始から終了までを3等分に区切り、各シーンについて、前半、中盤、後半の3パートのどのパートであるかを示すシーンタグを付与してもよい。なお、分割するパート数については、3パートに限定するものではなく、起承転結の4パートの分割など、任意の数であってもよい。また、分割方法も、等分割に限定するものではなく、所定時間(例えば10分)ごとの刻み幅での分割であってもよい。なお、各シーンにおけるシーンタグの情報は、シーン別情報DB24に格納する。 Further, the dividing unit 32 divides (divides) the game into a plurality of parts from the start to the end of the game, and gives scene tags indicating which part contains each scene. For example, the dividing unit 32 may divide the game from the start to the end into three equal parts, and give each scene a scene tag indicating which of the first half, the middle part, and the second half it belongs to. Note that the number of divided parts is not limited to three, and may be any number, such as four parts for starting, turning, and ending. Also, the division method is not limited to equal division, and division may be performed in intervals of a predetermined time (for example, 10 minutes). The scene tag information for each scene is stored in the scene-specific information DB 24 .

図6に戻り、S20に次いで、分割部32は、ゲーム動画Gを所定時間(例えば1秒)ごとのゲーム画像G10に分割する(S23)。なお、分割したゲーム画像G10についての情報(例えばファイル名(image名))は、S21において分割したシーンの中で対応するシーンのゲーム画像G10としてシーン別情報DB24に格納する。 Returning to FIG. 6, after S20, the dividing unit 32 divides the game moving image G into game images G10 at predetermined time intervals (for example, one second) (S23). Information about the divided game image G10 (for example, file name (image name)) is stored in the scene-specific information DB 24 as the game image G10 of the corresponding scene among the divided scenes in S21.

次いで、盛り上がり度計算部35は、分割した各ゲーム画像G10について、予測モデル2に各ゲーム画像G10を入力することで、盛り上がり度を予測する(S24)。なお、S23、S24の処理は、S21、S22と並列に行われるものであってもよいし、直列に行われるものであってもよい。各ゲーム画像G10について予測した盛り上がり度の値は、各ゲーム画像G10の盛り上がり度としてシーン別情報DB24に格納する。 Next, the excitement level calculation unit 35 predicts the excitement level of each divided game image G10 by inputting each game image G10 into the prediction model 2 (S24). The processing of S23 and S24 may be performed in parallel with S21 and S22, or may be performed in series. The value of the degree of excitement predicted for each game image G10 is stored in the scene-specific information DB 24 as the degree of excitement of each game image G10.

次いで、盛り上がり度計算部35は、各シーンに含まれるゲーム画像G10それぞれについて予測した盛り上がり度をもとに、シーンごとに盛り上がり度を算出する(S25)。 Next, the excitement degree calculation unit 35 calculates the excitement degree for each scene based on the predicted excitement degree for each of the game images G10 included in each scene (S25).

図8、図9は、各シーンの盛り上がり度の計算を説明する説明図である。図8に示すように、S21、S22の処理により、分割した各シーンにはシーンタグが付与されている。また、S23、S24の処理により、所定時間ごとに分割したゲーム画像G10については、盛り上がり度が予測されている。したがって、シーン別情報DB24には、上記の処理結果を組み合わせたデータが格納されている。具体的には、シーン別情報DB24には、シーンごとに、シーンタグ、シーンに含まれるゲーム画像G10および盛り上がり度が格納されている。 8 and 9 are explanatory diagrams for explaining calculation of the excitement level of each scene. As shown in FIG. 8, a scene tag is assigned to each divided scene by the processing of S21 and S22. In addition, by the processing of S23 and S24, the degree of excitement is predicted for the game image G10 divided at predetermined time intervals. Therefore, the scene-specific information DB 24 stores data obtained by combining the above processing results. Specifically, the scene-specific information DB 24 stores, for each scene, the scene tag, the game image G10 included in the scene, and the excitement level.

このシーン別情報DB24を参照することで、盛り上がり度計算部35は、シーンごとの盛り上がり度を計算する。例えば、盛り上がり度計算部35は、シーンAの盛り上がり度を算出する場合、シーンAに該当するゲーム画像G10(001.img、002.img、003.img)の盛り上がり度を読み出し、シーンAの盛り上がり度(例えば合計値)を求める。 By referring to the scene-by-scene information DB 24, the excitement degree calculation unit 35 calculates the excitement degree for each scene. For example, when calculating the excitement level of scene A, the excitement level calculation unit 35 reads the excitement level of the game image G10 (001.img, 002.img, 003.img) corresponding to scene A, and reads the excitement level of scene A. degree (for example, total value).

次いで、ハイライト動画作成部36は、シーン別情報DB24における各シーンを、設定情報22において1シーンあたりの秒数として指定した時間に分割する(S26)。例えば、図8の右側に示すように、1シーンあたり10秒とされている場合、ハイライト動画作成部36は、シーン別情報DB24における各シーンについて、盛り上がり度がピークとなる時刻(t1)を中心に前後5秒の間を1シーンとする。 Next, the highlight moving image creation unit 36 divides each scene in the scene-specific information DB 24 into the time specified as the number of seconds per scene in the setting information 22 (S26). For example, as shown on the right side of FIG. 8, when one scene is set to 10 seconds, the highlight movie creating unit 36 sets the time (t1) at which the degree of excitement peaks for each scene in the scene-specific information DB 24. 5 seconds before and after the center is taken as one scene.

次いで、ハイライト動画作成部36は、時間指定により分割したことで、シーンが重複したか否かを判定する(S27)。シーンが重複した場合、ハイライト動画作成部36は、重複したシーンの中で、盛り上がり度の低い方のシーンをハイライト動画の選定対象(以下、選定対象と呼ぶ)から除外する(S28)。 Next, the highlight moving image creating unit 36 determines whether or not scenes overlap due to division by time designation (S27). If the scenes overlap, the highlight moving image creating unit 36 excludes the scene with a lower degree of excitement among the overlapping scenes from the selection target of the highlight moving image (hereinafter referred to as the selection target) (S28).

例えば、図9の左側に示すように、シーンAについては、盛り上がり度がピークとなる時刻(t1)を中心に前後5秒を1シーンとしている。また、シーンBについては、盛り上がり度がピークとなる時刻(t2)を中心に前後5秒を1シーンとしている。ここで、互いの盛り上がり度のピークとなる時刻(t1、t2)が近いと、シーンに重複が生じる。 For example, as shown on the left side of FIG. 9, for scene A, one scene is five seconds before and after the time (t1) at which the degree of excitement peaks. As for the scene B, one scene is five seconds before and after the time (t2) at which the degree of excitement peaks. If the peak times (t1, t2) of the degree of excitement are close to each other, scenes overlap.

このような重複が生じた場合、ハイライト動画作成部36は、各シーンにおける盛り上がり度のピーク値を比較し、盛り上がり度に低いシーンを選定対象から除外する。例えば、図示例では、シーンBが選定対象から除外される。 When such duplication occurs, the highlight moving image creating unit 36 compares the peak value of the degree of excitement in each scene, and excludes scenes with a low degree of excitement from the selection targets. For example, in the illustrated example, scene B is excluded from selection targets.

次いで、ハイライト動画作成部36は、シーンごとに、盛り上がり度の平均を算出する(S29)。例えば、図9の右側に示すように、シーンAについては、シーンに含まれる各ゲーム画像G10の盛り上がり度をもとに、(2+3)/2=2.5の平均値が得られる。ここで、ハイライト動画作成部36は、算出した平均の高い順に、設定情報22においてハイライトのシーン数として指定した数のシーンを選定対象とする。 Next, the highlight moving image creating unit 36 calculates the average excitement level for each scene (S29). For example, as shown on the right side of FIG. 9, for scene A, an average value of (2+3)/2=2.5 is obtained based on the excitement level of each game image G10 included in the scene. Here, the highlight moving image creating unit 36 selects the number of scenes designated as the number of highlight scenes in the setting information 22 in descending order of the calculated average.

次いで、ハイライト動画作成部36は、シーンタグを参照し、各パートに選定対象とした盛り上がりシーンがあるか否かを判定する(S30)。 Next, the highlight moving image creating unit 36 refers to the scene tag and determines whether or not each part has a scene to be selected (S30).

盛り上がりシーンがないパートがある場合(S30:No)、ハイライト動画作成部36は、そのパート内で所定の閾値を超えた盛り上がり度のシーンを選定対象に入れる(S31)。なお、各パートに盛りシーンがある場合(S30:Yes)は、そのままS32へ処理を進める。 If there is a part that does not have an exciting scene (S30: No), the highlight moving image creating unit 36 selects a scene with an exciting degree exceeding a predetermined threshold in that part (S31). If each part has a prime scene (S30: Yes), the process proceeds directly to S32.

図10は、ハイライト動画の生成を説明する説明図である。図10に示すように、ハイライト動画作成部36は、シーンA~Iの中で、盛り上がり度(平均)の高い順に4シーンを選定対象としている(S31a)。ここで、中盤パートについては、選定対象となるシーンがない。このように、選定対象となるシーンがない中盤パートについて、ハイライト動画作成部36は、所定の閾値(例えば1.5以上)を超えた盛り上がり度のシーンEを選定対象に加える(S31b)。 FIG. 10 is an explanatory diagram illustrating generation of a highlight video. As shown in FIG. 10, the highlight moving image creation unit 36 selects four scenes from scenes A to I in descending order of excitement (average) (S31a). Here, there is no scene to be selected for the middle part. In this way, for the middle part without scenes to be selected, the highlight moving image creating unit 36 adds the scene E whose degree of excitement exceeds a predetermined threshold value (for example, 1.5 or more) to the selection targets (S31b).

なお、ハイライト動画作成部36は、選定対象を新たに加える場合、選定対象が複数あるパートの中で、盛り上がり度の低いシーンを選定対象から除外してもよい。例えば、ハイライト動画作成部36は、中盤パートのシーンEを新たに加える場合、選定対象が複数ある前半パートの中で、盛り上がり度の低いシーン(例えばシーンB)を選定対象から除外する。このように、ハイライト動画作成部36は、選定対象のシーン数を所定数に維持し、指定したシーン数となるようにしてもよい。 Note that, when adding a new selection target, the highlight moving image creation unit 36 may exclude a scene with a low degree of excitement from the selection targets among the parts with a plurality of selection targets. For example, when adding a middle part scene E, the highlight moving image creation unit 36 excludes a less exciting scene (for example, scene B) from the selection targets in the first half part, which has a plurality of selection targets. In this way, the highlight moving image creating unit 36 may maintain the number of scenes to be selected at a predetermined number so that the specified number of scenes is achieved.

次いで、ハイライト動画作成部36は、選定対象のシーンを時系列順に並べてつなぎ合わせることでハイライト動画を生成する。次いで、出力部37は、ハイライト動画作成部36が生成したハイライト動画の表示出力、ファイル出力などを行って、ハイライト動画を出力する(S32)。 Next, the highlight moving image creating unit 36 generates a highlight moving image by arranging the scenes to be selected in chronological order and connecting them. Next, the output unit 37 performs display output, file output, and the like of the highlight moving image generated by the highlight moving image creation unit 36, and outputs the highlight moving image (S32).

図11は、ハイライト動画の提供例を説明する説明図である。図11に示すように、ユーザ(例えば大会主催者)は、e-Sprotsの大会終了後、試合動画(ゲーム動画G)を情報処理装置1に入力する(S40)。情報処理装置1は、深層学習(ディープラーニング)による予測モデル2を利用することで、観衆側の盛り上がりに応じたシーンによるハイライト動画を作成する(S41)。次いで、情報処理装置1は、例えば観客席に向けて設置した大型ディスプレイに生成したハイライト動画を出力することで、ハイライト動画を観客に提供する(S42)。これにより、ユーザは、試合動画におけるハイライトシーンを容易に観客に提供することができる。 FIG. 11 is an explanatory diagram illustrating an example of providing a highlight video. As shown in FIG. 11, a user (for example, a tournament organizer) inputs a game video (game video G) to the information processing device 1 after the e-Sprots tournament ends (S40). The information processing apparatus 1 uses a prediction model 2 based on deep learning to create a highlight video with scenes corresponding to the excitement of the audience (S41). Next, the information processing apparatus 1 provides the audience with the highlight video by outputting the generated highlight video on a large display installed facing the audience seats, for example (S42). This allows the user to easily provide the spectators with highlight scenes in the game video.

[効果について]
以上のように、情報処理装置1は、分割部32と、盛り上がり度計算部35と、ハイライト動画作成部36と、出力部37とを有する。分割部32は、コンピュータゲームの動画像をシーンごとに分割する。盛り上がり度計算部35は、分割したシーンごとに、当該シーンに含まれるゲーム画像G10に基づき、コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデル2を用いて、シーンを観衆が視聴した場合の盛り上がり度を算出する。ハイライト動画作成部36は、算出した盛り上がり度に基づき、分割したシーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する。出力部37は、ハイライト動画作成部36が生成したハイライト動画を出力する。このため、情報処理装置1は、コンピュータゲームの各シーンより、観衆側の盛り上がりに応じたシーンによるハイライト動画を容易に提示できる。
[About effect]
As described above, the information processing apparatus 1 includes the dividing section 32 , the degree of excitement calculating section 35 , the highlight moving image creating section 36 and the output section 37 . The dividing unit 32 divides the moving image of the computer game into scenes. Based on the game image G10 included in each divided scene, the excitement level calculation unit 35 uses a prediction model 2 that predicts the excitement level of the audience who viewed the game image from the game image of the computer game, To calculate the degree of excitement when a scene is viewed by an audience. The highlight moving image creating unit 36 selects a scene to be used for the highlight moving image from among the divided scenes based on the calculated excitement degree, and generates the highlight moving image. The output unit 37 outputs the highlight moving image generated by the highlight moving image generating unit 36 . Therefore, the information processing apparatus 1 can easily present a highlight video of a scene corresponding to the excitement of the audience from each scene of the computer game.

また、予測モデル2は、コンピュータゲームのゲーム画像G10に対し、当該ゲーム画像G10を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データ(データセット2a)に基づく機械学習により作成される。したがって、情報処理装置1では、分割したシーンごとに、そのシーンに含まれるゲーム画像G10を機械学習により学習した予測モデル2に適用することで、観衆の盛り上がり度を算出することができる。 Prediction model 2 is created by machine learning based on teacher data (data set 2a) in which a game image G10 of a computer game is given a degree of excitement based on the volume of the audience who viewed the game image G10 as a correct answer. be. Therefore, the information processing apparatus 1 can calculate the excitement level of the audience for each divided scene by applying the game image G10 included in the scene to the prediction model 2 learned by machine learning.

また、ハイライト動画作成部36は、コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する。これにより、情報処理装置1は、例えば、前半、中盤、後半などの3パートに区分した場合には、前半、中盤、後半それぞれにおいて盛り上がりのあるシーンを含むハイライト動画を作成することができる。 In addition, the highlight movie creation unit 36 selects at least one scene for each part obtained by dividing the computer game from start to finish by a predetermined number. As a result, the information processing apparatus 1 can create a highlight video including exciting scenes in each of the first half, the middle, and the second half, for example, when the video is divided into three parts such as the first half, the middle, and the second half.

また、ハイライト動画作成部36は、選定したシーンを時系列順に並べてハイライト動画を生成する。このため、情報処理装置1は、コンピュータゲームの進行に合わせたハイライト動画を作成することができる。 In addition, the highlight moving image creation unit 36 arranges the selected scenes in chronological order to generate a highlight moving image. Therefore, the information processing apparatus 1 can create a highlight moving image that matches the progress of the computer game.

また、コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームであってもよい。情報処理装置1は、例えば、コンピュータゲームをスポーツとして捉え、複数のプレイヤーが対戦するe-Sprotsなどのゲーム動画よりハイライト動画を作成してもよい。 Also, the computer game may be a competitive game in which a plurality of players compete against each other. The information processing apparatus 1 may regard computer games as sports, for example, and create highlight videos from video games such as e-Sprots in which a plurality of players compete.

また、分割部32は、複数のプレイヤーの中の第1のプレイヤーに関する視点から、第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、シーンの分割を行う。これにより、情報処理装置1は、複数のプレイヤーが対戦する対戦型ゲームにおける各プレイヤーの視点に応じて分割したシーンの中から、盛り上がりのあるシーンよりハイライト動画を作成することができる。 Further, the dividing unit 32 divides the scene based on switching from the viewpoint of the first player among the plurality of players to the viewpoint of the second player different from the first player. As a result, the information processing apparatus 1 can create a highlight moving image from an exciting scene among scenes divided according to the viewpoint of each player in a battle-type game in which a plurality of players compete.

また、情報処理装置1は、ハイライト動画に用いるシーンの数、および、シーンの時間の設定を受け付ける入力部31を更に有してもよい。ハイライト動画作成部36は、入力部31が受け付けたシーンの数、および、シーンの時間に応じたシーンの選定を行う。このように、情報処理装置1は、ハイライト動画に用いるシーンの数、および、シーンの時間をユーザが設定してもよい。 The information processing apparatus 1 may further include an input unit 31 that receives settings for the number of scenes used in the highlight video and the time of the scenes. The highlight moving image creation unit 36 selects scenes according to the number of scenes received by the input unit 31 and the time of the scenes. In this way, in the information processing apparatus 1, the user may set the number of scenes used in the highlight video and the duration of the scenes.

[その他]
なお、上記の実施形態では、予測モデル2におけるニューラルネットワークの学習手法として、誤差逆伝播を例示したが、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。また、機械学習としては、ニューラルネットワーク以外にも、SVM(support vector machine)等の各種手法を用いてもよい。
[others]
In the above-described embodiment, error backpropagation was exemplified as a learning method of the neural network in the prediction model 2, but various known methods other than error backpropagation can be adopted. Further, the neural network has a multi-stage structure composed of, for example, an input layer, an intermediate layer (hidden layer), and an output layer, and each layer has a structure in which a plurality of nodes are connected by edges. Each layer has a function called "activation function", edges have a "weight", the value of each node is derived from the value of the node in the previous layer, the weight value of the connecting edge, the activation function that the layer has Calculated. In addition, about the calculation method, well-known various methods can be employ|adopted. Moreover, as machine learning, various methods such as SVM (support vector machine) may be used in addition to the neural network.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each constituent element of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each part is not limited to the one shown in the figure, and all or part of it can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. can be configured as

例えば、入力部31と分割部32、教師データ作成部33と予測モデル作成部34、または、盛り上がり度計算部35とハイライト動画作成部36を統合してもよい。また、情報処理装置1は、教師データ作成部33および予測モデル作成部34を有する構成でなくてもよく、外部で作成した予測モデル情報23を記憶部20に格納する構成であってもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。 For example, the input unit 31 and the dividing unit 32, the teacher data creating unit 33 and the predictive model creating unit 34, or the excitement level calculating unit 35 and the highlight moving image creating unit 36 may be integrated. Further, the information processing apparatus 1 may not have a configuration including the teacher data creation unit 33 and the prediction model creation unit 34 , and may have a configuration in which the prediction model information 23 created outside is stored in the storage unit 20 . Moreover, the illustrated processes are not limited to the order described above, and may be performed simultaneously or in a different order as long as the contents of the processes are not inconsistent.

さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。 Furthermore, the various processing functions performed by each device may be executed in whole or in part on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). Also, various processing functions may be executed in whole or in part on a program analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. It goes without saying that it is good. Also, various processing functions may be executed in cooperation with a plurality of computers by cloud computing.

[ハードウエア構成例について]
ところで、上記の各実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施形態と同様の機能を有する学習プログラムを実行するコンピュータの一例を説明する。図12は、ハイライト動画作成プログラムを実行するコンピュータの一例を示すブロック図である。
[About hardware configuration example]
By the way, the various processes described in each of the above embodiments can be realized by executing a prepared program on a computer. Therefore, an example of a computer that executes a learning program having functions similar to those of the above-described embodiments will be described below. FIG. 12 is a block diagram showing an example of a computer that executes a highlight movie creation program.

図12に示すように、コンピュータ100は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103とを有する。また、コンピュータ100は、記憶媒体からプログラム等を読み取る媒体読取装置104と、各種装置と接続するためのインタフェース装置105と、他の情報処理装置等と有線または無線により接続するための通信装置106とを有する。また、コンピュータ100は、各種情報を一時記憶するRAM107と、ハードディスク装置108とを有する。また、各装置101~108は、バス109に接続される。 As shown in FIG. 12, the computer 100 has a CPU 101 that executes various arithmetic processes, an input device 102 that receives data input, and a monitor 103 . The computer 100 also includes a medium reading device 104 for reading a program or the like from a storage medium, an interface device 105 for connecting with various devices, and a communication device 106 for connecting with other information processing devices or the like by wire or wirelessly. have The computer 100 also has a RAM 107 that temporarily stores various information, and a hard disk device 108 . Each device 101 to 108 is also connected to a bus 109 .

ハードディスク装置108には、図3に示した入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37の各処理部と同様の機能を有するハイライト動画作成プログラム108Aが記憶される。また、ハードディスク装置108には、ゲーム動画情報21、設定情報22、予測モデル情報23およびシーン別情報DB24に関する各種データが記憶される。入力装置102は、例えば、コンピュータ100の利用者から操作情報等の各種情報の入力を受け付ける。モニタ103は、例えば、コンピュータ100の利用者に対して表示画面等の各種画面を表示する。インタフェース装置105は、例えば印刷装置等が接続される。通信装置106は、図示しないネットワークと接続され、他の情報処理装置と各種情報をやりとりする。 The hard disk device 108 includes the input unit 31, the division unit 32, the teacher data creation unit 33, the prediction model creation unit 34, the degree of excitement calculation unit 35, the highlight video creation unit 36, and the output unit 37 shown in FIG. A highlight movie creation program 108A having the same function as the part is stored. The hard disk device 108 also stores various data related to the game moving image information 21, the setting information 22, the prediction model information 23, and the scene-specific information DB 24. FIG. The input device 102 receives input of various information such as operation information from the user of the computer 100, for example. The monitor 103 displays various screens such as a display screen to the user of the computer 100, for example. The interface device 105 is connected with, for example, a printing device. The communication device 106 is connected to a network (not shown) and exchanges various information with other information processing devices.

CPU101は、ハードディスク装置108に記憶されたハイライト動画作成プログラム108Aを読み出して、RAM107に展開して実行することで、各種の処理を行う。また、このハイライト動画作成プログラム108Aは、コンピュータ100を入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37として機能させることができる。 The CPU 101 reads the highlight moving image creation program 108A stored in the hard disk device 108, develops it in the RAM 107, and executes it to perform various processes. The highlight moving image creating program 108 A also includes the computer 100 as an input unit 31 , a dividing unit 32 , a teacher data creating unit 33 , a prediction model creating unit 34 , a excitement level calculating unit 35 , a highlight moving image creating unit 36 and an output unit 37 . can function as

なお、上記のハイライト動画作成プログラム108Aは、ハードディスク装置108に記憶されていなくてもよい。例えば、コンピュータ100が読み取り可能な記憶媒体に記憶されたハイライト動画作成プログラム108Aを、コンピュータ100が読み出して実行するようにしてもよい。コンピュータ100が読み取り可能な記憶媒体は、例えば、CD-ROMやDVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にハイライト動画作成プログラム108Aを記憶させておき、コンピュータ100がこれらからハイライト動画作成プログラム108Aを読み出して実行するようにしてもよい。 Note that the highlight moving image creation program 108</b>A described above does not have to be stored in the hard disk device 108 . For example, the computer 100 may read and execute the highlight movie creation program 108A stored in a storage medium readable by the computer 100 . Examples of storage media readable by the computer 100 include portable recording media such as CD-ROMs, DVDs (Digital Versatile Discs), and USB (Universal Serial Bus) memories, semiconductor memories such as flash memories, and hard disk drives. . Alternatively, the highlight moving image creation program 108A may be stored in a device connected to a public line, the Internet, a LAN, or the like, and the computer 100 may read and execute the highlight moving image creation program 108A from these devices.

以上の実施形態に関し、さらに以下の付記を開示する。 Further, the following additional remarks are disclosed with respect to the above embodiment.

(付記1)コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータに実行させることを特徴とするハイライト動画生成プログラム。
(Appendix 1) dividing a moving image of a computer game into scenes,
For each divided scene, the audience viewed the scene using a prediction model for predicting the degree of excitement of the audience who viewed the game image from the game image of the computer game based on the game image included in the scene. Calculate the degree of excitement in the case,
generating a highlight video by selecting a scene to be used for a highlight video from among the divided scenes based on the calculated degree of excitement;
outputting the generated highlight video;
A highlight moving image generating program characterized by causing a computer to execute processing.

(付記2)前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする付記1に記載のハイライト動画生成プログラム。
(Appendix 2) The prediction model is created by machine learning based on teacher data in which the degree of excitement based on the volume of the audience who viewed the game image is given as a correct answer to the game image of the computer game.
A highlight moving image generation program according to Supplementary Note 1, characterized by:

(付記3)前記生成する処理は、前記コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する、
ことを特徴とする付記1または2に記載のハイライト動画生成プログラム。
(Appendix 3) The generating process selects at least one scene for each part divided by a predetermined number from the start to the end of the computer game.
A highlight moving image generation program according to appendix 1 or 2, characterized by:

(付記4)前記生成する処理は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする付記1乃至3のいずれか一に記載のハイライト動画生成プログラム。
(Appendix 4) The generating process arranges the selected scenes in chronological order to generate the highlight video.
The highlight moving image generation program according to any one of appendices 1 to 3, characterized by:

(付記5)前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする付記1乃至4のいずれか一に記載のハイライト動画生成プログラム。
(Appendix 5) The computer game is a competitive game in which a plurality of players compete against each other.
5. The highlight moving image generation program according to any one of appendices 1 to 4, characterized by:

(付記6)前記分割する処理は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする付記5に記載のハイライト動画生成プログラム。
(Additional remark 6) The dividing process is based on switching from the viewpoint of the first player among the plurality of players to the viewpoint of the second player different from the first player. perform the division of
A highlight video generation program according to appendix 5, characterized by:

(付記7)前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける処理を更にコンピュータに実行させ、
前記生成する処理は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする付記1乃至6のいずれか一に記載のハイライト動画生成プログラム。
(Supplementary Note 7) causing the computer to further execute a process of accepting settings for the number of scenes used in the highlight video and the time of the scene;
The generating process selects a scene according to the number of received scenes and the time of the scene.
7. The highlight moving image generation program according to any one of appendices 1 to 6, characterized by:

(付記8)コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータが実行することを特徴とするハイライト動画生成方法。
(Appendix 8) dividing a moving image of a computer game into scenes,
For each divided scene, the audience viewed the scene using a prediction model for predicting the degree of excitement of the audience who viewed the game image from the game image of the computer game based on the game image included in the scene. Calculate the degree of excitement in the case,
generating a highlight video by selecting a scene to be used for a highlight video from among the divided scenes based on the calculated degree of excitement;
outputting the generated highlight video;
A highlight moving image generating method characterized in that processing is executed by a computer.

(付記9)前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする付記8に記載のハイライト動画生成方法。
(Appendix 9) The prediction model is created by machine learning based on teacher data in which the degree of excitement based on the volume of the audience who viewed the game image is given as a correct answer to the game image of the computer game.
The highlight moving image generation method according to appendix 8, characterized by:

(付記10)前記生成する処理は、前記コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する、
ことを特徴とする付記8または9に記載のハイライト動画生成方法。
(Appendix 10) The generating process selects at least one scene for each part divided by a predetermined number from the start to the end of the computer game.
10. The highlight moving image generation method according to appendix 8 or 9, characterized by:

(付記11)前記生成する処理は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする付記8乃至10のいずれか一に記載のハイライト動画生成方法。
(Appendix 11) The generating process arranges the selected scenes in chronological order to generate the highlight video.
11. The highlight moving image generation method according to any one of appendices 8 to 10, characterized by:

(付記12)前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする付記8乃至11のいずれか一に記載のハイライト動画生成方法。
(Appendix 12) The computer game is a competitive game in which a plurality of players compete against each other.
12. The highlight moving image generation method according to any one of appendices 8 to 11, characterized by:

(付記13)前記分割する処理は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする付記12に記載のハイライト動画生成方法。
(Supplementary Note 13) The dividing process is based on switching from a viewpoint of a first player among the plurality of players to a viewpoint of a second player different from the first player. perform the division of
13. The highlight video generation method according to appendix 12, characterized by:

(付記14)前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける処理を更にコンピュータに実行させ、
前記生成する処理は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする付記8乃至13のいずれか一に記載のハイライト動画生成方法。
(Supplementary Note 14) causing the computer to further execute processing for receiving settings for the number of scenes used in the highlight video and the time of the scenes;
The generating process selects a scene according to the number of received scenes and the time of the scene.
14. The highlight moving image generation method according to any one of appendices 8 to 13, characterized by:

(付記15)コンピュータゲームの動画像をシーンごとに分割する分割部と、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出する予測部と、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する生成部と、
生成した前記ハイライト動画を出力する出力部と、
を有することを特徴とする情報処理装置。
(Appendix 15) a dividing unit that divides a moving image of a computer game into scenes;
For each divided scene, the audience viewed the scene using a prediction model for predicting the degree of excitement of the audience who viewed the game image from the game image of the computer game based on the game image included in the scene. a prediction unit that calculates the degree of excitement in the case;
a generation unit that selects a scene to be used for a highlight video from among the divided scenes based on the calculated excitement level and generates a highlight video;
an output unit that outputs the generated highlight video;
An information processing device comprising:

(付記16)前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする付記15に記載の情報処理装置。
(Appendix 16) The prediction model is created by machine learning based on teacher data in which the degree of excitement based on the volume of the audience who viewed the game image is given as a correct answer to the game image of the computer game.
16. The information processing apparatus according to appendix 15, characterized by:

(付記17)前記生成部は、前記コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する、
ことを特徴とする付記15または16に記載の情報処理装置。
(Appendix 17) The generation unit selects at least one scene for each part obtained by dividing the computer game from start to finish by a predetermined number.
17. The information processing apparatus according to appendix 15 or 16, characterized by:

(付記18)前記生成部は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする付記15乃至17のいずれか一に記載の情報処理装置。
(Appendix 18) The generation unit arranges the selected scenes in chronological order to generate the highlight video.
18. The information processing apparatus according to any one of appendices 15 to 17, characterized by:

(付記19)前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする付記15乃至18のいずれか一に記載の情報処理装置。
(Appendix 19) The computer game is a competitive game in which a plurality of players compete against each other.
19. The information processing apparatus according to any one of appendices 15 to 18, characterized by:

(付記20)前記分割部は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする付記19に記載の情報処理装置。
(Supplementary Note 20) The dividing unit divides the scene based on the switching from the viewpoint of the first player among the plurality of players to the viewpoint of the second player different from the first player. make a split,
19. The information processing apparatus according to appendix 19, characterized by:

(付記21)前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける入力部を更に有し、
前記生成部は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする付記15乃至20のいずれか一に記載の情報処理装置。
(Appendix 21) further comprising an input unit for receiving settings of the number of scenes used in the highlight video and the time of the scenes;
The generation unit selects a scene according to the number of received scenes and the time of the scene.
21. The information processing apparatus according to any one of appendices 15 to 20, characterized by:

1…情報処理装置
2…予測モデル
2a…データセット
10…通信部
20…記憶部
21…ゲーム動画情報
22…設定情報
23…予測モデル情報
24…シーン別情報DB
30…制御部
31…入力部
32…分割部
33…教師データ作成部
34…予測モデル作成部
35…盛り上がり度計算部
36…ハイライト動画作成部
37…出力部
100…コンピュータ
101…CPU
102…入力装置
103…モニタ
104…媒体読取装置
105…インタフェース装置
106…通信装置
107…RAM
108…ハードディスク装置
108A…ハイライト動画作成プログラム
109…バス
G…ゲーム動画
G1…ゲーム画面
G2…インフォメーション画面
G10、G10a~G10d…ゲーム画像
P1、P2…プレイヤー
t1、t2…時刻
1... Information processing device 2... Prediction model 2a... Data set 10... Communication unit 20... Storage unit 21... Game video information 22... Setting information 23... Prediction model information 24... Scene-specific information DB
REFERENCE SIGNS LIST 30: control unit 31: input unit 32: division unit 33: teacher data creation unit 34: predictive model creation unit 35: excitement level calculation unit 36: highlight video creation unit 37: output unit 100: computer 101: CPU
102... Input device 103... Monitor 104... Medium reading device 105... Interface device 106... Communication device 107... RAM
108 Hard disk device 108A Highlight video creation program 109 Bus G Game video G1 Game screen G2 Information screens G10, G10a to G10d Game images P1, P2 Players t1, t2 Time

Claims (8)

コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定対象とし、当該選定対象のシーンの中で重複するシーンについては前記盛り上がり度が低い方のシーンを選定対象から除外してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータに実行させ、
前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とするハイライト動画生成プログラム。
A video image of a computer game is divided into scenes,
For each divided scene, the audience viewed the scene using a prediction model for predicting the degree of excitement of the audience who viewed the game image from the game image of the computer game based on the game image included in the scene. Calculate the degree of excitement in the case,
Based on the calculated degree of excitement, a scene to be used for a highlight video is selected from among the divided scenes, and for overlapping scenes among the scenes to be selected, a scene with a lower degree of excitement is selected. generate a highlight video by excluding from
outputting the generated highlight video;
let the computer do the work,
The prediction model is created by machine learning based on teacher data in which a game image of the computer game is given a degree of excitement based on the volume of the audience who viewed the game image as a correct answer,
A highlight video generation program characterized by:
前記生成する処理は、前記コンピュータゲームの開始から終了までを所定数で区分した各パートにおいて選定した前記シーンが含まれていない場合は当該パート内のシーンの中で前記盛り上がり度が所定値以上のシーンを選定対象に加えて前記ハイライト動画を生成する
ことを特徴とする請求項1に記載のハイライト動画生成プログラム。
If the selected scene is not included in each part divided by a predetermined number from the start to the end of the computer game, the generating process is performed such that if the selected scene is not included in the part, the degree of excitement is equal to or greater than a predetermined value among the scenes in the part. generating the highlight video by adding the scene to the selection target ;
The highlight moving image generation program according to claim 1, characterized by:
前記生成する処理は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする請求項1または2に記載のハイライト動画生成プログラム。
The generating process arranges the selected scenes in chronological order to generate the highlight video.
3. The highlight moving image generating program according to claim 1 or 2, characterized by:
前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする請求項1乃至3のいずれか一項に記載のハイライト動画生成プログラム。
The computer game is a competitive game in which a plurality of players compete against each other.
4. The highlight moving image generation program according to any one of claims 1 to 3, characterized by:
前記分割する処理は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする請求項4に記載のハイライト動画生成プログラム。
In the dividing process, the scene is divided based on switching from a viewpoint of a first player among the plurality of players to a viewpoint of a second player different from the first player. ,
5. The highlight moving image generating program according to claim 4, characterized by:
前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける処理を更にコンピュータに実行させ、
前記生成する処理は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする請求項1乃至5のいずれか一項に記載のハイライト動画生成プログラム。
causing the computer to further execute processing for receiving settings for the number of scenes used in the highlight video and the time of the scenes;
The generating process selects a scene according to the number of received scenes and the time of the scene.
6. The highlight moving image generation program according to any one of claims 1 to 5, characterized by:
コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定対象とし、当該選定対象のシーンの中で重複するシーンについては前記盛り上がり度が低い方のシーンを選定対象から除外してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータが実行し、
前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とするハイライト動画生成方法。
A video image of a computer game is divided into scenes,
For each divided scene, the audience viewed the scene using a prediction model for predicting the degree of excitement of the audience who viewed the game image from the game image of the computer game based on the game image included in the scene. Calculate the degree of excitement in the case,
Based on the calculated degree of excitement, a scene to be used for a highlight video is selected from among the divided scenes, and for overlapping scenes among the scenes to be selected, a scene with a lower degree of excitement is selected. generate a highlight video by excluding from
outputting the generated highlight video;
A computer performs the processing,
The prediction model is created by machine learning based on teacher data in which a game image of the computer game is given a degree of excitement based on the volume of the audience who viewed the game image as a correct answer,
A highlight video generation method characterized by:
コンピュータゲームの動画像をシーンごとに分割する分割部と、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出する予測部と、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定対象とし、当該選定対象のシーンの中で重複するシーンについては前記盛り上がり度が低い方のシーンを選定対象から除外してハイライト動画を生成する生成部と、
生成した前記ハイライト動画を出力する出力部と、
を有し、
前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする情報処理装置。
a dividing unit that divides a moving image of a computer game into scenes;
For each divided scene, the audience viewed the scene using a prediction model for predicting the degree of excitement of the audience who viewed the game image from the game image of the computer game based on the game image included in the scene. a prediction unit that calculates the degree of excitement in the case;
Based on the calculated degree of excitement, a scene to be used for a highlight video is selected from among the divided scenes, and for overlapping scenes among the scenes to be selected, a scene with a lower degree of excitement is selected. a generation unit that generates a highlight video by excluding from
an output unit that outputs the generated highlight video;
has
The prediction model is created by machine learning based on teacher data in which the game image of the computer game is given a degree of excitement based on the volume of the audience who viewed the game image as a correct answer.
An information processing device characterized by:
JP2019080361A 2019-04-19 2019-04-19 HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS Active JP7302256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019080361A JP7302256B2 (en) 2019-04-19 2019-04-19 HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019080361A JP7302256B2 (en) 2019-04-19 2019-04-19 HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS

Publications (3)

Publication Number Publication Date
JP2020174971A JP2020174971A (en) 2020-10-29
JP2020174971A5 JP2020174971A5 (en) 2022-01-28
JP7302256B2 true JP7302256B2 (en) 2023-07-04

Family

ID=72937566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019080361A Active JP7302256B2 (en) 2019-04-19 2019-04-19 HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS

Country Status (1)

Country Link
JP (1) JP7302256B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022169224A (en) * 2021-04-27 2022-11-09 オムロン株式会社 Content evaluation device, content evaluation method, and content evaluation program
WO2023032303A1 (en) * 2021-09-03 2023-03-09 ソニーグループ株式会社 Video processing device, video processing method, and program
WO2023120263A1 (en) * 2021-12-20 2023-06-29 ソニーグループ株式会社 Information processing device and information processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000334168A (en) 1999-05-26 2000-12-05 Namco Ltd Game system and information storage medium
JP2007336283A (en) 2006-06-15 2007-12-27 Toshiba Corp Information processor, processing method and program
JP2010093584A (en) 2008-10-08 2010-04-22 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for estimating viewing impression and computer-readable recording medium
JP2010220089A (en) 2009-03-18 2010-09-30 Sony Corp Digest reproducing apparatus, digest reproducing method and program
JP2011072735A (en) 2009-10-01 2011-04-14 Konami Digital Entertainment Co Ltd Game system, control method therefor, and program
JP2017091558A (en) 2016-12-02 2017-05-25 ヤフー株式会社 Display program, display method, and terminal device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000334168A (en) 1999-05-26 2000-12-05 Namco Ltd Game system and information storage medium
JP2007336283A (en) 2006-06-15 2007-12-27 Toshiba Corp Information processor, processing method and program
JP2010093584A (en) 2008-10-08 2010-04-22 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for estimating viewing impression and computer-readable recording medium
JP2010220089A (en) 2009-03-18 2010-09-30 Sony Corp Digest reproducing apparatus, digest reproducing method and program
JP2011072735A (en) 2009-10-01 2011-04-14 Konami Digital Entertainment Co Ltd Game system, control method therefor, and program
JP2017091558A (en) 2016-12-02 2017-05-25 ヤフー株式会社 Display program, display method, and terminal device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
超高精細コンテンツの流通・利活用に関する調査研究 報告書 ,財団法人デジタルコンテンツ協会,2005年03月31日,p.23-24

Also Published As

Publication number Publication date
JP2020174971A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7302256B2 (en) HIGHLIGHT MOVIE GENERATION PROGRAM, HIGHLIGHT MOVIE GENERATION METHOD, AND INFORMATION PROCESSING APPARATUS
US11663827B2 (en) Generating a video segment of an action from a video
JP4775671B2 (en) Information processing apparatus and method, and program
CN114746159B (en) Artificial Intelligence (AI) controlled camera view generator and AI broadcaster
EP3800594A1 (en) Apparatus and method for generating a recording
US20200061465A1 (en) Drama engine for dramatizing video gaming
CN110365994B (en) Live broadcast recommendation method and device, server and readable storage medium
CN114746158B (en) Artificial Intelligence (AI) controlled camera view generator and AI broadcaster
US11423944B2 (en) Method and system for generating audio-visual content from video game footage
JP2020174971A5 (en)
US20140171191A1 (en) Computationally generating turn-based game cinematics
US20230334859A1 (en) Prediction of NBA Talent And Quality From Non-Professional Tracking Data
EP3912363A1 (en) System and method for model-driven video summarization
JP7014913B2 (en) Message output device, learning device, message output method, learning method and program
JP7420245B2 (en) Video processing device, video processing method, and program
JP6688179B2 (en) Scene extraction device and its program
US20230352052A1 (en) Information processing device, control method, and recording medium
US20080069542A1 (en) Still image extracton apparatus, method, and program
KR20220087359A (en) Method and electronic device for producing summary of video
JP2022048237A (en) Message output apparatus, message output method, and program
JP2023181568A (en) Information processing apparatus and information processing method
CN116886958A (en) Video stream optimization method, device and equipment for cloud game and storage medium
JP2002224446A (en) Recording medium able to read computer in which video game program is recorded, video game program, method and device for processing video game

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7302256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150