JP7072282B2 - Server devices, video distribution systems, control methods and computer programs used for them - Google Patents

Server devices, video distribution systems, control methods and computer programs used for them Download PDF

Info

Publication number
JP7072282B2
JP7072282B2 JP2020179867A JP2020179867A JP7072282B2 JP 7072282 B2 JP7072282 B2 JP 7072282B2 JP 2020179867 A JP2020179867 A JP 2020179867A JP 2020179867 A JP2020179867 A JP 2020179867A JP 7072282 B2 JP7072282 B2 JP 7072282B2
Authority
JP
Japan
Prior art keywords
video
moving image
game
terminal
play
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020179867A
Other languages
Japanese (ja)
Other versions
JP2021044810A5 (en
JP2021044810A (en
Inventor
一也 ▲高▼橋
崇 谷口
浩 横田
博幸 細山
隆行 秋田
勇一 友寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2020179867A priority Critical patent/JP7072282B2/en
Publication of JP2021044810A publication Critical patent/JP2021044810A/en
Publication of JP2021044810A5 publication Critical patent/JP2021044810A5/ja
Application granted granted Critical
Publication of JP7072282B2 publication Critical patent/JP7072282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、所定の画面を表示する表示用端末と、少なくとも一つの端末動画を撮影する撮影用端末と、がネットワークを介して接続されるサーバ装置等に関する。 The present invention relates to a server device or the like in which a display terminal for displaying a predetermined screen and a shooting terminal for shooting at least one terminal moving image are connected via a network.

所定の画面を表示する表示用端末がネットワークを介して接続されるサーバ装置が存在する。例えば、複数のユーザがそれぞれプレイ中のゲームの内容を表す複数のプレイ動画像を含むゲーム画面を表示するクライアントがクラウドサービスに接続される画像処理システムが知られている(例えば、特許文献1参照)。 There is a server device to which a display terminal for displaying a predetermined screen is connected via a network. For example, there is known an image processing system in which a client that displays a game screen including a plurality of play video images representing the contents of a game being played by a plurality of users is connected to a cloud service (see, for example, Patent Document 1). ).

特開2012-90120号公報Japanese Unexamined Patent Publication No. 2012-90120

特許文献1の画像処理システムでは、ゲーム画面が所定の画面として、クライアントが表示用端末として、クラウドサービスがサーバ装置として、それぞれ機能している。そして、各クライアントには、複数のプレイ動画像が合成されたゲーム画面が表示される。しかし、複数のプレイ動画像は、同じ種類の動画像に過ぎない。つまり、特許文献1の画像処理システムでは、プレイするユーザが相違するものの、同じ種類の各クライアントが提供する同じゲームの動画像がゲーム画面に表示されるに過ぎない。そして、特許文献1では、各クライアント以外から種類の異なる動画が提供されることまでは想定されていない。結果として、特許文献1の画像処理システムでは、ゲーム画面に表示されるべき合成対象の動画像の種類が限定されてしまう。 In the image processing system of Patent Document 1, the game screen functions as a predetermined screen, the client functions as a display terminal, and the cloud service functions as a server device. Then, each client is displayed with a game screen in which a plurality of play video images are combined. However, a plurality of play moving images are only the same kind of moving images. That is, in the image processing system of Patent Document 1, although the user who plays the game is different, the moving image of the same game provided by each client of the same type is only displayed on the game screen. Further, in Patent Document 1, it is not assumed that different types of moving images are provided by other than each client. As a result, in the image processing system of Patent Document 1, the types of moving images to be synthesized to be displayed on the game screen are limited.

そこで、本発明は、表示用端末が表示する所定の画面に種類の異なる動画を表示させることができるサーバ装置等を提供することを目的とする。 Therefore, an object of the present invention is to provide a server device or the like capable of displaying different types of moving images on a predetermined screen displayed by a display terminal.

本発明のサーバ装置は、所定の画面を表示する表示用端末と、端末動画を撮影する撮影用端末と、がネットワークを介して接続されるサーバ装置であって、互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手段と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画として判別する動画判別手段と、前記動画判別手段の判別結果に基づいて、前記表示用端末に対し、前記端末動画及び前記対象動画を提供する動画提供手段と、を備えている。 The server device of the present invention is a server device in which a display terminal for displaying a predetermined screen and a shooting terminal for shooting a terminal moving image are connected via a network, and a plurality of moving images different from each other can be produced. The video storage means for storing the video identification information in association with the video identification information for identifying the video, and the specific information for specifying the terminal video and the video identification information to be associated with the terminal video are acquired from the shooting terminal. A video discriminating means for discriminating as a target video a video corresponding to the video identification information specified by the specific information among the plurality of videos based on the video acquisition means and the acquisition result of the video acquisition means, and the video. Based on the discrimination result of the discriminating means, the display terminal is provided with the terminal moving image and the moving image providing means for providing the target moving image.

本発明の制御方法は、所定の画面を表示する表示用端末と、端末動画を撮影する撮影用端末と、がネットワークを介して接続されるサーバ装置であって、互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段を備えるサーバ装置に組み込まれるコンピュータに、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手順と、前記動画取得手順の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画として判別する動画判別手順と、前記動画判別手順の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手順と、を実行させるものである。 The control method of the present invention is a server device in which a display terminal for displaying a predetermined screen and a shooting terminal for shooting a terminal moving image are connected via a network, and a plurality of moving images different from each other are produced. Specific information for identifying the terminal video and the video identification information to be associated with the terminal video in a computer incorporated in a server device provided with a video storage means for storing the video identification information in association with the video identification information for identifying the video. Based on the video acquisition procedure for acquiring the video from the shooting terminal and the acquisition result of the video acquisition procedure, the video corresponding to the video identification information specified by the specific information among the plurality of videos is determined as the target video. The terminal video and the target so that the composite screen in which both the terminal video and the target video are displayed is displayed as the predetermined screen based on the video discrimination procedure to be performed and the discrimination result of the video discrimination procedure. It is intended to execute a video providing procedure for providing a video.

また、本発明のサーバ装置用のコンピュータプログラムは、所定の画面を表示する表示用端末と、端末動画を撮影する撮影用端末と、がネットワークを介して接続されるサーバ装置であって、互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段を備える動画配信システムに組み込まれるコンピュータを、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手段、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画として判別する動画判別手段、及び前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手段として機能させるように構成されたものである。 Further, the computer program for the server device of the present invention is a server device in which a display terminal for displaying a predetermined screen and a shooting terminal for shooting a terminal moving image are connected via a network, and are different from each other. A computer incorporated in a video distribution system provided with a video storage means for storing a plurality of videos in association with video identification information for identifying each video is the terminal video and the video identification information to be associated with the terminal video. Corresponds to the moving image identification information specified by the specific information among the plurality of moving images based on the acquisition results of the moving image acquisition means for acquiring the specific information for specifying the above and the moving image acquisition means. Based on the video discriminating means for discriminating the video as the target video and the discriminating result of the video discriminating means, the composite screen in which both the terminal video and the target video are displayed is displayed as the predetermined screen. It is configured to function as a moving image providing means for providing the terminal moving image and the target moving image.

本発明の動画配信システムは、所定の画面を表示する表示用端末と、端末動画を撮影する撮影用端末と、サーバ装置とを備え、前記表示用端末、前記撮影用端末、及び前記サーバ装置がネットワークを介して接続される動画配信システムであって、互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手段と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画として判別する動画判別手段と、前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手段と、を備えている。 The moving image distribution system of the present invention includes a display terminal for displaying a predetermined screen, a shooting terminal for shooting a terminal moving image, and a server device, and the display terminal, the shooting terminal, and the server device include the display terminal, the shooting terminal, and the server device. A video distribution system connected via a network, the video storage means for storing a plurality of videos different from each other in association with the video identification information for identifying each video, the terminal video, and the terminal video. Based on the acquisition result of the moving image acquisition means for acquiring the specific information for specifying the moving image identification information to be associated from the shooting terminal and the moving image acquisition means, the specific information is specified among the plurality of moving images. A composite screen in which both the terminal video and the target video are displayed based on the discrimination result of the video discriminating means for discriminating the video corresponding to the video identification information as the target video and the video discriminating means is the predetermined screen. The terminal moving image and the moving image providing means for providing the target moving image are provided so as to be displayed as a screen.

本発明の動画配信システムは、所定の画面を表示する表示用端末と、端末動画を撮影する撮影用端末と、サーバ装置とがネットワークを介して接続される動画配信システムであって、互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手段と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画として判別する動画判別手段と、前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画が合成された合成動画を生成する合成動画生成手段と、前記合成動画生成手段の生成結果に基づいて、前記合成動画が前記所定の画面に表示されるように、前記合成動画を提供する動画提供手段と、を備えている。 The video distribution system of the present invention is a video distribution system in which a display terminal for displaying a predetermined screen, a shooting terminal for shooting a terminal video, and a server device are connected via a network, and a plurality of different video distribution systems are connected to each other. The video storage means for storing the video in association with the video identification information for identifying each video, and the terminal video, and the specific information for specifying the video identification information to be associated with the terminal video are taken. Video discrimination that discriminates a video corresponding to the video identification information specified by the specific information among the plurality of videos as a target video based on the video acquisition means acquired from the terminal and the acquisition result of the video acquisition means. Based on the discrimination result of the means and the moving image discrimination means, the synthetic moving image generation means for generating the synthetic moving image in which the terminal moving image and the target moving image are synthesized, and the synthetic moving image generation means based on the generation result of the synthetic moving image generating means. A moving image providing means for providing the synthesized moving image is provided so that the moving image is displayed on the predetermined screen.

本発明のサーバ装置は、所定の画面を表示する表示用端末と、端末動画を撮影する撮影用端末と、がネットワークを介して接続されるサーバ装置であって、互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手段と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画として判別する動画判別手段と、前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画が合成された合成動画を生成する合成動画生成手段と、前記合成動画生成手段の生成結果に基づいて、前記合成動画が前記所定の画面に表示されるように、前記合成動画を提供する動画提供手段と、を備えている。 The server device of the present invention is a server device in which a display terminal for displaying a predetermined screen and a shooting terminal for shooting a terminal moving image are connected via a network, and a plurality of moving images different from each other can be produced. The video storage means for storing the video identification information in association with the video identification information for identifying the video, and the specific information for identifying the terminal video and the video identification information to be associated with the terminal video are acquired from the shooting terminal. A moving image determination means for discriminating a moving image corresponding to the moving image identification information specified by the specific information among the plurality of moving images as a target moving image based on the moving image acquisition means and the acquisition result of the moving image acquisition means, and the moving image. Based on the discrimination result of the discrimination means, the synthetic moving image generation means for generating the synthetic moving image in which the terminal moving image and the target moving image are synthesized, and the synthetic moving image are the predetermined synthetic moving image based on the generation result of the synthetic moving image generation means. It is provided with a moving image providing means for providing the synthesized moving image so as to be displayed on the screen.

本発明の一形態に係る動画配信システムが適用されたゲームシステムの全体 構成の概要を示す図。The figure which shows the outline of the whole structure of the game system to which the video distribution system which concerns on one form of this invention is applied. ゲームシステムの制御系の要部の構成を示す図。The figure which shows the structure of the main part of the control system of a game system. 音楽ゲームを提供中のゲーム機及びプレイ中のユーザの一例を模式的に示す図。The figure which shows typically an example of the game machine which is providing a music game, and the user who is playing. ゲーム動画とプレイ動画とが合成された合成動画が配信される場合の動画配信サービスの一例を説明するための説明図。An explanatory diagram for explaining an example of a video distribution service when a synthetic video in which a game video and a play video are combined is distributed. 合成対象のゲーム動画及びプレイ動画の判別方法の一例を説明するための説明図。An explanatory diagram for explaining an example of a method of discriminating between a game video and a play video to be synthesized. 音楽ゲームが含む各フェーズの一例を説明するための説明図。An explanatory diagram for explaining an example of each phase included in a music game. 一部のプレイ動画の制限の一例を説明するための説明図。An explanatory diagram for explaining an example of the limitation of some play videos. 制限条件の一例を説明するための説明図。An explanatory diagram for explaining an example of a limiting condition. メイン動画データの内容の一例を示す図。The figure which shows an example of the content of the main video data. サブ動画データの内容の一例を示す図。The figure which shows an example of the content of a sub video data. 合成動画データの内容の一例を示す図。The figure which shows an example of the content of synthetic video data. メイン動画データ生成処理ルーチンのフローチャートの一例を示す図。The figure which shows an example of the flowchart of the main video data generation processing routine. サブ動画データ生成処理ルーチンのフローチャートの一例を示す図。The figure which shows an example of the flowchart of the sub-video data generation processing routine. 合成動画生成処理ルーチンのフローチャートの一例を示す図。The figure which shows an example of the flowchart of the synthetic moving image generation processing routine. 他の配信画面の一例を模式的に示す図。The figure which shows an example of another delivery screen schematically. 変形例に係るゲームシステムの制御系の要部の構成を示す図。The figure which shows the structure of the main part of the control system of the game system which concerns on the modification.

以下、本発明の一形態に係る動画配信システムが適用されたゲームシステムについて説明する。図1は、本発明の一形態に係る動画配信システムが適用されたゲームシステムの全体構成の概要を示す図である。図1に示すように、ゲームシステム1は、サーバ装置としてのセンターサーバ2及び複数のゲーム機GMを含んでいる。センターサーバ2は、一台の物理的装置によって構成される例に限らない。例えば、複数の物理的装置としてのサーバ群によって一台の論理的なセンターサーバ2が構成されてもよい。また、クラウドコンピューティングを利用して論理的にセンターサーバ2が構成されてもよい。さらに、ゲーム機GMがセンターサーバ2として機能してもよい。 Hereinafter, a game system to which the video distribution system according to one embodiment of the present invention is applied will be described. FIG. 1 is a diagram showing an outline of the overall configuration of a game system to which the video distribution system according to one embodiment of the present invention is applied. As shown in FIG. 1, the game system 1 includes a center server 2 as a server device and a plurality of game machine GMs. The center server 2 is not limited to the example composed of one physical device. For example, one logical center server 2 may be configured by a group of servers as a plurality of physical devices. Further, the center server 2 may be logically configured by using cloud computing. Further, the game machine GM may function as the center server 2.

各ゲーム機GMは、ネットワーク3を介してセンターサーバ2に接続されている。各ゲーム機GMは、所定の対価の消費と引き換えに、その対価に応じた範囲でユーザにゲームをプレイさせる業務用(商業用)のゲーム機である。一例として、各ゲーム機GMは、所定の対価の消費と引き換えに音楽ゲームを提供する。各ゲーム機GMは、施設としての店舗4等の商業施設に適当な台数ずつ設置される。 Each game machine GM is connected to the center server 2 via the network 3. Each game machine GM is a commercial (commercial) game machine that allows a user to play a game within a range corresponding to the price in exchange for consumption of a predetermined price. As an example, each game machine GM provides a music game in exchange for consumption of a predetermined price. An appropriate number of each game machine GM is installed in a commercial facility such as a store 4 as a facility.

また、センターサーバ2には、ネットワーク3を介して、ユーザ端末5が接続される。ユーザ端末5は、ソフトウェアを実行することにより、各種の機能を発揮するネットワーク端末装置の一種である。ユーザ端末5として、例えば、表示用端末としてのパーソナルコンピュータ5a、及び撮影用端末としての携帯電話5b(スマートフォンを含む)が利用される。ユーザ端末5として、その他にもネットワーク接続が可能な各種のネットワーク端末装置が適宜に利用されてよい。 Further, the user terminal 5 is connected to the center server 2 via the network 3. The user terminal 5 is a kind of network terminal device that exhibits various functions by executing software. As the user terminal 5, for example, a personal computer 5a as a display terminal and a mobile phone 5b (including a smartphone) as a shooting terminal are used. As the user terminal 5, various network terminal devices capable of network connection may be appropriately used.

ネットワーク3は、WAN(ワイドエリアネットワーク)3A及びLAN(ローカルエリアネットワーク)3Bを含んでいる。WAN3Aとして、例えば、TCP/IPプロトコルを利用してネットワーク通信を実現するインターネットが利用される。LAN3Bは、各店舗4内の各ゲーム機GM間を接続するように、店舗4毎に構築される。また、LAN3Bは、例えば、TCP/IPプロトコルを利用するイントラネットによって構築されている。LAN3B及びセンターサーバ2は、ルータ6を介してWAN3Aに接続される。 The network 3 includes a WAN (wide area network) 3A and a LAN (local area network) 3B. As WAN3A, for example, the Internet that realizes network communication using the TCP / IP protocol is used. The LAN 3B is constructed for each store 4 so as to connect between the game machines GM in each store 4. Further, the LAN 3B is constructed by, for example, an intranet using the TCP / IP protocol. The LAN 3B and the center server 2 are connected to the WAN 3A via the router 6.

なお、ネットワーク3は、TCP/IPプロトコルを利用する形態に限定されない。ネットワーク3として、通信用の有線回線、或いは無線回線(赤外線通信、近距離無線通信等を含む)等を利用する各種の形態が利用されてよい。或いは、ユーザ端末5とゲーム機GM等との通信は、例えば、通信用の回線(有線及び無線を含む)を利用せずに、二次元コード等、各種情報を含むように所定の規格に準拠して生成されるコード(例えば、二次元コード)を利用して実現されてよい。したがって、ネットワーク(或いは通信回線)の用語は、このようなコードを利用する通信方法等、回線を利用せずに情報の送受信をする形態を含んでいる。 The network 3 is not limited to the form using the TCP / IP protocol. As the network 3, various forms using a wired line for communication, a wireless line (including infrared communication, short-range wireless communication, etc.) and the like may be used. Alternatively, the communication between the user terminal 5 and the game machine GM or the like conforms to a predetermined standard so as to include various information such as a two-dimensional code without using a communication line (including wired and wireless). It may be realized by using the code generated by the above (for example, a two-dimensional code). Therefore, the term of network (or communication line) includes a form of transmitting and receiving information without using a line, such as a communication method using such a code.

センターサーバ2は、各ゲーム機GM又はそのユーザに対して各種のゲーム機用サービスを提供する。ゲーム機用サービスとして、例えば、各ゲーム機GMからユーザの識別情報を受け取って、そのユーザを認証するサービスが提供されてよい。また、認証したユーザのプレイデータを各ゲーム機GMから受け取って保存し、或いは保存するプレイデータを各ゲーム機GMに提供するサービスが提供されてもよい。さらに、ゲーム機用サービスには、ネットワーク3を介して各ゲーム機GMのプログラム或いはデータを配信し、更新するサービス、ネットワーク3を介して複数のユーザが共通のゲームをプレイする際にユーザ同士をマッチングするマッチングサービス等が含まれていてもよい。 The center server 2 provides various game machine services to each game machine GM or its user. As a service for a game machine, for example, a service that receives identification information of a user from each game machine GM and authenticates the user may be provided. Further, a service may be provided in which the play data of the authenticated user is received from each game machine GM and saved, or the play data to be saved is provided to each game machine GM. Further, the service for game machines includes a service for distributing and updating programs or data of each game machine GM via network 3, and when a plurality of users play a common game via network 3, users can interact with each other. A matching service or the like for matching may be included.

また、センターサーバ2は、ネットワーク3を介してユーザ端末5のユーザに各種のWebサービスを提供する。Webサービスには、例えば、各ゲーム機GMが提供するゲームに関する各種の情報を提供するゲーム用情報サービスが含まれる。また、Webサービスには、各ユーザ端末5に各種データ或いはソフトウェアを配信(データ等のアップデートを含む)する配信サービスも含まれる。同様に、Webサービスには、その他にもユーザによる情報発信、交換、共有といった交流の場を提供するコミュニティサービス、各ユーザを識別するためのユーザIDを付与するサービス等のサービスが含まれる。さらに、コミュニティサービスは、動画配信サービスを含んでいる。そして、ゲームシステム1は、動画配信サービスを提供することにより本発明の一形態に係る動画配信システムとして機能する。動画配信サービスの詳細は、後述する。 Further, the center server 2 provides various Web services to the user of the user terminal 5 via the network 3. The Web service includes, for example, a game information service that provides various information about a game provided by each game machine GM. The Web service also includes a distribution service that distributes various data or software (including updates of data and the like) to each user terminal 5. Similarly, the Web service also includes services such as a community service that provides a place for interaction by users such as information transmission, exchange, and sharing, and a service that assigns a user ID for identifying each user. In addition, community services include video distribution services. Then, the game system 1 functions as a video distribution system according to one embodiment of the present invention by providing a video distribution service. The details of the video distribution service will be described later.

次に、動画配信サービスを提供するためのゲームシステム1の制御系の要部について説明する。図2は、ゲームシステム1の制御系の要部の構成を示す図である。図2に示すように、センターサーバ2は、制御ユニット10と、記憶ユニット11と、を備えている。制御ユニット10は、マイクロプロセッサと、そのマイクロプロセッサの動作に必要な内部記憶装置(一例としてROM及びRAM)等の各種周辺装置とを組み合わせたコンピュータユニットとして構成されている。なお、制御ユニット10には、キーボード等の入力装置、モニタ等の出力装置等が接続され得るが、それらの図示は省略した。 Next, a main part of the control system of the game system 1 for providing the video distribution service will be described. FIG. 2 is a diagram showing a configuration of a main part of the control system of the game system 1. As shown in FIG. 2, the center server 2 includes a control unit 10 and a storage unit 11. The control unit 10 is configured as a computer unit in which a microprocessor and various peripheral devices such as an internal storage device (ROM and RAM as an example) necessary for the operation of the microprocessor are combined. An input device such as a keyboard, an output device such as a monitor, and the like may be connected to the control unit 10, but their illustrations are omitted.

記憶ユニット11は、制御ユニット10に接続されている。記憶ユニット11は、電源の供給がなくても記憶を保持可能なように、例えば、磁気テープ等の大容量記憶媒体により構成されている。記憶ユニット11には、サーバ用プログラム15が記憶されている。サーバ用プログラム15は、センターサーバ2がゲーム機GM及びユーザ端末5に各種のサービスを提供するために必要なコンピュータプログラムである。制御ユニット10がサーバ用プログラム15を読み取って実行することにより、制御ユニット10の内部には、ゲーム機サービス管理部16及びWebサービス管理部17が設けられる。 The storage unit 11 is connected to the control unit 10. The storage unit 11 is configured by a large-capacity storage medium such as a magnetic tape so that the storage can be held without supplying power. The server program 15 is stored in the storage unit 11. The server program 15 is a computer program required for the center server 2 to provide various services to the game machine GM and the user terminal 5. When the control unit 10 reads and executes the server program 15, a game machine service management unit 16 and a Web service management unit 17 are provided inside the control unit 10.

ゲーム機サービス管理部16は、上述のゲーム機用サービスを提供するための処理を実行する。一方、Webサービス管理部17は、上述のWebサービスを提供するために必要な処理を実行する。ゲーム機サービス管理部16及びWebサービス管理部17は、コンピュータハードウェアとコンピュータプログラムとの組み合わせにより実現される論理的装置である。なお、制御ユニット10の内部には、その他にも各種の論理的装置が設けられ得るが、それらの図示は省略した。 The game machine service management unit 16 executes the process for providing the above-mentioned game machine service. On the other hand, the Web service management unit 17 executes the processing necessary for providing the above-mentioned Web service. The game machine service management unit 16 and the Web service management unit 17 are logical devices realized by a combination of computer hardware and a computer program. Although various other logical devices may be provided inside the control unit 10, their illustrations are omitted.

記憶ユニット11には、更にサーバ用プログラム15の実行に伴って参照され得る各種のデータが記録されている。例えば、このような各種のデータには、ID管理データ18、メイン動画データ19、サブ動画データ20及び合成動画データ21が含まれる。これらの詳細は、後述する。 The storage unit 11 further records various data that can be referred to when the server program 15 is executed. For example, such various types of data include ID management data 18, main video data 19, sub video data 20, and synthetic video data 21. These details will be described later.

なお、各種のデータとして、例えば、上述のID管理データ18等の他にも上述のプレイデータが記録されていてもよい。プレイデータは、各ユーザの過去のプレイ実績に関する情報が記述されたデータである。プレイデータは、例えば、前回までのプレイ結果(過去の実績)を次回以降に引き継ぐため、或いは各ユーザに固有の設定内容を引き継ぐために使用されてよい。また、記憶ユニット11には、その他にも各種のデータが記憶され得るが、それらの説明及び図示は省略する。 As various data, for example, the above-mentioned play data may be recorded in addition to the above-mentioned ID management data 18 and the like. The play data is data in which information regarding the past play results of each user is described. The play data may be used, for example, to inherit the play results (past achievements) up to the previous time from the next time onward, or to inherit the setting contents unique to each user. Further, various types of data may be stored in the storage unit 11, but their description and illustration will be omitted.

一方、各ゲーム機GMには、コンピュータとしての制御ユニット30と、記憶ユニット31と、エンコーダECと、が設けられている。制御ユニット30は、マイクロプロセッサと、そのマイクロプロセッサの動作に必要な内部記憶装置(一例としてROM及びRAM)等の各種周辺装置とを組み合わせたコンピュータユニットとして構成されている。なお、制御ユニット30には、その他にも公知のゲーム機と同様に、モニタ、スピーカ、コントロールパネル、コイン認証装置、或いはカードリーダ等の各種の出力装置或いは入力装置が接続され得る。このような入力装置には、例えば、状態検出装置が含まれる。状態検出装置は、被検出者の状態(全体の姿勢、各部位の位置、或いは骨格等の状態の情報を含む)及び状態の変化を検出するための周知の装置である。状態検出装置は、例えば、光学センサ(被検出者の各部位の状態及び動きを検出するための周知のセンサ)及び深度センサ(状態検出装置と被検出者との間の距離を検出するための周知のセンサ)を含んでいる。しかし、このような各種の出力装置或いは入力装置の図示は省略した。 On the other hand, each game machine GM is provided with a control unit 30 as a computer, a storage unit 31, and an encoder EC. The control unit 30 is configured as a computer unit in which a microprocessor and various peripheral devices such as an internal storage device (ROM and RAM as an example) necessary for the operation of the microprocessor are combined. Similar to other known game machines, the control unit 30 may be connected to various output devices or input devices such as a monitor, a speaker, a control panel, a coin authentication device, or a card reader. Such an input device includes, for example, a state detection device. The state detection device is a well-known device for detecting the state of the person to be detected (including information on the state of the whole posture, the position of each part, the skeleton, etc.) and the change in the state. The state detection device is, for example, an optical sensor (a well-known sensor for detecting the state and movement of each part of the subject to be detected) and a depth sensor (for detecting the distance between the state detection device and the subject to be detected). Well-known sensor) is included. However, the illustration of such various output devices or input devices is omitted.

記憶ユニット31は、制御ユニット30に接続されている。記憶ユニット31は、電源の供給がなくても記憶を保持可能なように、例えば、磁気記録媒体や光記録媒体、フラッシュSSD(Solid State Drive)などにより構成されている。記憶ユニット31には、ゲームデータ34及びゲームプログラム35が記憶されている。ゲームプログラム35は、ゲーム機GMがカードゲームを提供するために必要なコンピュータプログラムである。ゲームプログラム35の実行に伴って、制御ユニット30の内部には、ゲームサービス処理部36が設けられる。ゲームサービス処理部36は、音楽ゲームを提供するために必要な各種処理を実行する。ゲームサービス処理部36は、コンピュータハードウェアとコンピュータプログラムとの組み合わせにより実現される論理的装置である。なお、制御ユニット30の内部には、その他にも各種の論理的装置が設けられ得るが、それらの図示は省略する。 The storage unit 31 is connected to the control unit 30. The storage unit 31 is composed of, for example, a magnetic recording medium, an optical recording medium, a flash SSD (Solid State Drive), or the like so that storage can be held without supplying power. The game data 34 and the game program 35 are stored in the storage unit 31. The game program 35 is a computer program required for the game machine GM to provide a card game. A game service processing unit 36 is provided inside the control unit 30 with the execution of the game program 35. The game service processing unit 36 executes various processes necessary for providing the music game. The game service processing unit 36 is a logical device realized by a combination of computer hardware and a computer program. Various other logical devices may be provided inside the control unit 30, but their illustrations are omitted.

ゲームデータ34は、ゲームプログラム35の実行に伴って参照され得るデータである。ゲームデータ34は、例えば、画像データ、効果音データを含んでいる。画像データは、音楽ゲーム用の各種のゲーム画面等の各種の画像をモニタに表示させるために必要なデータである。効果音データは、効果音等の音楽ゲーム用の各種の音声をスピーカに再生させるために必要なデータである。さらに、ゲームデータ34は、例えば、その他にも上述のプレイデータ及びID管理データ18を含んでいてよい。プレイデータ及びID管理データ18は、一例として、必要な部分が含まれるように、少なくとも一部がセンターサーバ2から提供される。なお、ゲームデータ34は、その他にも音楽データの提供に必要な各種のデータを含み得るが、それらの説明及び図示は省略する。 The game data 34 is data that can be referred to with the execution of the game program 35. The game data 34 includes, for example, image data and sound effect data. The image data is data necessary for displaying various images such as various game screens for music games on a monitor. The sound effect data is data necessary for the speaker to reproduce various sounds for a music game such as sound effects. Further, the game data 34 may include, for example, the above-mentioned play data and ID management data 18. As an example, the play data and the ID management data 18 are provided at least in part from the center server 2 so as to include necessary parts. The game data 34 may also include various data necessary for providing music data, but description and illustration thereof will be omitted.

エンコーダECは、動画配信サービスを提供するための装置である。例えば、エンコーダECを介して、各ゲーム機GMが提供する音楽ゲームのゲーム画面がセンターサーバ2にも提供される。エンコーダECは、制御ユニット30によって制御される。なお、エンコーダECは、省略されてもよい。この場合、制御ユニット30がエンコーダECと同様に機能してもよい。或いは、エンコーダECは、各ゲーム機GMとは別に設けられてもよい。そして、例えば、各ゲーム機GM及び各ユーザ端末5は、エンコーダECを介して接続されてもよい。この場合、例えば、各ユーザ端末5は、エンコーダECを介して各ゲーム機GMの一部の機能を制御する制御端末として機能してよい。より具体的には、エンコーダECを介して、各ゲーム機GMの制御ユニット30と各ユーザ端末5の制御ユニット40とが接続されてよい(図16を参照)。そして、一部の機能として、動画配信サービスの提供に必要な各種の設定(例えば、動画配信サービス開始の指示)等を実行するための機能(例えば、上述のようにゲーム画面を適宜センターサーバ2に提供する機能等)が制御ユニット40によって制御されてよい。つまり、エンコーダECは、適宜の時期に別途接続される各ユーザ端末5を各ゲーム機GMの一部として機能させるための装置として機能してよい。そして、エンコーダECを介してユーザ端末5により、既存の各ゲーム機GMに動画配信サービスを提供するための装置としての機能が追加されてよい。つまり、この場合、動画配信サービスを実現するための機能は、予め各ゲーム機GMに設けられていなくてもよい。 The encoder EC is a device for providing a video distribution service. For example, the game screen of the music game provided by each game machine GM is also provided to the center server 2 via the encoder EC. The encoder EC is controlled by the control unit 30. The encoder EC may be omitted. In this case, the control unit 30 may function in the same manner as the encoder EC. Alternatively, the encoder EC may be provided separately from each game machine GM. Then, for example, each game machine GM and each user terminal 5 may be connected via an encoder EC. In this case, for example, each user terminal 5 may function as a control terminal that controls a part of the functions of each game machine GM via the encoder EC. More specifically, the control unit 30 of each game machine GM and the control unit 40 of each user terminal 5 may be connected via the encoder EC (see FIG. 16). Then, as a part of the function, a function for executing various settings (for example, an instruction to start the video distribution service) necessary for providing the video distribution service (for example, the game screen is appropriately displayed on the center server 2 as described above). The functions and the like provided to the control unit 40 may be controlled by the control unit 40. That is, the encoder EC may function as a device for making each user terminal 5 separately connected at an appropriate time function as a part of each game machine GM. Then, the user terminal 5 may add a function as a device for providing a video distribution service to each existing game machine GM via the encoder EC. That is, in this case, the function for realizing the video distribution service may not be provided in advance in each game machine GM.

ユーザ端末5には、制御ユニット40と、記憶ユニット41とが設けられている。制御ユニット40は、マイクロプロセッサと、そのマイクロプロセッサの動作に必要な内部記憶装置(一例としてROM及びRAM)等の各種周辺装置とを組み合わせたコンピュータユニットとして構成されている。なお、制御ユニット40には、ネットワーク接続が可能な公知のコンピュータ装置が備える各種の入力装置、及び出力装置が接続され得る。例えば、このような各種の入力装置には、画像を撮影するためのカメラ及び位置を算出するためのGPS(Global Positioning System)受信機が含まれてよい。つまり、ユーザ端末5は、一例として、画像(動画含む)を撮影する撮影機能及びいわゆるGPS機能(位置情報を算出する機能)を有していてよい。しかし、それらの図示は省略した。また、以下において、携帯電話5bは、これらの撮影機能及びGPS機能を有するユーザ端末5の一例として説明される。 The user terminal 5 is provided with a control unit 40 and a storage unit 41. The control unit 40 is configured as a computer unit in which a microprocessor and various peripheral devices such as an internal storage device (ROM and RAM as an example) necessary for the operation of the microprocessor are combined. In addition, various input devices and output devices provided in known computer devices capable of network connection may be connected to the control unit 40. For example, such various input devices may include a camera for taking an image and a GPS (Global Positioning System) receiver for calculating a position. That is, as an example, the user terminal 5 may have a shooting function for shooting an image (including a moving image) and a so-called GPS function (a function for calculating position information). However, their illustration is omitted. Further, in the following, the mobile phone 5b will be described as an example of the user terminal 5 having these shooting functions and GPS functions.

記憶ユニット41は、制御ユニット40に接続されている。記憶ユニット41は、電源の供給がなくても記憶を保持可能なように、例えば、不揮発性の半導体記装置などにより構成されている。記憶ユニット41には、端末データ44及び端末プログラム45が記憶されている。端末プログラム45は、ユーザ端末5がセンターサーバ2からWebサービスの提供を受けるために必要なコンピュータプログラムである。制御ユニット40が端末プログラム45を読み取って実行することにより、制御ユニット40の内部には、Webサービス処理部46が設けられる。 The storage unit 41 is connected to the control unit 40. The storage unit 41 is configured by, for example, a non-volatile semiconductor recording device or the like so that storage can be held without supplying power. The terminal data 44 and the terminal program 45 are stored in the storage unit 41. The terminal program 45 is a computer program required for the user terminal 5 to receive the Web service from the center server 2. When the control unit 40 reads and executes the terminal program 45, a Web service processing unit 46 is provided inside the control unit 40.

Webサービス処理部46は、例えば、センターサーバ2のWebサービス管理部17と協働してユーザがWebサービスを利用するために必要な各種の処理を実行する。このようなWebサービスの一例として、Webサービス処理部46は、動画配信サービスの提供に必要な各種の処理を実行する。また、Webサービス処理部46は、例えば、その他にもWebサービスの提供に必要な各種の周知な処理等を実行する。Webサービス処理部46は、コンピュータハードウェアとコンピュータプログラムとの組み合わせにより実現される論理的装置である。なお、制御ユニット40の内部には、その他にも各種の論理的装置が設けられ得るが、それらの図示は省略した。 The Web service processing unit 46 cooperates with the Web service management unit 17 of the center server 2, for example, to execute various processes necessary for the user to use the Web service. As an example of such a Web service, the Web service processing unit 46 executes various processes necessary for providing the video distribution service. In addition, the Web service processing unit 46 also executes various well-known processes necessary for providing the Web service, for example. The Web service processing unit 46 is a logical device realized by a combination of computer hardware and a computer program. Although various other logical devices may be provided inside the control unit 40, their illustrations are omitted.

一方、端末データ44は、端末プログラム45の実行に伴って参照され得る各種のデータである。例えば、端末データ44は、ID管理データ18を含んでいてよい。ID管理データ18は、一例として、必要な部分が含まれるように、少なくとも一部がセンターサーバ2から提供される。なお、端末データ44は、その他にもWebサービスの提供に必要な各種のデータを含み得るが、それらの説明及び図示は省略する。 On the other hand, the terminal data 44 is various data that can be referred to with the execution of the terminal program 45. For example, the terminal data 44 may include the ID management data 18. As an example, the ID management data 18 is provided by the center server 2 at least in part so as to include a necessary portion. The terminal data 44 may also include various data necessary for providing the Web service, but the description and illustration thereof will be omitted.

次に、ゲーム機GMが提供する音楽ゲームについて説明する。音楽ゲームは、楽曲に合わせて適切なプレイ行為を実行すべき時期が案内され、適切なプレイ行為が実行された場合にそのプレイ行為の実行時期が評価されるタイプのゲームである。より具体的には、音楽ゲームは、音楽のリズムに合わせて実行されるユーザのダンス動作が評価されるタイプの音楽ゲームである。つまり、適切なプレイ行為として、適切なユーザのダンス動作(各部位の位置や向きといった姿勢等)が評価される。一例として、各ゲーム機GMは、所定の対価が消費される毎に、このような音楽ゲームをプレイするゲーム機会を提供する。 Next, the music game provided by the game machine GM will be described. The music game is a type of game in which the time when an appropriate play action should be executed is guided according to the music, and when the appropriate play action is executed, the execution time of the play action is evaluated. More specifically, a music game is a type of music game in which a user's dance movement performed in accordance with the rhythm of music is evaluated. That is, as an appropriate play action, an appropriate user's dance motion (posture such as the position and orientation of each part) is evaluated. As an example, each game machine GM provides a game opportunity to play such a music game each time a predetermined consideration is consumed.

図3は、音楽ゲームを提供中のゲーム機GM及びプレイ中のユーザの一例を模式的に示す図である。図3に示すように、各ゲーム機GMには、モニタMOが設けられている。モニタMOには、ゲーム画面50が表示される。つまり、各ゲーム機会では、ゲーム画面50を介して音楽ゲームがプレイされる。 FIG. 3 is a diagram schematically showing an example of a game machine GM providing a music game and a user playing the game. As shown in FIG. 3, each game machine GM is provided with a monitor MO. The game screen 50 is displayed on the monitor MO. That is, at each game opportunity, the music game is played via the game screen 50.

ゲーム画面50は、例えば、2つのシルエット画像51及びユーザキャラクタ画像52を含んでいる。ユーザキャラクタ画像52は、ユーザ(以下において、音楽ゲームをプレイ中のユーザを特にパフォーマPと呼ぶことがある)のダンス動作をゲーム内に再現するための画像である。パフォーマPのダンス動作は、例えば、上述の状態検出装置により検出され、ユーザキャラクタ画像52のダンス動作としてゲーム内に再現される。 The game screen 50 includes, for example, two silhouette images 51 and a user character image 52. The user character image 52 is an image for reproducing the dance motion of a user (hereinafter, a user who is playing a music game may be particularly referred to as a performer P) in the game. The dance motion of the performer P is detected by, for example, the above-mentioned state detection device, and is reproduced in the game as the dance motion of the user character image 52.

各シルエット画像51は、適切なダンス動作(姿勢)をパフォーマPに案内するための画像である。2つのシルエット画像51は、ダンス動作の一部として互いに同じ姿勢を示している。より具体的には、各シルエット画像51は、ユーザキャラクタ画像52が示すべき特定の同じ姿勢を示している。また、一例として、2つのシルエット画像51は、ユーザキャラクタ画像52の左右両側に出現し、同時にユーザキャラクタ画像52に重なるようにユーザキャラクタ画像52に向かって移動する。そして、その重なる時期がダンス動作をすべき適切な時期である。つまり、パフォーマPには、各シルエット画像51により適切なダンス動作の姿勢とともに、それらの重なりによりその姿勢をとるべき適切な時期が案内される。そして、それに伴うパフォーマPの実際のダンス動作がユーザキャラクタ画像52のダンス動作としてゲーム内に再現される。また、各シルエット画像51とユーザキャラクタ画像52との間の一致度(パフォーマPの姿勢及びその時期)が評価される。具体的には、シルエット画像51とユーザキャラクタ画像52との間の一致度が高いほど、評価も高い。 Each silhouette image 51 is an image for guiding an appropriate dance motion (posture) to the performer P. The two silhouette images 51 show the same posture as part of the dance motion. More specifically, each silhouette image 51 shows the same specific posture that the user character image 52 should show. Further, as an example, the two silhouette images 51 appear on both the left and right sides of the user character image 52, and at the same time, move toward the user character image 52 so as to overlap the user character image 52. And the overlapping time is the appropriate time to perform the dance movement. That is, each silhouette image 51 informs the performer P of an appropriate posture of the dance movement and an appropriate time when the posture should be taken by overlapping them. Then, the actual dance motion of the performer P accompanying it is reproduced in the game as the dance motion of the user character image 52. Further, the degree of coincidence between each silhouette image 51 and the user character image 52 (posture of performer P and its timing) is evaluated. Specifically, the higher the degree of matching between the silhouette image 51 and the user character image 52, the higher the evaluation.

一方、各ゲーム機GMの前方(モニタMOの表示方向)には、所定の位置にプレイエリアPAが設けられている。プレイエリアPAは、パフォーマPがプレイ行為としてダンス動作を実行するためのエリアである。プレイエリアPAは、状態検出装置がパフォーマP(被検出者)の状態を検出可能な適切な位置に配置されている。つまり、パフォーマPのダンス動作は、プレイエリアPAにおいて実行されることにより適切に検出される。 On the other hand, a play area PA is provided at a predetermined position in front of each game machine GM (display direction of the monitor MO). The play area PA is an area for the performer P to perform a dance action as a play act. The play area PA is arranged at an appropriate position where the state detecting device can detect the state of the performer P (detected person). That is, the dance motion of the performer P is appropriately detected by being executed in the play area PA.

図3の例では、各シルエット画像51の姿勢とユーザキャラクタ画像52の姿勢とが一致している。つまり、パフォーマPは、適切なダンス動作の姿勢を実行している。また、各シルエット画像51は、ユーザキャラクタ画像52と重なる直前に位置している。したがって、各シルエット画像51がユーザキャラクタ画像52と重なる時期にもこの姿勢が維持されていれば、適切な時期に適切なダンス動作が実行されたと評価される。一例として、各ゲーム機GMは、このような音楽ゲームを提供する。 In the example of FIG. 3, the posture of each silhouette image 51 and the posture of the user character image 52 match. That is, the performer P is performing an appropriate dance posture. Further, each silhouette image 51 is located immediately before overlapping with the user character image 52. Therefore, if this posture is maintained even when each silhouette image 51 overlaps with the user character image 52, it is evaluated that an appropriate dance motion is executed at an appropriate time. As an example, each game machine GM provides such a music game.

次に、動画配信サービスの一例について詳細を説明する。動画配信サービスは、一例として、ゲームに関連する各種動画をパーソナルコンピュータ5aに配信するサービスである。一例として、動画配信サービスは、ストリーミング方式により動画を配信する。また、動画配信サービスでは、各種動画の一例として、ゲーム動画が配信される。ゲーム動画は、プレイ中のゲーム画面50に対応する動画である。より具体的には、ゲーム画面は、プレイ中に適宜変化する。ゲーム動画は、このようなゲーム画面の変化、つまりプレイ中に時間経過に従って変化するゲーム画面の変化を示す動画である。一例として、このようなゲーム動画は、各ゲーム機GMのエンコーダECにより生成され、センターサーバ2に提供される。 Next, an example of the video distribution service will be described in detail. The video distribution service is, for example, a service that distributes various videos related to a game to a personal computer 5a. As an example, a video distribution service distributes a video by a streaming method. In the video distribution service, game videos are distributed as an example of various videos. The game video is a video corresponding to the game screen 50 being played. More specifically, the game screen changes as appropriate during play. The game video is a video showing such a change in the game screen, that is, a change in the game screen that changes with the passage of time during play. As an example, such a game moving image is generated by the encoder EC of each game machine GM and provided to the center server 2.

さらに、動画配信サービスでは、一例として、携帯電話5bにより撮影された動画が合成された合成動画も配信される。より具体的には、携帯電話5bにより撮影された動画のうちプレイ中のパフォーマPを撮影したプレイ動画が合成に使用される。そして、動画配信サービスでは、一例として、このようなゲーム動画及びプレイ動画が合成された合成動画がストリーミング方式で配信される。つまり、一例として、合成動画は、所定期間毎の複数のフレーム動画に分けられ、フレーム動画毎にパーソナルコンピュータ5aに配信され、随時再生される。そして、時間経過に沿った各フレーム動画の集合により合成動画が形成される。一例として、動画配信サービスでは、このようなストリーミング方式で合成動画が配信される。 Further, in the video distribution service, as an example, a composite video in which a video shot by a mobile phone 5b is synthesized is also distributed. More specifically, among the moving images taken by the mobile phone 5b, the play moving image of the performer P being played is used for compositing. Then, in the video distribution service, as an example, a synthetic video in which such a game video and a play video are synthesized is distributed by a streaming method. That is, as an example, the synthetic moving image is divided into a plurality of frame moving images for each predetermined period, distributed to the personal computer 5a for each frame moving image, and reproduced at any time. Then, a composite moving image is formed by a set of each frame moving image along with the passage of time. As an example, in a video distribution service, a synthetic video is distributed by such a streaming method.

図4を参照して合成動画の配信について更に説明する。図4は、ゲーム動画とプレイ動画とが合成された合成動画が配信される場合の動画配信サービスの一例を説明するための説明図である。図4に示すように、動画配信サービスとして、センターサーバ2を介して、各パーソナルコンピュータ5aには合成画面としての配信画面60が提供される。配信画面60は、動画領域61及びチャット領域62を含んでいる。 The distribution of the synthetic moving image will be further described with reference to FIG. FIG. 4 is an explanatory diagram for explaining an example of a video distribution service when a synthetic video in which a game video and a play video are combined is distributed. As shown in FIG. 4, as a moving image distribution service, a distribution screen 60 as a composite screen is provided to each personal computer 5a via the center server 2. The distribution screen 60 includes a moving image area 61 and a chat area 62.

チャット領域62は、各パーソナルコンピュータ5aのユーザの意見交換の場として使用される領域である。具体的には、チャット領域62には、例えば、各パーソナルコンピュータ5aを介して提供される各ユーザの意見が表示される。 The chat area 62 is an area used as a place for exchanging opinions of users of each personal computer 5a. Specifically, in the chat area 62, for example, the opinions of each user provided via each personal computer 5a are displayed.

一方、動画領域61は、合成動画を表示するための領域である。したがって、動画領域61には、合成動画CM(フレーム動画含む)が随時表示される(図4では図面の性質上、合成動画CMは静止画として表示されている。以降の各図及び各動画についても同様)。合成動画CMは、各ゲーム動画G及び端末動画としての各プレイ動画Mの合成により形成される。また、一例として、各ゲーム動画G及び各プレイ動画Mは、各ゲーム動画Gがメインの動画として、各プレイ動画Mがサブの動画として、それぞれ表示されるように合成される。 On the other hand, the moving image area 61 is an area for displaying a synthetic moving image. Therefore, the composite moving image CM (including the frame moving image) is displayed at any time in the moving image area 61 (in FIG. 4, the synthesized moving image CM is displayed as a still image due to the nature of the drawing in FIG. 4. For each subsequent figure and each moving image. The same applies). The synthetic moving image CM is formed by synthesizing each game moving image G and each play moving image M as a terminal moving image. Further, as an example, each game video G and each play video M are synthesized so that each game video G is displayed as a main video and each play video M is displayed as a sub video.

具体的には、動画領域61の全領域に亘って各ゲーム動画Gが表示される一方で、動画領域61の一部の領域に各プレイ動画Mが表示される。つまり、各プレイ動画Mの表示領域66は、各ゲーム動画Gの表示領域(動画領域61に対応)内に設けられている。そして、各プレイ動画Mが各ゲーム動画Gの一部として機能するように、両方が表示される。つまり、各プレイ動画Mは、いわゆるワイプ動画として機能するように各ゲーム動画Gに合成される。一例として、このように各ゲーム動画G及び各プレイ動画Mが表示されるように合成された合成動画CMが動画領域61に表示される。 Specifically, each game moving image G is displayed over the entire area of the moving image area 61, while each play moving image M is displayed in a part of the moving image area 61. That is, the display area 66 of each play video M is provided in the display area (corresponding to the video area 61) of each game video G. Then, both are displayed so that each play video M functions as a part of each game video G. That is, each play video M is combined with each game video G so as to function as a so-called wipe video. As an example, a synthetic moving image CM synthesized so as to display each game moving image G and each play moving image M is displayed in the moving image area 61.

また、一例として、ストリーミング配信を実現するために、各ゲーム動画G及び各プレイ動画Mも複数のフレーム動画に区分され、フレーム動画の単位で各ゲーム機GM或いは各携帯電話5bからセンターサーバ2に提供される。具体的には、各ゲーム機GMは、各店舗4において各パフォーマPによって使用される。センターサーバ2は、各パフォーマPのプレイ中の各ゲーム画面50の変化を所定期間毎にフレーム動画として各ゲーム機GMから時間経過に伴って随時取得する。そして、このようなフレーム動画の集合によりゲーム動画Gが形成される。 Further, as an example, in order to realize streaming distribution, each game video G and each play video M are also divided into a plurality of frame videos, and each game machine GM or each mobile phone 5b is connected to the center server 2 in units of frame videos. Provided. Specifically, each game machine GM is used by each performer P in each store 4. The center server 2 acquires changes in each game screen 50 during play of each performer P as a frame moving image at predetermined intervals from each game machine GM at any time with the passage of time. Then, the game moving image G is formed by the set of such frame moving images.

一方、各店舗4において、各パフォーマPの周りには、一般的に複数の観衆が存在する場合が多い。さらに、各観衆は、一般的に携帯電話5bを所有している場合が多い。一例として、このような携帯電話5bによって撮影されたプレイ動画Mが合成対象として使用される。センターサーバ2は、撮影されたプレイ動画Mを所定期間毎にフレーム動画として携帯電話5bから時間経過に伴って随時取得する。そして、このようなフレーム動画の集合によりプレイ動画Mが形成される。 On the other hand, in each store 4, there are many cases where a plurality of spectators generally exist around each performer P. In addition, each spectator generally owns a mobile phone 5b. As an example, a play moving image M shot by such a mobile phone 5b is used as a synthesis target. The center server 2 acquires the captured play video M as a frame video at predetermined intervals from the mobile phone 5b at any time with the passage of time. Then, the play moving image M is formed by the set of such frame moving images.

図4の例では、各プレイ動画Mは、第1プレイ動画M1及び第2プレイ動画M2を含んでいる。より具体的には、センターサーバ2は、観衆が所有する各携帯電話5bのうち、第1携帯電話5b1が撮影したプレイ動画Mとして第1プレイ動画M1を、第2携帯電話5b2が撮影したプレイ動画Mとして第2プレイ動画M2を、それぞれ取得する。そして、センターサーバ2は、両プレイ動画M1、M2がワイプ動画として各ゲーム動画Gの左右の下側に配置された合成動画CMを生成する。 In the example of FIG. 4, each play moving image M includes a first play moving image M1 and a second play moving image M2. More specifically, the center server 2 has a play video M1 shot by the first mobile phone 5b1 as a play video M shot by the first mobile phone 5b1 and a play shot by the second mobile phone 5b2 among the mobile phones 5b owned by the audience. The second play moving image M2 is acquired as the moving image M, respectively. Then, the center server 2 generates a composite moving image CM in which both play moving images M1 and M2 are arranged on the lower left and right sides of each game moving image G as a wipe moving image.

また、各合成動画CMは、一例として、両プレイ動画M1、M2及び各ゲーム動画Gの同時期のフレーム動画により生成される。つまり、各合成動画CMは、両プレイ動画M1、M2及び各ゲーム動画Gの時間経過が互いに同期するように生成される。このような同期は、例えば、各ゲーム機GM或いは各携帯電話5bが計時する実時間(例えば、“12:00”等の絶対時間)を基準に実行されてよい。或いは、撮影開始時の実時間を基準に、そこからの経過時間(相対時間)が各フレーム動画に付与されている場合は、その実時間及び経過時間に基づいて実行されてもよい。結果として、各ゲーム動画G及び各プレイ動画Mを同期的に再生する合成動画CMが生成される。そして、センターサーバ2は、このような合成動画CMを配信する。つまり、このような合成動画CMを含む配信画面60を介して、各パーソナルコンピュータ5aには、各ゲーム動画G及び各プレイ動画Mの同時期の各フレーム動画の両方が同時に表示される。さらに、このような合成動画CMは、一例として、各パーソナルコンピュータ5aにほぼリアルタイムにストリーミング配信される。つまり、センターサーバ2は、各ゲーム動画G及び各プレイ動画Mの同時期の各フレーム動画を取得後、間をおかずに(各フレーム動画の全てを取得する前に)各パーソナルコンピュータ5aに、これらを含む配信画面60を順に提供する。一例として、動画配信サービスでは、配信画面60を介して、このような合成動画CMが配信される。 Further, each synthetic moving image CM is generated, for example, by frame moving images of both play moving images M1 and M2 and each game moving image G at the same time. That is, each synthetic moving image CM is generated so that the time passages of both play moving images M1 and M2 and each game moving image G are synchronized with each other. Such synchronization may be performed, for example, based on the real time measured by each game machine GM or each mobile phone 5b (for example, absolute time such as "12:00"). Alternatively, if the elapsed time (relative time) from the actual time at the start of shooting is given to each frame moving image, the execution may be performed based on the actual time and the elapsed time. As a result, a synthetic moving image CM that synchronously reproduces each game moving image G and each play moving image M is generated. Then, the center server 2 distributes such a synthetic moving image CM. That is, both the game moving image G and the frame moving images of each play moving image M at the same time are simultaneously displayed on each personal computer 5a via the distribution screen 60 including such a synthetic moving image CM. Further, such a synthetic moving image CM is, as an example, stream-delivered to each personal computer 5a in near real time. That is, the center server 2 attaches these to each personal computer 5a immediately after acquiring each frame video of each game video G and each play video M at the same time (before acquiring all of each frame video). The distribution screen 60 including the above is provided in order. As an example, in the video distribution service, such a synthetic video CM is distributed via the distribution screen 60.

図5を参照して、合成対象のゲーム動画及びプレイ動画の判別方法の一例について説明する。各ゲーム機GMが提供するゲーム毎にゲーム動画Gは生成される。各プレイ動画Mについても同様である。また、各プレイ動画Mの場合、各携帯電話5bから提供される。したがって、センターサーバ2には複数のゲーム動画G及び複数のプレイ動画Mが合成対象として提供され、少なくとも一時的に保存される。そして、これらのゲーム動画G及びプレイ動画Mから合成対象が判別され、互いに関連するゲーム動画G及びプレイ動画Mが合成される。 An example of a method for discriminating between a game video to be synthesized and a play video will be described with reference to FIG. A game video G is generated for each game provided by each game machine GM. The same applies to each play video M. Further, in the case of each play moving image M, it is provided from each mobile phone 5b. Therefore, a plurality of game moving images G and a plurality of playing moving images M are provided as synthesis targets on the center server 2, and are stored at least temporarily. Then, the synthesis target is determined from these game video G and play video M, and the game video G and play video M related to each other are synthesized.

図5は、合成対象のゲーム動画G及びプレイ動画Mの判別方法の一例を説明するための説明図である。図5に示すように、センターサーバ2には、ゲーム動画群GGとして、合成対象の各ゲーム動画Gが動画識別情報としてのストリームIDと関連付けて記憶されている。ストリームIDは、各ゲーム動画Gを互いに識別するための情報である。つまり、ストリームIDは、ゲーム動画G毎にユニークなIDである。同様に、センターサーバ2では、プレイ動画群MMとして、合成対象の各プレイ動画Mも各ゲーム動画Gと共通のストリームIDと関連付けて記憶されている。そして、共通のストリームIDを有するゲーム動画G及びプレイ動画Mが判別され、合成される。 FIG. 5 is an explanatory diagram for explaining an example of a method for discriminating between the game moving image G and the play moving image M to be synthesized. As shown in FIG. 5, in the center server 2, each game video G to be synthesized is stored as a game video group GG in association with a stream ID as video identification information. The stream ID is information for identifying each game video G from each other. That is, the stream ID is a unique ID for each game video G. Similarly, in the center server 2, each play video M to be synthesized is also stored as a play video group MM in association with each game video G and a common stream ID. Then, the game video G and the play video M having a common stream ID are discriminated and synthesized.

図5の例では、ゲーム動画群GGは、“AストリームID”と関連付けられたAゲーム動画G1を含んでいる。同様に、プレイ動画群MMは、“AストリームID”と関連付けられる第1プレイ動画M1及び第2プレイ動画M2を含んでいる。この場合、これらのゲーム動画G1及び2つのプレイ動画M1、M2が合成対象として判別される。そして、これらが合成された合成動画CMが生成され、配信される。また、この場合、これらのプレイ動画M1、M2とストリームIDが共通するAゲーム動画G1が本発明の対象動画として機能する。 In the example of FIG. 5, the game video group GG includes the A game video G1 associated with the “A stream ID”. Similarly, the play video group MM includes the first play video M1 and the second play video M2 associated with the “A stream ID”. In this case, these game moving images G1 and the two play moving images M1 and M2 are determined as synthesis targets. Then, a synthetic moving image CM in which these are combined is generated and distributed. Further, in this case, the A game moving image G1 having the same stream ID as these play moving images M1 and M2 functions as the target moving image of the present invention.

図6を参照して、各ゲーム動画G及び各プレイ動画Mに関連付けられるストリームIDについて説明する。図6は、音楽ゲームが含む各フェーズの一例を説明するための説明図である。図6に示すように、音楽ゲームは、一例として、ID取得フェーズ、ID提供フェーズ、及びプレイフェーズを順に含んでいる。 With reference to FIG. 6, the stream ID associated with each game video G and each play video M will be described. FIG. 6 is an explanatory diagram for explaining an example of each phase included in the music game. As shown in FIG. 6, the music game includes, as an example, an ID acquisition phase, an ID provision phase, and a play phase in order.

ID取得フェーズは、各ゲーム機GMがストリームIDを取得するためのフェーズである。具体的には、各ゲーム機GMは、センターサーバ2からストリームIDを取得する。つまり、ストリームIDは、一例として、センターサーバ2によってゲームのプレイ毎に付与される。したがって、ストリームIDとして、ゲームをプレイするゲーム機会毎に異なるIDが付与される。 The ID acquisition phase is a phase for each game machine GM to acquire a stream ID. Specifically, each game machine GM acquires a stream ID from the center server 2. That is, the stream ID is given to each game play by the center server 2 as an example. Therefore, as a stream ID, a different ID is assigned to each game opportunity to play the game.

次のID提供フェーズは、各携帯電話5bにID取得フェーズで取得したストリームIDを提供するためのフェーズである。例えば、ID提供フェーズでは、各ゲーム機GMがストリームIDを各携帯電話5bに提供する。具体的には、一例として、ストリームIDは、ID提供画面80を介して各携帯電話5bに提供される。ID提供画面80は、二次元コード画像81を含んでいる。二次元コード画像81は、ストリームIDの情報を含むように所定の規格に従って構成される二次元コードの画像である。各携帯電話5bは、この二次元コード画像81を介して、ストリームIDの情報を取得する。つまり、各携帯電話5bは、二次元コード画像81を読み取り、そこに含まれるストリームIDの情報を取得する。一例として、各携帯電話5bは、配信サービス用アプリケーション(ソフトウェア)を使用して、この読み取りを実行する。 The next ID providing phase is a phase for providing each mobile phone 5b with the stream ID acquired in the ID acquisition phase. For example, in the ID provision phase, each game machine GM provides a stream ID to each mobile phone 5b. Specifically, as an example, the stream ID is provided to each mobile phone 5b via the ID providing screen 80. The ID providing screen 80 includes a two-dimensional code image 81. The two-dimensional code image 81 is an image of a two-dimensional code configured according to a predetermined standard so as to include information on the stream ID. Each mobile phone 5b acquires the stream ID information via the two-dimensional code image 81. That is, each mobile phone 5b reads the two-dimensional code image 81 and acquires the information of the stream ID contained therein. As an example, each mobile phone 5b uses a distribution service application (software) to perform this reading.

続くプレイフェーズは、上述の合成動画CMを配信するためのフェーズである。具体的には、プレイフェーズにおいて、各ゲーム機GMは、上述のような音楽ゲームを提供する。そして、各ゲーム機GMは、プレイ中の音楽ゲームのゲーム画面50の変化を示すゲーム動画Gを今回のゲーム機会を示すストリームIDとともにセンターサーバ2に提供する。 The subsequent play phase is a phase for distributing the above-mentioned synthetic moving image CM. Specifically, in the play phase, each game machine GM provides the music game as described above. Then, each game machine GM provides the center server 2 with a game video G indicating a change in the game screen 50 of the music game being played, together with a stream ID indicating the current game opportunity.

一方、各携帯電話5bは、一例として、配信サービス用アプリケーションを介して、各プレイ動画Mを撮影する。配信サービス用アプリケーションは、撮影結果をプレイ動画Mとしてセンターサーバ2に提供する。具体的には、配信サービス用アプリケーションは、撮影したプレイ動画をID提供フェーズで取得したストリームIDとともにセンターサーバ2に提供する。結果として、センターサーバ2には、各ゲーム動画G及び各プレイ動画Mが共通のストリームIDと関連付けられて記憶される。そして、センターサーバ2において、上述のように、共通のストリームIDをキーにゲーム動画G及びこれを撮影したプレイ動画Mが判別され、合成される。一例として、このようにストリームIDは、各ゲーム動画G及び各プレイ動画Mに関連付けられる。また、一例として、各携帯電話5bが配信サービス用アプリケーションを介して本発明の撮影用端末として機能する。 On the other hand, each mobile phone 5b, as an example, shoots each play moving image M via a distribution service application. The application for the distribution service provides the shooting result as the play moving image M to the center server 2. Specifically, the distribution service application provides the captured play video to the center server 2 together with the stream ID acquired in the ID provision phase. As a result, each game video G and each play video M are stored in the center server 2 in association with a common stream ID. Then, in the center server 2, as described above, the game video G and the play video M that captures the game video G are discriminated and synthesized using the common stream ID as a key. As an example, the stream ID is thus associated with each game video G and each play video M. Further, as an example, each mobile phone 5b functions as a shooting terminal of the present invention via a distribution service application.

図7を参照して、一部のプレイ動画Mの制限について説明する。上述のように、複数のプレイ動画Mが複数の携帯電話5bによって提供される。また、同じ店舗4において複数の観衆によって同じゲーム機会における同じパフォーマPのプレイ動画Mが撮影される場合もある。このため、一つのゲーム動画Gに対し、多数のプレイ動画Mが関連付けられる可能性がある。したがって、各ゲーム動画Gと合成されるべき合成対象のプレイ動画Mは、制限条件によって制限される。 With reference to FIG. 7, the limitation of some play moving images M will be described. As described above, the plurality of play moving images M are provided by the plurality of mobile phones 5b. Further, in the same store 4, a plurality of spectators may shoot a play video M of the same performer P at the same game opportunity. Therefore, there is a possibility that a large number of play videos M are associated with one game video G. Therefore, the play moving image M to be synthesized with each game moving image G is limited by the limiting condition.

図7は、一部のプレイ動画Mの制限の一例を説明するための説明図である。図7に示すように、プレイ動画群MMは、共通の同じストリームIDを有する多数のプレイ動画Mを含んでいる。一方で、これらの多数のプレイ動画Mによって形成される特定プレイ動画群MM1は、ゲーム動画Gとの合成に不適切な動画を含んでいる可能性もある。したがって、特定プレイ動画群MM1のうち、各ゲーム動画Gとの合成に不適切な動画(少なくとも不適切な可能性の高い動画)の使用が制限される。具体的には、特定プレイ動画群MM1は、合成動画CMの生成時に、制限条件に基づいて不適切である可能性の高い動画を含まない合成対象のプレイ動画群MM2に更に絞り込まれる。そして、このような合成対象のプレイ動画群MM2の各プレイ動画Mと各ゲーム動画Gとが合成され、各合成動画CMが生成される。 FIG. 7 is an explanatory diagram for explaining an example of the limitation of some play moving images M. As shown in FIG. 7, the play moving image group MM includes a large number of play moving images M having the same common stream ID. On the other hand, the specific play video group MM1 formed by these a large number of play video Ms may include a video that is inappropriate for synthesis with the game video G. Therefore, among the specific play video group MM1, the use of a video (at least a video having a high possibility of being inappropriate) that is inappropriate for compositing with each game video G is restricted. Specifically, the specific play video group MM1 is further narrowed down to the play video group MM2 to be synthesized, which does not include a video that is likely to be inappropriate based on the restriction conditions when the synthetic video CM is generated. Then, each play video M and each game video G of the play video group MM2 to be synthesized are combined, and each synthetic video CM is generated.

図7の例では、プレイ動画群MMは特定プレイ動画群MM1として、例えば、第1プレイ動画M1~第3プレイ動画M3を含んでいる。一方で、合成対象のプレイ動画群MM2は、第3プレイ動画M3を含んでいない。つまり、第3プレイ動画M3は、制限条件により不適切である可能性の高い動画と判断され、使用が制限されている。このように、制限条件を基準に一部のプレイ動画Mの使用が制限される。 In the example of FIG. 7, the play moving image group MM includes, for example, the first play moving image M1 to the third play moving image M3 as the specific play moving image group MM1. On the other hand, the play moving image group MM2 to be synthesized does not include the third play moving image M3. That is, the third play moving image M3 is determined to be a moving image that is highly likely to be inappropriate due to the limiting conditions, and its use is restricted. In this way, the use of some play moving images M is restricted based on the restriction conditions.

図8は、制限条件の一例を説明するための説明図である。図8に示すように、制限条件は、例えば、時間条件、場所条件、信用条件、容量条件、及び指定条件を含んでいる。つまり、一例として、制限条件は、これらの時間条件、場所条件、信用条件、容量条件、及び指定条件のいずれかが満たされた場合に満たされてよい。なお、制限条件は、その他にも各種の条件を含んでいるが、それらの図示及び説明は省略する。 FIG. 8 is an explanatory diagram for explaining an example of the limiting condition. As shown in FIG. 8, the limiting condition includes, for example, a time condition, a place condition, a credit condition, a capacity condition, and a designated condition. That is, as an example, the restriction condition may be satisfied when any of these time condition, place condition, credit condition, capacity condition, and designated condition is satisfied. Although the limiting conditions include various other conditions, the illustration and description thereof will be omitted.

時間条件は、例えば、撮影時間或いは取得時間を要件として含んでいる。つまり、時間条件では、一例として、撮影時間或いは取得時間が不適切性の基準として使用される。例えば、時間条件は、各プレイ動画Mの撮影時間或いは取得時間が所定の時間範囲に属さない場合に満たされる。具体的には、例えば、撮影時間を要件とする時間条件は、一例として、撮影時間が各ゲーム動画Gに対応するプレイ時間と大きくずれていた場合に満たされる。すなわち、この場合、一例として、各ゲーム動画Gに対応するパフォーマPを撮影したと想定できないほど撮影時間がずれている各プレイ動画Mの使用が制限される。撮影時間がプレイ時間と大きくずれている動画は、パフォーマPと無関係の動画の可能性が高い。また、そもそもプレイ動画Mとしては機能しない可能性も高い。或いは、各携帯電話5bの計測する実時間がずれている可能性もある。この場合、各プレイ動画Mが各ゲーム動画Gと適切に同期されない可能性が高い。撮影時間を要件とする時間条件により、これらのような不適切な動画の使用が制限される。 The time condition includes, for example, a shooting time or an acquisition time as a requirement. That is, in the time condition, as an example, the shooting time or the acquisition time is used as a criterion of improperness. For example, the time condition is satisfied when the shooting time or acquisition time of each play moving image M does not belong to a predetermined time range. Specifically, for example, the time condition that requires the shooting time is satisfied, for example, when the shooting time is significantly different from the play time corresponding to each game moving image G. That is, in this case, as an example, the use of each play video M whose shooting time is so different that it cannot be assumed that the performer P corresponding to each game video G has been shot is restricted. A moving image whose shooting time is significantly different from the playing time is likely to be a moving image unrelated to the performer P. In addition, there is a high possibility that it will not function as a play video M in the first place. Alternatively, the actual time measured by each mobile phone 5b may be different. In this case, there is a high possibility that each play video M is not properly synchronized with each game video G. Time conditions that require shooting time limit the use of inappropriate videos such as these.

同様に、例えば、取得時間を要件とする時間条件は、取得時間がプレイ開始時間(各ゲーム動画Gの開始時間)よりも所定時間以上遅い場合に満たされる。例えば、リアルタイムのストリーミング配信がされている場合には、取得の遅れは、各ゲーム動画Gと各プレイ動画Mとの間のずれを意味する。つまり、この場合、一例として、各ゲーム動画Gとの間に所定時間以上のずれが生じる各プレイ動画Mの使用が制限される。取得時間を要件とする時間条件により、このようなずれが生じ得る動画の使用が制限される。 Similarly, for example, the time condition that requires the acquisition time is satisfied when the acquisition time is later than the play start time (start time of each game video G) by a predetermined time or more. For example, in the case of real-time streaming distribution, the delay in acquisition means a deviation between each game video G and each play video M. That is, in this case, as an example, the use of each play moving image M in which a deviation of a predetermined time or more occurs from each game moving image G is restricted. Time conditions that require acquisition time limit the use of video that can cause such deviations.

場所条件は、例えば、撮影場所を要件として含んでいる。つまり、場所条件では、一例として、撮影場所が不適切性の基準として使用される。例えば、場所条件は、撮影場所が所定範囲の場所に属さない場合に満たされる。具体的には、場所条件は、一例として、撮影場所が各店舗4の場所と相違している場合に満たされる。さらに、場所条件は、一例として、各プレイ動画Mの撮影場所が、それに対応するゲーム動画Gを提供するゲーム機GMの設置店舗4の場所に該当しない場合に満たされてもよい。つまり、この場合、撮影場所が各ゲーム機GMの設置店舗4とずれている各プレイ動画Mの使用が制限される。例えば、ストリームIDが取得された後に、別の場所において撮影された動画が各携帯電話5bから提供される場合もある。このような動画は、プレイ動画としては不適切である。一例として、撮影場所を要件とする場所条件により、このような不適切な動画の使用が制限される。 The location condition includes, for example, a shooting location as a requirement. That is, in the location condition, as an example, the shooting location is used as a criterion of inadequacy. For example, the location condition is satisfied when the shooting location does not belong to a predetermined range of locations. Specifically, the location condition is satisfied, for example, when the shooting location is different from the location of each store 4. Further, the location condition may be satisfied, for example, when the shooting location of each play video M does not correspond to the location of the store 4 where the game machine GM that provides the corresponding game video G is installed. That is, in this case, the use of each play video M whose shooting location is deviated from the store 4 where each game machine GM is installed is restricted. For example, after the stream ID is acquired, a moving image taken at another place may be provided from each mobile phone 5b. Such a video is inappropriate as a play video. As an example, location conditions that require a shooting location limit the use of such improper video.

信用条件は、例えば、ユーザ識別情報としてのユーザIDを要件として含んでいる。つまり、信用条件では、一例として、ユーザIDが不適切性の基準として使用される。ユーザIDは、各ユーザを識別するための情報である。例えば、信用条件は、特定ユーザIDデータに各プレイ動画Mを撮影したユーザのユーザIDが含まれていない場合に満たされる。或いは、反対に信用条件は、特定ユーザIDデータに各プレイ動画Mを撮影したユーザのユーザIDが含まれている場合に満たされてもよい。特定ユーザIDデータは、予め用意されたデータである。より具体的には、特定ユーザIDデータとして、例えば、信用性の高いユーザのユーザID或いは反対に信用性の低いユーザのユーザIDが記述されたデータが利用される。つまり、この場合、特定ユーザIDデータのユーザIDを基準に信用性の低いユーザが提供する各プレイ動画Mの使用が制限される。一般的に信用性の高い(適切なプレイ動画Mを提供する可能性が高い)ユーザ或いは低い(適切なプレイ動画Mを提供する可能性が低い)ユーザは固定化される可能性が高い。特定ユーザIDデータのユーザIDを要件とする信用条件により、これらのような信用性の低いユーザの動画の使用が制限される。或いは、各プレイ動画Mの撮影用に専用のユーザIDが用意されていてもよい。つまり、合成対象のプレイ動画Mを撮影する場合は、各ユーザによって専用のユーザID(つまり、共通のユーザID)が使用されてもよい。この場合、特定ユーザIDデータには、この専用のユーザIDが記述されていてもよい。そして、専用のユーザID以外のユーザIDに対応するプレイ動画Mの合成が制限されてもよい。 The credit terms include, for example, a user ID as user identification information as a requirement. That is, in the credit terms, as an example, the user ID is used as a criterion of improperness. The user ID is information for identifying each user. For example, the credit condition is satisfied when the specific user ID data does not include the user ID of the user who shot each play moving image M. Alternatively, conversely, the credit condition may be satisfied when the specific user ID data includes the user ID of the user who shot each play moving image M. The specific user ID data is data prepared in advance. More specifically, as the specific user ID data, for example, data in which the user ID of a highly credible user or conversely the user ID of a user with low credibility is described is used. That is, in this case, the use of each play moving image M provided by a user with low credibility is restricted based on the user ID of the specific user ID data. In general, a user with high credibility (highly likely to provide an appropriate play video M) or a user with low credibility (less likely to provide an appropriate play video M) is likely to be fixed. The credit conditions that require the user ID of the specific user ID data limit the use of videos by such unreliable users. Alternatively, a dedicated user ID may be prepared for shooting each play moving image M. That is, when shooting the play moving image M to be synthesized, a dedicated user ID (that is, a common user ID) may be used by each user. In this case, this dedicated user ID may be described in the specific user ID data. Then, the synthesis of the play moving image M corresponding to the user ID other than the dedicated user ID may be restricted.

容量条件は、例えば、各プレイ動画Mの容量、合成可能な範囲或いは数、並びに処理容量を要件として含んでいる。つまり、容量条件では、一例として、これらの各プレイ動画Mの容量、合成可能な範囲或いは数の容量、又は処理容量が不適切性の基準として使用される。例えば、容量条件は、各プレイ動画Mの容量が所定量よりも多い場合に満たされる。つまり、この場合、所定量よりも容量の多い各プレイ動画Mの使用が制限される。ネットワーク3の通信容量(単位時間あたり)、或いは各パーソナルコンピュータ5aの処理容量等の関係から所定量よりも容量の多い各プレイ動画Mが使用された場合、表示の遅れ等につながり、適切に表示されない可能性がある。各プレイ動画Mの容量を要件とする容量条件により、これらのような適切に表示されない可能性のある動画の使用が制限される。 The capacity condition includes, for example, the capacity of each play moving image M, the range or number that can be synthesized, and the processing capacity as requirements. That is, in the capacity condition, as an example, the capacity of each of these play moving images M, the capacity of the range or number that can be synthesized, or the processing capacity is used as a criterion of improperness. For example, the capacity condition is satisfied when the capacity of each play moving image M is larger than a predetermined amount. That is, in this case, the use of each play moving image M having a capacity larger than a predetermined amount is restricted. If each play video M with a capacity larger than the predetermined amount is used due to the communication capacity of the network 3 (per unit time) or the processing capacity of each personal computer 5a, it will lead to a delay in display and display appropriately. It may not be done. Capacity conditions that require the capacity of each play video M limit the use of videos that may not be displayed properly, such as these.

また、容量条件は、例えば、所定の規則に従って順に各プレイ動画Mが合成対象として特定される場合に、合成可能な範囲或いは数、並びに処理容量を超えた後の各プレイ動画Mによって満たされる。つまり、この場合、合成対象の各プレイ動画Mが合成可能な範囲或いは数、並びに処理容量内に収まるように、それらを超えた後の各プレイ動画Mの使用が制限される。例えば、各プレイ動画Mの表示領域66を小さくしない限り、配信画面60の表示可能な範囲或いは配信画面60に表示できる数には限りがある。このような限界を超えた場合には、適切に合成できない可能性が高い。同様に、上述のように、ネットワーク3やセンターサーバ2、或いは各ゲーム機GMの処理容量には限界がある。これらのような処理容量の限界を超える場合には、ネットワーク3等に高負荷がかかり過ぎ、適切に処理できない可能性が高い。合成可能な範囲或いは数、並びに処理容量を要件とする容量条件により、これらのような適切に合成或いは処理できない可能性の高いプレイ動画Mの使用が制限される。 Further, the capacity condition is satisfied by, for example, when each play moving image M is specified as a synthesis target in order according to a predetermined rule, the range or number that can be combined, and each play moving image M after exceeding the processing capacity. That is, in this case, the use of each play moving image M after exceeding them is restricted so that each play moving image M to be synthesized is within the range or number that can be synthesized and the processing capacity. For example, unless the display area 66 of each play moving image M is reduced, the displayable range of the distribution screen 60 or the number that can be displayed on the distribution screen 60 is limited. If such a limit is exceeded, there is a high possibility that proper synthesis will not be possible. Similarly, as described above, there is a limit to the processing capacity of the network 3, the center server 2, or each game machine GM. If the processing capacity limit is exceeded as described above, there is a high possibility that the network 3 or the like will be overloaded and cannot be properly processed. The range or number that can be synthesized and the capacity condition that requires the processing capacity limit the use of the play moving image M that is unlikely to be properly synthesized or processed.

指定条件は、例えば、信用条件と同様に、ユーザIDを要件として含んでいる。或いは、メイン動画ID及びサブ動画IDを要件として含んでいてもよい。メイン動画IDは各ゲーム動画Gを、サブ動画IDは各プレイ動画Mを、それぞれ特定するための情報である。つまり、指定条件では、これらのユーザID等が不適切性の基準として使用される。具体的には、配信画面60が提供される前に、合成候補の各プレイ動画Mの一覧画面が提供されてもよい。また、その一覧画面を通じて合成対象の各プレイ動画Mが各パーソナルコンピュータ5aのユーザによって指定されてもよい。そして、一例として、指定条件は、その指定された各プレイ動画Mのサブ動画ID以外のサブ動画ID或いはそれを提供したユーザ以外のユーザのユーザIDによって満たされてもよい。つまり、この場合、ユーザによって指定された各プレイ動画M以外の使用が制限される。合成対象として好ましいプレイ動画Mは、各ユーザによって相違している場合がある。この場合、合成対象として好ましいプレイ動画M以外は、各ユーザにとっては適切ではない可能性もある。指定のユーザIDを要件とする指定条件により、これらのような各ユーザにとって好ましくない各プレイ動画Mの使用が制限される。各ゲーム動画Gが指定された場合も同様である。 The designation condition includes, for example, a user ID as a requirement, similar to the credit condition. Alternatively, the main moving image ID and the sub moving image ID may be included as requirements. The main video ID is information for specifying each game video G, and the sub video ID is information for specifying each play video M. That is, under the specified conditions, these user IDs and the like are used as criteria for improperness. Specifically, before the distribution screen 60 is provided, a list screen of each play moving image M of the synthesis candidate may be provided. Further, each play moving image M to be synthesized may be designated by the user of each personal computer 5a through the list screen. Then, as an example, the designated condition may be satisfied by a sub-moving image ID other than the sub-moving image ID of each designated play moving image M or a user ID of a user other than the user who provided the sub-moving image ID. That is, in this case, the use other than each play moving image M specified by the user is restricted. The play moving image M preferable as a synthesis target may differ depending on each user. In this case, there is a possibility that it is not suitable for each user except for the play moving image M which is preferable as the synthesis target. The designated conditions requiring the designated user ID limit the use of each play moving image M, which is not preferable for each user, such as these. The same applies when each game video G is specified.

次に、ID管理データ18、メイン動画データ19、サブ動画データ20、及び合成動画データ21の詳細を説明する。ID管理データ18は、ユーザID等の各種IDを管理するためのデータである。ID管理データ18は、例えば、各種IDとして、上述のストリームIDの管理に使用されてもよい。つまり、ID管理データ18によって発行済みのストリームID等が管理されてもよい。また、ID管理データ18は、各ゲーム機GMを識別するための筐体識別情報としての筐体IDの管理に使用されてもよい。同様に、ID管理データ18は、各店舗4を識別するための店舗IDの管理に使用されてもよい。この場合、各店舗IDは、各店舗4の場所を示す施設場所情報と関連付けて管理されてもよい。また、各店舗IDは、各店舗4に配置される各ゲーム機GMの各筐体IDと関連付けて管理されてもよい。つまり、ID管理データ18は、各店舗4の場所及び各店舗4に配置される各ゲーム機GMの管理に使用されてもよい。さらに、ID管理データ18は、特定ユーザIDデータを含んでいてもよい。この場合、ID管理データ18が本発明の特定ユーザデータとして機能する。 Next, the details of the ID management data 18, the main video data 19, the sub video data 20, and the synthetic video data 21 will be described. The ID management data 18 is data for managing various IDs such as user IDs. The ID management data 18 may be used, for example, as various IDs for managing the above-mentioned stream ID. That is, the issued stream ID or the like may be managed by the ID management data 18. Further, the ID management data 18 may be used for managing the housing ID as the housing identification information for identifying each game machine GM. Similarly, the ID management data 18 may be used for managing the store ID for identifying each store 4. In this case, each store ID may be managed in association with facility location information indicating the location of each store 4. Further, each store ID may be managed in association with each housing ID of each game machine GM arranged in each store 4. That is, the ID management data 18 may be used for managing the location of each store 4 and each game machine GM arranged in each store 4. Further, the ID management data 18 may include specific user ID data. In this case, the ID management data 18 functions as the specific user data of the present invention.

メイン動画データ19は、各ゲーム動画Gを表現するためのデータである。図9は、メイン動画データ19の内容の一例を示す図である。図9に示すように、メイン動画データ19は、管理情報部、及び動画データ部を含んでいる。動画データ部は、各ゲーム動画Gを表現するための動画データである。つまり、各ゲーム動画Gを表現するための動画データは、メイン動画データ19により、管理情報部と関連付けられて管理されている。 The main video data 19 is data for expressing each game video G. FIG. 9 is a diagram showing an example of the contents of the main moving image data 19. As shown in FIG. 9, the main moving image data 19 includes a management information unit and a moving image data unit. The video data unit is video data for expressing each game video G. That is, the moving image data for expressing each game moving image G is managed in association with the management information unit by the main moving image data 19.

管理情報部は、各ゲーム動画Gを管理するための管理情報が記述された部分である。管理情報部は、例えば、メイン動画ID、ストリームID、筐体ID、ユーザID、開始時間、フレーム、及び取得時間の情報を含んでいる。 The management information unit is a portion in which management information for managing each game video G is described. The management information unit includes, for example, information on a main moving image ID, a stream ID, a housing ID, a user ID, a start time, a frame, and an acquisition time.

メイン動画IDは、上述のように各ゲーム動画Gを特定するための情報である。したがって、メイン動画IDとして、ゲーム動画G毎にユニークなIDが使用される。例えば、メイン動画IDは、各プレイ動画Mと各ゲーム動画Gとを区別するために使用される。したがって、メイン動画IDの一例として、各プレイ動画Mと各ゲーム動画Gとを区別するための区別情報とストリームIDとの組合せが使用されてもよい。この場合、管理情報部には、このような区別情報だけが記述されてもよいし、後述のストリームIDの記述が省略されてもよい。或いは、筐体ID及び開始時間によって各ゲーム動画Gが特定される場合は、これらの情報がメイン動画IDとして機能してもよい。つまり、筐体IDがストリームIDの少なくとも一部として使用されてもよい。この場合、メイン動画IDは省略されてもよい。 The main video ID is information for identifying each game video G as described above. Therefore, as the main video ID, a unique ID is used for each game video G. For example, the main video ID is used to distinguish between each play video M and each game video G. Therefore, as an example of the main moving image ID, a combination of the distinction information and the stream ID for distinguishing each play moving image M and each game moving image G may be used. In this case, only such distinction information may be described in the management information unit, or the description of the stream ID described later may be omitted. Alternatively, when each game video G is specified by the housing ID and the start time, such information may function as the main video ID. That is, the housing ID may be used as at least a part of the stream ID. In this case, the main moving image ID may be omitted.

ストリームIDは、上述の通りである。同様に、筐体IDも上述の通り、各ゲーム機GMを識別するための情報である。筐体IDとして、例えば、IPアドレス、固有機器ID等が使用されてよい。ユーザIDも上述の通りである。また、ユーザIDの情報として、例えば、パフォーマPのユーザIDの情報が記述される。開始時間は、プレイ開始時間、つまり各ゲーム動画Gの開始時間を示す情報である。フレームは、各ゲーム動画Gが複数のフレーム動画に区分された場合の各フレーム動画を特定するための情報である。フレームの情報として、時間順に各フレーム動画に付与される番号の情報が使用されてもよい。或いは、フレームの情報として、各ゲーム動画G中の各フレーム動画に対応する時間の情報が使用されてもよい。取得時間は、各ゲーム動画G(各フレーム動画を含む)を表現するための動画データを取得した時間を示す情報である。一例として、管理情報部は、これらの情報が互いに管理付けられるように記述されたレコードの集合として構成されている。 The stream ID is as described above. Similarly, as described above, the housing ID is also information for identifying each game machine GM. As the housing ID, for example, an IP address, a unique device ID, or the like may be used. The user ID is also as described above. Further, as the user ID information, for example, the user ID information of the performer P is described. The start time is information indicating a play start time, that is, a start time of each game video G. The frame is information for specifying each frame moving image when each game moving image G is divided into a plurality of frame moving images. As the frame information, the information of the number assigned to each frame moving image may be used in chronological order. Alternatively, as the frame information, the time information corresponding to each frame moving image in each game moving image G may be used. The acquisition time is information indicating the time when the moving image data for expressing each game moving image G (including each frame moving image) is acquired. As an example, the management information unit is configured as a set of records in which these information are described so as to be managed by each other.

また、サブ動画データ20は、各プレイ動画Mを表現するためのデータである。図10は、サブ動画データ20の内容の一例を示す図である。図10に示すように、サブ動画データ20は、メイン動画データ19と同様に、管理情報部、及び動画データ部を含んでいる。動画データ部は、各プレイ動画Mを表現するための動画データである。つまり、メイン動画データ19と同様に、各プレイ動画Mの動画データは、サブ動画データ20により、管理情報部と関連付けられて管理されている。 Further, the sub moving image data 20 is data for expressing each play moving image M. FIG. 10 is a diagram showing an example of the contents of the sub moving image data 20. As shown in FIG. 10, the sub moving image data 20 includes a management information unit and a moving image data unit, similarly to the main moving image data 19. The moving image data unit is moving image data for expressing each play moving image M. That is, similarly to the main moving image data 19, the moving image data of each play moving image M is managed in association with the management information unit by the sub moving image data 20.

管理情報部は、各プレイ動画Mを管理するための管理情報が記述された部分である。管理情報部は、例えば、サブ動画ID、ストリームID、ユーザID、撮影場所、開始時間、フレーム、及び取得時間の情報を含んでいる。 The management information unit is a portion in which management information for managing each play moving image M is described. The management information unit includes, for example, information on a sub video ID, a stream ID, a user ID, a shooting location, a start time, a frame, and an acquisition time.

サブ動画IDは、上述のように各プレイ動画Mを特定するための情報である。したがって、サブ動画IDとして、プレイ動画M毎にユニークなIDが使用される。例えば、サブ動画IDは、上述のメイン動画IDと同様に、各プレイ動画Mと各ゲーム動画Gとを区別するために使用される。したがって、サブ動画IDの一例として、各プレイ動画Mと各ゲーム動画Gとを区別するための区別情報とストリームIDとの組合せが使用されてもよい。この場合、管理情報部には、このような区別情報だけが記述されてもよいし、後述のストリームIDの記述が省略されてもよい。或いは、撮影場所及び開始時間によって各プレイ動画Mが特定される場合は、これらの情報がサブ動画IDとして機能してもよい。つまり、この場合、サブ動画IDは省略されてもよい。また、各携帯電話5bを特定する情報が存在する場合は、その情報がサブ動画IDとして利用されてもよい。 The sub moving image ID is information for specifying each play moving image M as described above. Therefore, as the sub video ID, a unique ID is used for each play video M. For example, the sub video ID is used to distinguish between each play video M and each game video G, similar to the main video ID described above. Therefore, as an example of the sub-video ID, a combination of the distinction information and the stream ID for distinguishing each play video M and each game video G may be used. In this case, only such distinction information may be described in the management information unit, or the description of the stream ID described later may be omitted. Alternatively, when each play moving image M is specified by the shooting place and the start time, such information may function as a sub moving image ID. That is, in this case, the sub moving image ID may be omitted. If there is information that identifies each mobile phone 5b, that information may be used as a sub video ID.

ストリームID及びユーザIDは、上述の通りである。また、ユーザIDの情報として、例えば、撮影者のユーザIDの情報が記述される。さらに、開始時間(撮影時間として機能する)、フレーム、及び取得時間の情報も対象(各プレイ動画Mが対象)は相違するものの、メイン動画データ19と同様である。撮影場所は、各プレイ動画Mの撮影場所を示す情報である。撮影場所の情報として、例えば、各携帯電話5bのGPS機能により取得される位置情報が利用されてよい。一例として、管理情報部は、これらの情報が互いに管理付けられるように記述されたレコードの集合として構成されている。 The stream ID and user ID are as described above. Further, as the user ID information, for example, the user ID information of the photographer is described. Further, the information of the start time (functioning as the shooting time), the frame, and the acquisition time is the same as that of the main moving image data 19, although the target (targeting each play moving image M) is different. The shooting location is information indicating the shooting location of each play moving image M. As the information on the shooting location, for example, the position information acquired by the GPS function of each mobile phone 5b may be used. As an example, the management information unit is configured as a set of records in which these information are described so as to be managed by each other.

合成動画データ21は、各合成動画CMを表現するためのデータである。図11は、合成動画データ21の内容の一例を示す図である。図11に示すように、合成動画データ21は、メイン動画データ19或いはサブ動画データ20と同様に、管理情報部及び動画データ部を含んでいる。動画データ部は、各合成動画CMを表現するための動画データである。つまり、各合成動画CMの動画データは、メイン動画データ19等と同様に、合成動画データ21により、管理情報部と関連付けられて管理されている。 The synthetic moving image data 21 is data for expressing each synthetic moving image CM. FIG. 11 is a diagram showing an example of the contents of the synthetic moving image data 21. As shown in FIG. 11, the synthetic moving image data 21 includes a management information unit and a moving image data unit, similarly to the main moving image data 19 or the sub moving image data 20. The moving image data unit is moving image data for expressing each synthetic moving image CM. That is, the moving image data of each synthetic moving image CM is managed by the synthetic moving image data 21 in association with the management information unit, similarly to the main moving image data 19 and the like.

管理情報部は、各合成動画CMを管理するための管理情報が記述された部分である。管理情報部は、例えば、合成動画ID、ストリームID、ユーザID(パフォーマP用及び撮影者用)、開始時間、及びフレームの情報を含んでいる。 The management information unit is a part in which management information for managing each synthetic moving image CM is described. The management information unit includes, for example, synthetic moving image ID, stream ID, user ID (for performer P and photographer), start time, and frame information.

合成動画IDは、各合成動画CMを識別するための情報である。したがって、合成動画IDとして、例えば、合成動画CM毎にユニークなIDが使用される。合成動画IDとして、例えば、上述のメイン動画ID等の組合せが利用されてよい。ストリームID、筐体ID、ユーザID、開始時間及びフレームの情報も対象(各合成動画CMが対象)は相違するものの、メイン動画データ19等と同様である。 The synthetic moving image ID is information for identifying each synthetic moving image CM. Therefore, as the synthetic moving image ID, for example, a unique ID is used for each synthetic moving image CM. As the synthetic moving image ID, for example, a combination of the above-mentioned main moving image ID and the like may be used. The stream ID, housing ID, user ID, start time, and frame information are the same as those of the main video data 19 and the like, although the targets (targets for each synthetic video CM) are different.

次に、メイン動画データ生成処理、サブ動画データ生成処理、及び合成動画生成処理について説明する。メイン動画データ生成処理は、メイン動画データ19を生成するための処理である。同様に、サブ動画データ生成処理は、サブ動画データ20を生成するための処理である。また、合成動画生成処理は、合成動画データを生成するための処理である。 Next, the main video data generation process, the sub video data generation process, and the synthetic video data generation process will be described. The main moving image data generation process is a process for generating the main moving image data 19. Similarly, the sub-moving image data generation process is a process for generating the sub-moving image data 20. Further, the synthetic moving image generation process is a process for generating synthetic moving image data.

例えば、メイン動画データ生成処理は図12のルーチンを通じて、サブ動画データ生成処理は図13のルーチンを通じて、合成画像生成処理は図14のルーチンを通じて、それぞれセンターサーバ2の制御ユニット10によって実現される。より具体的には、図12~図14のルーチンは、制御ユニット10のWebサービス管理部17を通じて実行される。なお、ゲーム機GMの制御ユニット30及びセンターサーバ2の制御ユニット10は、これらの処理の他にも各種の周知な処理等を、それぞれ単独で或いは互いに協働して実行する。ユーザ端末5の制御ユニット40も同様である。しかし、それらの詳細な説明は省略する。 For example, the main moving image data generation process is realized by the routine of FIG. 12, the sub moving image data generation process is realized by the routine of FIG. 13, and the composite image generation process is realized by the control unit 10 of the center server 2 through the routine of FIG. More specifically, the routines of FIGS. 12 to 14 are executed through the Web service management unit 17 of the control unit 10. In addition to these processes, the control unit 30 of the game machine GM and the control unit 10 of the center server 2 execute various well-known processes independently or in cooperation with each other. The same applies to the control unit 40 of the user terminal 5. However, their detailed description will be omitted.

図12は、メイン動画データ生成処理を実現するためのメイン動画データ生成処理ルーチンのフローチャートの一例を示す図である。図12のルーチンは、一例として、各ゲーム機GMにおいてゲームがプレイされる毎、つまりゲーム機会が提供される毎に実行される。また、ゲーム機会の提供の情報は、例えば、各ゲーム機GMからゲーム機会が提供される毎に送信されてよい。 FIG. 12 is a diagram showing an example of a flowchart of a main moving image data generation processing routine for realizing the main moving image data generation processing. As an example, the routine of FIG. 12 is executed every time a game is played on each game machine GM, that is, every time a game opportunity is provided. Further, the information on the provision of the game opportunity may be transmitted, for example, each time the game opportunity is provided from each game machine GM.

図12のルーチンが開始されると、Webサービス管理部17は、まずステップS11において、各ゲーム動画Gを取得する。より具体的には、Webサービス管理部17は、各ゲーム動画Gを表現するためのデータ、つまり各ゲーム動画Gの動画データ部に対応する動画データを取得する。また、この取得、つまりステップS11の処理は、一例として、各ゲーム動画Gのフレーム動画毎に実行されてよい。図12のルーチンの以降のステップ(処理)においても同様である。 When the routine of FIG. 12 is started, the Web service management unit 17 first acquires each game video G in step S11. More specifically, the Web service management unit 17 acquires data for expressing each game video G, that is, video data corresponding to the video data unit of each game video G. Further, this acquisition, that is, the process of step S11 may be executed for each frame moving image of each game moving image G as an example. The same applies to the subsequent steps (processes) of the routine of FIG.

続くステップS12において、Webサービス管理部17は、管理情報を取得する。より具体的には、Webサービス管理部17は、管理情報として、ストリームID、筐体ID、及びユーザID(パフォーマP)等の管理情報部に含まれる各情報を各ゲーム機GM等から取得する。なお、図12のルーチンでは、説明の便宜のためステップS11の処理及びステップS12の処理が別の処理として説明されているが、これらは一つの処理として実行されてもよい。つまり、各ゲーム動画G及びそれに対応する管理情報の取得は、同じ処理として一度に実行されてもよい。 In the following step S12, the Web service management unit 17 acquires management information. More specifically, the Web service management unit 17 acquires each information included in the management information unit such as the stream ID, the housing ID, and the user ID (performer P) as management information from each game machine GM or the like. .. In the routine of FIG. 12, for convenience of explanation, the process of step S11 and the process of step S12 are described as separate processes, but these may be executed as one process. That is, the acquisition of each game video G and the management information corresponding thereto may be executed at once as the same process.

次のステップS13において、Webサービス管理部17は、ステップS11及びステップS12の取得結果に基づいて、メイン動画データ19を生成する。具体的には、Webサービス管理部17は、ステップS11で取得した各ゲーム動画G(動画データ部)及びステップS12で取得した管理情報(管理情報部)を互いに関連付けるように記述したメイン動画データ19(或いはメイン動画データ19を構成する各レコード)を生成する。そして、Webサービス管理部17は、ステップS13の処理を終えると、今回のルーチンを終了する。これにより、各ゲーム動画Gを管理情報と関連付けて管理するためのメイン動画データ19が生成される。 In the next step S13, the Web service management unit 17 generates the main moving image data 19 based on the acquisition results of the steps S11 and S12. Specifically, the Web service management unit 17 describes the main video data 19 in which each game video G (video data unit) acquired in step S11 and the management information (management information unit) acquired in step S12 are associated with each other. (Or each record constituting the main moving image data 19) is generated. Then, when the Web service management unit 17 finishes the process of step S13, the Web service management unit 17 ends the current routine. As a result, the main video data 19 for managing each game video G in association with the management information is generated.

同様に、図13は、サブ動画データ生成処理を実現するためのサブ動画データ生成処理ルーチンのフローチャートの一例を示す図である。図13のルーチンは、一例として、配信サービス用アプリケーションを介して撮影が開始される毎に実行される。配信サービス用アプリケーションを介した撮影の開始は、例えば、携帯電話5bから撮影の開始毎に提供されてよい。 Similarly, FIG. 13 is a diagram showing an example of a flowchart of a sub-moving image data generation processing routine for realizing the sub-moving image data generation processing. As an example, the routine of FIG. 13 is executed every time shooting is started via the distribution service application. The start of shooting via the distribution service application may be provided, for example, from the mobile phone 5b at each start of shooting.

図13のルーチンが開始されると、Webサービス管理部17は、まずステップS21において、図12のルーチンのステップS11と同様に、各プレイ動画Mを取得する。より具体的には、Webサービス管理部17は、各プレイ動画Mを表現するためのデータ、つまり各プレイ動画Mの動画データ部に対応する動画データを取得する。また、この取得、つまりステップS21の処理も、図12のルーチンのステップS11と同様に、一例として、各プレイ動画Mのフレーム動画毎に実行されてよい。図13のルーチンの以降のステップ(処理)においても同様である。 When the routine of FIG. 13 is started, the Web service management unit 17 first acquires each play moving image M in step S21 in the same manner as in step S11 of the routine of FIG. More specifically, the Web service management unit 17 acquires data for expressing each play video M, that is, video data corresponding to the video data unit of each play video M. Further, this acquisition, that is, the process of step S21 may be executed for each frame moving image of each play moving image M as an example, as in step S11 of the routine of FIG. The same applies to the subsequent steps (processes) of the routine of FIG.

続くステップS22において、Webサービス管理部17は、管理情報を取得する。より具体的には、Webサービス管理部17は、管理情報として、ストリームID、ユーザID(撮影者)、撮影場所、開始時間、及び取得時間等の管理情報部に含まれる各情報を各携帯電話5b等から取得する。なお、図12のルーチンのステップS11及びS12と同様に、ステップS21の処理及びステップS22の処理は一つの処理として実行されてもよい。 In the following step S22, the Web service management unit 17 acquires management information. More specifically, the Web service management unit 17 uses each mobile phone as management information, such as stream ID, user ID (photographer), shooting location, start time, acquisition time, and other information included in the management information unit. Obtained from 5b and the like. As in the routine steps S11 and S12 of FIG. 12, the process of step S21 and the process of step S22 may be executed as one process.

次のステップS23において、Webサービス管理部17は、ステップS21及びステップS22の取得結果に基づいて、サブ動画データ20を生成する。具体的には、Webサービス管理部17は、ステップS21で取得した各プレイ動画M(動画データ部)及びステップS22で取得した管理情報(管理情報部)を互いに関連付けるように記述したサブ動画データ20(或いはサブ動画データ20を構成する各レコード)を生成する。そして、Webサービス管理部17は、ステップS23の処理を終えると、今回のルーチンを終了する。これにより、各プレイ動画Mを管理情報と関連付けて管理するためのサブ動画データ20が生成される。 In the next step S23, the Web service management unit 17 generates the sub moving image data 20 based on the acquisition results of the steps S21 and S22. Specifically, the Web service management unit 17 describes the sub-video data 20 in which the play video M (video data unit) acquired in step S21 and the management information (management information unit) acquired in step S22 are associated with each other. (Or each record constituting the sub moving image data 20) is generated. Then, when the Web service management unit 17 finishes the process of step S23, the Web service management unit 17 ends the current routine. As a result, sub-video data 20 for managing each play video M in association with the management information is generated.

また、図14は、合成動画生成処理を実現するための合成動画生成処理ルーチンのフローチャートの一例を示す図である。図14のルーチンは、一例として、各パーソナルコンピュータ5aから動画配信サービスの提供が要求される毎に実行される。また、この要求には、一例として、各ゲーム動画Gの指定(例えば、指定されたゲーム動画Gに対応するストリームIDの情報)が含まれていてもよい。この要求には、例えば、その他にも各プレイ動画Mの指定、各ストリームIDの指定、或いはユーザIDの指定等、配信対象の動画を指定する各種の情報が含まれていてよい。 Further, FIG. 14 is a diagram showing an example of a flowchart of a synthetic moving image generation processing routine for realizing the synthetic moving image generation processing. As an example, the routine of FIG. 14 is executed every time each personal computer 5a requests the provision of a video distribution service. Further, as an example, the request may include the designation of each game video G (for example, the information of the stream ID corresponding to the designated game video G). In addition to this, the request may include various information that specifies the moving image to be distributed, such as the designation of each play moving image M, the designation of each stream ID, or the designation of the user ID.

図14のルーチンが開始されると、Webサービス管理部17は、まずステップS31において、動作配信サービスの対象の各ゲーム動画Gを判別する。例えば、Webサービス管理部17は、ステップS31において、動画配信サービスの提供の要求に含まれる各ゲーム動画Gの指定に基づいて、動作配信サービスの対象の各ゲーム動画Gを判別する。具体的には、例えば、Webサービス管理部17は、動画配信サービスの提供の要求に含まれるストリームID(各ゲーム動画Gを指定する情報の一例)に基づいて対象の各ゲーム動画Gを判別する。また、この判別、つまりステップS31の処理は、一例として、各ゲーム動画Gのフレーム動画毎に実行されてよい。図14のルーチンの以降のステップ(処理)においても同様に各プレイ動画M或いは各合成動画CMのフレーム動画毎に実行されてよい。 When the routine of FIG. 14 is started, the Web service management unit 17 first determines in step S31 each game video G targeted for the operation distribution service. For example, in step S31, the Web service management unit 17 determines each game video G targeted for the motion distribution service based on the designation of each game video G included in the request for providing the video distribution service. Specifically, for example, the Web service management unit 17 determines each target game video G based on the stream ID (an example of information that specifies each game video G) included in the request for providing the video distribution service. .. Further, this determination, that is, the process of step S31 may be executed for each frame moving image of each game moving image G as an example. Similarly, in the subsequent steps (processes) of the routine of FIG. 14, it may be executed for each frame moving image of each play moving image M or each synthetic moving image CM.

続くステップS32において、Webサービス管理部17は、ステップS31で特定した各ゲーム動画Gに対応する各プレイ動画Mを判別する。この判別は、例えば、ストリームIDを基準に実行される。具体的には、Webサービス管理部17は、一例として、ステップS32において、ステップS31で判別した各ゲーム動画GのストリームIDと共通のストリームIDを有する各プレイ動画M(図7の例の特定プレイ動画群MM1に対応)を判別する。 In the following step S32, the Web service management unit 17 determines each play video M corresponding to each game video G specified in step S31. This determination is performed, for example, based on the stream ID. Specifically, as an example, the Web service management unit 17 has each play video M having a common stream ID with the stream ID of each game video G determined in step S31 in step S32 (specific play of the example of FIG. 7). (Corresponding to the moving image group MM1) is determined.

次のステップS33において、Webサービス管理部17は、制限条件に基づいて、ステップS32で判別した各プレイ動画Mを制限する。具体的には、Webサービス管理部17は、制限条件を満たす各プレイ動画Mが合成対象として使用されないように、これらの使用を制限する。つまり、Webサービス管理部17は、制限条件を満たす各プレイ動画Mが含まれないように、ステップS32で判別した各プレイ動画Mを絞り込む(つまり、図7の例の合成対象のプレイ動画群MM2を特定する)。 In the next step S33, the Web service management unit 17 limits each play moving image M determined in step S32 based on the limiting condition. Specifically, the Web service management unit 17 restricts the use of each play moving image M satisfying the restriction conditions so that it is not used as a synthesis target. That is, the Web service management unit 17 narrows down each play video M determined in step S32 so that each play video M satisfying the restriction condition is not included (that is, the play video group MM2 to be synthesized in the example of FIG. 7). To identify).

続くステップS34において、Webサービス管理部17は、ステップS31の判別結果及びステップS33の制限結果に基づいて、合成動画データ21を生成する。この生成は、一例として、次のようにして実行される。すなわち、まずWebサービス管理部17は、ステップS31で判別した各ゲーム動画G及びステップS33で絞り込んだ(特定した)各プレイ動画Mを合成する。具体的には、Webサービス管理部17は、これらを合成した合成動画CMを表現するためのデータ、つまり各合成動画CMの動画データ部に対応する動画データを生成する。この生成は、例えば、メイン動画データ19及びサブ動画データ20の動画データ部を利用して実行される。続いてWebサービス管理部17は、この動画データ部に対応する管理情報、つまり管理情報部に対応する情報をメイン動画データ19或いはサブ動画データ20から取得する。そして、Webサービス管理部17は、生成した合成動画CM(動画データ部)及び取得した管理情報(管理情報部)を互いに関連付けるように記述した合成動画データ21(或いは合成動画データ21を構成する対象のレコード)を生成する。一例として、Webサービス管理部17は、ステップS34において、このように合成動画データ21を生成する。 In the following step S34, the Web service management unit 17 generates the synthetic moving image data 21 based on the determination result in step S31 and the restriction result in step S33. As an example, this generation is executed as follows. That is, first, the Web service management unit 17 synthesizes each game video G determined in step S31 and each play video M narrowed down (specified) in step S33. Specifically, the Web service management unit 17 generates data for expressing a synthetic moving image CM obtained by synthesizing these, that is, moving image data corresponding to the moving image data unit of each synthetic moving image CM. This generation is executed using, for example, the moving image data unit of the main moving image data 19 and the sub moving image data 20. Subsequently, the Web service management unit 17 acquires management information corresponding to this video data unit, that is, information corresponding to the management information unit from the main video data 19 or the sub video data 20. Then, the Web service management unit 17 constitutes the synthetic video data 21 (or the synthetic video data 21) described so as to associate the generated synthetic video CM (video data unit) and the acquired management information (management information unit) with each other. Record) is generated. As an example, the Web service management unit 17 generates the synthetic moving image data 21 in this way in step S34.

次のステップS35において、Webサービス管理部17は、配信画面60の動画領域61に表示されるように、ステップS34で生成した合成動画データ21に基づいて各合成動画CMを配信する。そして、Webサービス管理部17は、ステップS35の処理を終えると、今回のルーチンを終了する。これにより、各ゲーム動画G及びそれに対応する各プレイ動画に基づいて合成動画CMが生成される。また、その合成動画CMの動画データと管理情報とが関連付けられた合成動画データ21が生成される。さらに、その合成動画データ21に基づいて、合成動画CMが動画配信サービスの要求に従ってパーソナルコンピュータ5aに配信される。つまり、各合成動画CMを対象とする動画配信サービスが提供される。 In the next step S35, the Web service management unit 17 distributes each synthetic moving image CM based on the synthetic moving image data 21 generated in step S34 so as to be displayed in the moving image area 61 of the distribution screen 60. Then, when the Web service management unit 17 finishes the process of step S35, the Web service management unit 17 ends the current routine. As a result, a synthetic moving image CM is generated based on each game moving image G and each playing moving image corresponding thereto. Further, the synthetic moving image data 21 in which the moving image data of the synthesized moving image CM and the management information are associated with each other is generated. Further, based on the synthetic video data 21, the synthetic video CM is distributed to the personal computer 5a according to the request of the video distribution service. That is, a video distribution service targeting each synthetic video CM is provided.

以上に説明したように、この形態によれば、各ゲーム動画Gと各プレイ動画MとがストリームIDを介して互いに関連付けられる。各プレイ動画Mは、プレイ中のパフォーマPが撮影された動画である。つまり、ストリームIDを介して各ゲーム動画GとそれをプレイするパフォーマPを撮影した動画とが関連付けられる。そして、そのストリームIDを基準に合成されるべき各ゲーム動画G及び各プレイ動画Mが判別され、それらの両方が表示されるように合成された合成動画CMを含む配信画面60が配信される。つまり、合成動画CMを介して、配信画面60にゲーム動画G及びプレイ動画Mといった種類の異なる動画を表示させることができる。 As described above, according to this embodiment, each game moving image G and each play moving image M are associated with each other via a stream ID. Each play video M is a video in which the performer P being played is shot. That is, each game video G and the video of the performer P playing the game video G are associated with each other via the stream ID. Then, each game video G and each play video M to be synthesized are determined based on the stream ID, and the distribution screen 60 including the composite video CM synthesized so that both of them are displayed is distributed. That is, different types of moving images such as the game moving image G and the playing moving image M can be displayed on the distribution screen 60 via the synthetic moving image CM.

また、合成動画CMには、各プレイ動画Mがワイプ動画として合成される。これにより、ゲーム動画Gの表示領域(動画領域61)だけで、ゲーム動画G及び各プレイ動画Mの両方を提供することができる。結果として、ユーザが見るべき範囲をゲーム動画G用の表示領域内に集約することができる。これにより、ゲーム動画G及び各プレイ動画Mをより見やすく提供することができる。 Further, each play video M is synthesized as a wipe video in the composite video CM. As a result, both the game video G and each play video M can be provided only in the display area of the game video G (video area 61). As a result, the range to be seen by the user can be aggregated in the display area for the game moving image G. Thereby, the game video G and each play video M can be provided in an easy-to-see manner.

そして、この形態の音楽ゲームでは、プレイ中のパフォーマPのダンス動作(或いは操作)は重要である。したがって、このようなパフォーマPのダンス動作に対する要求は高い。特にプレイ中のゲーム画面50の変化、つまりゲーム動画Gの内容とともに提供されれば、効果的である。動画配信サービスでは、各合成動画CMを通じて、このような重要度の高い情報を各ユーザにより見やすく提供することができる。これにより、音楽ゲームの利用を促進することができる。また、上述のような要求から、各合成動画CM中のゲーム動画G及び各プレイ動画Mは同期的に再生される方が利便性は高い。各合成動画CMは、ゲーム動画G及び各プレイ動画Mが同期するように合成されている。したがって、各合成動画CMの利便性も向上させることができる。 In this form of music game, the dance movement (or operation) of the performer P during play is important. Therefore, there is a high demand for such a performer P's dance movement. It is particularly effective if it is provided together with the change of the game screen 50 during play, that is, the content of the game moving image G. In the video distribution service, such highly important information can be provided to each user in an easy-to-see manner through each synthetic video CM. This makes it possible to promote the use of music games. Further, due to the above-mentioned requirements, it is more convenient to play the game video G and each play video M in each synthetic video CM synchronously. Each synthetic video CM is synthesized so that the game video G and each play video M are synchronized. Therefore, the convenience of each synthetic moving image CM can be improved.

さらに、制限条件により、各プレイ動画Mのうち、合成対象として好ましくないものの使用が制限される。これにより、より適切な、或いは好ましい各合成動画CMを生成することができる。これらにより、ゲームの興趣性を向上させることができる。 Further, the restriction condition restricts the use of each play moving image M, which is not preferable as a synthesis target. This makes it possible to generate more appropriate or preferable synthetic moving image commercials. These can improve the fun of the game.

以上の形態において、センターサーバ2の制御ユニット10が、Webサービス管理部17を通じて図13のルーチンを実行することにより本発明の動画取得手段として機能する。また、センターサーバ2の制御ユニット10が、Webサービス管理部17を通じて図14のルーチンを実行することにより本発明の動画判別手段、動画提供手段、及び合成動画生成手段としても機能する。一方、センターサーバ2の記憶ユニット11がメイン動画データ19を記憶することにより動画記憶手段として機能する。 In the above embodiment, the control unit 10 of the center server 2 functions as the moving image acquisition means of the present invention by executing the routine of FIG. 13 through the Web service management unit 17. Further, the control unit 10 of the center server 2 also functions as a moving image determination means, a moving image providing means, and a synthetic moving image generation means of the present invention by executing the routine of FIG. 14 through the Web service management unit 17. On the other hand, the storage unit 11 of the center server 2 functions as a moving image storage means by storing the main moving image data 19.

本発明は上述の形態に限定されず、適宜の形態にて実施することができる。例えば、上述の形態では、図14のルーチンを通じて、動画配信サービスの要求に従って合成動画データ21が生成されている。しかし、本発明は、このような形態に限定されない。例えば、合成動画データ21は事前に生成されていてもよい。この場合、動画配信サービスでは各合成動画CMの一覧(例えば、各合成動画CMの一部がサムネイルのように表示される)が各ユーザに提供されてもよい。そして、その一覧から選択された合成動画CMが各ユーザに配信されてもよい。したがって、例えば、図14のルーチンは、合成動画CMを生成する部分と、合成動画CMを配信する部分とに分けられてもよい。 The present invention is not limited to the above-mentioned form, and can be carried out in an appropriate form. For example, in the above-described embodiment, the synthetic moving image data 21 is generated according to the request of the moving image distribution service through the routine of FIG. However, the present invention is not limited to such a form. For example, the synthetic moving image data 21 may be generated in advance. In this case, the video distribution service may provide each user with a list of each synthetic video CM (for example, a part of each synthetic video CM is displayed like a thumbnail). Then, the synthetic moving image CM selected from the list may be delivered to each user. Therefore, for example, the routine of FIG. 14 may be divided into a part for generating a synthetic moving image CM and a part for delivering a synthetic moving image CM.

上述の形態では、各プレイ動画Mとしてゲームをプレイ中のパフォーマPを撮影した動画が、その合成対象としてゲーム動画Gが、それぞれ採用されている。しかし、本発明は、このような形態に限定されない。合成対象の動画として、各種の動画(以下、携帯電話5bが撮影する動画と区別するための便宜上、メイン動画と呼ぶ場合がある)が採用されてよい。例えば、メイン動画として、ミュージック動画(カラオケ等で使用される映像を含む)、或いは映画(TV番組を含む)等、各種の動画が採用されてよい。一例として、これらは、予めセンターサーバ2に記憶されていてよい。同様に、各プレイ動画Mとして、例えば、カラオケ中のユーザの映像、或いは映画等を鑑賞中のユーザの映像等が採用されてもよい。この場合、ストリームIDとして、例えば、各楽曲を識別するための楽曲IDや各映画等を識別するためのID等が利用されてもよい。 In the above-described form, the moving image of the performer P playing the game is adopted as each play moving image M, and the game moving image G is adopted as the synthesis target. However, the present invention is not limited to such a form. As the moving image to be synthesized, various moving images (hereinafter, may be referred to as a main moving image for convenience of distinguishing from the moving image taken by the mobile phone 5b) may be adopted. For example, as the main moving image, various moving images such as a music moving image (including an image used in karaoke or the like) or a movie (including a TV program) may be adopted. As an example, these may be stored in the center server 2 in advance. Similarly, as each play moving image M, for example, a video of a user during karaoke, a video of a user watching a movie, or the like may be adopted. In this case, as the stream ID, for example, a music ID for identifying each music, an ID for identifying each movie, or the like may be used.

また、携帯電話5bが撮影する動画(以下、便宜上、サブ動画と呼ぶ場合がある)もプレイ動画Mに限定されない。サブ動画として、携帯電話5bによって撮影された各種の動画が採用されてよい。さらに、メイン動画とサブ動画とが合成される形態にも限定されない。例えば、ストリームIDを基準にサブ動画同士が合成されてもよい。つまり、サブ動画(撮影動画)がメイン動画として機能してもよい。このようにサブ動画及びメイン動画として各種の動画が合成され得る。したがって、動画の種類によっては、サブ動画及びメイン動画が同期するように合成されなくてもよい場合がある。つまり、本発明は、サブ動画及びメイン動画が同期するように表示される形態にも限定されない。 Further, the moving image taken by the mobile phone 5b (hereinafter, may be referred to as a sub moving image for convenience) is not limited to the play moving image M. As the sub moving image, various moving images taken by the mobile phone 5b may be adopted. Furthermore, the form is not limited to the form in which the main video and the sub video are combined. For example, sub-videos may be combined based on the stream ID. That is, the sub moving image (shooting moving image) may function as the main moving image. In this way, various moving images can be combined as a sub moving image and a main moving image. Therefore, depending on the type of moving image, the sub moving image and the main moving image may not be combined so as to be synchronized. That is, the present invention is not limited to the form in which the sub moving image and the main moving image are displayed so as to be synchronized.

また、上述の形態では、各合成動画CMは、図14のルーチンを通じてセンターサーバ2で生成されている。この場合、各パーソナルコンピュータ5aの処理負荷を軽減することができる。しかし、本発明は、このような形態に限定されない。例えば、各合成動画CMは、各パーソナルコンピュータ5aにおいて生成されてもよい。この場合、センターサーバ2の処理負荷を軽減することができる。また、この場合、合成対象のゲーム動画G及び各プレイ動画Mは、各パーソナルコンピュータ5aにおいて各合成動画CMが生成されるように、各パーソナルコンピュータ5aにセンターサーバ2によって提供されてよい。 Further, in the above-described form, each synthetic moving image CM is generated by the center server 2 through the routine of FIG. In this case, the processing load of each personal computer 5a can be reduced. However, the present invention is not limited to such a form. For example, each synthetic moving image CM may be generated in each personal computer 5a. In this case, the processing load of the center server 2 can be reduced. Further, in this case, the game moving image G and each play moving image M to be synthesized may be provided to each personal computer 5a by the center server 2 so that each synthetic moving image CM is generated in each personal computer 5a.

上述の形態では、各プレイ動画Mは、ワイプ動画として各ゲーム動画Gに合成されている。しかし、本発明は、このような形態に限定されない。各プレイ動画Mは、各種の態様で各ゲーム動画Gに合成されてよい。図15は、他の配信画面60の一例を模式的に示す図である。図15に示すように、例えば、各ゲーム動画G及び各プレイ動画Mは、動画領域61をシェアするように合成されてもよい。つまり、各プレイ動画Mは、ゲーム動画Gの表示領域の一部ではなく、動画領域61の別領域に表示されてもよい。また、各プレイ動画Mは、合成動画CMとしてではなく、合成動画CM或いはゲーム動画Gとは別の領域(例えば、チャット領域62等)に別の動画として配置されてもよい。つまり、各ゲーム動画G及び各プレイ動画Mは、合成されずに、それぞれ別々に単独の動画として配信画面60に表示されてもよい。同様に、配信画面60に表示される(或いは合成動画CMに合成される)プレイ動画Mの数は任意でよい。 In the above-described form, each play video M is combined with each game video G as a wipe video. However, the present invention is not limited to such a form. Each play video M may be combined with each game video G in various ways. FIG. 15 is a diagram schematically showing an example of another distribution screen 60. As shown in FIG. 15, for example, each game moving image G and each play moving image M may be synthesized so as to share the moving image area 61. That is, each play moving image M may be displayed in another area of the moving image area 61 instead of a part of the display area of the game moving image G. Further, each play moving image M may be arranged not as a synthetic moving image CM but as a moving image in a region different from the synthetic moving image CM or the game moving image G (for example, a chat area 62 or the like). That is, each game video G and each play video M may be separately displayed on the distribution screen 60 as a single video without being synthesized. Similarly, the number of play moving images M displayed on the distribution screen 60 (or combined with the synthetic moving image CM) may be arbitrary.

上述の形態では、制限条件に基づいて、各合成動画CMの生成時に一部のプレイ動画Mの使用が制限されている。しかし、本発明は、このような形態に限定されない。例えば、上述のような制限条件に基づく制限は、各プレイ動画Mの取得時に実行されてもよい。つまり、制限条件に基づいて、一部のプレイ動画Mの取得が制限されてもよい。或いは、このような制限条件に基づく制限は省略されてもよい。つまり、ストリームIDが各ゲーム動画Gと一致する全てのプレイ動画Mが無条件に合成対象として合成されてもよい。 In the above-mentioned form, the use of a part of the play moving image M is restricted at the time of generating each synthetic moving image CM based on the limiting condition. However, the present invention is not limited to such a form. For example, the limitation based on the limitation condition as described above may be executed at the time of acquisition of each play moving image M. That is, the acquisition of a part of the play moving image M may be restricted based on the restriction condition. Alternatively, the restriction based on such a restriction condition may be omitted. That is, all the play moving images M whose stream ID matches each game moving image G may be unconditionally synthesized as a synthesis target.

上述の形態では、一例として、二次元コード画像81を介して、各携帯電話5bにストリームIDが提供されている。しかし、本発明は、このような形態に限定されない。例えば、ストリームIDは、赤外線通信等の各種の通信により各ゲーム機GMから各携帯電話5bに提供されてもよい。或いは、各ゲーム機GMは、単にストリームIDの情報を表示するだけでもよい。そして、ストリームIDは、それを参照する各ユーザによって各携帯電話5bに入力されてもよい。さらに、ストリームIDは、センターサーバ2から提供されてもよい。例えば、ストリームIDは、Webサービスを通じて提供されてもよい。より具体的には、例えば、ストリームIDは、ゲーム用情報サービスの一つとしてストリームID告知用画面を通じて提供されてもよい。また、このような告知用画面は、例えば、各パーソナルコンピュータ5aに表示されてよい。そして、例えば、ストリームIDは、各ゲーム機GMに表示される場合と同様に、各ユーザによって各携帯電話5bに入力されてもよい。或いは、例えば、各携帯電話5bには、位置情報に基づいて、その近辺のゲーム機GM或いはそのゲーム機GMに対応する各ゲーム動画Gの候補がセンターサーバ2から提供されてもよい。そして、ストリームIDは、その候補からの選択を通じてセンターサーバ2から提供されてもよい。 In the above-described embodiment, as an example, a stream ID is provided to each mobile phone 5b via the two-dimensional code image 81. However, the present invention is not limited to such a form. For example, the stream ID may be provided from each game machine GM to each mobile phone 5b by various communications such as infrared communication. Alternatively, each game machine GM may simply display the stream ID information. Then, the stream ID may be input to each mobile phone 5b by each user who refers to the stream ID. Further, the stream ID may be provided by the center server 2. For example, the stream ID may be provided through a web service. More specifically, for example, the stream ID may be provided through the stream ID notification screen as one of the game information services. Further, such a notification screen may be displayed on each personal computer 5a, for example. Then, for example, the stream ID may be input to each mobile phone 5b by each user in the same manner as when it is displayed on each game machine GM. Alternatively, for example, each mobile phone 5b may be provided with a candidate for a game machine GM in the vicinity thereof or each game video G corresponding to the game machine GM from the center server 2 based on the position information. Then, the stream ID may be provided from the center server 2 through selection from the candidates.

或いは、各ゲーム動画Gの候補が提供される場合には、その選択によりセンターサーバ2がストリームIDを特定してもよい。この場合、各携帯電話5bにはストリームIDの情報自体は提供されなくてもよい。したがって、各携帯電話5bは、メイン動画を特定するための情報としてストリームIDを提供する形態に限定されない。各携帯電話5bからは、メイン動画を特定可能な各種の特定情報が提供されてよい。例えば、各携帯電話5bは、その他にもGPS機能に基づいて自己の場所を示す場所情報を特定情報としてセンターサーバ2に提供してもよい。この場合、場所情報及び施設場所情報を基準に店舗4及びゲーム機GMが特定され得る。結果として、特定したゲーム機GMに対応する各ゲーム動画Gも特定され得る。このように、特定情報として、メイン動画を指定する情報或いは場所情報等の各種の情報が採用されてよい。 Alternatively, when the candidates for each game video G are provided, the center server 2 may specify the stream ID by the selection. In this case, the stream ID information itself may not be provided to each mobile phone 5b. Therefore, each mobile phone 5b is not limited to the form of providing the stream ID as information for identifying the main moving image. From each mobile phone 5b, various specific information that can identify the main moving image may be provided. For example, each mobile phone 5b may also provide the center server 2 with location information indicating its own location as specific information based on the GPS function. In this case, the store 4 and the game machine GM can be specified based on the location information and the facility location information. As a result, each game video G corresponding to the specified game machine GM can also be specified. As described above, various information such as information for designating the main moving image or location information may be adopted as the specific information.

また、ストリームIDは、センターサーバ2が各ゲーム機GMに付与する形態にも限定されない。例えば、ストリームIDとして筐体ID等、各ゲーム機GMに固有の情報が使用される場合には、各ゲーム機GMには特にストリームIDがセンターサーバ2によって付与されなくてもよい。このような場合、ストリームIDは各携帯電話5bに、例えば、上述のようにWebサービスを通じて提供されてもよいし、ポスタやPOP等の販促物といったセンターサーバ2とは別の媒体によって提供されてもよい。これらの場合、例えば、各ゲーム機GMには、ストリームIDが予め記憶されていてもよい。 Further, the stream ID is not limited to the form assigned to each game machine GM by the center server 2. For example, when information unique to each game machine GM such as a housing ID is used as the stream ID, the stream ID may not be particularly assigned to each game machine GM by the center server 2. In such a case, the stream ID may be provided to each mobile phone 5b through a Web service as described above, or may be provided by a medium other than the center server 2 such as a promotional material such as a poster or a POP. May be good. In these cases, for example, the stream ID may be stored in advance in each game machine GM.

上述の各形態では、各ゲーム機GMが提供するゲームは、音楽ゲームに限定されない。各ゲーム機GMは、アクションゲーム、ロールプレイングゲーム、シミュレーションゲーム、シューティングゲーム等の各種のゲームを提供してよい。 In each of the above-mentioned forms, the game provided by each game machine GM is not limited to the music game. Each game machine GM may provide various games such as an action game, a role playing game, a simulation game, and a shooting game.

また、撮影用端末は、携帯電話5bにも限定されない。撮影機能を有し、ネットワーク接続出来る限り、例えば、パーソナルコンピュータ5a、或いは単なるカメラが撮影用端末として利用されてもよい。表示用端末についても同様である。ネットワーク接続可能で動画を表示可能な限り、各種の装置が表示用端末として利用されてよい。また、一つのユーザ端末5が表示用端末及び撮影用端末の両方として機能してもよい。 Further, the shooting terminal is not limited to the mobile phone 5b. As long as it has a shooting function and can be connected to a network, for example, a personal computer 5a or a simple camera may be used as a shooting terminal. The same applies to the display terminal. Various devices may be used as display terminals as long as they can be connected to a network and can display moving images. Further, one user terminal 5 may function as both a display terminal and a shooting terminal.

上述の形態では、各ゲーム機GMは、所定の対価の消費と引き換えにゲームを提供している。しかし、各ゲーム機GMは、このような形態に限定されない。例えば、各ゲーム機GMは、例えば、各ゲームをプレイするためのゲーム機会を無料で提供してもよい。つまり、各ゲーム機会は、例えば、対価の消費とは無関係に提供されてもよい。例えば、各ゲーム機会は、対価の消費とは無関係の所定の開始条件が満たされた場合に提供されてもよい。また、例えば、所定の開始条件は、所定の開始操作が実行された場合或いは開始情報が提供された場合に満たされてよい。さらに、例えば、所定の開始情報には、ユーザIDが含まれていてもよい。したがって、例えば、各ゲーム機会は、ユーザIDを記録するユーザ用のカード等を介して、ゲームをプレイするユーザのユーザIDが提供される毎に対価の消費とは無関係に提供されてもよい。 In the above-mentioned form, each game machine GM provides a game in exchange for consumption of a predetermined consideration. However, each game machine GM is not limited to such a form. For example, each game machine GM may provide, for example, a game opportunity for playing each game free of charge. That is, each game opportunity may be offered, for example, independently of the consumption of consideration. For example, each game opportunity may be offered when certain starting conditions unrelated to the consumption of consideration are met. Further, for example, a predetermined start condition may be satisfied when a predetermined start operation is executed or when start information is provided. Further, for example, the predetermined start information may include a user ID. Therefore, for example, each game opportunity may be provided regardless of the consumption of consideration each time the user ID of the user who plays the game is provided via a card for the user who records the user ID or the like.

さらに、ゲーム機GMは、業務用のゲーム機に限定されない。ゲーム機GMとして、例えば、家庭用の据置型ゲーム機(ゲームを実行可能な据置型のパーソナルコンピュータを含む)、携帯型のゲーム機(ゲームを実行可能なスマートフォン、タブレットPC、携帯型のパーソナルコンピュータ等の携帯端末を含む)等、適宜の形態が採用されてよい。また、上述の形態では、制御ユニット30及び記憶ユニット31がゲーム機GMに設けられている。しかし、本発明のゲーム機は、このような形態に限定されない。例えば、クラウドコンピューティングを利用してネットワーク上に論理的に制御ユニット30及び記憶ユニット31が設けられてもよい。つまり、ゲーム機GMは、ネットワーク3を通じて制御ユニット30処理結果を表示して提供する端末として構成されていてもよい。さらに、本発明のゲームシステムは、センターサーバ2が省略され、一台のゲーム機によって実現されてもよい。 Further, the game machine GM is not limited to a commercial game machine. As game machine GM, for example, a home-use stationary game machine (including a stationary personal computer capable of executing a game), a portable game machine (a smartphone, a tablet PC capable of executing a game, a portable personal computer). (Including mobile terminals such as), etc., an appropriate form may be adopted. Further, in the above-described embodiment, the control unit 30 and the storage unit 31 are provided in the game machine GM. However, the game machine of the present invention is not limited to such a form. For example, the control unit 30 and the storage unit 31 may be logically provided on the network by using cloud computing. That is, the game machine GM may be configured as a terminal that displays and provides the processing result of the control unit 30 through the network 3. Further, the game system of the present invention may be realized by a single game machine without the center server 2.

以下に、上述の内容から得られる本発明の一例を記載する。なお、以下の説明では本発明の理解を容易にするために添付図面の参照符号を括弧書きにて付記したが、それにより本発明が図示の形態に限定されるものではない。 Hereinafter, an example of the present invention obtained from the above contents will be described. In the following description, reference numerals of the accompanying drawings are added in parentheses to facilitate understanding of the present invention, but the present invention is not limited to the illustrated form.

本発明のサーバ装置は、所定の画面(60)を表示する表示用端末(5a)と、端末動画(M)を撮影する撮影用端末(5b)と、がネットワーク(3)を介して接続されるサーバ装置(2)であって、互いに異なる複数の動画(G)を、各動画を識別するための動画識別情報(例えば、ストリームID)と関連付けて記憶する動画記憶手段(11)と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報(例えば、ストリームID)を前記撮影用端末から取得する動画取得手段(10)と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画(G1)として判別する動画判別手段(10)と、前記動画判別手段の判別結果に基づいて、前記表示用端末に対して前記端末動画及び前記対象動画を提供する動画提供手段(10)と、を備えている。 In the server device of the present invention, a display terminal (5a) for displaying a predetermined screen (60) and a shooting terminal (5b) for shooting a terminal moving image (M) are connected via a network (3). The server device (2), the moving image storage means (11) for storing a plurality of moving images (G) different from each other in association with the moving image identification information (for example, stream ID) for identifying each moving image, and the above-mentioned. A video acquisition means (10) for acquiring a terminal video and specific information (for example, a stream ID) for specifying the video identification information to be associated with the terminal video from the shooting terminal, and acquisition of the video acquisition means. Based on the result, the video discriminating means (10) for discriminating the video corresponding to the video identification information specified by the specific information among the plurality of videos as the target video (G1), and the discriminating result of the video discriminating means. Based on the above, the display terminal is provided with a moving image providing means (10) for providing the terminal moving image and the target moving image.

本発明によれば、端末動画は、特定情報を介して動画識別情報と関連付けられる。また、その動画識別情報を基準に、端末動画に対応する対象動画が判別され、これらの両方を含む合成画面が所定の画面として表示用端末に表示される。そして、端末動画として、撮影用端末を通じて各種の動画が撮影され得る。つまり、端末動画は特定の種類等に限定されない。これにより、表示用端末が表示する所定の画面としての合成画面に種類の異なる端末動画及び対象動画を表示させることができる。なお、動画判別手段の判別は、例えば、端末動画が複数存在する場合に、特定の対象動画の動画識別情報に対応する端末動画を判別する場合を含む。 According to the present invention, the terminal moving image is associated with the moving image identification information via the specific information. Further, the target moving image corresponding to the terminal moving image is determined based on the moving image identification information, and the composite screen including both of them is displayed on the display terminal as a predetermined screen. Then, as a terminal moving image, various moving images can be taken through the shooting terminal. That is, the terminal video is not limited to a specific type or the like. As a result, different types of terminal moving images and target moving images can be displayed on the composite screen as a predetermined screen displayed by the display terminal. The determination of the moving image discrimination means includes, for example, a case where a terminal moving image corresponding to the moving image identification information of a specific target moving image is determined when a plurality of terminal moving images exist.

端末動画及び前記対象動画は、各種の態様で合成画面に表示されてよい。例えば、本発明のサーバ装置の一態様において、前記合成画面には、前記端末動画及び前記対象動画が合成された合成動画(CM)を通じて前記端末動画及び前記対象動画の両方が表示されてもよい。また、この態様において、前記端末動画及び前記対象動画は、前記端末動画の表示領域(66)が前記対象動画の表示領域(61)内に設けられ、前記対象動画の表示領域において前記端末動画及び前記対象動画の両方が表示されてもよい。この場合、対象動画用の表示領域だけで、端末動画及び対象動画の両方を提供することができる。結果として、ユーザが見るべき範囲を対象動画用の表示領域内に集約することができる。これにより、端末動画及び対象動画をより見やすく提供することができる。 The terminal moving image and the target moving image may be displayed on the composite screen in various modes. For example, in one aspect of the server device of the present invention, both the terminal video and the target video may be displayed on the composite screen through a composite video (CM) in which the terminal video and the target video are synthesized. .. Further, in this embodiment, in the terminal moving image and the target moving image, the terminal moving image display area (66) is provided in the target moving image display area (61), and the terminal moving image and the target moving image are displayed in the target moving image display area. Both of the target moving images may be displayed. In this case, both the terminal video and the target video can be provided only in the display area for the target video. As a result, the range that the user should see can be aggregated in the display area for the target moving image. This makes it possible to provide the terminal video and the target video in an easy-to-see manner.

本発明の合成動画が生成される態様において、前記動画判別手段の判別結果に基づいて、前記合成動画を生成する合成動画生成手段(10)を更に備え、前記動画提供手段は、前記合成動画を通じて前記合成画面に前記端末動画及び前記対象動画の両方が表示されるように、前記端末動画及び前記対象動画として前記合成動画を提供されてもよい。この場合、表示用端末には、生成済みの合成動画が提供される。したがって、表示用端末は合成動画を生成しなくてもよい。これにより、表示用端末の処理負荷を軽減することができる。 In the embodiment in which the synthetic moving image of the present invention is generated, the synthetic moving image generation means (10) for generating the synthetic moving image is further provided based on the discrimination result of the moving image discrimination means, and the moving image providing means is provided through the synthetic moving image. The synthesized moving image may be provided as the terminal moving image and the target moving image so that both the terminal moving image and the target moving image are displayed on the synthetic screen. In this case, the generated synthetic moving image is provided to the display terminal. Therefore, the display terminal does not have to generate a synthetic moving image. As a result, the processing load of the display terminal can be reduced.

本発明のサーバ装置は、所定の画面(60)を表示する表示用端末(5a)と、端末動画(M)を撮影する撮影用端末(5b)と、がネットワーク(3)を介して接続されるサーバ装置(2)であって、互いに異なる複数の動画(G)を、各動画を識別するための動画識別情報(例えば、ストリームID)と関連付けて記憶する動画記憶手段(11)と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報(例えば、ストリームID)を前記撮影用端末から取得する動画取得手段(10)と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画(G1)として判別する動画判別手段(10)と、前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面(60)が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手段(10)と、を備えている。 In the server device of the present invention, a display terminal (5a) for displaying a predetermined screen (60) and a shooting terminal (5b) for shooting a terminal moving image (M) are connected via a network (3). The server device (2), the moving image storage means (11) for storing a plurality of moving images (G) different from each other in association with the moving image identification information (for example, stream ID) for identifying each moving image, and the above-mentioned. A video acquisition means (10) for acquiring a terminal video and specific information (for example, a stream ID) for specifying the video identification information to be associated with the terminal video from the shooting terminal, and acquisition of the video acquisition means. Based on the result, the video discriminating means (10) for discriminating the video corresponding to the video identification information specified by the specific information among the plurality of videos as the target video (G1), and the discriminating result of the video discriminating means. A video providing means (10) for providing the terminal video and the target video so that the composite screen (60) in which both the terminal video and the target video are displayed is displayed as the predetermined screen. And has.

端末動画の数は、任意でよい。例えば、本発明のサーバ装置の一態様において、前記取得手段は、複数の端末動画を取得し、前記合成動画生成手段は、制限条件に基づいて、当該制限条件を満たす各端末動画が使用されないように、前記複数の端末動画の少なくとも一部の前記合成動画への使用を制限してもよい。或いは、前記動画取得手段は、制限条件に基づいて、当該制限条件を満たす各端末動画が取得されないように、前記複数の端末動画の少なくとも一部の取得を制限してもよい。 The number of terminal videos may be arbitrary. For example, in one aspect of the server device of the present invention, the acquisition means acquires a plurality of terminal videos, and the synthetic video generation means does not use each terminal video satisfying the restriction conditions based on the restriction conditions. In addition, the use of the plurality of terminal moving images for at least a part of the synthesized moving images may be restricted. Alternatively, the moving image acquisition means may restrict the acquisition of at least a part of the plurality of terminal moving images so that the terminal moving images satisfying the limiting conditions are not acquired based on the limiting conditions.

制限条件として、各種の条件が採用されてよい。例えば、本発明の端末動画の一部の取得或いは使用が制限される態様において、前記動画取得手段は、前記撮影用端末から各端末動画の撮影時間及び取得時間の少なくともいずれか一方の情報を更に取得し、前記制限条件として、前記撮影時間或いは前記取得時間を基準にする条件が採用され、前記制限条件は、各端末動画の前記撮影時間或いは前記取得時間が所定の時間範囲に属さない場合に満たされてもよい。また、前記動画取得手段は、前記撮影用端末から各端末動画の撮影場所の情報を更に取得し、前記制限条件として、前記撮影場所を基準にする条件が採用され、前記制限条件は、各端末動画の前記撮影場所が所定範囲の場所に属さない場合に満たされてもよい。或いは、前記動画取得手段は、前記撮影用端末の各ユーザを識別するためのユーザ識別情報(例えば、ユーザID)を各端末動画と関連付けて前記撮影用端末から更に取得し、前記制限条件として、前記ユーザ識別情報を基準にする条件が採用され、前記制限条件は、一部のユーザの前記ユーザ識別情報が記述された特定ユーザデータ(18)に各端末動画に関連する前記ユーザ識別情報が含まれていない場合或いは含まれている場合に満たされてもよい。 Various conditions may be adopted as the limiting conditions. For example, in an embodiment in which the acquisition or use of a part of the terminal moving image of the present invention is restricted, the moving image acquisition means further obtains information on at least one of the shooting time and the acquisition time of each terminal moving image from the shooting terminal. When the shooting time or the acquisition time is used as a reference as the limiting condition for the acquisition, and the limiting condition does not belong to the shooting time or the acquisition time of each terminal moving image. May be satisfied. Further, the moving image acquisition means further acquires information on the shooting location of each terminal video from the shooting terminal, and as the limiting condition, a condition based on the shooting location is adopted, and the limiting condition is each terminal. It may be satisfied when the shooting location of the moving image does not belong to a predetermined range. Alternatively, the moving image acquisition means further acquires user identification information (for example, a user ID) for identifying each user of the shooting terminal from the shooting terminal in association with each terminal video, and as the limiting condition, A condition based on the user identification information is adopted, and the restriction condition includes the user identification information related to each terminal video in the specific user data (18) in which the user identification information of some users is described. It may be satisfied if it is not or is included.

合成画面には、任意の数の端末動画が表示されてよい。例えば、本発明の複数の端末動画が撮影される態様において、前記動画提供手段は、前記合成画面に前記複数の端末動画及び前記対象動画が表示されるように、前記複数の端末動画及び前記対象動画を提供してもよい。 Any number of terminal videos may be displayed on the composite screen. For example, in an embodiment in which a plurality of terminal videos of the present invention are shot, the video providing means has the plurality of terminal videos and the target so that the plurality of terminal videos and the target video are displayed on the composite screen. You may provide a video.

また、本発明のサーバ装置の一態様において、前記対象動画及び前記端末動画は、時間の経過に従って所定期間毎に複数のフレーム動画(G、M)に区分され、前記合成画面には、前記端末動画及び前記対象動画の時間経過が互いに同期するように、前記対象動画の及び前記端末動画の同時期の各フレーム動画が表示されてもよい。対象動画及び端末動画には、同期により利便性が向上するタイプの動画が含まれる可能性がある。この場合、このようなタイプの対象動画及び端末動画の利用において、合成画面の利便性を向上させることができる。 Further, in one aspect of the server device of the present invention, the target moving image and the terminal moving image are divided into a plurality of frame moving images (G, M) at predetermined periods according to the passage of time, and the terminal is displayed on the composite screen. Each frame moving image of the target moving image and the terminal moving image at the same time may be displayed so that the time passage of the moving image and the target moving image are synchronized with each other. The target video and the terminal video may include a type of video whose convenience is improved by synchronization. In this case, the convenience of the composite screen can be improved in the use of such a type of target moving image and terminal moving image.

動画記憶手段には、複数の動画として各種の動画が記憶されてよい。例えば、本発明のサーバ装置の一態様において、ゲーム画面(50)を通じてプレイされる複数のゲーム機会を提供する少なくとも一つのゲーム機(GM)が前記ネットワークを介して更に接続され、前記動画記憶手段には、前記複数のゲーム機会のそれぞれにおいて時間の経過に従って変化する前記ゲーム画面の変化を示す複数のゲーム動画(G)が前記複数の動画として記憶されるように、前記複数のゲーム動画が前記ゲーム機から提供されてもよい。 Various moving images may be stored as a plurality of moving images in the moving image storage means. For example, in one aspect of the server device of the present invention, at least one game machine (GM) that provides a plurality of game opportunities played through the game screen (50) is further connected via the network, and the moving image storage means. In the above-mentioned plurality of game videos, the plurality of game videos (G) showing changes in the game screen that change with the passage of time at each of the plurality of game opportunities are stored as the plurality of videos. It may be provided by a game machine.

本発明のサーバ装置の一態様において、前記端末動画として、前記ゲーム機会においてプレイ中の各ユーザを撮影したプレイ動画(M)が利用されてもよい。この場合、ゲーム画面とそれに対応するユーザの状態とが合成画面を通じて提供される。つまり、合成画面を通じて、ゲーム画面及びユーザの状態の両方が提供される。ゲームの種類によっては、プレイ中のユーザのプレイ行為(例えば、操作や動作等)の情報が重要な場合がある。例えば、音楽ゲームにおいては、ゲーム画面中の課題に対応する具体的操作(或いは動作)の情報に対する要求は高い。つまり、このような種類のゲームにおいて、ゲーム画面及びユーザの状態の両方の情報は重要度が高い。したがって、これらの情報を提供することにより、各ユーザに重要度の高い情報を提供することができる。これにより、ゲームの利用を促進することができる。また、ゲームの興趣性を向上させることもできる。 In one aspect of the server device of the present invention, as the terminal moving image, a play moving image (M) taken by each user who is playing at the game opportunity may be used. In this case, the game screen and the corresponding user state are provided through the composite screen. That is, both the game screen and the user's state are provided through the composite screen. Depending on the type of game, information on the playing behavior (for example, operation, movement, etc.) of the user during play may be important. For example, in a music game, there is a high demand for information on specific operations (or actions) corresponding to problems in the game screen. That is, in this type of game, information on both the game screen and the user's state is of high importance. Therefore, by providing such information, it is possible to provide each user with highly important information. This makes it possible to promote the use of the game. It is also possible to improve the fun of the game.

特定情報として、各種の情報が利用されてよい。例えば、本発明のサーバ装置の一態様において、前記少なくとも一つのゲーム機として、複数の施設(4)にそれぞれ配置される複数のゲーム機が前記ネットワークを介して接続され、前記動画識別情報として各ゲーム機が配置される各施設の場所を示す施設場所情報が、前記特定情報として前記端末動画を撮影した場所を示す撮影場所の情報が、それぞれ利用され、前記施設場所情報及び前記撮影場所の情報に基づいて、前記撮影場所に対応する施設の前記ゲーム機が提供する各ゲーム動画の少なくとも一部が前記対象動画として特定されてもよい。或いは、前記ゲーム機は、前記動画識別情報を提供し、前記特定情報として、前記ゲーム機により提供される前記動画識別情報が利用されてもよい。また、この態様において、前記ゲーム機は、前記動画識別情報を含むように構成されたコード(81)の表示により前記コードを介して前記動画識別情報を前記撮影用端末に提供してもよい。 Various types of information may be used as specific information. For example, in one aspect of the server device of the present invention, as the at least one game machine, a plurality of game machines arranged in a plurality of facilities (4) are connected via the network, and each of them is used as the moving image identification information. The facility location information indicating the location of each facility where the game machine is arranged and the shooting location information indicating the location where the terminal video was shot are used as the specific information, respectively, and the facility location information and the shooting location information are used. At least a part of each game moving image provided by the game machine of the facility corresponding to the shooting place may be specified as the target moving image. Alternatively, the game machine may provide the video identification information, and the video identification information provided by the game machine may be used as the specific information. Further, in this aspect, the game machine may provide the moving image identification information to the shooting terminal via the code by displaying the code (81) configured to include the moving image identification information.

同様に、動画識別情報として、各種の情報が利用されてよい。例えば、本発明のサーバ装置の一態様において、前記少なくとも一つのゲーム機として、複数のゲーム機が前記ネットワークを介して接続され、前記動画識別情報として、前記複数のゲーム機を互いに識別するための筐体識別情報が使用されてもよい。 Similarly, various types of information may be used as the moving image identification information. For example, in one aspect of the server device of the present invention, a plurality of game machines are connected via the network as the at least one game machine, and the plurality of game machines are identified with each other as the moving image identification information. The housing identification information may be used.

本発明の制御方法は、所定の画面(60)を表示する表示用端末(5a)と、端末動画(M)を撮影する撮影用端末(5b)と、がネットワーク(3)を介して接続されるサーバ装置(2)であって、互いに異なる複数の動画(G)を、各動画を識別するための動画識別情報(例えば、ストリームID)と関連付けて記憶する動画記憶手段(11)を備えるサーバ装置に組み込まれるコンピュータ(10)に、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報(例えば、ストリームID)を前記撮影用端末から取得する動画取得手順と、前記動画取得手順の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画(G1)として判別する動画判別手順と、前記動画判別手順の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面(60)が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手順と、を実行させるものである。 In the control method of the present invention, a display terminal (5a) for displaying a predetermined screen (60) and a shooting terminal (5b) for shooting a terminal moving image (M) are connected via a network (3). Server device (2), the server including a moving image storage means (11) for storing a plurality of different moving images (G) in association with moving image identification information (for example, stream ID) for identifying each moving image. A moving image acquisition procedure for acquiring specific information (for example, a stream ID) for specifying the terminal moving image and the moving image identification information to be associated with the terminal moving image on a computer (10) incorporated in the device from the shooting terminal. A video discrimination procedure for discriminating a video corresponding to the video identification information specified by the specific information among the plurality of videos as a target video (G1) based on the acquisition result of the video acquisition procedure, and the video. A video that provides the terminal video and the target video so that the composite screen (60) in which both the terminal video and the target video are displayed is displayed as the predetermined screen based on the discrimination result of the discrimination procedure. It is to execute the provision procedure.

また、本発明のサーバ装置用のコンピュータプログラムは、所定の画面(60)を表示する表示用端末(5a)と、端末動画(M)を撮影する撮影用端末(5b)と、がネットワーク(3)を介して接続されるサーバ装置(2)であって、互いに異なる複数の動画(G)を、各動画を識別するための動画識別情報(例えば、ストリームID)と関連付けて記憶する動画記憶手段(11)を備えるサーバ装置に組み込まれるコンピュータ(10)を、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報(例えば、ストリームID)を前記撮影用端末から取得する動画取得手段、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画(G1)として判別する動画判別手段、及び前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面(60)が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手段として機能させるように構成されたものである。本発明の制御方法若しくはコンピュータプログラムが実行されることにより、本発明のサーバ装置を実現することができる。 Further, in the computer program for the server device of the present invention, a display terminal (5a) for displaying a predetermined screen (60) and a shooting terminal (5b) for shooting a terminal moving image (M) are connected to a network (3). ), Which is a server device (2), and is a moving image storage means for storing a plurality of different moving images (G) in association with moving image identification information (for example, a stream ID) for identifying each moving image. The computer (10) incorporated in the server device provided with (11) is provided with specific information (for example, a stream ID) for specifying the terminal video and the video identification information to be associated with the terminal video. Based on the acquisition results of the video acquisition means acquired from the video acquisition means and the video acquisition means, the video discrimination corresponding to the video identification information specified by the specific information among the plurality of videos is discriminated as the target video (G1). The terminal video and the target so that the composite screen (60) in which both the terminal video and the target video are displayed is displayed as the predetermined screen based on the discrimination result of the means and the video discriminating means. It is configured to function as a video providing means for providing a moving image. The server device of the present invention can be realized by executing the control method or the computer program of the present invention.

本発明の動画配信システムは、所定の画面(60)を表示する表示用端末(5a)と、端末動画(M)を撮影する撮影用端末(5b)と、サーバ装置(2)とを備え、前記表示用端末、前記撮影用端末、及び前記サーバ装置がネットワーク(3)を介して接続される動画配信システム(1)であって、互いに異なる複数の動画(G)を、各動画を識別するための動画識別情報(例えば、ストリームID)と関連付けて記憶する動画記憶手段(11)と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報(例えば、ストリームID)を前記撮影用端末から取得する動画取得手段(10)と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画(G1)として判別する動画判別手段(10)と、前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画の両方が表示される合成画面(60)が前記所定の画面として表示されるように、前記端末動画及び前記対象動画を提供する動画提供手段(10)と、を備えている。 The moving image distribution system of the present invention includes a display terminal (5a) for displaying a predetermined screen (60), a shooting terminal (5b) for shooting a terminal moving image (M), and a server device (2). A moving image distribution system (1) in which the display terminal, the shooting terminal, and the server device are connected via a network (3), and a plurality of different moving images (G) are identified for each moving image. The video storage means (11) that stores the video identification information in association with the video identification information (for example, the stream ID) for the purpose, and the specific information (for example, the terminal video) for specifying the terminal video and the video identification information to be associated with the terminal video. It corresponds to the moving image identification information specified by the specific information among the plurality of moving images based on the moving image acquisition means (10) for acquiring the stream ID) from the shooting terminal and the acquisition result of the moving image acquisition means. The predetermined screen (60) in which both the terminal video and the target video are displayed based on the discrimination result of the video discriminating means (10) for discriminating the video as the target video (G1) and the video discriminating means. The terminal moving image and the moving image providing means (10) for providing the target moving image are provided so as to be displayed as the screen of.

本発明の動画配信システムは、所定の画面(60)を表示する表示用端末(5a)と、端末動画(M)を撮影する撮影用端末(5b)と、サーバ装置(2)と、がネットワーク(3)を介して接続される動画配信システム(1)であって、互いに異なる複数の動画(G)を、各動画を識別するための動画識別情報(例えば、ストリームID)と関連付けて記憶する動画記憶手段(11)と、前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報(例えば、ストリームID)を前記撮影用端末から取得する動画取得手段(10)と、前記動画取得手段の取得結果に基づいて、前記複数の動画のうち前記特定情報により特定される前記動画識別情報に相応する動画を対象動画(G1)として判別する動画判別手段(10)と、前記動画判別手段の判別結果に基づいて、前記端末動画及び前記対象動画が合成された合成動画(CM)を生成する合成動画生成手段(10)と、前記合成動画生成手段の生成結果に基づいて、前記合成動画が前記所定の画面に表示されるように、前記合成動画を提供する動画提供手段(10)と、を備えている。 In the moving image distribution system of the present invention, a display terminal (5a) for displaying a predetermined screen (60), a shooting terminal (5b) for shooting a terminal moving image (M), and a server device (2) are connected to a network. A video distribution system (1) connected via (3), in which a plurality of different videos (G) are stored in association with video identification information (for example, a stream ID) for identifying each video. A moving image acquisition means (10) for acquiring a moving image storage means (11) and specific information (for example, a stream ID) for specifying the terminal moving image and the moving image identification information to be associated with the terminal moving image from the shooting terminal. ) And the moving image discrimination means (10) that discriminates the moving image corresponding to the moving image identification information specified by the specific information among the plurality of moving images as the target moving image (G1) based on the acquisition result of the moving image acquisition means. And, based on the discrimination result of the moving image discrimination means, the synthetic moving image generation means (10) for generating the synthetic moving image (CM) in which the terminal moving image and the target moving image are synthesized, and the generation result of the synthetic moving image generating means. Based on this, the moving image providing means (10) for providing the synthesized moving image is provided so that the synthesized moving image is displayed on the predetermined screen.

1 ゲームシステム(動画配信システム)
2 センターサーバ(サーバ装置)
3 ネットワーク(通信回線)
4 店舗(施設)
10 制御ユニット(コンピュータ、動画取得手段、動画判別手段、動画提供手段、合成動画生成手段)
11 記憶ユニット(動画記憶手段)
18 ID管理データ(特定ユーザデータ)
50 ゲーム画面
60 配信画面(合成画面)
81 二次元コード画像(コード)
5a パーソナルコンピュータ(表示用端末)
5b 携帯電話(撮影用端末)
G ゲーム動画(動画)
G1 Aゲーム動画(対象動画)
M プレイ動画(端末動画)
GM ゲーム機
CM 合成動画
1 Game system (video distribution system)
2 Center server (server device)
3 Network (communication line)
4 stores (facility)
10 Control unit (computer, video acquisition means, video discrimination means, video providing means, synthetic video generation means)
11 Storage unit (video storage means)
18 ID management data (specific user data)
50 Game screen 60 Distribution screen (composite screen)
81 Two-dimensional code image (code)
5a Personal computer (display terminal)
5b Mobile phone (shooting terminal)
G game video (video)
G1 A game video (target video)
M play video (terminal video)
GM game console CM composite video

Claims (1)

所定の画面を表示する表示用端末と、撮影により端末動画を撮影する複数の撮影用端末と、がネットワークを介して接続されるサーバ装置であって、
互いに異なる複数の動画を、各動画を識別するための動画識別情報と関連付けて記憶する動画記憶手段と、
前記端末動画、及び当該端末動画に関連付けられるべき前記動画識別情報を特定するための特定情報を前記撮影用端末から取得する動画取得手段と、
前記動画取得手段の取得結果に基づいて、前記複数の撮影用端末から取得した前記複数の動画のうち共通する前記特定情報を有する動画を判別する動画判別手段と、
前記動画判別手段の判別結果に基づいて、前記表示用端末に対して少なくとも共通する前記特定情報を有する複数の前記端末動画を提供する動画提供手段と、
を備え、
前記動画取得手段は、制限条件に基づいて、当該制限条件を満たす各端末動画が取得されないように、前記複数の端末動画の少なくとも一部の取得を制限する、サーバ装置。
A server device in which a display terminal that displays a predetermined screen and a plurality of shooting terminals that shoot terminal moving images by shooting are connected via a network.
A video storage means that stores multiple videos that are different from each other in association with the video identification information for identifying each video.
A video acquisition means for acquiring specific information for specifying the terminal video and the video identification information to be associated with the terminal video from the shooting terminal.
A video discriminating means for discriminating a video having the specific information in common among the plurality of videos acquired from the plurality of shooting terminals based on the acquisition result of the video acquisition means.
A video providing means for providing a plurality of the terminal videos having at least the same specific information to the display terminal based on the discrimination result of the moving image discriminating means.
Equipped with
The moving image acquisition means is a server device that restricts acquisition of at least a part of the plurality of terminal moving images so that each terminal moving image satisfying the limiting conditions is not acquired based on the limiting conditions.
JP2020179867A 2020-10-27 2020-10-27 Server devices, video distribution systems, control methods and computer programs used for them Active JP7072282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020179867A JP7072282B2 (en) 2020-10-27 2020-10-27 Server devices, video distribution systems, control methods and computer programs used for them

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179867A JP7072282B2 (en) 2020-10-27 2020-10-27 Server devices, video distribution systems, control methods and computer programs used for them

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019061352A Division JP6789581B2 (en) 2019-03-27 2019-03-27 Server equipment, video distribution system, control methods and computer programs used for it

Publications (3)

Publication Number Publication Date
JP2021044810A JP2021044810A (en) 2021-03-18
JP2021044810A5 JP2021044810A5 (en) 2021-10-14
JP7072282B2 true JP7072282B2 (en) 2022-05-20

Family

ID=74864354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020179867A Active JP7072282B2 (en) 2020-10-27 2020-10-27 Server devices, video distribution systems, control methods and computer programs used for them

Country Status (1)

Country Link
JP (1) JP7072282B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214028A (en) 2009-03-19 2010-09-30 Sony Computer Entertainment Inc Program, information storage medium, image processor, image processing method, and data structure
JP2010279012A (en) 2009-04-27 2010-12-09 Jvc Kenwood Holdings Inc Av system, program, recording device, and video recording method
JP2011077731A (en) 2009-09-29 2011-04-14 Jvc Kenwood Holdings Inc Photographed video image processing apparatus, control method, and program
US20110111862A1 (en) 2009-11-06 2011-05-12 Wms Gaming, Inc. Media processing mechanism for wagering game systems
US20130260883A1 (en) 2012-03-27 2013-10-03 Electronics And Telecommunications Research Institute Method and apparatus for providing a multi-screen based multi-dimension game service
JP2014004045A (en) 2012-06-22 2014-01-16 Tokyu Sports Oasis:Kk Video distribution device, video distribution system, video distribution method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214028A (en) 2009-03-19 2010-09-30 Sony Computer Entertainment Inc Program, information storage medium, image processor, image processing method, and data structure
JP2010279012A (en) 2009-04-27 2010-12-09 Jvc Kenwood Holdings Inc Av system, program, recording device, and video recording method
JP2011077731A (en) 2009-09-29 2011-04-14 Jvc Kenwood Holdings Inc Photographed video image processing apparatus, control method, and program
US20110111862A1 (en) 2009-11-06 2011-05-12 Wms Gaming, Inc. Media processing mechanism for wagering game systems
US20130260883A1 (en) 2012-03-27 2013-10-03 Electronics And Telecommunications Research Institute Method and apparatus for providing a multi-screen based multi-dimension game service
JP2014004045A (en) 2012-06-22 2014-01-16 Tokyu Sports Oasis:Kk Video distribution device, video distribution system, video distribution method, and program

Also Published As

Publication number Publication date
JP2021044810A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
CN106664438B (en) Server device, moving picture delivery system, and control method used therefor
JP2019118656A (en) Information processing device and moving image distribution system
CN103886009A (en) Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
JP7123520B2 (en) MOVIE RECORDING DEVICE, MOVIE GENERATION METHOD, AND PROGRAM
WO2021251346A1 (en) Video distribution system, computer program used therein, and control method
WO2021199559A1 (en) Video distribution device, video distribution method, and video distribution program
JP2018011849A (en) Moving image recording device, moving image distribution method, and program
WO2022006118A1 (en) Modifying computer simulation video template based on feedback
KR102293619B1 (en) Server device, and computer programs used therein
JP7072282B2 (en) Server devices, video distribution systems, control methods and computer programs used for them
JP6789581B2 (en) Server equipment, video distribution system, control methods and computer programs used for it
US11845012B2 (en) Selection of video widgets based on computer simulation metadata
US20210402309A1 (en) Generating video clip of computer simulation from multiple views
JP2021104299A (en) Watching system, computer program for watching system, and control method of watching system
WO2021131621A1 (en) Game watching system, computer program for game watching system, and method for controlling game watching system
JP7125133B2 (en) Computer program used for user terminal, event system used for user terminal to which it is applied, computer program used therefor, and control method
US11554324B2 (en) Selection of video template based on computer simulation metadata
WO2024142271A1 (en) Information processing device, user terminal, and information processing method
JP2018156632A (en) Server device and computer program to be used for the same
JP2021104289A (en) Watching system, computer program for watching system, and control method of watching system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R150 Certificate of patent or registration of utility model

Ref document number: 7072282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150