JP2020167526A - Server system and moving image distribution system - Google Patents

Server system and moving image distribution system Download PDF

Info

Publication number
JP2020167526A
JP2020167526A JP2019066478A JP2019066478A JP2020167526A JP 2020167526 A JP2020167526 A JP 2020167526A JP 2019066478 A JP2019066478 A JP 2019066478A JP 2019066478 A JP2019066478 A JP 2019066478A JP 2020167526 A JP2020167526 A JP 2020167526A
Authority
JP
Japan
Prior art keywords
poster
data
server system
character
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019066478A
Other languages
Japanese (ja)
Other versions
JP7398873B2 (en
Inventor
英史 青木
Hidefumi Aoki
英史 青木
清志 南
Kiyoshi Minami
清志 南
洋人 西山
Hiroto Nishiyama
洋人 西山
雄人 関野
Taketo Sekino
雄人 関野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2019066478A priority Critical patent/JP7398873B2/en
Publication of JP2020167526A publication Critical patent/JP2020167526A/en
Application granted granted Critical
Publication of JP7398873B2 publication Critical patent/JP7398873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a technique that brings new interests using money throwing in live video distribution.SOLUTION: Contributor moving image data of an image space which is a virtual space or an augmented reality space where a contributor character operated by a contributor terminal can act is acquired. An action operation input from a viewer terminal is received and a display body is made to appear in the image space on the basis of the action operation input. Action impact control is performed that changes a display position of the display body that is made to appear on the basis of an action of the contributor character in the image space. A distribution moving image in the image space, integrating the image based on the contributor moving image data and the display body, is generated and distributed.SELECTED DRAWING: Figure 9

Description

本発明は、投稿者端末および視聴者端末と通信接続されて動画配信を行うサーバシステム等に関する。 The present invention relates to a server system or the like that is connected to a poster terminal and a viewer terminal by communication to deliver moving images.

昨今のライブ形式の動画配信の技術として、動画の視聴者が、動画への称賛や、動画の投稿者への応援といった意味合いで、コメントを付加したり投稿者へアイテムを提供するといった視聴者側でのアクションが可能な技術が知られている。特に、視聴者から投稿者へのアイテムの提供は、ストリートパフォーマーへの観客からの寄附にあやかって「投げ銭」と呼ばれたり、「ギフト」などと呼ばれている。以降では、包括して「投げ銭」と呼称する。 As a technology for live video distribution these days, viewers add comments and provide items to posters in the sense of praising the video and supporting the poster of the video. The technology that can take action in is known. In particular, the provision of items from viewers to posters is called "throwing money" or "gifts" because of the donations from the audience to street performers. Hereinafter, it is collectively referred to as "throwing money".

特許文献1,2においても、投げ銭に着目した技術が記載されている。 Patent Documents 1 and 2 also describe techniques focusing on throwing money.

特開2012−120098号公報Japanese Unexamined Patent Publication No. 2012-121998 特許第6430059号公報Japanese Patent No. 6430059

投げ銭は、使用されたアイテムに応じた収入が投稿者に付与される仕組みが知られており、この仕組みによると、投稿者に更なる投稿を促す効果がある。また、視聴者にとっては、称賛や応援など自分の意志や立場を他視聴者に向けて公にする自己表現の喜びをもたらし、投げ銭が投げ銭を呼ぶなどして場を盛り上げる作用効果が期待される。そして、何よりも投稿者と視聴者との共感を高め、同じ動画を介した素晴らしいユーザ体験をもたらしてくれる。それ故、動画配信システムの運用者は勿論のこと、利用者からも投げ銭を利用したサービスの更なる充実が求められている。 It is known that throwing money is given to posters with income according to the items used, and according to this mechanism, it has the effect of encouraging posters to post further. In addition, for viewers, it is expected to bring the joy of self-expression, such as praise and support, to publicize one's will and position to other viewers, and to have the effect of enlivening the place by throwing money. .. And above all, it enhances the empathy between posters and viewers and brings a great user experience through the same video. Therefore, not only the operators of video distribution systems but also users are demanding further enhancement of services using throwing money.

本発明が解決しようとする課題は、ライブ形式の動画配信において、投げ銭を利用した新しい興趣をもたらす技術を提供することである。 An object to be solved by the present invention is to provide a technique for bringing about a new interest by using throwing money in live video distribution.

上記した課題を解決するための第1の発明は、投稿者端末および視聴者端末と通信接続されて動画配信を行うサーバシステムであって、
前記投稿者端末で操作される投稿者キャラクタが行動可能な仮想空間または拡張現実空間である画像空間の投稿者動画データを、前記投稿者端末から取得する投稿者動画データ取得手段(例えば、図13のサーバ処理部200s、投稿者動画データ取得制御部210、図20の配信管理データ700、投稿者動画データ710、図22のステップS6)と、
前記視聴者端末からアクション操作入力を受け付けて、当該アクション操作入力に基づいて前記画像空間中に表示体を出現させる表示体出現制御手段(例えば、図6のアイテム8、図13のサーバ処理部200s、表示体出現制御部212、図20のアイテム制御データ738、図23のステップS52)と、
前記投稿者キャラクタの前記画像空間中の行動に基づいて、前記表示体の表示位置を変化させる行動影響制御を行う行動影響制御手段(例えば、図13のサーバ処理部200s、行動影響制御部214、図23のステップS64)と、
前記投稿者動画データに基づく画像と、前記表示体とを合成した前記画像空間の配信用動画を生成する配信用動画生成手段(例えば、図5の配信用動画22、図13のサーバ処理部200s、配信用動画生成制御部216、画像生成部292s、図20の配信用動画データ744、図22のステップS12)と、
を備えたサーバシステムである。
The first invention for solving the above-mentioned problems is a server system that is connected to a poster terminal and a viewer terminal by communication and distributes a moving image.
Poster video data acquisition means (for example, FIG. 13) for acquiring poster video data in an image space that is a virtual space or an extended real space in which a poster character operated by the poster terminal can act. Server processing unit 200s, poster video data acquisition control unit 210, distribution management data 700 in FIG. 20, poster video data 710, step S6) in FIG.
Display body appearance control means (for example, item 8 in FIG. 6 and server processing unit 200s in FIG. 13) that receives an action operation input from the viewer terminal and causes the display body to appear in the image space based on the action operation input. , Display body appearance control unit 212, item control data 738 in FIG. 20, step S52 in FIG. 23),
Behavioral influence control means (for example, server processing unit 200s, behavioral influence control unit 214, FIG. 13) that performs behavioral influence control that changes the display position of the display body based on the behavior of the poster character in the image space. Step S64) in FIG. 23 and
Distribution video generation means (for example, distribution video 22 in FIG. 5 and server processing unit 200s in FIG. 13) that generates a distribution video in the image space in which an image based on the poster video data and the display body are combined. , Distribution video generation control unit 216, image generation unit 292s, distribution video data 744 of FIG. 20, step S12 of FIG. 22).
It is a server system equipped with.

ここで言う「サーバシステム」は、単数のコンピュータは勿論、複数のコンピュータが連携して構成されるものでもよい。 The "server system" referred to here may be composed of not only a single computer but also a plurality of computers in cooperation with each other.

第1の発明によれば、視聴者が、視聴者端末を使ってアクション操作を入力すると、当該アクション操作に基づく表示体が、投稿者キャラクタが存在する投稿者動画データの画像空間に出現する。そして、投稿者や視聴者は、投稿者キャラクタの行動に応じて、表示体の位置が変化する様子を見ることができる。つまり、視聴者の行動と、投稿者の行動との連係をライブ形式の動画配信にもたらすことができる。よって、第1の発明によれば、投稿者と視聴者との共感を従来よりも高め、同じ動画を介した今までに無い優れたユーザ体験を提供できる。 According to the first invention, when the viewer inputs an action operation using the viewer terminal, a display body based on the action operation appears in the image space of the poster moving image data in which the poster character exists. Then, the poster and the viewer can see how the position of the display body changes according to the behavior of the poster character. In other words, it is possible to bring the link between the behavior of the viewer and the behavior of the poster to the live video distribution. Therefore, according to the first invention, it is possible to enhance the sympathy between the poster and the viewer as compared with the conventional case, and to provide an unprecedented excellent user experience through the same moving image.

第2の発明は、前記表示体出現制御手段が、前記アクション操作入力に基づいて前記表示体の投入方向を決定し、当該投入方向に沿って前記表示体を前記画像空間に出現および移動させる投入制御を行う(例えば、図23のステップS54)、第1の発明のサーバシステムである。 In the second invention, the display body appearance control means determines the insertion direction of the display body based on the action operation input, and causes the display body to appear and move in the image space along the insertion direction. The server system of the first invention that controls (for example, step S54 in FIG. 23).

第2の発明によれば、従来の「投げ銭」のような表示制御においても、第1の発明と同様の効果をもたらすことができる。 According to the second invention, the same effect as that of the first invention can be obtained even in the display control such as the conventional "throwing money".

第3の発明は、前記画像空間にイベントエリアを設定するイベントエリア設定手段(例えば、図13のサーバ処理部200s、行動影響制御部214、イベントエリア設定部218、図20のイベントエリアオブジェクト制御データ735、図22のステップS18)と、
前記イベントエリアに対して前記表示体が所与の位置関係条件を満たしたか否かに基づいて、所与の発動イベントの発動を制御する発動イベント制御手段(例えば、図13のサーバ処理部200s、発動イベント制御部220、図18の発動イベント定義データ570、図23のステップS72)と、を備えた第2の発明のサーバシステムである。
According to the third aspect of the present invention, event area setting means for setting an event area in the image space (for example, server processing unit 200s in FIG. 13, behavior influence control unit 214, event area setting unit 218, event area object control data in FIG. 20). 735, step S18) in FIG. 22 and
An activation event control means (for example, the server processing unit 200s of FIG. 13) that controls the activation of a given activation event based on whether or not the display body satisfies a given positional relationship condition with respect to the event area. It is a server system of the second invention including the activation event control unit 220, the activation event definition data 570 of FIG. 18, and step S72) of FIG. 23.

第3の発明によれば、イベントエリアを設定し、表示体がイベントエリアに対して、接触・通過・接近などの所与の位置関係条件を満たすと発動イベントが発動される。よって、投稿者と視聴者との連携に基づく新しい興趣を提供できる。また、投稿者と視聴者との連携にミニゲーム的な要素を付加できる。 According to the third invention, when the event area is set and the display body satisfies a given positional relationship condition such as contact, passage, and approach to the event area, the activation event is activated. Therefore, it is possible to provide a new hobby based on the cooperation between the poster and the viewer. In addition, a mini-game-like element can be added to the cooperation between the poster and the viewer.

第4の発明は、前記発動イベント制御手段が、前記投稿者端末の投稿者、および/または、前記アクション操作入力を行った視聴者に所与の特典を付与する処理(例えば、図18の発動イベント内容データ573、図23のステップS72)を、前記発動イベントとして前記発動の制御を行う、第3の発明のサーバシステムである。 A fourth invention is a process in which the activation event control means grants a given privilege to a poster of the poster terminal and / or a viewer who has performed the action operation input (for example, activation of FIG. 18). The server system of the third invention, which controls the activation of the event content data 573 and step S72) of FIG. 23 as the activation event.

第4の発明によれば、投稿者と視聴者とが連携することへのインセンティブを与えることができる。 According to the fourth invention, it is possible to provide an incentive for the poster and the viewer to cooperate with each other.

第5の発明は、前記発動イベント制御手段が、前記投稿者キャラクタに定められた属性と、前記表示体、または、前記アクション操作入力を行った視聴者に設定された属性と、の相性に基づいて前記特典を変更して付与する(例えば、図18の属性関係条件572c)、第4の発明のサーバシステムである。 The fifth invention is based on the compatibility of the activation event control means with the attribute set for the poster character and the attribute set for the display body or the viewer who has performed the action operation input. This is the server system of the fourth invention, wherein the privilege is changed and given (for example, the attribute-related condition 572c in FIG. 18).

また、第6の発明は、前記発動イベント制御手段が、前記を満たした表示体が、前記行動影響制御によって表示位置が変化した表示体か否かに基づいて異なる特典を付与する(例えば、図18の行動影響条件572d)、第4または第5の発明のサーバシステムである。 Further, in the sixth invention, the activation event control means grants different benefits based on whether or not the display body satisfying the above is a display body whose display position has been changed by the action influence control (for example, FIG. 18 behavioral influence conditions 572d), the server system of the fourth or fifth invention.

また、第7の発明は、前記発動イベント制御手段が、前記投稿者端末の投稿者に付与する特典と、前記アクション操作入力を行った視聴者に付与する特典との比率を、前記行動影響制御の有無に基づいて可変に制御する(例えば、図18の第1付与比率573c、第2付与比率573d)、第4〜第6の何れかの発明のサーバシステムである。 Further, in the seventh invention, the behavioral influence control is performed by controlling the ratio of the privilege given to the poster of the poster terminal by the activation event control means to the privilege given to the viewer who has input the action operation. The server system according to any one of the fourth to sixth inventions, which is variably controlled based on the presence or absence of (for example, the first grant ratio 573c and the second grant ratio 573d in FIG. 18).

第5、第6、第7の発明の何れであっても、特典の付与のあり方に様々なバリエーションを設けることができる。投稿者と視聴者との連携にかかるインセンティブを更に高め、連携に係る興趣を更に高めることができる。 In any of the fifth, sixth, and seventh inventions, various variations can be provided in the way in which the privilege is given. The incentive for collaboration between posters and viewers can be further enhanced, and the interest in collaboration can be further enhanced.

第8の発明は、前記イベントエリア設定手段が、前記投稿者キャラクタの前記画像空間中の行動に基づいて、前記イベントエリアの設定位置を変化させる制御を行う(例えば、図12参照、図22のステップS20)、第3〜第7の何れかの発明のサーバシステムである。 In the eighth invention, the event area setting means controls to change the set position of the event area based on the behavior of the poster character in the image space (see, for example, FIG. 12, FIG. 22). Step S20), the server system according to any one of the third to seventh inventions.

また、第9の発明は、前記イベントエリア設定手段が、前記イベントエリアを複数設定し、前記発動イベント制御手段は、前記位置関係条件を満たした前記イベントエリアに応じて、異なる発動イベントを発動し、前記投稿者動画データ取得手段は、前記複数のイベントエリアのうちの特定のイベントエリアを指示するデータを前記投稿者端末から取得し(例えば、図22のステップS30)、前記配信用動画生成手段は、前記配信用動画に前記特定のイベントエリアを報知する画像または音声を含めて生成する、第3〜第8の何れかの発明のサーバシステムである。 Further, in the ninth invention, the event area setting means sets a plurality of the event areas, and the activation event control means activates different activation events according to the event area satisfying the positional relationship condition. The poster video data acquisition means acquires data indicating a specific event area among the plurality of event areas from the poster terminal (for example, step S30 in FIG. 22), and the distribution video generation means. Is a server system according to any one of the third to eighth inventions, which generates an image or a sound for notifying the specific event area in the distribution moving image.

また、第10の発明は、前記表示体出現制御手段が、前記投稿者キャラクタに定められたパラメータに基づいて前記表示体の飛距離を変化させる、第2〜第9の何れかの発明のサーバシステムである。 Further, in the tenth invention, the server of any one of the second to ninth inventions, wherein the display body appearance control means changes the flight distance of the display body based on the parameter defined for the poster character. It is a system.

また、第11の発明は、前記イベントエリアには、所与のエリア属性が設定されており、前記発動イベント制御手段は、前記を満たした前記イベントエリアのエリア属性と、前記移動体に係る属性とに基づいて、発動させる発動イベントを可変に制御する(例えば、図18の属性関係条件572c)、第2〜第10の何れかの発明のサーバシステムである。 Further, in the eleventh invention, a given area attribute is set in the event area, and the activation event control means has the area attribute of the event area satisfying the above and the attribute related to the moving body. Based on the above, the server system according to any one of the second to tenth inventions, which variably controls the activation event to be activated (for example, the attribute relation condition 572c in FIG. 18).

第12の発明は、前記行動影響制御手段が、前記投稿者キャラクタの行動が前記表示体を運搬する運搬行動条件を満たした場合、前記投稿者キャラクタが前記表示体を所与の運搬先に運搬するように前記表示体の表示位置を変化させる(例えば、図18の行動影響条件572d)、第1〜第11の何れかの発明のサーバシステムである。 According to the twelfth invention, when the behavior influence control means satisfies the transport behavior condition for transporting the display body, the poster character transports the display body to a given transport destination. The server system according to any one of the first to eleventh inventions, wherein the display position of the display body is changed (for example, the behavioral influence condition 572d in FIG. 18).

第8〜第12の発明の何れであっても、視聴者と投稿者との連携に係る要素を増やし、連携により生じる事象をより多彩にできる。 In any of the eighth to twelfth inventions, the elements related to the cooperation between the viewer and the poster can be increased, and the events caused by the cooperation can be made more diverse.

第13の発明は、前記行動影響制御手段が、前記投稿者キャラクタに定められたパラメータに基づいて前記行動影響制御の内容を変更する(例えば、図15の発動要件522)、第1〜第12の何れかの発明のサーバシステムである。 In the thirteenth invention, the behavioral influence control means changes the content of the behavioral influence control based on the parameters defined for the poster character (for example, the activation requirement 522 in FIG. 15), the first to twelfth. The server system of any of the inventions.

第13の発明によれば、パラメータ値を適切に設定することで、投稿者キャラクタに係り、行動影響制御の内容に制限を設けたり、行動影響制御を開放するといった仕組みを設けることができる。 According to the thirteenth invention, by appropriately setting the parameter value, it is possible to provide a mechanism for limiting the content of the behavioral influence control or opening the behavioral influence control with respect to the poster character.

第14の発明は、前記配信用動画に対する視聴者評価を集計する評価集計手段(例えば、図13のサーバ処理部200s、評価集計部222、図20の評価集計データ742、図22のステップS12)と、前記視聴者評価に基づいて前記投稿者キャラクタのパラメータ値を変更するパラメータ値変更制御手段(例えば、図13のサーバ処理部200s、投稿者キャラクタパラメータ値変更制御部224、図19の投稿者キャラクタパラメータ値612、図23のステップS82)と、
を備えた第1〜第13の何れかの発明のサーバシステムである。
The fourteenth invention is an evaluation aggregation means that aggregates viewer evaluations for the distribution video (for example, the server processing unit 200s in FIG. 13, the evaluation aggregation unit 222, the evaluation aggregation data 742 in FIG. 20, and step S12 in FIG. 22). And the parameter value change control means for changing the parameter value of the poster character based on the viewer evaluation (for example, the server processing unit 200s in FIG. 13, the poster character parameter value change control unit 224, and the poster in FIG. 19). Character parameter value 612, step S82) in FIG. 23,
The server system according to any one of the first to thirteenth inventions.

第14の発明によれば、投稿者キャラクタのパラメータ値を介在させることで、視聴者評価に基づいて行動影響制御に変化を加える、といったことが可能になる。 According to the fourteenth invention, it is possible to change the behavioral influence control based on the viewer's evaluation by interposing the parameter value of the poster character.

第15の発明は、前記投稿者動画データが、前記投稿者端末で操作される複数の投稿者キャラクタのデータを含み、前記配信用動画生成手段は、前記投稿者動画データに基づいて、前記複数の投稿者キャラクタの画像を含めた前記配信用動画を生成する、第1〜第14の何れかの発明のサーバシステムである。 In the fifteenth invention, the poster video data includes data of a plurality of poster characters operated by the poster terminal, and the distribution video generation means is based on the poster video data. The server system according to any one of the first to fourth inventions, which generates the video for distribution including the image of the poster character of the above.

第15の発明によれば、複数の投稿者キャラクタの画像を含めた配信用動画を生成できる。 According to the fifteenth invention, it is possible to generate a moving image for distribution including images of a plurality of contributor characters.

第16の発明は、投稿者端末と、視聴者端末と、前記投稿者端末および前記視聴者端末と通信接続された第1〜第15の何れか発明のサーバシステムと、を具備した動画配信システムである。 The sixteenth invention is a video distribution system including a poster terminal, a viewer terminal, and a server system according to any one of the first to fifteenth inventions, which is communication-connected to the poster terminal and the viewer terminal. Is.

第16の発明によれば、第1〜第15の何れかの発明と同様の効果を奏する動画配信システムを実現できる。 According to the sixteenth invention, it is possible to realize a moving image distribution system having the same effect as that of any one of the first to fifteenth inventions.

動画配信システムの構成例を示す図。The figure which shows the configuration example of a video distribution system. ユーザ端末の構成例を示す正面図。The front view which shows the configuration example of a user terminal. ライブ配信のための動画投稿について説明するための図。Diagram to explain video posting for live distribution. 投稿者端末による投稿者動画データのサーバシステムへアップロードについて説明するための図。The figure for demonstrating the uploading of the poster video data to the server system by the poster terminal. 配信用動画の生成と配信について説明するための図。The figure for demonstrating the generation and distribution of the video for distribution. ミニゲームに係る配信用動画の例を示す図。The figure which shows the example of the video for distribution which concerns on a mini game. 投入実行のアクション操作の一例を示す図。The figure which shows an example of the action operation of input execution. 投げ銭に係る特典付与について説明するための図。The figure for demonstrating the privilege grant to throw money. 投稿者と視聴者との連携の一例について説明するための図(その1)。The figure (1) for explaining an example of cooperation between a poster and a viewer. 投稿者と視聴者との連携の一例について説明するための図(その2)。The figure (2) for explaining an example of cooperation between a poster and a viewer. 投稿者と視聴者との連携の一例について説明するための図(その3)。The figure (3) for explaining an example of cooperation between a poster and a viewer. 投稿者キャラクタによるイベントエリアオブジェクトの設定変更について説明するための図。The figure for demonstrating the setting change of the event area object by a poster character. サーバシステムの機能構成例を示す機能ブロック図。A functional block diagram showing an example of functional configuration of a server system. サーバ記憶部が記憶するプログラムやデータの例を示す図。The figure which shows the example of the program and data which the server storage part stores. キャラクタ定義データのデータ構成例を示す図。The figure which shows the data structure example of the character definition data. イベントエリアオブジェクト定義データのデータ構成例を示す図。The figure which shows the data structure example of the event area object definition data. アイテム定義データのデータ構成例を示す図。The figure which shows the data structure example of the item definition data. 発動イベント定義データのデータ構成例を示す図。The figure which shows the data structure example of the activation event definition data. ユーザ管理データのデータ構成例を示す図。The figure which shows the data structure example of the user management data. 配信管理データのデータ構成例を示す図。The figure which shows the data structure example of the distribution management data. ユーザ端末1500の機能構成例を示す機能ブロック図。The functional block diagram which shows the functional configuration example of the user terminal 1500. ライブ配信に係るサーバシステムの処理の流れについて説明するためのフローチャート。A flowchart for explaining the processing flow of the server system related to live distribution. 図22より続くフローチャート。The flowchart which continues from FIG. 配信用動画の変形例を示す図。The figure which shows the modification of the video for distribution. プレイデータのデータ構成例を示す図。The figure which shows the data structure example of the play data. 投稿素材データの変形例のデータ構成例を示す図。The figure which shows the data structure example of the transformation example of the posted material data. 配信用動画の生成用の仮想3次元空間に配置するオブジェクト等の例を示す図。The figure which shows the example of the object which arranges in the virtual 3D space for generating the moving image for distribution.

以下、本発明の実施形態の一例を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。 Hereinafter, an example of the embodiment of the present invention will be described, but it goes without saying that the embodiment to which the present invention can be applied is not limited to the following embodiment.

図1は、本実施形態の動画配信システム1000の構成例を示す図である。動画配信システム1000は、ネットワーク9を介して相互にデータ通信が可能に接続されたサーバシステム1100と、複数のユーザ端末1500(1500a,1500b)とを含む。 FIG. 1 is a diagram showing a configuration example of the moving image distribution system 1000 of the present embodiment. The video distribution system 1000 includes a server system 1100 connected to each other via a network 9 so as to enable data communication, and a plurality of user terminals 1500 (1500a, 1500b).

ネットワーク9は、データ通信が可能な通信路を意味する。すなわち、ネットワーク9とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。 The network 9 means a communication path capable of data communication. That is, the network 9 means a telephone communication network, a cable network, a communication network such as the Internet, as well as a LAN (Local Area Network) using a dedicated line (dedicated cable) for direct connection and Ethernet (registered trademark). In addition, the communication method may be wired or wireless.

サーバシステム1100は、例えば、キーボード1106と、タッチパネル1108と、ストレージ1140とを有し、本体装置1101には制御基板1150を搭載する。 The server system 1100 has, for example, a keyboard 1106, a touch panel 1108, and a storage 1140, and a control board 1150 is mounted on the main body device 1101.

制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部または全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field-Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。 The control board 1150 is equipped with various microprocessors such as a CPU (Central Processing Unit) 1151, a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), various IC memories 1152 such as VRAM, RAM, and ROM, and a communication device 1153. Has been done. A part or all of the control board 1150 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a SoC (System on a Chip).

そして、サーバシステム1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、
1)ユーザの登録や、ユーザ別の情報を管理するユーザ管理機能と、
2)投げ銭アイテムのオンラインショッピング機能と、
3)ユーザ端末1500にてオンラインゲームをプレイ可能にするゲーム提供機能と、
4)投稿者となるユーザである投稿ユーザ2aのユーザ端末1500a(視聴者端末)から、投稿動画のデータを取得する投稿機能と、
5)投稿動画のデータに基づいて配信用動画を生成して、視聴者となるユーザである視聴ユーザ2bのユーザ端末1500b(視聴者端末)に配信するライブ配信機能と、
を実現する。
Then, in the server system 1100, the control board 1150 performs arithmetic processing based on a predetermined program and data.
1) User registration and user management function to manage information for each user,
2) Online shopping function for thrown items and
3) A game providing function that enables online games to be played on the user terminal 1500,
4) A posting function that acquires data of posted videos from the user terminal 1500a (viewer terminal) of the posting user 2a who is the user who is the poster, and
5) A live distribution function that generates a distribution video based on the posted video data and distributes it to the user terminal 1500b (viewer terminal) of the viewing user 2b who is the viewer.
To realize.

なお、図1では、サーバシステム1100を1台のサーバ装置として描いているが、オンライン接続された複数のサーバ装置が、ユーザ管理機能・オンラインショッピング機能・ゲーム提供機能・投稿機能・ライブ配信機能の1つまたは複数の機能を分担する構成であってもよい。また、サーバシステム1100は、各機能を分担する複数のブレードサーバを搭載して相互に内部バスを介してデータ通信可能に接続した構成であってもよい。離れた場所に設置された独立した複数のサーバ装置を、ネットワーク9を介してデータ通信させることで、全体としてサーバシステム1100として機能させる構成であってもよい。 In FIG. 1, the server system 1100 is depicted as one server device, but a plurality of server devices connected online have a user management function, an online shopping function, a game providing function, a posting function, and a live distribution function. It may be configured to share one or a plurality of functions. Further, the server system 1100 may have a configuration in which a plurality of blade servers sharing each function are mounted and connected to each other via an internal bus so that data communication is possible. A plurality of independent server devices installed at remote locations may be configured to function as the server system 1100 as a whole by performing data communication via the network 9.

ユーザ端末1500(1500a,1500b)は、ユーザ2(2a,2b,…)が動画の投稿や動画の視聴のために個別に使用するコンピュータシステムであって、ネットワーク9を介してサーバシステム1100にアクセスできる電子装置(電子機器)である。本実施形態のユーザ端末1500は、いわゆるスマートフォンと呼ばれる装置であるが、携帯型ゲーム装置や、タブレット型コンピュータ、パーソナルコンピュータ、などでもよい。 The user terminal 1500 (1500a, 1500b) is a computer system individually used by the user 2 (2a, 2b, ...) For posting a video or watching a video, and accesses the server system 1100 via the network 9. It is an electronic device (electronic device) that can be used. The user terminal 1500 of the present embodiment is a device called a so-called smartphone, but may be a portable game device, a tablet computer, a personal computer, or the like.

なお、図1では、投稿者となるユーザである投稿ユーザ2aのユーザ端末1500a(視聴者端末)と、視聴者となるユーザである視聴ユーザ2bのユーザ端末1500b(視聴者端末)と、をそれぞれ1台ずつ図示しているが、実際の運用に当たっては、複数の投稿ユーザが存在して、それぞれ投稿者端末を使用してサーバシステム1100へアクセスする。同様に、実際の運用に当たっては、複数の視聴ユーザが存在して、それぞれ視聴者端末を使用してサーバシステム1100へアクセスする。 In FIG. 1, the user terminal 1500a (viewer terminal) of the posting user 2a who is the poster user and the user terminal 1500b (viewer terminal) of the viewing user 2b who is the viewer user are shown. Although the figures are shown one by one, in actual operation, there are a plurality of posting users, each of whom accesses the server system 1100 using the posting terminal. Similarly, in actual operation, there are a plurality of viewing users, each of whom accesses the server system 1100 using the viewer terminal.

図2は、本実施形態におけるユーザ端末1500の構成例を示す正面図である。
ユーザ端末1500は、方向入力キー1502と、ボタンスイッチ1504と、画像表示デバイス兼接触位置入力デバイスとして機能するタッチパネル1506と、スピーカ1510と、内蔵バッテリー1509と、マイク1512と、カメラ1520と、制御基板1550と、コンピュータ読み出し可能な記憶媒体であるメモリカード1540からデータを読み書きできるメモリカード読取装置1542と、を備える。その他、図示されていない電源ボタン、音量調節ボタン等が設けられている。また、ゲームプレイ等の対価の支払いが可能なICカード型のクレジットカードやプリペイドカードに対して非接触にデータの読み書きが行えるICカード読取装置などを設けるとしてもよい。
FIG. 2 is a front view showing a configuration example of the user terminal 1500 according to the present embodiment.
The user terminal 1500 includes a direction input key 1502, a button switch 1504, a touch panel 1506 that functions as an image display device and a contact position input device, a speaker 1510, a built-in battery 1509, a microphone 1512, a camera 1520, and a control board. It includes a 1550 and a memory card reader 1542 that can read and write data from a memory card 1540, which is a computer-readable storage medium. In addition, a power button, a volume control button, etc. (not shown) are provided. Further, an IC card reader or the like capable of reading and writing data in a non-contact manner with respect to an IC card type credit card or a prepaid card capable of paying for game play or the like may be provided.

制御基板1550は、1)CPU1551や、GPU,DSPなどの各種マイクロプロセッサ、2)VRAMやRAM,ROM等の各種ICメモリ1552、3)ネットワーク9に接続する携帯電話基地局や無線LAN基地局などと無線通信するための無線通信モジュール1553、4)インターフェース回路1557、などを搭載する。 The control board 1550 includes 1) CPU 1551, various microprocessors such as GPU and DSP, 2) various IC memories such as VRAM, RAM and ROM 1552, 3) mobile phone base station and wireless LAN base station connected to network 9. It is equipped with a wireless communication module 1553, 4) interface circuit 1557, etc. for wireless communication with.

インターフェース回路1557には、タッチパネル1506のドライバ回路、方向入力キー1502およびボタンスイッチ1504からの信号を受信する回路、スピーカ1510へ音声信号を出力する出力アンプ回路、マイク1512で集音した音声の信号を生成する入力信号生成回路、カメラ1520で撮影された画像の画像データを入力する回路、メモリカード読取装置1542への信号入出力回路、などが含まれている。 The interface circuit 1557 includes a driver circuit of the touch panel 1506, a circuit for receiving signals from the direction input key 1502 and the button switch 1504, an output amplifier circuit for outputting an audio signal to the speaker 1510, and an audio signal collected by the microphone 1512. It includes an input signal generation circuit to be generated, a circuit for inputting image data of an image taken by the camera 1520, a signal input / output circuit to a memory card reader 1542, and the like.

制御基板1550に搭載されているこれらの要素は、バス回路などを介して電気的に接続され、データの読み書きや信号の送受信が可能に接続されている。なお、制御基板1550の一部または全部をASICやFPGA、SoCにて構成してもよい。そして、制御基板1550は、本実施形態のゲームのユーザ端末としての機能を実現させるためのプログラムや各種データをICメモリ1552に記憶する。 These elements mounted on the control board 1550 are electrically connected via a bus circuit or the like, and are connected so as to be able to read / write data and send / receive signals. A part or all of the control board 1550 may be composed of ASIC, FPGA, or SoC. Then, the control board 1550 stores the program and various data for realizing the function as the user terminal of the game of the present embodiment in the IC memory 1552.

なお、本実施形態では、ユーザ端末1500はプログラムや各種設定データをサーバシステム1100からダウンロードする構成としているが、別途入手したメモリカード1540などの記憶媒体から読み出す構成としても良い。 In the present embodiment, the user terminal 1500 is configured to download programs and various setting data from the server system 1100, but it may be configured to be read from a storage medium such as a separately obtained memory card 1540.

図3は、本実施形態におけるライブ配信のための動画投稿について説明するための図である。ライブ配信は、投稿ユーザ2aがユーザ端末1500a(投稿者端末)と、配信日時を登録する。配信日時前になると、投稿ユーザ2aは、投稿者端末(ユーザ端末1500a)でサーバシステム1100へ予約していた投稿ユーザとしてアクセスする。 FIG. 3 is a diagram for explaining video posting for live distribution in the present embodiment. In the live distribution, the posting user 2a registers the user terminal 1500a (poster terminal) and the distribution date and time. Before the delivery date and time, the posting user 2a accesses the server system 1100 as a posting user reserved on the poster terminal (user terminal 1500a).

投稿ユーザ2aは、投稿者端末(ユーザ端末1500a)の無線式のコントローラ3を手に持って、ブルーバックなどの前に立って、ライブ配信における番組ホストである投稿者キャラクタを演じる。 The posting user 2a holds the wireless controller 3 of the poster terminal (user terminal 1500a) in his hand, stands in front of a blue back or the like, and plays the poster character who is the program host in the live distribution.

投稿者端末(ユーザ端末1500a)では、所定のプログラムが実行されており、ライブ配信用の投稿モードで作動している。投稿者端末(ユーザ端末1500a)は、三脚等に固定されており、搭載されているカメラ1520で投稿ユーザ2aのライブ映像10を撮影し、搭載されているマイク1512で投稿ユーザ2aのライブ音声12を拾う。 On the poster terminal (user terminal 1500a), a predetermined program is executed and is operating in the posting mode for live distribution. The poster terminal (user terminal 1500a) is fixed to a tripod or the like, and the live image 10 of the posting user 2a is captured by the built-in camera 1520, and the live audio 12 of the posting user 2a is taken by the mounted microphone 1512. Pick up.

投稿ユーザ2aは、ライブ画像やライブ音声のモニター用として、ヘッドマウントディスプレイやヘッドフォンを装着するとしてもよい。 The posting user 2a may wear a head-mounted display or headphones for monitoring live images and live sounds.

投稿者端末(ユーザ端末1500a)は、モーションキャプチャー処理を常時実行しており、ライブ映像10からリアルタイムに投稿ユーザ2aの投稿者モーションデータ712を作成する。また、投稿者端末(ユーザ端末1500a)は、音声キャプチャー処理を常時実行しており、リアルタイムにライブ音声12から投稿者音声データ713を作成する。 The poster terminal (user terminal 1500a) constantly executes the motion capture process, and creates the poster motion data 712 of the posting user 2a in real time from the live video 10. Further, the poster terminal (user terminal 1500a) constantly executes the voice capture process, and creates the poster voice data 713 from the live voice 12 in real time.

ライブ配信を拡張現実空間の映像とする場合、言い換えると画像空間を拡張現実空間とする場合は、適宜、ARマーカ5を用意して、カメラ1520で投稿ユーザ2aとともに撮影する。この場合、投稿者モーションデータ712は、ARマーカ5とカメラ1520との相対位置、相対姿勢、撮影画角の各情報と、現実空間の画像データと、を含むことになる。ライブ配信を仮想現実空間の映像とする場合、言い換えると画像空間を仮想空間とする場合は、必ずしもARマーカ5は用いなくてもよい。 When the live distribution is an image of the augmented reality space, in other words, when the image space is the augmented reality space, an AR marker 5 is appropriately prepared and the camera 1520 shoots the image together with the posting user 2a. In this case, the poster motion data 712 includes information on the relative position, relative posture, and shooting angle of view of the AR marker 5 and the camera 1520, and image data in the real space. When the live distribution is a video in a virtual reality space, in other words, when the image space is a virtual space, the AR marker 5 does not necessarily have to be used.

図4に示すように、投稿者端末(ユーザ端末1500a)は、ライブ配信の間、常に、投稿者動画データ710をサーバシステム1100へアップロードし続ける。 As shown in FIG. 4, the poster terminal (user terminal 1500a) constantly uploads the poster video data 710 to the server system 1100 during the live distribution.

投稿者動画データ710は、投稿ユーザ2aが投稿する動画に係るデータであって、投稿ユーザ2aの投稿時のアバターに相当する投稿者キャラクタ4を仮想空間画像または拡張現実画像として表示させるためのデータを含む。言い換えると、投稿者動画データ710は、投稿者端末(ユーザ端末1500a)で操作される投稿者キャラクタが行動可能な仮想空間または拡張現実空間である画像空間の投稿者キャラクに係る最新状態を記述するデータである。 The poster video data 710 is data related to the video posted by the posting user 2a, and is data for displaying the poster character 4 corresponding to the avatar at the time of posting by the posting user 2a as a virtual space image or an augmented reality image. including. In other words, the poster video data 710 describes the latest state related to the poster character in the virtual space or the augmented reality space in which the poster character operated by the poster terminal (user terminal 1500a) can act. It is data.

具体的には、投稿者動画データ710は、例えば、投稿者モーションデータ712と、投稿者音声データ713と、投稿素材データ714と、を含む。投稿者モーションデータ712と、投稿者音声データ713と、は、本実施形態ではライブ配信の主素材とし、投稿素材データ714はライブ配信の副素材とする。投稿素材データ714は、例えば、別途録画されたゲームプレイ動画であったり、背景画像、スーパーインポーズ用の素材データ、効果音データ、ライブ配信の画面レイアウト、などである。投稿素材データ714の種類や数は図示の例に限らず、投稿ユーザ2aが自由に決められる。 Specifically, the poster video data 710 includes, for example, the poster motion data 712, the poster audio data 713, and the posted material data 714. In the present embodiment, the poster motion data 712 and the poster audio data 713 are used as the main material for live distribution, and the posted material data 714 is used as a sub-material for live distribution. The posted material data 714 is, for example, a separately recorded game play moving image, a background image, material data for superimpose, sound effect data, a screen layout for live distribution, and the like. The type and number of posted material data 714 are not limited to the illustrated examples, and the posted user 2a can be freely determined.

図5に示すように、サーバシステム1100は、投稿者端末(1500a)から、投稿者動画データ710を受信すると、これに基づいてライブ配信用の配信用動画22を生成する。具体的には、サーバシステム1100は、配信用動画22を生成するための仮想3次元空間を設定し、ここに投稿ユーザ2aが予め登録した投稿者キャラクタ4のオブジェクトを配置し、投稿者モーションデータ712に従ってリアルタイムに動作制御する。また、当該ライブ配信の視聴ユーザ2bが予め登録していた視聴者キャラクタ6のオブジェクトと、仮想3次元空間には画像生成の視点となる仮想カメラと、を配置する。 As shown in FIG. 5, when the server system 1100 receives the poster video data 710 from the poster terminal (1500a), the server system 1100 generates a distribution video 22 for live distribution based on the poster video data 710. Specifically, the server system 1100 sets a virtual three-dimensional space for generating the video 22 for distribution, arranges an object of the poster character 4 registered in advance by the posting user 2a, and poster motion data. The operation is controlled in real time according to 712. Further, an object of the viewer character 6 registered in advance by the viewing user 2b of the live distribution and a virtual camera serving as a viewpoint of image generation are arranged in the virtual three-dimensional space.

ライブ配信の配信用動画22を、仮想空間画像のみとする場合、端的に言えば3DCGのみで構成された画像とする場合には、仮想カメラは、所定の初期位置に固定配置される。そして、サーバシステム1100は、その様子を仮想カメラで撮影した画像をレンダリングし、配信用動画のベース画像とする。 When the distribution moving image 22 for live distribution is only a virtual space image, or simply an image composed of only 3DCG, the virtual camera is fixedly arranged at a predetermined initial position. Then, the server system 1100 renders an image of the situation taken by the virtual camera and uses it as a base image of the moving image for distribution.

ライブ配信の配信用動画22を拡張現実画像とする場合には、仮想カメラは、ARマーカ5と投稿者端末(1500a)との相対位置・相対姿勢を再現し、カメラ1520の撮影画角を再現して配置する。そして、サーバシステム1100は、仮想カメラで撮影した投稿者キャラクタ4や、視聴者キャラクタ6をレンダリングし、投稿者動画データ710に含まれている現実空間の画像に合成して、配信用動画22のベース画像とする。 When the live distribution video 22 is used as an augmented reality image, the virtual camera reproduces the relative position and posture of the AR marker 5 and the poster terminal (1500a), and reproduces the shooting angle of view of the camera 1520. And place it. Then, the server system 1100 renders the poster character 4 and the viewer character 6 taken by the virtual camera, synthesizes them with the image in the real space included in the poster video data 710, and distributes the video 22 for distribution. Use as a base image.

そして、サーバシステム1100は、ベース画像へ、投稿素材データ714を画像合成し、投稿者音声データ713を音声合成して配信用動画22を生成する。そして、視聴者端末(ユーザ端末1500b)へライブ配信する。 Then, the server system 1100 synthesizes the posted material data 714 with the base image and voice-synthesizes the poster voice data 713 to generate the distribution moving image 22. Then, the live distribution is performed to the viewer terminal (user terminal 1500b).

なお、ライブ配信なので、配信用動画22は、モニター用として投稿者端末(ユーザ端末1500a)にも配信される。 Since it is a live distribution, the distribution moving image 22 is also distributed to the poster terminal (user terminal 1500a) for monitoring.

さて、動画配信システム1000は、投稿者と視聴者とが画像空間内で連携できるように構成されている。具体的には、画像空間内で、投稿者が設定したイベントエリアを標的として視聴者が投げ銭をして、玉入れ的ミニゲームをプレイできるようになっている。 By the way, the video distribution system 1000 is configured so that the poster and the viewer can cooperate in the image space. Specifically, in the image space, the viewer can throw money at the event area set by the poster and play a mini-game like a ball.

図6は、ミニゲームに係る配信用動画22の例を示す図であって、(1)イベントエリアが設定される前の画像の例、(2)イベントエリアが設定され、ミニゲームがプレイ中の画像の例、をそれぞれ示している。 FIG. 6 is a diagram showing an example of a distribution video 22 related to a mini game, in which (1) an example of an image before the event area is set, and (2) an event area is set and the mini game is being played. An example of the image of is shown respectively.

サーバシステム1100は、投稿者端末(ユーザ端末1500a)から、所定のイベントエリア設定リクエストを受け付けると、仮想3次元空間に配置されている仮想カメラの位置や画面内のレイアウトを、投稿者キャラクタ4から離すように自動変更、或いは撮影画角の設定を広角側へ自動変更して、配信用動画22の中でミニゲームがプレイできるだけのスペースを作る。 When the server system 1100 receives a predetermined event area setting request from the poster terminal (user terminal 1500a), the position of the virtual camera arranged in the virtual three-dimensional space and the layout in the screen are changed from the poster character 4. It is automatically changed so that it is separated, or the setting of the shooting angle of view is automatically changed to the wide-angle side to create a space in the distribution video 22 for playing the mini game.

次に、サーバシステム1100は、投稿者端末(ユーザ端末1500a)にて、イベントエリアオブジェクト30の選択肢を提示し、投稿ユーザ2aによるイベントエリア選択操作と配置操作(例えば、メニューからのドラッグ&ドロップ操作)に応じて、仮想3次元空間内にイベントエリアオブジェクト30(30a,30b,…)を配置してイベントエリアを設定する。 Next, the server system 1100 presents the options of the event area object 30 on the poster terminal (user terminal 1500a), and the event area selection operation and arrangement operation (for example, drag and drop operation from the menu) by the posting user 2a. ), The event area objects 30 (30a, 30b, ...) Are arranged in the virtual three-dimensional space to set the event area.

イベントエリアオブジェクト30は、イベントエリアを規定するオブジェクトである。イベントエリアオブジェクト30には、様々な形状、大きさ、動作が異なる複数種類が用意されている。図6の例では、イベントエリアオブジェクト30は、玉入れのカゴとして機能するが開口方向を変えるように回転するリング型や、カップ型、をしている。勿論、ミニゲームの内容に応じて、その形状は適宜設定可能である。 The event area object 30 is an object that defines an event area. A plurality of types of event area objects 30 having different shapes, sizes, and movements are prepared. In the example of FIG. 6, the event area object 30 has a ring type or a cup type that functions as a basket for a ball case but rotates so as to change the opening direction. Of course, the shape can be appropriately set according to the content of the mini game.

投稿ユーザ2aが、声で或いはテロップの挿入などによって、視聴ユーザ2bへ向けて、ミニゲームのプレイを促すと、視聴ユーザ2bは、これに応えてイベントエリアオブジェクト30を目がけて「投げ銭」を開始する。 When the posting user 2a urges the viewing user 2b to play the mini-game by voice or by inserting a telop, the viewing user 2b responds by making a "throwing money" toward the event area object 30. Start.

サーバシステム1100は、視聴者端末(ユーザ端末1500b)にて、所定の投げ銭リクエスト操作の入力を検出すると、当該端末の視聴ユーザ2bが所有するアイテム8の一覧を提示し、その中から投げ銭に使用するアイテムの選択を受け付ける。そして、視聴者端末(ユーザ端末1500b)にて、投入を実行する所定のアクション操作入力を受け付ける。 When the server system 1100 detects the input of a predetermined throwing request operation on the viewer terminal (user terminal 1500b), the server system 1100 presents a list of items 8 owned by the viewing user 2b of the terminal, and uses the list for throwing money. Accepts the selection of items to do. Then, the viewer terminal (user terminal 1500b) accepts a predetermined action operation input for executing the input.

投入実行のアクション操作は、適宜設定可能である。
例えば図7は、投入実行のアクション操作の一例を示す図である。なお、操作の理解を容易にするために、アクション操作に関連するモノ以外は破線で示している。投入実行のアクション操作は、例えば、配信用動画22内の視聴者キャラクタ6を起点とし、イベントエリアオブジェクト30に向けて行うフリック操作(図7中の網掛け矢印)とされる。
The action operation of input execution can be set as appropriate.
For example, FIG. 7 is a diagram showing an example of an action operation of input execution. In addition, in order to facilitate understanding of the operation, items other than those related to the action operation are shown by broken lines. The action operation of the input execution is, for example, a flick operation (shaded arrow in FIG. 7) performed from the viewer character 6 in the distribution moving image 22 toward the event area object 30.

サーバシステム1100は、射出点を視聴者キャラクタ6とし、移動経路を擬似放物線とする。フリック操作の向きは投入方向で決定し、射出速度または射出力は、フリックの速さまたはフリックされている長さで決定する。その際、射出速度または射出力は、投稿者キャラクタ4に定められたパラメータの値(例えば、キャラクタレベルなど)に基づいて決定し、アイテム8(表示体)の飛距離(移動距離)を変化させる。 In the server system 1100, the ejection point is the viewer character 6, and the movement path is a pseudo parabola. The direction of the flick operation is determined by the injection direction, and the injection speed or the emission output is determined by the speed of the flick or the length of the flick. At that time, the injection speed or the emission output is determined based on the value of the parameter (for example, character level) defined for the poster character 4, and the flight distance (movement distance) of the item 8 (display body) is changed. ..

勿論、投入実行のアクション操作は、フリック操作に限らない。タッチパネル1506が、押圧検出が可能なタイプであれば、視聴者キャラクタ6の表示位置とタッチ位置との相対位置で投入方向を決定し、押圧力で射出速度または射出力を決定するとしてもよい。 Of course, the action operation of input execution is not limited to the flick operation. If the touch panel 1506 is of a type capable of detecting pressing, the injection direction may be determined by the relative position between the display position and the touch position of the viewer character 6, and the injection speed or the emission output may be determined by the pressing force.

サーバシステム1100は、投入実行のアクション操作の入力を検出すると、選択されたアイテム8を仮想3次元空間の視聴者キャラクタ6付近に出現させ、アクション操作に基づいて決定された投入諸元で、擬似物理演算処理により擬似放物運動をさせる。 When the server system 1100 detects the input of the action operation of the input execution, the selected item 8 appears in the vicinity of the viewer character 6 in the virtual three-dimensional space, and the input specifications determined based on the action operation are used as pseudo. Pseudo parabolic motion is performed by physical calculation processing.

図8は、投げ銭に係る特典付与について説明するための図である。
仮想3次元空間内に出現したアイテム8は、所定時間すると仮想3次元空間内から消去される。つまり、イベントエリア(イベントエリアオブジェクト30の開口部など)に入らなかったと見なされたアイテム8は、仮想3次元空間内にて、暫く床に置かれたままとなり、やがて消える。
FIG. 8 is a diagram for explaining the granting of benefits related to throwing money.
The item 8 that appears in the virtual three-dimensional space is erased from the virtual three-dimensional space after a predetermined time. That is, the item 8 deemed to have not entered the event area (such as the opening of the event area object 30) remains on the floor for a while in the virtual three-dimensional space, and then disappears.

しかし、アイテム8が何れかのイベントエリアオブジェクト30と、所定の位置関係条件を満たすと(具体的には、イベントエリアオブジェクト30に入れば)、サーバシステム1100は、当該アイテム8と当該イベントエリアオブジェクト30とに基づいて、発動イベントを発動させる。本実施形態では、発動イベントとして、投稿ユーザ2aと、当該アイテム8を用いて投げ銭をした視聴ユーザ2bとの一方または両方に特典を付与する。 However, when the item 8 satisfies a predetermined positional relationship condition with any of the event area objects 30 (specifically, if the item 8 enters the event area object 30), the server system 1100 determines the item 8 and the event area object. Trigger an activation event based on 30 and. In the present embodiment, as an activation event, a privilege is given to one or both of the posting user 2a and the viewing user 2b who has thrown money using the item 8.

図8の例では、サーバシステム1100は、イベントエリアオブジェクト30別に設定されているポイントを付与することで、特典付与としている。このポイントは、ユーザ別に累積管理され、後に特典との引き換えに使用される。勿論、投入されたアイテム8がイベントエリアオブジェクト30に入ったタイミングで、特典用のアイテムを付与するとしてもよい。 In the example of FIG. 8, the server system 1100 gives a privilege by giving points set for each event area object 30. This point is cumulatively managed for each user and later used in exchange for benefits. Of course, the item for privilege may be given at the timing when the thrown item 8 enters the event area object 30.

サーバシステム1100は、特典内容をその都度、変更・設定して付与する。
具体的には、サーバシステム1100は、位置関係条件を満たしたアイテム8と、それが入ったイベントエリアオブジェクト30の組み合わせに基づいて、特典を変更・設定する。当該アイテム8の大きさや形状から、見た目的に入れることが難しいイベントエリアオブジェクト30ほど、同じ数の投げ銭であっても、より高評価となるように設定されている。本実施形態では、1つの投げ銭に対してより高いポイントが付与されることでこれを実現する。
The server system 1100 changes / sets and grants the privilege content each time.
Specifically, the server system 1100 changes and sets the privilege based on the combination of the item 8 satisfying the positional relationship condition and the event area object 30 containing the item 8. Due to the size and shape of the item 8, the event area object 30, which is difficult to put into the intended purpose, is set so as to be highly evaluated even if the same number of coins are thrown. In the present embodiment, this is realized by giving higher points to one thrown money.

また、サーバシステム1100は、投稿者キャラクタ4に定められた属性と、位置関係条件を満たしたアイテム8に係り設定された属性(アイテム8に設定されている属性、当該アイテム8の投げ銭を行った視聴ユーザ2bまたは当該視聴ユーザ2bの視聴者キャラクタ6に設定された属性、の何れかまたは両方)と、の相性に基づいて特典を変更・設定する。本実施形態では、付与されるポイントを増減することでこれを実現する。 Further, the server system 1100 has performed the attributes defined for the poster character 4 and the attributes set for the item 8 satisfying the positional relationship condition (attributes set for the item 8 and the money for the item 8). The privilege is changed / set based on the compatibility with the viewing user 2b or the attribute set in the viewer character 6 of the viewing user 2b). In this embodiment, this is achieved by increasing or decreasing the points given.

また、サーバシステム1100は、イベントエリアオブジェクト30に設定されているエリア属性と、位置関係条件を満たしたアイテム8に係り設定された属性とに基づいて、特典を変更・設定する。 Further, the server system 1100 changes / sets the privilege based on the area attribute set in the event area object 30 and the attribute set in relation to the item 8 satisfying the positional relationship condition.

また、サーバシステム1100は、投稿ユーザ2aが、複数のイベントエリアオブジェクト30のなかから指定操作した特定のイベントエリアオブジェクト30について、位置関係条件が満たされた場合には、特典が加増する。 Further, in the server system 1100, if the posting user 2a satisfies the positional relationship condition for the specific event area object 30 designated and operated from among the plurality of event area objects 30, the privilege is added.

図8(1)が、投稿ユーザ2aが指定したイベントエリアオブジェクト30にアイテム8が入った場合の例を示し、図8(2)では、投稿ユーザ2aが指定したイベントエリアオブジェクト30以外にアイテム8が入った場合の例を示している。前者の方では付与されるポイントに特別加算がされている。 FIG. 8 (1) shows an example in which the item 8 is included in the event area object 30 specified by the posting user 2a. In FIG. 8 (2), the item 8 other than the event area object 30 specified by the posting user 2a is shown. An example is shown when is entered. In the former case, special addition is added to the points given.

なお、どのイベントエリアオブジェクト30が特定のイベントエリアオブジェクト30であるかは、投稿ユーザ2aが、声で示すとしても良いし、投稿者キャラクタ4の動作で示すとしてもよい。当該オブジェクトを明滅させるなどの表示形態の変化で、視聴ユーザ2bへ知らせるとしてもよい。本実施形態では後者とする。 It should be noted that which event area object 30 is a specific event area object 30 may be indicated by the posting user 2a by voice or by the action of the poster character 4. The viewing user 2b may be notified by a change in the display form such as blinking the object. In this embodiment, the latter is used.

さて、イベントエリアが設定されている間、つまり本実施形態で言う所のミニゲームがプレイ可能になっている間、投稿ユーザ2aが投稿者キャラクタ4を介して仮想3次元空間内で行う行動は、ミニゲームに影響を与え、投稿者と視聴者との連携を生み出す。 By the way, while the event area is set, that is, while the mini game referred to in the present embodiment is playable, the action performed by the posting user 2a in the virtual three-dimensional space via the posting character 4 is , Affect mini-games and create collaboration between posters and viewers.

図9は、投稿者と視聴者との連携の一例について説明するための図であって、投稿者キャラクタ4がイベントエリアオブジェクト30に入らなかったアイテム8をイベントエリアオブジェクト30へ運搬する行動の例を示している。 FIG. 9 is a diagram for explaining an example of cooperation between the poster and the viewer, and is an example of an action in which the poster character 4 transports the item 8 that did not enter the event area object 30 to the event area object 30. Is shown.

サーバシステム1100は、投稿ユーザ2aにより特別行動操作が入力されると、投稿者キャラクタ4を、当該特別行動操作に対応づけられている行動をするように動作制御する。 When the posting user 2a inputs a special action operation, the server system 1100 controls the operation of the poster character 4 so as to perform an action associated with the special action operation.

図9(1)の例では、投稿ユーザ2aは、運搬行動の開始操作に対応づけられているアクションを実行している。このアクションは、投稿者端末(ユーザ端末1500a)が投稿者モーションデータ712に変換し、サーバシステム1100へ提供する。サーバシステム1100は、投稿者モーションデータ712からこのアクションを検出すると、運搬行動の開始の操作入力有りと判定し、投稿者キャラクタ4に「拾い行動」をさせる。「拾い行動」とは、投稿ユーザ2aの正面方向Dfに対応する方向である投稿者キャラクタ4の前方方向に自動的に移動しながら、投稿者キャラクタ4の前方に落ちているアイテム8を拾い上げる行動である。 In the example of FIG. 9 (1), the posting user 2a executes an action associated with the start operation of the carrying action. In this action, the poster terminal (user terminal 1500a) converts the poster motion data 712 and provides it to the server system 1100. When the server system 1100 detects this action from the poster motion data 712, it determines that there is an operation input for starting the carrying action, and causes the poster character 4 to perform a "picking action". The "pick-up action" is an action of picking up an item 8 that has fallen in front of the poster character 4 while automatically moving in the forward direction of the poster character 4, which is a direction corresponding to the front direction Df of the posting user 2a. Is.

図9(2)の例では、投稿ユーザ2aは運搬行動の終了操作に対応づけられているアクションを実行している。サーバシステム1100は、投稿者モーションデータ712からこのアクションを検出すると、投稿者キャラクタ4に「投入行動」をさせる。「投入行動」とは、「拾い行動」で拾ったアイテム8を最寄りのイベントエリアオブジェクト30に入れ、運搬行動の開始操作時点の位置P0に自動帰還する行動である。 In the example of FIG. 9 (2), the posting user 2a executes the action associated with the end operation of the carrying action. When the server system 1100 detects this action from the poster motion data 712, the server system 1100 causes the poster character 4 to perform an "input action". The “input action” is an action in which the item 8 picked up in the “picking action” is put into the nearest event area object 30 and automatically returned to the position P0 at the time of the start operation of the carrying action.

そして、運搬行動により、アイテム8がイベントエリアオブジェクト30に入ったならば、当該アイテム8を投入した視聴ユーザ2bと投稿ユーザ2aとの一方または両方へ、当該運搬行動に基づく特典を付与する(図9中の評価ポイントの記述がこれに該当)。 Then, when the item 8 enters the event area object 30 by the carrying action, a privilege based on the carrying action is given to one or both of the viewing user 2b and the posting user 2a who input the item 8 (FIG. The description of the evaluation points in 9 corresponds to this).

なお、サーバシステム1100は、運搬行動の開始操作の入力を検出すると、運搬行動の終了操作の入力を検出するまで、または所定時間が経過するまで、他の操作入力を受け付けないものとする。また、運搬行動の開始操作並びに終了操作は、図9に示す様な投稿ユーザ2aのモーション入力方式に限らず、コントローラ3を用いたコマンド入力方式としてもよい。運搬行動の他の操作も同様に、投稿者キャラクタ4に係る操作入力は、モーション入力方式に限らずコマンド入力方式としてもよい。 When the server system 1100 detects the input of the start operation of the transport action, it shall not accept other operation inputs until it detects the input of the end operation of the transport action or the predetermined time elapses. Further, the start operation and the end operation of the carrying action are not limited to the motion input method of the posting user 2a as shown in FIG. 9, and may be a command input method using the controller 3. Similarly, for other operations of the carrying action, the operation input related to the poster character 4 may be a command input method as well as a motion input method.

図10は、投稿者と視聴者との連携の一例について説明するための図であって、投稿者キャラクタ4がアイテム8の移動を変更する例を示している。 FIG. 10 is a diagram for explaining an example of cooperation between the poster and the viewer, and shows an example in which the poster character 4 changes the movement of the item 8.

図10(1)の例では、視聴ユーザ2bが投げ銭を実行して、アイテム8が移動している。ここで、サーバシステム1100は、投稿者端末(ユーザ端末1500a)に「アタック行動」に対応づけられている特別行動操作が入力されると、投稿者キャラクタ4に「アタック行動」をさせる。「アタック行動」とは、投稿ユーザ2aの正面方向Dfに対応する投稿者キャラクタ4の前方方向に投稿者キャラクタ4が自動的に移動しながら、投稿者キャラクタ4の近くに飛んできたものを手で弾く行動である。 In the example of FIG. 10 (1), the viewing user 2b executes the throwing money and the item 8 is moved. Here, the server system 1100 causes the poster character 4 to perform an "attack action" when a special action operation associated with the "attack action" is input to the poster terminal (user terminal 1500a). The "attack action" is a hand that the poster character 4 automatically moves in the forward direction of the poster character 4 corresponding to the front direction Df of the posting user 2a and flies near the poster character 4. It is an action to play with.

サーバシステム1100は、仮想3次元空間に配置されている各オブジェクト間のヒット(衝突)を常時監視している。そして、図10(2)に示すように、「アタック行動」によって投稿者キャラクタ4の手とアイテム8が衝突すると、サーバシステム1100は、アイテム8の移動方向および移動速度を変更する。変更後の移動方向および移動速度は、擬似物理演算によって物理現象的に決定するとしてよいし、変更前の移動方向および移動速度から所定範囲内でランダムに決定するとしてもよい。 The server system 1100 constantly monitors hits (collisions) between objects arranged in a virtual three-dimensional space. Then, as shown in FIG. 10 (2), when the hand of the poster character 4 collides with the item 8 due to the "attack action", the server system 1100 changes the moving direction and the moving speed of the item 8. The moving direction and moving speed after the change may be determined physically by a pseudo-physical calculation, or may be randomly determined within a predetermined range from the moving direction and moving speed before the change.

サーバシステム1100は、アタック行動に伴って移動が変更されたアイテム8についても、消去されるまでの間、それまでと同様に擬似物理演算により移動するように制御する。その結果、当該アイテム8がイベントエリアオブジェクト30に入ったならば、サーバシステム1100は、当該アイテム8を投入した視聴ユーザ2bと投稿ユーザ2aとの一方または両方へ、当該アタック行動に基づく特典を付与する(図10中の評価ポイントの記述がこれに該当)。 The server system 1100 controls the item 8 whose movement has been changed due to the attack action so as to move by the pseudo-physical calculation as before until it is erased. As a result, when the item 8 enters the event area object 30, the server system 1100 grants one or both of the viewing user 2b and the posting user 2a who input the item 8 a privilege based on the attack behavior. (The description of the evaluation points in FIG. 10 corresponds to this).

図11は、投稿者と視聴者との連携の一例について説明するための図であって、投稿者キャラクタ4が、停止して消えずに残っているアイテム8について「投げ返し行動」をする例を示している。 FIG. 11 is a diagram for explaining an example of cooperation between the poster and the viewer, and is an example in which the poster character 4 performs a “throwing action” on the item 8 which has stopped and remains undisappeared. Is shown.

サーバシステム1100は、投稿者端末(ユーザ端末1500a)に「投げ返し行動」に対応づけられている特別行動操作が入力されると、投稿者キャラクタ4に「投げ返し行動」を取らせる。「投げ返し行動」とは、投稿ユーザ2aの正面方向Dfに対応する投稿者キャラクタ4の前方に投稿者キャラクタ4が自動的に移動しながら、投稿者キャラクタ4の近傍に停止した状態で消えずに残っているアイテム8を拾い上げて、当該アイテム8を投入した視聴ユーザ2bの視聴者キャラクタ6へ向けて投擲する行動である。 When the poster terminal (user terminal 1500a) is input with the special action operation associated with the "throw-back action", the server system 1100 causes the poster character 4 to take the "throw-back action". The "throwing action" means that the poster character 4 automatically moves in front of the poster character 4 corresponding to the front direction Df of the posting user 2a, and does not disappear in a state of being stopped in the vicinity of the poster character 4. It is an action of picking up the item 8 remaining in the item 8 and throwing it toward the viewer character 6 of the viewing user 2b who has thrown the item 8.

サーバシステム1100は、「投げ返し行動」の制御中に拾い上げたアイテム8に代えて、当該アイテム8よりも高価値とされる別アイテム8nに置き換える表示制御を行う。そして、投稿者キャラクタ4の投擲による別アイテム8nの移動制御を、擬似物理演算により放物運動するように移動制御する。別アイテム8nが視聴者キャラクタ6の近傍に到達すると仮想3次元空間から消去する。そして、サーバシステム1100は、消去された別アイテム8nを、投げ返しの先とされる視聴者キャラクタ6の視聴ユーザ2bへ付与する。 The server system 1100 performs display control in which the item 8 picked up during the control of the "throwing action" is replaced with another item 8n having a higher value than the item 8. Then, the movement control of another item 8n by the throwing of the poster character 4 is controlled to move so as to make a parabolic movement by a pseudo-physical calculation. When another item 8n reaches the vicinity of the viewer character 6, it is deleted from the virtual three-dimensional space. Then, the server system 1100 gives the erased another item 8n to the viewing user 2b of the viewer character 6 to be thrown back.

そして、サーバシステム1100は、当該アイテム8を投入した視聴ユーザ2bの一方または両方へ、当該投げ返し行動に基づく特典を付与する(図11中の「特典ポイント」の記述がこれに該当)。 Then, the server system 1100 grants a privilege based on the throwing action to one or both of the viewing users 2b who input the item 8 (the description of the "privilege point" in FIG. 11 corresponds to this).

なお、投げ返しの際、別アイテム8nに置き換える制御は、適宜省略できる。また、別アイテム8nは、予め設定された候補アイテムの中からランダムに選択するとしてもよい。 It should be noted that the control of replacing the item with another item 8n at the time of throwing back can be omitted as appropriate. Further, the other item 8n may be randomly selected from the preset candidate items.

図12は、投稿者キャラクタ4によるイベントエリアオブジェクト30の設定変更について説明するための図である。
図12(1)に示すように、サーバシステム1100は、投稿者キャラクタ4がイベントエリアオブジェクト30に接触すると、当該イベントエリアオブジェクト30の設定位置を変更する。具体的には、イベントエリアオブジェクト30の位置を、投稿者キャラクタ4により押されて移動するように位置を変更する。なお、イベントエリアオブジェクト30の種類によって、こうした接触に伴う移動の可否を設定するとしてもよい。
FIG. 12 is a diagram for explaining a setting change of the event area object 30 by the poster character 4.
As shown in FIG. 12 (1), when the poster character 4 comes into contact with the event area object 30, the server system 1100 changes the set position of the event area object 30. Specifically, the position of the event area object 30 is changed so as to be pushed and moved by the poster character 4. It should be noted that the possibility of movement associated with such contact may be set depending on the type of the event area object 30.

なお、投稿者キャラクタ4やイベントエリアオブジェクト30には、仮想3次元空間における移動限界が設定されている。すなわち、投稿者キャラクタ4の移動可能範囲は制限されており、サーバシステム1100は、投稿者キャラクタ4が移動可能範囲の境界に達すると自動的に向きを反転させるなど、他の向きに変更する。 The poster character 4 and the event area object 30 are set with movement limits in the virtual three-dimensional space. That is, the movable range of the poster character 4 is limited, and the server system 1100 automatically reverses the direction when the poster character 4 reaches the boundary of the movable range, and changes the direction to another direction.

次に、動画配信システム1000の機能構成について説明する。
図13は、サーバシステム1100の機能構成例を示す機能ブロック図である。サーバシステム1100は、操作入力部100sと、サーバ処理部200sと、音出力部390sと、画像表示部392sと、通信部394sと、サーバ記憶部500sとを備える。
Next, the functional configuration of the video distribution system 1000 will be described.
FIG. 13 is a functional block diagram showing a functional configuration example of the server system 1100. The server system 1100 includes an operation input unit 100s, a server processing unit 200s, a sound output unit 390s, an image display unit 392s, a communication unit 394s, and a server storage unit 500s.

操作入力部100sは、サーバの管理のための各種操作を入力するための手段である。図1のキーボード1106がこれに該当する。 The operation input unit 100s is a means for inputting various operations for managing the server. The keyboard 1106 of FIG. 1 corresponds to this.

サーバ処理部200sは、例えばCPUやGPU、ASIC、FPGA等の演算回路となるプロセッサの他、ICメモリなどの電子部品によって実現され、操作入力部100sやサーバ記憶部500sを含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100sからの操作入力信号、ユーザ端末1500などから受信したデータ、等に基づいて各種の演算処理を実行して、サーバシステム1100の動作を統合的に制御する。 The server processing unit 200s is realized by electronic components such as an IC memory in addition to a processor that is an arithmetic circuit such as a CPU, GPU, ASIC, and FPGA, and is associated with each functional unit including an operation input unit 100s and a server storage unit 500s. Data input / output control is performed between. Then, various arithmetic processes are executed based on predetermined programs and data, operation input signals from the operation input unit 100s, data received from the user terminal 1500 and the like, and the operation of the server system 1100 is controlled in an integrated manner. To do.

そして、サーバ処理部200sは、ユーザ管理部202と、オンラインショッピング管理部204と、ゲーム管理部206と、投稿者動画データ取得制御部210と、表示体出現制御部212と、行動影響制御部214と、配信用動画生成制御部216と、イベントエリア設定部218と、発動イベント制御部220と、評価集計部222と、投稿者キャラクタパラメータ値変更制御部224と、計時部280sと、音生成部290sと、画像生成部292sと、通信制御部294sとを含む。勿論、これら以外の機能部も適宜含めることができる。 The server processing unit 200s includes a user management unit 202, an online shopping management unit 204, a game management unit 206, a poster video data acquisition control unit 210, a display body appearance control unit 212, and an action influence control unit 214. , Video generation control unit 216 for distribution, event area setting unit 218, activation event control unit 220, evaluation aggregation unit 222, poster character parameter value change control unit 224, timekeeping unit 280s, and sound generation unit. 290s, an image generation unit 292s, and a communication control unit 294s are included. Of course, functional parts other than these can be included as appropriate.

ユーザ管理部202は、ユーザ登録手続きに係る処理及びユーザアカウントに紐付けられる各ユーザのデータの管理を行う。本実施形態では、ユーザ管理部202は、1)登録ユーザへの固有のユーザアカウントの付与と、2)ユーザアカウント別に個人情報(例えば、アカウント名)を登録管理する登録情報管理と、3)課金要素(本実施形態ではオンラインショッピングなど)の支払いで消費される電子決済媒体の帳簿管理と、4)利用履歴管理と、の各機能を有する。勿論、これら以外のアカウントに紐付けられる他のデータの管理機能も適宜含めることができる。 The user management unit 202 performs processing related to the user registration procedure and management of data of each user associated with the user account. In the present embodiment, the user management unit 202 1) assigns a unique user account to a registered user, 2) manages registration information for registering and managing personal information (for example, an account name) for each user account, and 3) billing. It has the functions of book management of electronic payment media consumed for payment of elements (online shopping, etc. in this embodiment) and 4) usage history management. Of course, other data management functions associated with accounts other than these can be included as appropriate.

オンラインショッピング管理部204は、オンラインショッピングに関する制御を担う。公知のオンラインショッピング技術を適宜利用して実現できる。本実施形態では、ユーザは、オンラインショッピングによって、投げ銭とするアイテム8を購入することができる。勿論、オンラインショッピングにおける販売対象は、これら以外にも適宜設定可能である。 The online shopping management unit 204 is responsible for controlling online shopping. This can be achieved by appropriately using known online shopping technology. In the present embodiment, the user can purchase the item 8 to be thrown by online shopping. Of course, the sales target in online shopping can be set as appropriate in addition to these.

ゲーム管理部206は、ユーザ端末1500にてオンラインゲームを実行するための各種制御を行う。 The game management unit 206 performs various controls for executing an online game on the user terminal 1500.

投稿者動画データ取得制御部210は、投稿者端末で操作される投稿者キャラクタが行動可能な仮想空間または拡張現実空間である画像空間の投稿者動画データ710を、投稿者端末から取得する制御を行う(図4参照)。また、投稿者動画データ取得制御部210は、複数のイベントエリアのうちの特定のイベントエリアを指示するデータを投稿者端末から取得する。本実施形態では、イベントエリアオブジェクト30が複数配置される場合に、何れのイベントエリアオブジェクト30を特定イベントエリアとするかの指定操作を受け付ける(図8参照)。 The poster video data acquisition control unit 210 controls to acquire the poster video data 710 in the virtual space or the augmented reality space in which the poster character operated on the poster terminal can act, from the poster terminal. Do (see Figure 4). In addition, the poster video data acquisition control unit 210 acquires data indicating a specific event area among the plurality of event areas from the poster terminal. In the present embodiment, when a plurality of event area objects 30 are arranged, a specification operation of which event area object 30 is set as a specific event area is accepted (see FIG. 8).

表示体出現制御部212は、視聴者端末からアクション操作入力を受け付けて、当該アクション操作入力に基づいて画像空間中に表示体を出現させる制御を行う。そして、表示体出現制御部212は、アクション操作入力に基づいて表示体の投入方向を決定し、当該投入方向に沿って表示体を前記画像空間に出現および移動させる投入制御を行う。 The display body appearance control unit 212 receives an action operation input from the viewer terminal and controls the display body to appear in the image space based on the action operation input. Then, the display body appearance control unit 212 determines the input direction of the display body based on the action operation input, and performs input control to make the display body appear and move in the image space along the input direction.

本実施形態で言う所の、アイテム8を用いた「投げ銭」に係る制御である。仮想3次元空間へのアイテム8の新たな配置制御ならびに当該アイテム8の移動制御がこれに該当する(図6参照)。 This is the control related to the "throwing money" using the item 8 in the present embodiment. This corresponds to the new arrangement control of the item 8 in the virtual three-dimensional space and the movement control of the item 8 (see FIG. 6).

行動影響制御部214は、投稿者キャラクタの画像空間中の行動に基づいて、表示体の表示位置を変化させる行動影響制御を行う。また、行動影響制御部214は、投稿者キャラクタの行動が表示体を運搬する運搬行動条件を満たした場合、投稿者キャラクタが表示体を所与の運搬先に運搬するように表示体の表示位置を変化させる。そして、行動影響制御部214は、投稿者キャラクタに定められたパラメータに基づいて行動影響制御の内容を変更する。 The behavioral influence control unit 214 performs behavioral influence control that changes the display position of the display body based on the behavior of the poster character in the image space. In addition, when the behavior of the poster character satisfies the transport behavior condition for transporting the display body, the behavior influence control unit 214 displays the display body so that the poster character transports the display body to a given transport destination. To change. Then, the behavioral influence control unit 214 changes the content of the behavioral influence control based on the parameters set for the poster character.

本実施形態で言う所の、「運搬行動」に係り、拾われたアイテム8の表示位置を変化させる制御がこれに該当する(図9参照)。また、投稿者キャラクタ4の「アタック行動」により、移動中のアイテム8が、投稿者キャラクタ4に弾かれることで移動方向が変化するのに伴う表示位置の変化制御がこれに該当する(図10参照)。また、投稿者キャラクタ4の「投げ返し行動」により、停止して残存しているアイテム8が、投稿者キャラクタ4によって投げ返されるのに伴う表示位置の変化制御がこれに該当する(図11参照)。 The control for changing the display position of the picked-up item 8 in relation to the "carrying behavior" in the present embodiment corresponds to this (see FIG. 9). Further, the control of the change in the display position when the moving item 8 is flipped by the poster character 4 due to the "attack action" of the poster character 4 and the movement direction is changed corresponds to this (FIG. 10). reference). In addition, the change control of the display position when the item 8 that has stopped and remains due to the "throwing action" of the poster character 4 is thrown back by the poster character 4 corresponds to this (see FIG. 11). ).

配信用動画生成制御部216は、投稿者動画データ710に基づく画像と、表示体とを合成した画像空間の配信用動画22を生成する制御を行う(図5参照)。また、配信用動画生成制御部216は、配信用動画22に、複数のイベントエリアのうちの特定のイベントエリアを報知する画像または音声を含めて生成する。 The distribution video generation control unit 216 controls to generate a distribution video 22 in an image space in which an image based on the poster video data 710 and a display body are combined (see FIG. 5). Further, the distribution moving image generation control unit 216 generates the distribution moving image 22 including an image or sound for notifying a specific event area among the plurality of event areas.

イベントエリア設定部218は、画像空間に、それぞれエリア属性が設定された単数または複数のイベントエリアを設定する。本実施形態で言う所の、投稿者端末からの所定のイベントエリア設定リクエスト、並びにイベントエリア選択操作および配置操作に基づいて、仮想3次元空間へイベントエリアオブジェクト30を配置する制御がこれに該当する(図6参照)。 The event area setting unit 218 sets a single or a plurality of event areas in which the area attributes are set, respectively, in the image space. This corresponds to the control of arranging the event area object 30 in the virtual three-dimensional space based on the predetermined event area setting request from the poster terminal and the event area selection operation and arrangement operation in the present embodiment. (See FIG. 6).

また、イベントエリア設定部218は、投稿者キャラクタの画像空間中の行動に基づいて、イベントエリアの設定位置を変化させる制御を行う。本実施形態で言う所の投稿者キャラクタ4がイベントエリアオブジェクト30を押して移動させる制御がこれに該当する(図12参照)。 In addition, the event area setting unit 218 controls to change the setting position of the event area based on the behavior of the poster character in the image space. The control in which the poster character 4 in the present embodiment pushes and moves the event area object 30 corresponds to this (see FIG. 12).

発動イベント制御部220は、イベントエリアに対して表示体が所与の位置関係条件を満たしたか否か判定し、位置関係条件を満たしたイベントエリアに応じて、異なる発動イベントの発動を制御する。そして、発動イベント制御部220は、投稿者端末の投稿者、および/または、アクション操作入力を行った視聴者に所与の特典を付与する処理を、発動イベントとして発動の制御を行う。 The activation event control unit 220 determines whether or not the display body satisfies a given positional relationship condition with respect to the event area, and controls the activation of different activation events according to the event area satisfying the positional relationship condition. Then, the activation event control unit 220 controls the activation as an activation event, which is a process of giving a given privilege to the poster of the poster terminal and / or the viewer who has input the action operation.

「位置関係条件」は、イベントエリアへの表示体の接近・到達・接触・通過のうちの1つまたは複数をANDやORで組み合わせて記述できる。本実施形態で言う所の、イベントエリアオブジェクト30にアイテム8が入ることが、位置関係条件を満たしたことに該当する(図8参照)。そして、特典の付与が、発動イベントの発動に該当する。 The "positional relationship condition" can be described by combining one or more of the approach / arrival / contact / passage of the display body to the event area by AND or OR. The fact that the item 8 is included in the event area object 30 in the present embodiment corresponds to satisfying the positional relationship condition (see FIG. 8). Then, the granting of the privilege corresponds to the activation of the activation event.

より具体的には、発動イベント制御部220は、1)投稿者キャラクタに定められた属性と、2)表示体に設定された属性、または、アクション操作入力を行った視聴者に設定された属性と、の相性に基づいて特典を変更して付与する。 More specifically, the activation event control unit 220 has 1) attributes set for the poster character and 2) attributes set for the display body, or attributes set for the viewer who has input the action operation. And, the privilege is changed and given based on the compatibility.

また、発動イベント制御部220は、位置関係条件を満たした表示体が、行動影響制御によって表示位置が変化した表示体か否かに基づいて異なる特典を付与する。本実施形態で言う所の、投稿者キャラクタ4の「運搬行動」「アタック行動」「投げ返し行動」によりアイテム8が移動されたことに伴い、特典とされるポイントがそれ以外の場合よりも多く付与されることがこれに該当する(図9、図10、図11参照)。 Further, the activation event control unit 220 grants different benefits depending on whether or not the display body satisfying the positional relationship condition is a display body whose display position has been changed by the action influence control. As the item 8 is moved by the "carrying action", "attacking action", and "throwing action" of the poster character 4 in this embodiment, the points that are considered as benefits are more than in other cases. This corresponds to being granted (see FIGS. 9, 10, and 11).

また、発動イベント制御部220は、位置関係条件を満たしたイベントエリアのエリア属性と、アイテム8(移動体)に係る属性とに基づいて、発動させる発動イベントを可変に制御する。本実施形態で言う所の、それら属性の組み合わせにより付与される特典が変わることが、これに該当する。 Further, the activation event control unit 220 variably controls the activation event to be activated based on the area attribute of the event area satisfying the positional relationship condition and the attribute related to the item 8 (moving body). This corresponds to the fact that the benefits given by the combination of these attributes change according to the present embodiment.

評価集計部222は、配信用動画に対する視聴者評価を集計する。 The evaluation totaling unit 222 totalizes the viewer's evaluation of the video for distribution.

投稿者キャラクタパラメータ値変更制御部224は、視聴者評価に基づいて投稿者キャラクタのパラメータ値を変更する。具体的には、投稿者キャラクタパラメータ値変更制御部224は、視聴者評価が高いほど、投稿者キャラクタのパラメータ値を高い値に変更する。 The poster character parameter value change control unit 224 changes the parameter value of the poster character based on the viewer evaluation. Specifically, the poster character parameter value change control unit 224 changes the parameter value of the poster character to a higher value as the viewer evaluation is higher.

計時部280sは、システムクロックを利用して現在日時や制限時間等の計時を行う。 The timekeeping unit 280s uses the system clock to measure the current date and time, the time limit, and the like.

音生成部290sは、音声データの生成やデコードをするICやソフトウェアの実行により実現され、サーバシステム1100のシステム管理、動画視聴等に係る操作音やBGMなどの音声データを生成或いはデコードする。また、音生成部290sは、複数の音声を重畳合成する音声合成処理を実行する。そして、システム管理に関する音声信号は音出力部390sへ出力する。 The sound generation unit 290s is realized by executing an IC or software that generates and decodes audio data, and generates or decodes operation sounds related to system management of the server system 1100, video viewing, and audio data such as BGM. In addition, the sound generation unit 290s executes a voice synthesis process for superimposing and synthesizing a plurality of voices. Then, the audio signal related to the system management is output to the sound output unit 390s.

音出力部390sは、入力された音声信号で放音する。図1の例では本体装置やタッチパネル1108が備えるスピーカ(不図示)がこれに該当する。 The sound output unit 390s emits sound with the input audio signal. In the example of FIG. 1, a speaker (not shown) included in the main unit and the touch panel 1108 corresponds to this.

画像生成部292sは、画像の生成、画像の合成、画像表示部392sにそれらを表示させる画像信号の出力を行う。本実施形態では、サーバシステム1100のシステム管理に関する画像などの各種の画像・映像を生成する機能の一部を担う。また、画像生成部292sは、仮想3次元空間に設置された仮想カメラで撮影した画像のレンダリング、画像合成処理などを行って、配信用動画22を生成する。 The image generation unit 292s generates an image, synthesizes an image, and outputs an image signal for displaying them on the image display unit 392s. In this embodiment, it plays a part of a function of generating various images / videos such as images related to system management of the server system 1100. In addition, the image generation unit 292s generates a moving image 22 for distribution by rendering an image taken by a virtual camera installed in a virtual three-dimensional space, performing image composition processing, and the like.

通信制御部294sは、データ通信に係るデータ処理を実行し、通信部394sを介して外部装置とのデータのやりとりを実現する。 The communication control unit 294s executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 394s.

通信部394sは、ネットワーク9と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現される。図1の例では通信装置1153が該当する。 The communication unit 394s connects to the network 9 to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a jack of a wired communication cable, a control circuit, and the like. In the example of FIG. 1, the communication device 1153 corresponds.

サーバ記憶部500sは、サーバ処理部200sにサーバシステム1100を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、サーバ処理部200sの作業領域として用いられ、サーバ処理部200sが各種プログラムに従って実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスク、オンラインストレージなどによって実現される。図1の例では本体装置が搭載するICメモリ1152やハードディスクなどの記憶媒体、及びストレージ1140がこれに該当する。 The server storage unit 500s stores programs, various data, and the like for realizing various functions for making the server processing unit 200s control the server system 1100 in an integrated manner. Further, it is used as a work area of the server processing unit 200s, and temporarily stores the calculation results and the like executed by the server processing unit 200s according to various programs. This function is realized by, for example, an IC memory such as RAM or ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM or DVD, or online storage. In the example of FIG. 1, the IC memory 1152 mounted on the main unit, a storage medium such as a hard disk, and the storage 1140 correspond to this.

図14は、本実施形態におけるサーバ記憶部500sが記憶するプログラムやデータの例を示す図である。本実施形態におけるサーバ記憶部500sは、サーバプログラム501と、配信用クライアントプログラム503と、キャラクタ定義データ510と、イベントエリアオブジェクト定義データ530と、特定イベントエリア報知オブジェクトデータ540と、アイテム定義データ550と、発動イベント定義データ570と、を記憶する。 FIG. 14 is a diagram showing an example of a program and data stored in the server storage unit 500s in the present embodiment. The server storage unit 500s in the present embodiment includes the server program 501, the distribution client program 503, the character definition data 510, the event area object definition data 530, the specific event area notification object data 540, and the item definition data 550. , The activation event definition data 570 and the data are stored.

また、サーバ記憶部500sは、逐次生成・管理されるデータとして、ユーザ管理データ600と、配信管理データ700と、現在日時800と、を記憶する。勿論、サーバ記憶部500sは、その他のプログラムやデータ(例えばタイマや、カウンタ、各種フラグなど)も適宜記憶できる。 Further, the server storage unit 500s stores user management data 600, distribution management data 700, and current date and time 800 as data that are sequentially generated and managed. Of course, the server storage unit 500s can appropriately store other programs and data (for example, timers, counters, various flags, etc.).

サーバプログラム501は、サーバ処理部200sが読み出して実行することで、ユーザ管理部202〜投稿者キャラクタパラメータ値変更制御部224(図13参照)としての機能を実現させるためのプログラムである。 The server program 501 is a program for realizing the functions as the user management unit 202 to the poster character parameter value change control unit 224 (see FIG. 13) by reading and executing the server processing unit 200s.

配信用クライアントプログラム503は、ユーザ端末1500へ提供されるクライアントプログラムのオリジナルである。本実施形態では、1つの配信用クライアントプログラム503に、ユーザ端末1500を投稿者末として機能させるための配信用投稿クライアントプログラム503bと、ユーザ端末1500を視聴者端末として機能させるための配信用視聴クライアントプログラム503cと、を含む。これらは、別々にユーザ端末1500へ配信されるとしてもよい。 The distribution client program 503 is an original client program provided to the user terminal 1500. In the present embodiment, one distribution client program 503 has a distribution posting client program 503b for making the user terminal 1500 function as a poster end, and a distribution viewing client for making the user terminal 1500 function as a viewer terminal. Includes program 503c and. These may be separately delivered to the user terminal 1500.

キャラクタ定義データ510は、投稿ユーザ2aが自らのアバターに相当する投稿者キャラクタ4として選択できるキャラクタ毎に用意され、当該キャラクタに係る各種の初期設定データを格納する。1つのキャラクタ定義データ510は、例えば図15に示すように、固有のキャラクタ種類511と、キャラクタ属性513と、モデルデータ515と、能力パラメータ値517と、動作パターン定義データ520と、を含む。 The character definition data 510 is prepared for each character that can be selected by the posting user 2a as the poster character 4 corresponding to his / her avatar, and stores various initial setting data related to the character. As shown in FIG. 15, for example, one character definition data 510 includes a unique character type 511, a character attribute 513, model data 515, an ability parameter value 517, and an operation pattern definition data 520.

モデルデータ515は、投稿ユーザ2aが用意したモデルデータを用いるとしてもよい。 As the model data 515, the model data prepared by the posting user 2a may be used.

動作パターン定義データ520は、当該投稿者キャラクタで実行可能な動作毎に用意され、当該動作に係る各種データを格納する。1つの動作パターン定義データ520は、固有の動作種類521と、発動要件522と、発動コマンド定義データ523と、モーションデータ524と、動作制限種類525と、動作制限値決定関数526と、を含む。勿論、これら以外のデータも適宜含めることができる。 The operation pattern definition data 520 is prepared for each operation that can be executed by the poster character, and stores various data related to the operation. One operation pattern definition data 520 includes a unique operation type 521, an activation requirement 522, an activation command definition data 523, motion data 524, an operation restriction type 525, and an operation limit value determination function 526. Of course, data other than these can be included as appropriate.

発動要件522は、当該動作パターンが適用される条件である。例えば、投稿ユーザ2aまたは投稿者キャラクタ4に設定されているパラメータ値(例えば、投稿者レベル、投稿者キャラクタレベル、など)に関する条件である。 The activation requirement 522 is a condition to which the operation pattern is applied. For example, it is a condition regarding a parameter value (for example, a poster level, a poster character level, etc.) set in the posting user 2a or the poster character 4.

発動コマンド定義データ523は、当該動作パターンを発動させるための操作入力を定義する。本実施形態では、投稿ユーザ2aのモーションで投稿者キャラクタ4を操作するので、特定のモーションを認識するためのモーション辞書データが設定される。勿論、コントローラ3の特定のボタンスイッチを用いて入力するコマンド入力方式の場合は、対応するボタンスイッチの種類や、その組み合わせが設定される。 The activation command definition data 523 defines an operation input for activating the operation pattern. In the present embodiment, since the poster character 4 is operated by the motion of the posting user 2a, motion dictionary data for recognizing a specific motion is set. Of course, in the case of the command input method of inputting using the specific button switch of the controller 3, the type of the corresponding button switch and the combination thereof are set.

動作制限種類525は、動作パターンを実行中に適用される制限の種類を定義する。例えば、移動距離、制限時間、「運搬行動」であれば運搬できるアイテムの総数、「アタック行動」であれば弾く上限回数、などを設定する。 The operation restriction type 525 defines the type of restriction applied during execution of the operation pattern. For example, the movement distance, the time limit, the total number of items that can be carried in the case of "transportation action", the maximum number of times to play in the case of "attack action", and the like are set.

動作制限値決定関数526は、動作制限種類525が示す制限の閾値や上限値を決定する関数またはテーブルデータである。変数としては、投稿ユーザ2aまたは投稿者キャラクタ4に設定されているパラメータ値(例えば、投稿者レベル、投稿者キャラクタレベル、など)、ライブ配信の視聴者数、などを用いることができる。 The operation limit value determination function 526 is a function or table data that determines a threshold value or an upper limit value of the limit indicated by the operation restriction type 525. As the variables, parameter values set in the posting user 2a or the poster character 4 (for example, the poster level, the poster character level, etc.), the number of viewers of the live distribution, and the like can be used.

図14に戻って、イベントエリアオブジェクト定義データ530は、イベントエリアオブジェクト30の種類毎に用意され、当該オブジェクトについての各種初期設定データを格納する。 Returning to FIG. 14, the event area object definition data 530 is prepared for each type of the event area object 30, and stores various initial setting data for the object.

1つのイベントエリアオブジェクト定義データ530は、例えば図16に示すように、固有のイベントエリア種類531と、イベントエリア属性533と、オブジェクトモデルデータ535と、イベントエリアオブジェクト30の自動動作(例えば、最初に決定された配置位置から、ランダムに移動する運動、往復運動、回転運動、拡大/縮小を繰り返す形状変動、など)の内容を定義するイベントエリア動作データ537と、を含む。勿論、これら以外のデータも適宜含めることができる。 As shown in FIG. 16, for example, one event area object definition data 530 includes a unique event area type 531, an event area attribute 533, an object model data 535, and an automatic operation of the event area object 30 (for example, first). It includes event area motion data 537 that defines the contents of randomly moving motion, reciprocating motion, rotational motion, shape variation that repeats expansion / contraction, etc. from the determined arrangement position. Of course, data other than these can be included as appropriate.

図14に戻って、特定イベントエリア報知オブジェクトデータ540は、投稿ユーザ2aが複数設定したイベントエリアオブジェクト30のうち、当該視聴ユーザが指定した特定イベントエリアを視聴ユーザ2bへ報知するために付属表示されるオブジェクトの定義データである。 Returning to FIG. 14, the specific event area notification object data 540 is attached and displayed in order to notify the viewing user 2b of the specific event area designated by the viewing user among the event area objects 30 set by the posting user 2a. It is the definition data of the object.

アイテム定義データ550は、アイテム8の種類毎に用意され、当該アイテムに係る各種初期設定データを格納する。1つのアイテム定義データ550は、例えば図17に示すように、固有のアイテム種類551と、アイテム属性552と、アイテム8を配信画像内に表示するためのアイテム表示体データ553と、当該アイテム8の配信画像内における動作パターンを定義するアイテム動作パターン制御データ555と、を含む。勿論、これら以外のデータも適宜含めることができる。 Item definition data 550 is prepared for each type of item 8 and stores various initial setting data related to the item. As shown in FIG. 17, for example, one item definition data 550 includes a unique item type 551, an item attribute 552, an item display body data 553 for displaying the item 8 in the distribution image, and the item 8. Includes item motion pattern control data 555 that defines motion patterns in the delivered image. Of course, data other than these can be included as appropriate.

発動イベント定義データ570は、イベントエリアオブジェクト30に対してアイテム8(表示体)が所与の位置関係条件を満たした場合に発動される発動イベントの種類毎に用意され、当該発動イベントに係る各種初期設定データを格納する。 The activation event definition data 570 is prepared for each type of activation event that is activated when the item 8 (display body) satisfies a given positional relationship condition with respect to the event area object 30, and various types related to the activation event. Stores initialization data.

1つの発動イベント定義データ570は、例えば図18に示すように、固有の発動イベントID571と、発動要件572と、発動イベント内容データ573と、を含む。勿論、これら以外のデータも適宜含めることができる。 One trigger event definition data 570 includes, for example, as shown in FIG. 18, a unique trigger event ID 571, a trigger requirement 572, and a trigger event content data 573. Of course, data other than these can be included as appropriate.

発動要件572は、当該発動イベントが発動されるために満たすべき条件を示す。発動要件572は、位置関係条件572a、組み合わせ条件572b、属性関係条件572c、行動影響条件572d、の1つ、または複数をANDやORで組み合わせることで記述される。 Trigger requirement 572 indicates the conditions that must be met in order for the trigger event to be triggered. The activation requirement 572 is described by combining one or more of the positional relationship condition 572a, the combination condition 572b, the attribute relationship condition 572c, and the behavioral influence condition 572d by AND or OR.

組み合わせ条件572bは、投稿者キャラクタ4の種類と、イベントエリアオブジェクト30の種類と、アイテム8の種類の組み合わせについての条件である。ここで言う「種類」には「設定なし」「全種類」を含む。 The combination condition 572b is a condition for combining the type of the poster character 4, the type of the event area object 30, and the type of the item 8. The "type" mentioned here includes "no setting" and "all types".

属性関係条件572cは、1)イベントエリアオブジェクト30のイベントエリア属性533(図16参照)とアイテム8のアイテム属性552(図17参照)との組み合わせについての条件と、2)イベントエリアオブジェクト30のイベントエリア属性533(図16参照)と発動要件572の判定対象とされているアイテム8(表示体)のアイテム属性552(図17参照)との組み合わせと、のうちの一方または両方についての条件である。 The attribute-related condition 572c includes 1) a condition for combining the event area attribute 533 of the event area object 30 (see FIG. 16) and the item attribute 552 of the item 8 (see FIG. 17), and 2) the event of the event area object 30. It is a condition for one or both of the combination of the area attribute 533 (see FIG. 16) and the item attribute 552 (see FIG. 17) of the item 8 (display body) which is the judgment target of the activation requirement 57 2. ..

行動影響条件572dは、アイテム8が受けた行動影響についての条件である。
例えば、「運搬行動」の行動影響を受けたアイテム8であることを発動要件572に含めたい場合には、停止状態にあったアイテム8が、イベントエリアオブジェクト30の何れかに移動されたことを条件とすればよい。「アタック行動」の行動影響を受けたアイテムであるであることを発動要件572に含めたい場合には、投稿者キャラクタ4との接触と、接触前後の速度変化とを条件とすればよい。勿論、投稿者キャラクタ4との接触の有無のみを条件としてもよい。
The behavioral influence condition 572d is a condition regarding the behavioral influence received by the item 8.
For example, if you want to include in the activation requirement 572 that the item 8 is affected by the action of "carrying action", the item 8 that was in the stopped state has been moved to any of the event area objects 30. It may be a condition. If it is desired to include in the activation requirement 572 that the item is influenced by the action of the "attack action", the contact with the poster character 4 and the speed change before and after the contact may be conditioned. Of course, only the presence or absence of contact with the poster character 4 may be a condition.

なお、位置関係条件572a、組み合わせ条件572b、属性関係条件572c、行動影響条件572d、については「設定なし」とすることもできる。 The positional relationship condition 572a, the combination condition 572b, the attribute relationship condition 572c, and the behavioral influence condition 572d can be set to "no setting".

発動イベント内容データ573は、発動イベントの内容であり、当該発動イベントを実行するためのデータを格納する。本実施形態では、発動イベントは、ユーザへの特典の付与である。よって、発動イベント内容データ573は、特典種類573aと、特典付与数573bと、第1付与比率573cと、第2付与比率573dと、を含む。勿論、これら以外のデータも適宜含めることができる。 The activation event content data 573 is the content of the activation event, and stores the data for executing the activation event. In the present embodiment, the activation event is the granting of benefits to the user. Therefore, the activation event content data 573 includes the privilege type 573a, the privilege grant number 573b, the first grant ratio 573c, and the second grant ratio 573d. Of course, data other than these can be included as appropriate.

本実施形態では、特典としてポイントを付与する。よって、特典種類573aは「ポイント」に設定され、特典付与数573bが、当該発動イベントにて付与されるポイントの総数を規定する。 In this embodiment, points are given as a privilege. Therefore, the privilege type 573a is set to "points", and the privilege grant number 573b defines the total number of points granted at the activation event.

第1付与比率573cと第2付与比率573dは、ともに特典付与数573bが示すポイントを、投稿ユーザ2aと、発動イベントに係るアイテム8を投入した視聴ユーザ2bと、で分配する比率を定義している。 The first grant ratio 573c and the second grant ratio 573d both define a ratio in which the points indicated by the privilege grant number 573b are distributed between the posting user 2a and the viewing user 2b who has input the item 8 related to the activation event. There is.

図14に戻って、ユーザ管理データ600は、動画配信システム1000の登録ユーザ毎に用意され、当該ユーザに関する各種データを格納する。
1つのユーザ管理データ600は、例えば図19に示すように、固有のユーザアカウント601と、所有アイテム管理データ602と、ユーザ属性603と、累積特典ポイント604と、ユーザレベル606と、ゲームセーブデータ607と、投稿者キャラクタ設定データ610と、視聴者キャラクタ設定データ615と、を格納する。勿論、これら以外のデータも適宜格納するとしてもよい。
Returning to FIG. 14, the user management data 600 is prepared for each registered user of the video distribution system 1000, and stores various data related to the user.
As shown in FIG. 19, for example, one user management data 600 includes a unique user account 601, owned item management data 602, user attribute 603, cumulative privilege points 604, user level 606, and game save data 607. , The poster character setting data 610, and the viewer character setting data 615 are stored. Of course, data other than these may be stored as appropriate.

所有アイテム管理データ602は、所有する(使用権を有していると同義)アイテム8の種類毎に用意され、それぞれアイテム種類と、所有残数と、を格納する。 The owned item management data 602 is prepared for each type of item 8 owned (synonymous with having the right to use), and stores the item type and the remaining number of possessed items, respectively.

ユーザ属性603は、当該ユーザがユーザ登録の際に選択した属性である。ユーザが選択可能な属性は、キャラクタ属性513(図15参照)やアイテム属性552(図17参照)に設定可能な複数種類の属性と同じとすると好適である。ユーザ属性603は、当該ユーザが投稿ユーザ2aの場合には投稿ユーザ属性と見なされ、当該ユーザが視聴ユーザ2bの場合には視聴ユーザ属性と見なされる。 The user attribute 603 is an attribute selected by the user at the time of user registration. It is preferable that the attributes that can be selected by the user are the same as the plurality of types of attributes that can be set in the character attribute 513 (see FIG. 15) and the item attribute 552 (see FIG. 17). The user attribute 603 is regarded as a posting user attribute when the user is a posting user 2a, and is regarded as a viewing user attribute when the user is a viewing user 2b.

ゲームセーブデータ607は、当該ユーザによるゲームプレイのセーブデータである。ゲームセーブデータ607は、プレイ毎の進捗状況を記録したプレイ履歴データ608を含む。 The game save data 607 is save data of game play by the user. The game save data 607 includes play history data 608 that records the progress of each play.

投稿者キャラクタ設定データ610は、当該ユーザが投稿をする際に使用する投稿者キャラクタ4の設定データである。例えば、投稿者キャラクタ種類611と、投稿者キャラクタ4に設定されている各種パラメータ値を格納する投稿者キャラクタパラメータ値612と、を含む。勿論、これら以外のデータも適宜含めることができる。 The poster character setting data 610 is the setting data of the poster character 4 used when the user makes a post. For example, it includes a poster character type 611 and a poster character parameter value 612 that stores various parameter values set in the poster character 4. Of course, data other than these can be included as appropriate.

視聴者キャラクタ設定データ615は、当該ユーザが視聴をする際に使用する視聴者キャラクタ6の設定データである。例えば、視聴者キャラクタ種類616と、視聴者キャラクタ6に設定されている各種パラメータ値を格納する視聴者キャラクタパラメータ値617と、を含む。勿論、これら以外のデータも適宜含めることができる。 The viewer character setting data 615 is the setting data of the viewer character 6 that the user uses when viewing. For example, it includes a viewer character type 616 and a viewer character parameter value 617 that stores various parameter values set in the viewer character 6. Of course, data other than these can be included as appropriate.

図14に戻って、配信管理データ700は、ライブ配信毎に作成され、当該配信の最新状態を記述する各種データを格納する。
1つの配信管理データ700は、例えば図20に示すように、固有の投稿ID701と、投稿ユーザアカウント702と、視聴ユーザアカウントリスト703と、投稿者動画データ710と、画像空間管理データ730と、特典履歴データ740と、評価集計データ742と、配信用動画データ744と、を含む。勿論、これら以外のデータも適宜含めることができる。
Returning to FIG. 14, the distribution management data 700 is created for each live distribution and stores various data describing the latest state of the distribution.
As shown in FIG. 20, for example, one distribution management data 700 includes a unique posting ID 701, a posting user account 702, a viewing user account list 703, a poster video data 710, an image space management data 730, and a privilege. Includes historical data 740, evaluation aggregate data 742, and video data for distribution 744. Of course, data other than these can be included as appropriate.

投稿者動画データ710は、投稿ユーザアカウント711と、投稿者モーションデータ712と、投稿者音声データ713と、投稿素材データ714と、を含む。 The poster video data 710 includes a posting user account 711, a poster motion data 712, a poster audio data 713, and a posting material data 714.

画像空間管理データ730は、ライブ配信用動画を生成するための仮想空間または拡張現実空間の状態を記述する各種データを格納する。本実施形態では、ライブ配信用動画は、3DCGの映像とされるので、画像空間管理データ730は、仮想3次元空間の管理データと同義となる。 The image space management data 730 stores various data describing the state of the virtual space or the augmented reality space for generating the moving image for live distribution. In the present embodiment, since the moving image for live distribution is a 3DCG image, the image space management data 730 has the same meaning as the management data in the virtual three-dimensional space.

画像空間管理データ730は、固有の画像空間ID731と、ライブ配信のベースとなる投稿を示すベース投稿ID732と、投稿者キャラクタ4毎に作成される投稿者キャラクタ制御データ733と、仮想カメラ制御データ734と、イベントエリアの設定毎に作成されるイベントエリアオブジェクト制御データ735と、特定イベントエリアID736と、視聴ユーザ2b毎に作成される視聴者キャラクタ制御データ737と、投げ銭が行われる毎に作成されるアイテム制御データ738と、を含む。勿論、これら以外のデータも適宜含めることができる。 The image space management data 730 includes a unique image space ID 731, a base post ID 732 indicating a post that is a base for live distribution, a poster character control data 733 created for each poster character 4, and virtual camera control data 734. The event area object control data 735 created for each event area setting, the specific event area ID 736, and the viewer character control data 737 created for each viewing user 2b are created each time a change is made. Includes item control data 738 and. Of course, data other than these can be included as appropriate.

投稿者キャラクタ制御データ733は、投稿ユーザアカウントと、仮想3次元空間における投稿者キャラクタ4の状態を表すデータ(例えば、位置座標、姿勢、移動速度、動作制御データなど)と、を含む。勿論、これら以外のデータも適宜含めることができる。 The poster character control data 733 includes a posting user account and data representing the state of the poster character 4 in the virtual three-dimensional space (for example, position coordinates, posture, movement speed, motion control data, etc.). Of course, data other than these can be included as appropriate.

仮想カメラ制御データ734は、ライブ配信用動画の映像をレンダリングする際の視点となる位置・姿勢・画角などの情報を格納する。 The virtual camera control data 734 stores information such as a position, a posture, and an angle of view, which are viewpoints when rendering a video for live distribution.

イベントエリアオブジェクト制御データ735は、イベントエリアIDと、イベントエリアオブジェクト種類と、仮想3次元空間における状態を表すデータ(例えば、位置座標、姿勢、移動速度、動作制御データなど)と、を含む。勿論、これら以外のデータも適宜含めることができる。 The event area object control data 735 includes an event area ID, an event area object type, and data representing a state in a virtual three-dimensional space (for example, position coordinates, posture, movement speed, motion control data, and the like). Of course, data other than these can be included as appropriate.

視聴者キャラクタ制御データ737は、キャラクタIDと、視聴ユーザアカウントと、仮想3次元空間における視聴者キャラクタ6の状態を表すデータ(例えば、位置座標、姿勢、移動速度、動作制御データなど)と、を含む。勿論、これら以外のデータも適宜含めることができる。 The viewer character control data 737 includes a character ID, a viewing user account, and data representing the state of the viewer character 6 in the virtual three-dimensional space (for example, position coordinates, posture, movement speed, motion control data, etc.). Including. Of course, data other than these can be included as appropriate.

アイテム制御データ738は、視聴者端末からアクション操作入力を受け付けて、当該アクション操作入力に基づいて画像空間中に出現された表示体の制御データである。本実施形態では、投げ銭とされたアイテム8の制御データである。具体的には、アイテム制御データ738は、固有のアイテムIDと、使用者アカウント(当該アイテムを使用した視聴ユーザアカウント)と、出現日時と、仮想3次元空間における位置座標履歴、速度履歴、ヒットした他オブジェクトの履歴、などを含む。勿論、これら以外のデータも適宜含めることができる。 The item control data 738 is control data of a display body that receives an action operation input from the viewer terminal and appears in the image space based on the action operation input. In the present embodiment, it is the control data of the item 8 that has been thrown. Specifically, the item control data 738 includes a unique item ID, a user account (viewing user account using the item), an appearance date and time, a position coordinate history in a virtual three-dimensional space, a speed history, and a hit. Includes history of other objects, etc. Of course, data other than these can be included as appropriate.

特典履歴データ740は、当該ライブ配信に係り付与された特典と付与先との情報を対応づけて時系列に格納したデータである。 The privilege history data 740 is data in which the information given in relation to the live distribution and the information of the grant destination are associated and stored in a time series.

評価集計データ742は、当該ライブ配信に対する視聴者評価を集計したデータである。初期値は「0」である。視聴ユーザ2bが視聴中に行った所定の評価操作入力がカウントされる。配信用動画データ744は、配信用動画22(図5参照)に関するデータである。 The evaluation aggregated data 742 is data that aggregates the viewer evaluations for the live distribution. The initial value is "0". A predetermined evaluation operation input performed by the viewing user 2b during viewing is counted. The distribution moving image data 744 is data related to the distribution moving image 22 (see FIG. 5).

図21は、本実施形態におけるユーザ端末1500の機能構成例を示す機能ブロック図である。ユーザ端末1500は、操作入力部100と、音声入力部102と、撮像部104と、端末処理部200と、音出力部390と、画像表示部392と、通信部394と、端末記憶部500とを備える。 FIG. 21 is a functional block diagram showing a functional configuration example of the user terminal 1500 according to the present embodiment. The user terminal 1500 includes an operation input unit 100, a voice input unit 102, an imaging unit 104, a terminal processing unit 200, a sound output unit 390, an image display unit 392, a communication unit 394, and a terminal storage unit 500. To be equipped.

操作入力部100は、プレーヤによってなされた各種の操作入力に応じた操作入力信号を端末処理部200に出力する。例えば、プッシュスイッチや、ジョイスティック、タッチパッド、トラックボール、加速度センサ、ジャイロ、CCDモジュール、などによって実現できる。図2の方向入力キー1502や、ボタンスイッチ1504、タッチパネル1506、カメラ1520、がこれに該当する。 The operation input unit 100 outputs an operation input signal corresponding to various operation inputs made by the player to the terminal processing unit 200. For example, it can be realized by a push switch, a joystick, a touch pad, a trackball, an acceleration sensor, a gyro, a CCD module, or the like. The direction input key 1502, the button switch 1504, the touch panel 1506, and the camera 1520 in FIG. 2 correspond to this.

音声入力部102は、ユーザが発する音声(ユーザ音声)や環境音を集音し、音声信号を端末処理部200へ出力する。図2の例では、マイク1512がこれに該当する。 The voice input unit 102 collects voice (user voice) and environmental sound emitted by the user, and outputs a voice signal to the terminal processing unit 200. In the example of FIG. 2, the microphone 1512 corresponds to this.

撮像部104は、撮影対象からの光を受光して電気信号に変換し、デジタル画像データを生成し、端末処理部200へ出力する。例えば、レンズ、メカシャッター、シャッタードライバ、CCDイメージセンサモジュールやCMOSイメージセンサモジュールといった光電変換素子、光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP)、ICメモリなどで実現される。図2のカメラ1520がこれに該当する。 The imaging unit 104 receives the light from the imaging target, converts it into an electric signal, generates digital image data, and outputs the digital image data to the terminal processing unit 200. For example, it is realized by a lens, a mechanical shutter, a shutter driver, a photoelectric conversion element such as a CCD image sensor module or a CMOS image sensor module, a digital signal processor (DSP) that reads the amount of charge from the photoelectric conversion element and generates image data, and an IC memory. Ru. The camera 1520 of FIG. 2 corresponds to this.

端末処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ICメモリなどの電子部品によって実現され、操作入力部100や端末記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号、サーバシステム1100から受信した各種データに基づいて各種の演算処理を実行して、ユーザ端末1500の動作を制御する。図2の制御基板1550がこれに該当する。そして、本実施形態における端末処理部200は、クライアント制御部260と、計時部280と、音生成部290と、画像生成部292と、通信制御部294と、を備える。 The terminal processing unit 200 is realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an IC memory, and controls data input / output with each functional unit including an operation input unit 100 and a terminal storage unit 500. Do. Then, various arithmetic processes are executed based on predetermined programs and data, operation input signals from the operation input unit 100, and various data received from the server system 1100 to control the operation of the user terminal 1500. The control board 1550 of FIG. 2 corresponds to this. The terminal processing unit 200 in the present embodiment includes a client control unit 260, a timekeeping unit 280, a sound generation unit 290, an image generation unit 292, and a communication control unit 294.

クライアント制御部260は、投稿端末装置、視聴端末装置としての機能を実現する。
具体的には、ユーザのモード選択操作入力に応じて、投稿端末装置または視聴端末装置の何れかのモードで起動し、サーバシステム1100へアクセスしてログイン手続きの処理をする。
The client control unit 260 realizes functions as a posting terminal device and a viewing terminal device.
Specifically, it starts in either the posting terminal device or the viewing terminal device mode in response to the user's mode selection operation input, accesses the server system 1100, and processes the login procedure.

投稿端末モードで起動した場合、クライアント制御部260は、投稿クライアント制御部261として機能する。投稿クライアント制御部261は、投稿者端末としての機能を実現するための各種処理を行う。具体的には、投稿者動画データ生成部262を有し、投稿者動画データ710の生成と提供に係る各種処理を実行する(図3、図4参照)。また、投稿クライアント制御部261は、イベントエリアの設定リクエストに係る処理を実行する(図6参照)。 When started in the posting terminal mode, the client control unit 260 functions as the posting client control unit 261. The posting client control unit 261 performs various processes for realizing the function as a poster terminal. Specifically, it has a poster video data generation unit 262 and executes various processes related to the generation and provision of the poster video data 710 (see FIGS. 3 and 4). In addition, the posting client control unit 261 executes a process related to the event area setting request (see FIG. 6).

視聴者端末モードで起動した場合、クライアント制御部260は、視聴クライアント制御部263として機能する。視聴クライアント制御部263は、視聴者端末としての機能を実現するための各種処理と、投げ銭の実行に係る処理を実行する(図6、図7参照)。 When activated in the viewer terminal mode, the client control unit 260 functions as the viewing client control unit 263. The viewing client control unit 263 executes various processes for realizing the function as a viewer terminal and processes related to the execution of throwing money (see FIGS. 6 and 7).

音生成部290は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成ICなどのプロセッサ、音声ファイル再生可能なオーディオコーデック等によって実現され、効果音や操作音、BGMなどの音信号を生成し、音出力部390に出力する。 The sound generation unit 290 is realized by, for example, a digital signal processor (DSP), a processor such as a voice synthesis IC, an audio codec capable of reproducing a voice file, or the like, and generates sound signals such as sound effects, operation sounds, and BGM to generate sounds. Output to the output unit 390.

音出力部390は、音生成部290から入力される音信号に基づいて音出力する装置によって実現される。図2のスピーカ1510がこれに該当する。 The sound output unit 390 is realized by a device that outputs sound based on a sound signal input from the sound generation unit 290. The speaker 1510 in FIG. 2 corresponds to this.

画像生成部292は、各種画像データの生成および画像表示部392にそれらの画像を表示させるための画像信号の生成出力などの制御を行う。 The image generation unit 292 controls the generation of various image data and the generation and output of image signals for displaying those images on the image display unit 392.

画像表示部392は、画像生成部292から入力される画像信号に基づいて各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図2のタッチパネル1506がこれに該当する。 The image display unit 392 displays various images based on the image signal input from the image generation unit 292. For example, it can be realized by an image display device such as a flat panel display, a projector, or a head-mounted display. In this embodiment, the touch panel 1506 of FIG. 2 corresponds to this.

通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。通信部394は、ネットワーク9と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図2の無線通信モジュール1553がこれに該当する。 The communication control unit 294 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 394. The communication unit 394 connects to the network 9 to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a jack or a control circuit of a wired communication cable, and the wireless communication module 1553 of FIG. 2 corresponds to this.

端末記憶部500は、端末処理部200にユーザ端末1500を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、端末処理部200の作業領域として用いられ、端末処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。こうした機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。図2の制御基板1550が搭載するICメモリ1552やメモリカード1540がこれに該当する。オンラインストレージを利用する構成も可能である。 The terminal storage unit 500 stores programs, various data, and the like for realizing various functions for causing the terminal processing unit 200 to control the user terminal 1500 in an integrated manner. Further, it is used as a work area of the terminal processing unit 200, and temporarily stores the calculation result executed by the terminal processing unit 200 according to various programs, the input data input from the operation input unit 100, and the like. Such a function is realized by, for example, an IC memory such as RAM or ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM or DVD, or the like. The IC memory 1552 and the memory card 1540 mounted on the control board 1550 of FIG. 2 correspond to this. It is also possible to configure using online storage.

本実施形態の端末記憶部500は、クライアントプログラム502と、オリジナルの投稿者動画データ710と、ライブ配信されている映像と音声を視聴するためのデータであるライブ配信データ582と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。 The terminal storage unit 500 of the present embodiment stores the client program 502, the original poster video data 710, and the live distribution data 582 which is the data for viewing the live video and audio. Of course, programs and data other than these can be stored as appropriate.

クライアントプログラム502は、端末処理部200が読み出して実行することによってクライアント制御部260としての機能を実現させるためのアプリケーションソフトウェアである。本実施形態では、クライアントプログラム502は、サーバシステム1100から提供される配信用クライアントプログラム503(図14参照)のコピーである。なお、クライアントプログラム502は、専用のクライアントプログラムであってもよいし、ウェブブラウザプログラム及びインタラクティブな画像表示を実現するプラグインなどにより構成するとしても良い。 The client program 502 is application software for realizing the function as the client control unit 260 by being read and executed by the terminal processing unit 200. In this embodiment, the client program 502 is a copy of the distribution client program 503 (see FIG. 14) provided by the server system 1100. The client program 502 may be a dedicated client program, or may be configured by a web browser program, a plug-in that realizes an interactive image display, or the like.

次に、本実施形態の動画配信システム1000の動作について説明する。
図22〜図23は、ライブ配信に係るサーバシステム1100の処理の流れについて説明するためのフローチャートである。
Next, the operation of the moving image distribution system 1000 of the present embodiment will be described.
22 to 23 are flowcharts for explaining the processing flow of the server system 1100 related to live distribution.

図22に示すように、先ず、サーバシステム1100は、配信管理データ700(図20参照)を用意して、投稿者端末からの投稿者動画データ710の取得を開始する(ステップS6)。 As shown in FIG. 22, first, the server system 1100 prepares the distribution management data 700 (see FIG. 20) and starts acquiring the poster video data 710 from the poster terminal (step S6).

次いで、サーバシステム1100は、取得した投稿者動画データ710に基づいて、仮想3次元空間に投稿者キャラクタ4と仮想カメラを配置し(ステップS8)、投稿者端末からの投稿者キャラクタ4の操作制御を開始する(ステップS10)。そして、ライブ配信用の配信用動画22の生成およびライブ配信と、当該ライブ配信に係る視聴者の評価集計とを開始する(ステップS12)。 Next, the server system 1100 arranges the poster character 4 and the virtual camera in the virtual three-dimensional space based on the acquired poster video data 710 (step S8), and controls the operation of the poster character 4 from the poster terminal. Is started (step S10). Then, the generation and live distribution of the distribution video 22 for live distribution and the evaluation aggregation of the viewers related to the live distribution are started (step S12).

投稿ユーザ2aが、イベントを実施したいと思ったならば、投稿者端末にて所定のイベントエリア設定リクエスト操作を入力する。投稿者端末は、当該入力をもってサーバシステム1100へイベントエリア設定リクエストを送信する。 If the posting user 2a wants to carry out an event, he / she inputs a predetermined event area setting request operation on the poster terminal. The poster terminal transmits an event area setting request to the server system 1100 with the input.

投稿者端末からイベントエリア設定リクエストを受信することをもって当該リクエストを受け付けると(ステップS14のYES)、サーバシステム1100は、イベントスペースを確保すべく仮想カメラのアングルを所定値へ変更し(ステップS16)、イベントエリアオブジェクト30を仮想3次元空間に追加配置する(ステップS18)。これ以降、追加配置されたイベントエリアオブジェクト30に動作パターンが設定されていれば、サーバシステム1100は、その動作の自動制御を開始する。 When the request is received by receiving the event area setting request from the poster terminal (YES in step S14), the server system 1100 changes the angle of the virtual camera to a predetermined value in order to secure the event space (step S16). , The event area object 30 is additionally arranged in the virtual three-dimensional space (step S18). After that, if the operation pattern is set for the additionally arranged event area object 30, the server system 1100 starts the automatic control of the operation.

また、サーバシステム1100は、追加配置されたイベントエリアオブジェクト30について、投稿者キャラクタ4の行動に基づいて、当該オブジェクト(イベントエリア)の設定位置を変化させる制御を開始する(ステップS20;図12参照)。 Further, the server system 1100 starts control to change the set position of the additionally arranged event area object 30 based on the action of the poster character 4 (step S20; see FIG. 12). ).

更に、投稿ユーザ2aが、複数のイベントエリアオブジェクト30のうち、何れかを特定イベントエリアに設定したいと思ったならば、投稿者端末にて所定の指定操作を入力する。投稿者端末は、当該入力をもってサーバシステム1100へ指定リクエストを送信する。 Further, if the posting user 2a wants to set any one of the plurality of event area objects 30 in the specific event area, he / she inputs a predetermined designated operation on the poster terminal. The contributor terminal sends a designated request to the server system 1100 with the input.

サーバシステム1100は、投稿者端末から指定リクエストを受信することをもって当該リクエストを受け付けると(ステップS30のYES)、指定されたイベントエリアオブジェクト30を、特定イベントエリアとして設定し(ステップS32)、仮想3次元空間に特定イベントエリアを報知するオブジェクトを配置する(ステップS34)。 When the server system 1100 accepts the designated request by receiving the designated request from the poster terminal (YES in step S30), the designated event area object 30 is set as a specific event area (step S32), and the virtual 3 An object that notifies a specific event area is arranged in the dimensional space (step S34).

サーバシステム1100は、視聴リクエストを受信すると(ステップS40のYES)、当該リクエストを送信してきた視聴者端末のユーザを、視聴ユーザとして登録(ステップS42)するともに、当該視聴ユーザの視聴者キャラクタ6を仮想3次元空間に配置する(ステップS44)。 When the server system 1100 receives the viewing request (YES in step S40), the server system 1100 registers the user of the viewer terminal who has sent the request as a viewing user (step S42), and registers the viewing character 6 of the viewing user. Arrange in a virtual three-dimensional space (step S44).

視聴中に、視聴ユーザが、投げ銭をしたいと思ったならば、視聴者端末にて投げ銭に対応づけられたアクション操作を入力する。視聴者端末は、当該アクション操作を検出すると、サーバシステム1100へアクション操作に応じたアクションリクエストを送信する。本実施形態では、投げ銭として使用するアイテム8のアイテム種類の情報とともに、投げ銭リクエストを送信する。 If the viewing user wants to make a change during viewing, he / she inputs an action operation associated with the change on the viewer terminal. When the viewer terminal detects the action operation, the viewer terminal sends an action request corresponding to the action operation to the server system 1100. In the present embodiment, the throwing money request is transmitted together with the item type information of the item 8 used as the throwing money.

サーバシステム1100は、視聴者端末から投げ銭リクエストを受信することをもって当該リクエストを受け付けると(ステップS50のYES)、投げ銭として使用するアイテム8を、仮想3次元空間に追加配置して出現させ(ステップS52)、出現させたアイテム8の移動制御を開始する(ステップS54)。 When the server system 1100 receives the request for throwing money from the viewer terminal (YES in step S50), the item 8 to be used as money throwing is additionally arranged and appeared in the virtual three-dimensional space (step S52). ), The movement control of the spawned item 8 is started (step S54).

サーバシステム1100は、投稿者端末にて特別行動操作の入力を検出すると(ステップS60のYES)、投稿者キャラクタ4を当該特別行動操作に応じた動作を行うように動作制御を開始し(ステップS62;図9,図10,図11参照)、出現済のアイテム8の行動影響制御を開始する(ステップS64)。 When the server system 1100 detects the input of the special action operation on the poster terminal (YES in step S60), the server system 1100 starts the operation control so that the poster character 4 performs the operation according to the special action operation (step S62). (See FIGS. 9, 10, and 11), the behavioral influence control of the item 8 that has already appeared is started (step S64).

また、サーバシステム1100は、出現済のアイテム8のなかに発動要件572(図18参照)を満たすアイテム8が有るならば(ステップS70のYES)、当該発動要件572の発動イベント定義データ570の発動イベント内容データ573に従って特典ポイントの付与を行う(ステップS72)。 Further, if the server system 1100 includes an item 8 that satisfies the activation requirement 572 (see FIG. 18) among the items 8 that have already appeared (YES in step S70), the activation event definition data 570 of the activation requirement 572 is activated. Bonus points are given according to the event content data 573 (step S72).

そして、サーバシステム1100は、仮想3次元空間に出現済のアイテム8のうち、出現日時から所定時間経過したアイテム8を消去する(ステップS74)。 Then, the server system 1100 deletes the item 8 that has already appeared in the virtual three-dimensional space and the predetermined time has elapsed from the appearance date and time (step S74).

ステップS14〜ステップS74は、ライブ配信が終了するまで繰り返される(ステップS80のNO)。そして、ライブ配信が終了したならば(ステップS80のYES)、サーバシステム1100は、今回のライブ配信についての視聴者評価である評価集計データ742に基づいて投稿ユーザ2aのレベルや、投稿者キャラクタ4のパラメータ値を変更する(ステップS82)。例えば、評価が高ければ投稿ユーザ2aのユーザレベル606や投稿者キャラクタ4の投稿者キャラクタパラメータ値612に含まれるキャラクタのレベルを上げる。
そして、サーバシステム1100は、一連の処理を終了する。
Steps S14 to S74 are repeated until the live distribution is completed (NO in step S80). Then, when the live distribution is completed (YES in step S80), the server system 1100 sets the level of the posting user 2a and the posting character 4 based on the evaluation aggregate data 742 which is the viewer evaluation for the live distribution this time. The parameter value of is changed (step S82). For example, if the evaluation is high, the level of the character included in the user level 606 of the posting user 2a or the poster character parameter value 612 of the posting character 4 is raised.
Then, the server system 1100 ends a series of processes.

以上、本実施形態によれば、ライブ形式の動画配信において、投げ銭を利用した新しいサービスをもたらすことできる。 As described above, according to the present embodiment, it is possible to bring about a new service using throwing money in live video distribution.

すなわち、視聴者端末で投げ銭を実行するアクション操作を入力すれば、ライブ配信されている動画内に投げ銭を表す表示体が出現し、投入されたかのように移動表示される。 That is, if an action operation for executing the tossed money is input on the viewer terminal, a display body representing the tossed money appears in the live-streamed video and is moved and displayed as if it was thrown in.

しかも、本実施形態によれば、投稿者キャラクタ4の存在する仮想3次元空間に視聴者キャラクタ6が追加配置され、更に投げ銭のアイテム8(表示体)も同仮想3次元空間に追加配置される。そして、アイテム8に至っては、投稿者キャラクタ4の行動の影響を受けて、位置が変化し得る。つまり、視聴者の行動と、投稿者の行動との連係をライブ形式の動画配信にもたらすことができる。
よって、本実施形態によれば、投稿者と視聴者との共感を従来よりも高め、同じ動画を介した今までに無い新しいユーザ体験(興趣)が提供できる。
Moreover, according to the present embodiment, the viewer character 6 is additionally arranged in the virtual three-dimensional space in which the poster character 4 exists, and the item 8 (display body) of the tossed money is additionally arranged in the virtual three-dimensional space. .. Then, the position of the item 8 may change due to the influence of the behavior of the poster character 4. In other words, it is possible to bring the link between the behavior of the viewer and the behavior of the poster to the live video distribution.
Therefore, according to the present embodiment, it is possible to enhance the sympathy between the poster and the viewer as compared with the conventional case, and to provide an unprecedented new user experience (interest) through the same video.

〔変形例〕
以上、本発明を適用した実施形態について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
[Modification example]
Although the embodiments to which the present invention is applied have been described above, the embodiments to which the present invention can be applied are not limited to the above-described embodiments, and constituent elements can be added, omitted, or changed as appropriate.

[変形例その1]
例えば、上記実施形態では、1つのライブ配信における投稿ユーザ2aを1名として図示・説明してきたが、1つのライブ配信には複数の投稿ユーザ2aが存在してもよい。
[Modification example 1]
For example, in the above embodiment, the posting user 2a in one live distribution has been illustrated and described as one person, but there may be a plurality of posting users 2a in one live distribution.

すなわち、投稿者動画データ710が、投稿者端末(ユーザ端末1500a)で操作される複数の投稿者キャラクタ4のデータを含み、配信用動画生成制御部216(図13参照)が、投稿者動画データ710に基づいて、複数の投稿者キャラクタ4の画像を含めた配信用動画22を生成する構成も可能である。 That is, the poster video data 710 includes data of a plurality of poster characters 4 operated by the poster terminal (user terminal 1500a), and the distribution video generation control unit 216 (see FIG. 13) is responsible for the poster video data. Based on 710, it is also possible to generate a distribution moving image 22 including images of a plurality of contributor characters 4.

具体的には、例えば、ライブ配信する配信用動画22を仮想空間画像に限定するならば、サーバシステム1100が、投稿者端末のユーザの認証手続きに係り、当該ユーザが予め投稿ユーザとなることを予約手続きして獲得した固有のライブ配信IDの入力を要求することする。そして、サーバシステム1100が、同じライブ配信IDで認証した投稿者端末のユーザは、全て投稿ユーザとして扱うようにすればよい。 Specifically, for example, if the distribution video 22 to be live-streamed is limited to a virtual space image, the server system 1100 is involved in the authentication procedure of the user of the poster terminal, and the user becomes the posting user in advance. Request the input of the unique live distribution ID obtained through the reservation procedure. Then, all the users of the poster terminal authenticated by the server system 1100 with the same live distribution ID may be treated as posting users.

また、ライブ配信する配信用動画22を拡張現実画像とする構成の場合は、投稿者端末(ユーザ端末1500a)で複数人の投稿ユーザを1度に撮影して、各人についてモーションキャプチャー処理を実行して、各人について投稿者モーションデータ712を生成する。それに先立ち、ARマーカ5に対する相対位置関係(例えば、ARマーカ5に対して右側/左側、など)と、投稿ユーザとを対応づける設定情報を、投稿者動画データ710に含めるものとする。サーバシステム1100は、当該設定情報に基づいて、どの投稿者モーションデータ712が誰のデータであるかを識別する。そして、サーバシステム1100が、各人それぞれについての投稿者キャラクタ4を仮想3次元空間に配置し、各人の投稿者モーションデータ712に基づいて動作制御すればよい。 Further, in the case of the configuration in which the distribution video 22 to be live-distributed is an augmented reality image, a plurality of posting users are photographed at once on the poster terminal (user terminal 1500a), and motion capture processing is executed for each of them. Then, the poster motion data 712 is generated for each person. Prior to that, the poster video data 710 includes the setting information for associating the relative positional relationship with the AR marker 5 (for example, right side / left side with respect to the AR marker 5) and the posting user. The server system 1100 identifies which poster motion data 712 is who's data based on the setting information. Then, the server system 1100 may arrange the poster character 4 for each person in the virtual three-dimensional space and control the operation based on the poster motion data 712 of each person.

そして、図24に示すように、複数の投稿ユーザと複数の視聴ユーザとで混成する複数のチームを設定し(図24の例では、投稿ユーザ2aと視聴ユーザ2bのREDチームと、投稿ユーザ2cと視聴ユーザ2dとのBLUEチーム)、投げ銭を用いた玉入れチーム対戦ゲームを実行し、勝ちチームに限定して発動イベントを発動させる(特典を付与する)としてもよい。 Then, as shown in FIG. 24, a plurality of teams mixed with a plurality of posting users and a plurality of viewing users are set (in the example of FIG. 24, the RED teams of the posting user 2a and the viewing user 2b, and the posting user 2c). (BLUE team with the viewing user 2d), a ball throwing team battle game using throwing money may be executed, and the activation event may be activated (giving a privilege) only to the winning team.

[変形例その2]
また、上記実施形態では、配信用動画22を、投稿素材データ714に投稿者キャラクタ4の映像を合成することにより作成したが、投稿素材データ714をゲームプレイ動画とする場合には、別の手法で作成することができる。
[Modification 2]
Further, in the above embodiment, the distribution video 22 is created by synthesizing the video of the poster character 4 with the posted material data 714, but when the posted material data 714 is used as a game play video, another method is used. Can be created with.

具体的には、サーバシステム1100は、ゲームプレイ毎に図25に示すような、プレイデータ770を記憶管理する。プレイデータ770は、当該ゲームプレイの進行状況を記述するデータや、ゲーム画面を表示するためのデータなどを格納する。そして、プレイデータ770に、プレーヤアカウント771と、当該ゲームプレイに係る仮想3次元空間の一切の事象を再現することができるオリジナルプレイ再現データ772を含める。オリジナルプレイ再現データ772には、例えば、ゲームオブジェクト制御履歴データ773、仮想カメラ制御履歴データ774、操作入力履歴データ775、が含まれる。 Specifically, the server system 1100 stores and manages play data 770 as shown in FIG. 25 for each game play. The play data 770 stores data describing the progress of the game play, data for displaying the game screen, and the like. Then, the play data 770 includes the player account 771 and the original play reproduction data 772 that can reproduce all the events in the virtual three-dimensional space related to the game play. The original play reproduction data 772 includes, for example, game object control history data 773, virtual camera control history data 774, and operation input history data 775.

オリジナルプレイ再現データ772は、ゲームプレイ終了時に別途保存されて、プレーヤが利用可能になる。具体的には、サーバシステム1100は、ユーザ端末1500からの所与のリクエストに応じて、再現用に仮想3次元空間を用意し、そこにオリジナルプレイ再現データ772に基づいてゲームオブジェクト等を配置する。そして、サーバシステム1100は、配置したゲームオブジェクトにオリジナルプレイでの動きを再現させ、オリジナルプレイで使用された仮想カメラを視点としてレンダリングすることで、オリジナルプレイのプレイ動画を作成する。そして、サーバシステム1100は、当該ユーザ端末にてプレイ動画を表示させプレーヤに見せる。 The original play reproduction data 772 is separately saved at the end of the game play and becomes available to the player. Specifically, the server system 1100 prepares a virtual three-dimensional space for reproduction in response to a given request from the user terminal 1500, and arranges a game object or the like in the virtual three-dimensional space based on the original play reproduction data 772. .. Then, the server system 1100 creates a play video of the original play by reproducing the movement in the original play on the arranged game object and rendering the virtual camera used in the original play as a viewpoint. Then, the server system 1100 displays the play moving image on the user terminal and shows it to the player.

図26は、当該構成における投稿素材データ714のデータ構成例を示す図である。
上述のように再現されたプレイ動画を適宜編集することで、ゲームプレイ動画の投稿素材データ714を作成できる。具体的には、サーバシステム1100は、ユーザ端末1500へ動画編集画面を表示させて、再現されたプレイ動画(全ゲームプレイの動画)のうち、どの時間範囲をどの順番で接続して1本の動画としているかの編集情報715を作成する。例えば、編集情報715は、動画のカット順に、オリジナルプレイにおける時間経過のどこからどこまでを各カットに採用しているかの時間範囲の情報を格納する。
FIG. 26 is a diagram showing a data configuration example of the posted material data 714 in the configuration.
By appropriately editing the play video reproduced as described above, the posted material data 714 of the game play video can be created. Specifically, the server system 1100 displays a video editing screen on the user terminal 1500, and among the reproduced play videos (videos of all game play), which time range is connected in what order to make one. Create editing information 715 as a moving image. For example, the editing information 715 stores information on a time range in which the time elapsed in the original play is adopted for each cut in the order of cutting the moving image.

よって、編集情報715と、プレイデータ770からコピーされたオリジナルプレイ再現データ(写)716と、をもって、ゲームプレイ動画の投稿素材データ714とすることができる。再現用に仮想3次元空間を用意して、編集情報715に従って、カットの順にオリジナルプレイ再現データ(写)716から当該カットの時間範囲分の情報を読み出し、読み出した情報に基づいてゲームオブジェクトやオリジナル仮想カメラを配置する。そして、当該カットの時間範囲分だけ、動作制御とレンダリングを行う。これを、全カットに渡り連続的に実行することで、投稿素材データ714からゲームプレイ動画が生まれる。 Therefore, the editing information 715 and the original play reproduction data (copy) 716 copied from the play data 770 can be used as the posting material data 714 of the game play video. A virtual three-dimensional space is prepared for reproduction, information for the time range of the cut is read from the original play reproduction data (copy) 716 in the order of cuts according to the edit information 715, and the game object or the original is based on the read information. Place a virtual camera. Then, motion control and rendering are performed for the time range of the cut. By continuously executing this over all cuts, a gameplay video is generated from the posted material data 714.

なお、投稿素材データ714には、適宜、素材提供者アカウント717を含めることとすると、投稿素材の出自に関する情報を参照可能になるので好適である。 It is preferable to include the material provider account 717 in the posted material data 714 as appropriate, because information on the origin of the posted material can be referred to.

図27に示すように、配信用動画22の配信を行う際は、サーバシステム1100は、配信用動画22の生成用に用意された仮想3次元空間に、投稿素材データ714の編集情報715と、オリジナルプレイ再現データ(写)716とに基づいて、ゲームオブジェクト(図27の例では、プレーヤキャラクタ40や敵キャラクタ42のキャラクタオブジェクト)や、オリジナル仮想カメラCM0を配置して動作制御する。 As shown in FIG. 27, when the distribution video 22 is distributed, the server system 1100 displays the edit information 715 of the posted material data 714 and the edit information 715 of the posted material data 714 in the virtual three-dimensional space prepared for generating the distribution video 22. Based on the original play reproduction data (copy) 716, the game objects (character objects of the player character 40 and the enemy character 42 in the example of FIG. 27) and the original virtual camera CM0 are arranged and the operation is controlled.

それとともに、サーバシステム1100は、投稿ユーザ2aのユーザ端末1500から送信される投稿者動画データ710(図4参照)に基づいて、当該仮想3次元空間に、投稿者キャラクタ4のキャラクタオブジェクトや、実況ユーザのテキストコメントを表示するコメントオブジェクト44、追加仮想カメラCM1、など実況に係る新たなオブジェクト(実況オブジェクト)を追加配置し、オリジナルゲームプレイに係るオブジェクトと一緒に制御する。また、サーバシステム1100は、投稿ユーザ2aのユーザ端末1500から送信されるイベントエリア設定リクエスト等に従って、イベントエリアオブジェクト30を当該仮想3次元空間に追加配置して制御する。 At the same time, the server system 1100 sets the character object of the poster character 4 and the actual situation in the virtual three-dimensional space based on the poster video data 710 (see FIG. 4) transmitted from the user terminal 1500 of the posting user 2a. A comment object 44 for displaying the user's text comment, an additional virtual camera CM1, and other new objects (live objects) related to the live commentary are additionally arranged and controlled together with the objects related to the original game play. Further, the server system 1100 additionally arranges and controls the event area object 30 in the virtual three-dimensional space in accordance with an event area setting request or the like transmitted from the user terminal 1500 of the posting user 2a.

そして、サーバシステム1100は、配信用動画22を、オリジナル仮想カメラCM0や追加仮想カメラCM1を使って仮想3次元空間の様子をレンダリングして作成する。なお、音声については、オリジナルゲームプレイの音声に、実況音声が音声重畳される。 Then, the server system 1100 creates the distribution moving image 22 by rendering the state of the virtual three-dimensional space using the original virtual camera CM0 and the additional virtual camera CM1. As for the voice, the live voice is superimposed on the voice of the original game play.

更には、配信用動画22を配信する際、視聴ユーザの視聴者キャラクタ6と、アイテム8のオブジェクトを、配信用動画22の生成用の仮想3次元空間に配置するとしてもよい。 Further, when the distribution moving image 22 is distributed, the viewer character 6 of the viewing user and the object of the item 8 may be arranged in a virtual three-dimensional space for generating the distribution moving image 22.

この構成で配信用動画22を生成し配信する場合、オリジナルのゲームプレイのゲーム世界に、投稿者キャラクタ4や、イベントエリアオブジェクト30などが登場し、視聴ユーザの視聴者キャラクタ6やアイテム8も登場するので、あたかも投稿者キャラクタ4がゲームプレイの現場から実況しているかのような、そして、視聴者もゲームプレイの現場でミニゲームをプレイしているかのような従来に無い動画の見せ方が可能となる。 When the video 22 for distribution is generated and distributed with this configuration, the poster character 4 and the event area object 30 appear in the game world of the original game play, and the viewer character 6 and the item 8 of the viewing user also appear. Therefore, it is possible to show an unprecedented video as if the poster character 4 is playing a live game from the game play site, and the viewer is also playing a mini game at the game play site. It will be possible.

[変形例その3]
変形例その2を前提として、サーバシステム1100が、配信管理データ700の記憶制御に係り、例えば、
1)投稿者モーションデータ712を、配信中の投稿ユーザの全モーションデータを時系列に保存する履歴形式で記録し、
2)投稿者音声データ713を、配信中の投稿ユーザの全音声を時系列に保存する履歴形式で記憶し、
3)視聴キャラクタ制御データ737を、当該視聴キャラクタの配信中の全制御データを時系列に保存する履歴形式で記憶し、
4)配信中に使用されたアイテムのアイテム制御データ738は消去せずに保存し、
5)配信終了時に配信管理データ700(図20参照)を保存する、
構成とするならば、当該配信が視聴ユーザに与えた影響を分析可能になる。
[Modification 3]
Assuming the second modification, the server system 1100 is involved in the storage control of the distribution management data 700, for example.
1) The poster motion data 712 is recorded in a history format in which all motion data of the posting user being distributed is saved in chronological order.
2) The poster voice data 713 is stored in a history format that saves all the voices of the posting users being delivered in chronological order.
3) The viewing character control data 737 is stored in a history format in which all control data during distribution of the viewing character is saved in chronological order.
4) Save the item control data 738 of the item used during distribution without erasing it.
5) Save the distribution management data 700 (see FIG. 20) at the end of distribution.
If it is configured, it becomes possible to analyze the influence of the distribution on the viewing user.

すなわち、サーバシステム1100は、保存された配信管理データ700を参照することで、配信後に、どのオリジナルプレイ(投稿素材データ714から判明)に、誰が(投稿ユーザアカウント702から判明)、どのような実況を行ったか(投稿者モーションデータ712と、投稿者音声データ713の音声解析と、から判明)、を分析できる。 That is, by referring to the stored distribution management data 700, the server system 1100 refers to which original play (found from the posted material data 714), who (found from the posted user account 702), and what kind of actual situation after distribution. (Revealed from the poster motion data 712 and the audio analysis of the poster audio data 713) can be analyzed.

そして、サーバシステム1100は、視聴者キャラクタ制御データ737と、アイテム制御データ738と、を参照することで、当該配信を視聴した視聴ユーザを識別し、当該視聴ユーザのゲームセーブデータ607(図19参照)を参照することで、どの視聴ユーザが、配信用動画22を視聴した後にどのような行動をしたか(プレイ履歴データ608から判明)を知ることができる。言い換えると、サーバシステム1100は、配信用動画22の視聴が、視聴ユーザの行動に与えた影響を推測することができる。 Then, the server system 1100 identifies the viewing user who has viewed the distribution by referring to the viewer character control data 737 and the item control data 738, and the game save data 607 of the viewing user (see FIG. 19). ), It is possible to know which viewing user has performed what kind of action after viewing the distribution video 22 (found from the play history data 608). In other words, the server system 1100 can infer the influence of viewing the distribution moving image 22 on the behavior of the viewing user.

2…ユーザ
2a…投稿ユーザ
2b…視聴ユーザ
4…投稿者キャラクタ
6…視聴者キャラクタ
8…アイテム
22…配信用動画
30…イベントエリアオブジェクト
200s…サーバ処理部
210…投稿者動画データ取得制御部
212…表示体出現制御部
214…行動影響制御部
216…配信用動画生成制御部
218…イベントエリア設定部
220…発動イベント制御部
222…評価集計部
224…投稿者キャラクタパラメータ値変更制御部
500s…サーバ記憶部
501…サーバプログラム
503…配信用クライアントプログラム
510…キャラクタ定義データ
513…キャラクタ属性
520…動作パターン定義データ
530…イベントエリアオブジェクト定義データ
533…イベントエリア属性
540…特定イベントエリア報知オブジェクトデータ
550…アイテム定義データ
552…アイテム属性
553…アイテム表示体データ
570…発動イベント定義データ
572…発動要件
572a…位置関係条件
572b…組み合わせ条件
572c…属性関係条件
572d…行動影響条件
573…発動イベント内容データ
573a…特典種類
573c…第1付与比率
573d…第2付与比率
582…ライブ配信データ
600…ユーザ管理データ
602…所有アイテム管理データ
603…ユーザ属性
604…累積特典ポイント
606…ユーザレベル
610…投稿者キャラクタ設定データ
612…投稿者キャラクタパラメータ値
700…配信管理データ
702…投稿ユーザアカウント
703…視聴ユーザアカウントリスト
710…投稿者動画データ
730…画像空間管理データ
733…投稿者キャラクタ制御データ
734…仮想カメラ制御データ
735…イベントエリアオブジェクト制御データ
736…特定イベントエリアID
737…視聴者キャラクタ制御データ
738…アイテム制御データ
742…評価集計データ
744…配信用動画データ
1000…動画配信システム
1100…サーバシステム
1500…ユーザ端末
1500a…ユーザ端末(投稿者端末)
1500b…ユーザ端末(視聴者端末)
2 ... User 2a ... Posting user 2b ... Viewing user 4 ... Poster character 6 ... Viewer character 8 ... Item 22 ... Video for distribution 30 ... Event area object 200s ... Server processing unit 210 ... Poster video data acquisition control unit 212 ... Display appearance control unit 214 ... Behavioral influence control unit 216 ... Video generation control unit for distribution 218 ... Event area setting unit 220 ... Activation event control unit 222 ... Evaluation aggregation unit 224 ... Poster character parameter value change control unit 500s ... Server storage Part 501 ... Server program 503 ... Delivery client program 510 ... Character definition data 513 ... Character attribute 520 ... Operation pattern definition data 530 ... Event area object definition data 533 ... Event area attribute 540 ... Specific event area notification object data 550 ... Item definition Data 552 ... Item attribute 553 ... Item display body data 570 ... Trigger event definition data 572 ... Trigger requirement 572a ... Positional relationship condition 572b ... Combination condition 572c ... Attribute relationship condition 572d ... 573c ... 1st grant ratio 573d ... 2nd grant ratio 582 ... Live distribution data 600 ... User management data 602 ... Owned item management data 603 ... User attributes 604 ... Cumulative privilege points 606 ... User level 610 ... Posted character setting data 612 ... Poster character parameter value 700 ... Distribution management data 702 ... Post user account 703 ... Viewing user account list 710 ... Poster video data 730 ... Image space management data 733 ... Poster character control data 734 ... Virtual camera control data 735 ... Event area Object control data 736 ... Specific event area ID
737 ... Viewer character control data 738 ... Item control data 742 ... Evaluation aggregate data 744 ... Video data for distribution 1000 ... Video distribution system 1100 ... Server system 1500 ... User terminal 1500a ... User terminal (poster terminal)
1500b ... User terminal (viewer terminal)

Claims (16)

投稿者端末および視聴者端末と通信接続されて動画配信を行うサーバシステムであって、
前記投稿者端末で操作される投稿者キャラクタが行動可能な仮想空間または拡張現実空間である画像空間の投稿者動画データを、前記投稿者端末から取得する投稿者動画データ取得手段と、
前記視聴者端末からアクション操作入力を受け付けて、当該アクション操作入力に基づいて前記画像空間中に表示体を出現させる表示体出現制御手段と、
前記投稿者キャラクタの前記画像空間中の行動に基づいて、前記表示体の表示位置を変化させる行動影響制御を行う行動影響制御手段と、
前記投稿者動画データに基づく画像と、前記表示体とを合成した前記画像空間の配信用動画を生成する配信用動画生成手段と、
を備えたサーバシステム。
It is a server system that distributes videos by communicating with the poster terminal and the viewer terminal.
A poster video data acquisition means for acquiring poster video data in an image space, which is a virtual space or an augmented reality space in which a poster character operated by the poster terminal can act, from the poster terminal.
A display body appearance control means that receives an action operation input from the viewer terminal and causes the display body to appear in the image space based on the action operation input.
A behavioral influence control means that controls behavioral influences that change the display position of the display body based on the behavior of the poster character in the image space.
A distribution video generation means for generating a distribution video in the image space in which an image based on the poster video data and the display body are combined.
Server system with.
前記表示体出現制御手段は、前記アクション操作入力に基づいて前記表示体の投入方向を決定し、当該投入方向に沿って前記表示体を前記画像空間に出現および移動させる投入制御を行う、
請求項1に記載のサーバシステム。
The display body appearance control means determines the closing direction of the display body based on the action operation input, and performs closing control to make the display body appear and move in the image space along the throwing direction.
The server system according to claim 1.
前記画像空間にイベントエリアを設定するイベントエリア設定手段と、
前記イベントエリアに対して前記表示体が所与の位置関係条件を満たしたか否かに基づいて、所与の発動イベントの発動を制御する発動イベント制御手段と、
を備えた請求項2に記載のサーバシステム。
An event area setting means for setting an event area in the image space and
An activation event control means that controls the activation of a given activation event based on whether or not the display body satisfies a given positional relationship condition with respect to the event area.
The server system according to claim 2.
前記発動イベント制御手段は、前記投稿者端末の投稿者、および/または、前記アクション操作入力を行った視聴者に所与の特典を付与する処理を、前記発動イベントとして前記発動の制御を行う、
請求項3に記載のサーバシステム。
The activation event control means controls the activation as the activation event, which is a process of giving a given privilege to the poster of the poster terminal and / or the viewer who has input the action operation.
The server system according to claim 3.
前記発動イベント制御手段は、前記投稿者キャラクタに定められた属性と、前記表示体、または、前記アクション操作入力を行った視聴者に設定された属性と、の相性に基づいて前記特典を変更して付与する、
請求項4に記載のサーバシステム。
The activation event control means changes the privilege based on the compatibility between the attribute defined for the poster character and the attribute set for the display body or the viewer who has performed the action operation input. Grant,
The server system according to claim 4.
前記発動イベント制御手段は、前記位置関係条件を満たした表示体が、前記行動影響制御によって表示位置が変化した表示体か否かに基づいて異なる特典を付与する、
請求項4または5に記載のサーバシステム。
The activation event control means grants different benefits based on whether or not the display body satisfying the positional relationship condition is a display body whose display position has been changed by the action influence control.
The server system according to claim 4 or 5.
前記発動イベント制御手段は、前記投稿者端末の投稿者に付与する特典と、前記アクション操作入力を行った視聴者に付与する特典との比率を、前記行動影響制御の有無に基づいて可変に制御する、
請求項4〜6の何れか一項に記載のサーバシステム。
The activation event control means variably controls the ratio of the privilege given to the poster of the poster terminal and the privilege given to the viewer who has input the action operation based on the presence or absence of the action influence control. To do,
The server system according to any one of claims 4 to 6.
前記イベントエリア設定手段は、前記投稿者キャラクタの前記画像空間中の行動に基づいて、前記イベントエリアの設定位置を変化させる制御を行う、
請求項3〜7の何れか一項に記載のサーバシステム。
The event area setting means controls to change the set position of the event area based on the behavior of the poster character in the image space.
The server system according to any one of claims 3 to 7.
前記イベントエリア設定手段は、前記イベントエリアを複数設定し、
前記発動イベント制御手段は、前記位置関係条件を満たした前記イベントエリアに応じて、異なる発動イベントを発動し、
前記投稿者動画データ取得手段は、前記複数のイベントエリアのうちの特定のイベントエリアを指示するデータを前記投稿者端末から取得し、
前記配信用動画生成手段は、前記配信用動画に前記特定のイベントエリアを報知する画像または音声を含めて生成する、
請求項3〜8の何れか一項に記載のサーバシステム。
The event area setting means sets a plurality of the event areas and sets them.
The activation event control means activates different activation events according to the event area that satisfies the positional relationship condition.
The poster video data acquisition means acquires data indicating a specific event area among the plurality of event areas from the poster terminal.
The distribution moving image generation means generates the distribution moving image including an image or sound for notifying the specific event area.
The server system according to any one of claims 3 to 8.
前記表示体出現制御手段は、前記投稿者キャラクタに定められたパラメータに基づいて前記表示体の飛距離を変化させる、
請求項2〜9の何れか一項に記載のサーバシステム。
The display body appearance control means changes the flight distance of the display body based on the parameters determined for the poster character.
The server system according to any one of claims 2 to 9.
前記イベントエリアには、所与のエリア属性が設定されており、
前記発動イベント制御手段は、前記位置関係条件を満たした前記イベントエリアのエリア属性と、前記表示体に係る属性とに基づいて、発動させる発動イベントを可変に制御する、
請求項2〜10の何れか一項に記載のサーバシステム。
A given area attribute is set in the event area.
The activation event control means variably controls the activation event to be activated based on the area attribute of the event area satisfying the positional relationship condition and the attribute related to the display body.
The server system according to any one of claims 2 to 10.
前記行動影響制御手段は、前記投稿者キャラクタの行動が前記表示体を運搬する運搬行動条件を満たした場合、前記投稿者キャラクタが前記表示体を所与の運搬先に運搬するように前記表示体の表示位置を変化させる、
請求項1〜11の何れか一項に記載のサーバシステム。
When the behavior of the poster character satisfies the transport behavior condition for transporting the display body, the behavior influence control means is such that the poster character transports the display body to a given transport destination. Change the display position of
The server system according to any one of claims 1 to 11.
前記行動影響制御手段は、前記投稿者キャラクタに定められたパラメータに基づいて前記行動影響制御の内容を変更する、
請求項1〜12の何れか一項に記載のサーバシステム。
The behavioral influence control means changes the content of the behavioral influence control based on the parameters defined for the poster character.
The server system according to any one of claims 1 to 12.
前記配信用動画に対する視聴者評価を集計する評価集計手段と、
前記視聴者評価に基づいて前記投稿者キャラクタのパラメータ値を変更するパラメータ値変更制御手段と、
を備えた請求項1〜13の何れか一項に記載のサーバシステム。
Evaluation aggregation means for aggregation of viewer evaluations for the video for distribution, and
A parameter value change control means for changing the parameter value of the poster character based on the viewer evaluation, and
The server system according to any one of claims 1 to 13.
前記投稿者動画データは、前記投稿者端末で操作される複数の投稿者キャラクタのデータを含み、
前記配信用動画生成手段は、前記投稿者動画データに基づいて、前記複数の投稿者キャラクタの画像を含めた前記配信用動画を生成する、
請求項1〜14の何れか一項に記載のサーバシステム。
The poster video data includes data of a plurality of poster characters operated by the poster terminal, and includes data of a plurality of poster characters.
The distribution video generation means generates the distribution video including images of the plurality of poster characters based on the poster video data.
The server system according to any one of claims 1 to 14.
投稿者端末と、
視聴者端末と、
前記投稿者端末および前記視聴者端末と通信接続された請求項1〜15の何れか一項に記載のサーバシステムと、
を具備した動画配信システム。
With the poster terminal
With the viewer terminal
The server system according to any one of claims 1 to 15, which is communication-connected to the poster terminal and the viewer terminal.
Video distribution system equipped with.
JP2019066478A 2019-03-29 2019-03-29 Server system and video distribution system Active JP7398873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019066478A JP7398873B2 (en) 2019-03-29 2019-03-29 Server system and video distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019066478A JP7398873B2 (en) 2019-03-29 2019-03-29 Server system and video distribution system

Publications (2)

Publication Number Publication Date
JP2020167526A true JP2020167526A (en) 2020-10-08
JP7398873B2 JP7398873B2 (en) 2023-12-15

Family

ID=72714926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019066478A Active JP7398873B2 (en) 2019-03-29 2019-03-29 Server system and video distribution system

Country Status (1)

Country Link
JP (1) JP7398873B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022026874A (en) * 2020-07-31 2022-02-10 株式会社カプコン Game system and game control method
WO2022137519A1 (en) * 2020-12-25 2022-06-30 株式会社コロプラ Viewing method, computer-readable medium, computer system, and information processing device
JP2023015855A (en) * 2021-07-20 2023-02-01 株式会社カプコン Computer program and computer device
JP7231771B1 (en) 2022-03-31 2023-03-01 Kddi株式会社 Information processing device and information processing method
JP7233589B1 (en) 2022-05-25 2023-03-06 次井 香織 tip management system
JP7246054B1 (en) 2022-06-24 2023-03-27 17Live株式会社 computer programs, terminals and servers
JP2023096558A (en) * 2021-12-27 2023-07-07 株式会社カプコン Game program and game system
JP2023120932A (en) * 2022-02-18 2023-08-30 ソフトバンク株式会社 Information processing system, information processing device, program, and information processing method
WO2023228850A1 (en) * 2022-05-25 2023-11-30 次井丈博 Tipping management system
JP7463322B2 (en) 2021-07-28 2024-04-08 株式会社コロプラ Programs, information processing systems

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001190833A (en) * 2000-01-07 2001-07-17 From Software:Kk Character control method of video game, video game device and computer readable recording medium for recording program of video game
JP2006026241A (en) * 2004-07-20 2006-02-02 Konami Co Ltd Game device, game device controlling method and program
JP2018083057A (en) * 2016-11-11 2018-05-31 株式会社コロプラ Game program, method and information processing device
JP6382468B1 (en) * 2018-05-08 2018-08-29 グリー株式会社 Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6397595B1 (en) * 2018-04-12 2018-09-26 株式会社ドワンゴ Content distribution server, content distribution system, content distribution method and program
JP2018161439A (en) * 2017-03-27 2018-10-18 株式会社コロプラ Game program, method, and information processing device
JP2019024748A (en) * 2017-07-27 2019-02-21 株式会社バンダイナムコエンターテインメント Image generation device and program
JP6491388B1 (en) * 2018-08-28 2019-03-27 グリー株式会社 Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001190833A (en) * 2000-01-07 2001-07-17 From Software:Kk Character control method of video game, video game device and computer readable recording medium for recording program of video game
JP2006026241A (en) * 2004-07-20 2006-02-02 Konami Co Ltd Game device, game device controlling method and program
JP2018083057A (en) * 2016-11-11 2018-05-31 株式会社コロプラ Game program, method and information processing device
JP2018161439A (en) * 2017-03-27 2018-10-18 株式会社コロプラ Game program, method, and information processing device
JP2019024748A (en) * 2017-07-27 2019-02-21 株式会社バンダイナムコエンターテインメント Image generation device and program
JP6397595B1 (en) * 2018-04-12 2018-09-26 株式会社ドワンゴ Content distribution server, content distribution system, content distribution method and program
JP6382468B1 (en) * 2018-05-08 2018-08-29 グリー株式会社 Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6491388B1 (en) * 2018-08-28 2019-03-27 グリー株式会社 Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ファンと一緒に放送をつくろう! 「ANICAST」にユーザーギフティング機能を追加, [ONLINE], JPN6019006120, 5 April 2018 (2018-04-05), JP, ISSN: 0005075929 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022026874A (en) * 2020-07-31 2022-02-10 株式会社カプコン Game system and game control method
JP7381898B2 (en) 2020-07-31 2023-11-16 株式会社カプコン Game system and game control method
WO2022137519A1 (en) * 2020-12-25 2022-06-30 株式会社コロプラ Viewing method, computer-readable medium, computer system, and information processing device
JP2023015855A (en) * 2021-07-20 2023-02-01 株式会社カプコン Computer program and computer device
JP7428912B2 (en) 2021-07-20 2024-02-07 株式会社カプコン computer programs and computer equipment
JP7463322B2 (en) 2021-07-28 2024-04-08 株式会社コロプラ Programs, information processing systems
JP2023096558A (en) * 2021-12-27 2023-07-07 株式会社カプコン Game program and game system
JP7328574B2 (en) 2021-12-27 2023-08-17 株式会社カプコン Game program and game system
JP7421579B2 (en) 2022-02-18 2024-01-24 ソフトバンク株式会社 Information processing system, information processing device, program, and information processing method
JP2023120932A (en) * 2022-02-18 2023-08-30 ソフトバンク株式会社 Information processing system, information processing device, program, and information processing method
JP7231771B1 (en) 2022-03-31 2023-03-01 Kddi株式会社 Information processing device and information processing method
JP2023149526A (en) * 2022-03-31 2023-10-13 Kddi株式会社 Information processing device and information processing method
JP7233589B1 (en) 2022-05-25 2023-03-06 次井 香織 tip management system
JP2023172994A (en) * 2022-05-25 2023-12-07 次井 香織 Throwing coin management system
WO2023228850A1 (en) * 2022-05-25 2023-11-30 次井丈博 Tipping management system
WO2023228849A1 (en) * 2022-05-25 2023-11-30 次井香織 Tip management system
JP2024002511A (en) * 2022-06-24 2024-01-11 17Live株式会社 Computer program, terminal and server
JP7246054B1 (en) 2022-06-24 2023-03-27 17Live株式会社 computer programs, terminals and servers

Also Published As

Publication number Publication date
JP7398873B2 (en) 2023-12-15

Similar Documents

Publication Publication Date Title
JP7398873B2 (en) Server system and video distribution system
JP7273588B2 (en) Server system and video distribution system
JP6668549B1 (en) Information processing system, information processing method, and computer program
JP6955861B2 (en) Event control system and program
JP6809830B2 (en) Programs and electronics
JP2017182603A (en) Program and computer system
JP6744080B2 (en) Game system, photographing device and program
JP2022130495A (en) Content distribution control method and content distribution system
JP6173666B2 (en) Program and game device
JP5837461B2 (en) Program, terminal device, and server system
US20180178128A1 (en) System for giving reward in exchange for watching advertisement
JP7325209B2 (en) Server system, play data community system and control method
JP6724219B1 (en) Movie application program, movie display method, movie distribution system, and information processing device
JP6697846B2 (en) Game system, server system and program
US11238475B2 (en) System for giving entertainment element in return for watching advertisement
JP2020162881A (en) Computer system and animation distribution viewing system
JP2018171274A (en) Computer system, game system, and program
JP7473901B2 (en) Video distribution system, program, and information processing method
JP6546320B2 (en) Computer system and program
JP2023162234A (en) Program and computer system
JP7497832B2 (en) PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM
JP7411437B2 (en) Computer systems, server systems and game systems
JP2021041241A (en) Program and electronic apparatus
JP6972272B2 (en) Server system and program
JP7356189B2 (en) Game system, computer program used therefor, and control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231205

R150 Certificate of patent or registration of utility model

Ref document number: 7398873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150