JP7405351B2 - Video processing method, server device and computer program - Google Patents

Video processing method, server device and computer program Download PDF

Info

Publication number
JP7405351B2
JP7405351B2 JP2022123305A JP2022123305A JP7405351B2 JP 7405351 B2 JP7405351 B2 JP 7405351B2 JP 2022123305 A JP2022123305 A JP 2022123305A JP 2022123305 A JP2022123305 A JP 2022123305A JP 7405351 B2 JP7405351 B2 JP 7405351B2
Authority
JP
Japan
Prior art keywords
gift
avatar object
video
gifts
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022123305A
Other languages
Japanese (ja)
Other versions
JP2022167902A (en
Inventor
貴志 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020043287A external-priority patent/JP6942834B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022123305A priority Critical patent/JP7405351B2/en
Publication of JP2022167902A publication Critical patent/JP2022167902A/en
Priority to JP2023205411A priority patent/JP2024028853A/en
Application granted granted Critical
Publication of JP7405351B2 publication Critical patent/JP7405351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

本件出願に開示された技術は、視聴ユーザが視聴する動画の動画処理方法、当該動画を制御するサーバ装置及びコンピュータプログラムに関する。 The technology disclosed in the present application relates to a video processing method for a video viewed by a viewing user, a server device and a computer program for controlling the video.

従来から、ネットワークを介して端末装置に動画を配信する動画配信サービスが知られている。この種の動画配信サービスにおいては、当該動画を配信する配信ユーザのアバター(アバタ―オブジェクト)が表示されたり、当該動画を視聴する視聴ユーザと配信ユーザとがメッセージやチャット等を通じてコミュニケーションを図ることができるような環境が提供されている。 2. Description of the Related Art Video distribution services that distribute videos to terminal devices via networks have been known. In this type of video distribution service, the avatar (avatar object) of the distribution user who distributes the video is displayed, and the viewing user who watches the video and the distribution user can communicate through messages, chat, etc. A conducive environment is provided.

さらに、視聴ユーザと配信ユーザとのコミュニケーションツールとして、特許文献1には、視聴ユーザが取得したアイテムを動画内のアバター(配信ユーザ)へプレゼントとして提供する行為(ギフティング)を電子的に実現させる旨が開示されている。 Furthermore, as a communication tool between viewing users and distribution users, Patent Document 1 describes electronically realizing the act (gifting) of providing an item acquired by a viewing user as a present to an avatar (distribution user) in a video. This is disclosed.

また、REALITY(登録商標)等の動画配信サービスにおいては、視聴ユーザが、アバター(配信ユーザ)の装着部位(例えば、頭、首、及び手)ごとにギフティングすることができる環境が提供されている(非特許文献1)。 In addition, video distribution services such as REALITY (registered trademark) provide an environment in which viewing users can make gifts for each part of the avatar (distribution user) that is worn (e.g., head, neck, and hands). (Non-patent Document 1).

なお、上記特許文献1及び非特許文献1は、引用によりその全体が本明細書に組み入れられる。 Note that the above-mentioned Patent Document 1 and Non-Patent Document 1 are incorporated in their entirety into this specification by reference.

特開2012-120098号公報Japanese Patent Application Publication No. 2012-120098

"REALITY"、[online]、[2019年8月27日検索]、インターネット(URL: https://twitter.com/WFLE_REALITY)"REALITY", [online], [searched on August 27, 2019], Internet (URL: https://twitter.com/WFLE_REALITY)

前述のギフティングは、視聴ユーザと配信ユーザ(アバター)との間の直接的なコミュニケーションを通して、アバターに対する視聴ユーザの親近感や関与感を醸成するものである。しかしながら、非特許文献1に記載されるようなアバターの装着部位ごとへのギフティングにおいては、1人の視聴ユーザが例えばアバターの頭に対してギフティングをし、当該ギフティングに基づくギフトが頭に装着されたアバターを含む動画が配信される場合、当該頭に装着されたギフトが動画内から削除されるまでの所定時間中、他の視聴ユーザはアバターの頭に対してギフティングしたとしても、当該ギフティングに基づくギフトはアバターの頭に装着されないこととなってしまう。したがって、このようなギフティング制御の場合、限られたギフティング行為のみしか動画内で反映されず、視聴ユーザによるギフティング機会が限定的となってしまい、視聴ユーザによるギフティング意欲を抑止しまうという課題がある。 The above-mentioned gifting creates a sense of intimacy and involvement in the viewing user with respect to the avatar through direct communication between the viewing user and the distribution user (avatar). However, in the case of gifting for each part of the avatar as described in Non-Patent Document 1, one viewing user makes a gift to the head of the avatar, and the gift based on the gift is sent to the head of the avatar. If a video containing an avatar attached to the avatar is distributed, other viewing users may gift the avatar's head for a specified period of time until the gift attached to the avatar's head is deleted from the video. , the gift based on the gifting will not be attached to the avatar's head. Therefore, in the case of such gifting control, only a limited number of gifting acts are reflected in the video, limiting gifting opportunities for viewing users, and inhibiting viewing users' desire to gift. There are challenges.

他方、前述の課題を解決する方法として、1人の視聴ユーザが例えばアバターの頭に対してギフトAをギフティングし、当該ギフティングに基づくギフトAが頭に装着されたアバターを含む動画が配信される場合において、他の視聴ユーザがアバターの頭に対してギフトBをギフティングすると即時にギフトAをギフトBに上書きするように制御する代替案も提案されている。しかしながら、この場合においては、ギフトAをギフティングした視聴ユーザにとっては、自らギフティングしたギフトが他の視聴ユーザによるギフティングに起因して突如動画内から削除されることとなってしまうため、ギフティング行為に対する失望感を助長させてしまう等の課題もある。 On the other hand, as a method to solve the above-mentioned problem, one viewing user gifts Gift A to the head of an avatar, and a video including the avatar with Gift A attached to the head based on the gifting is distributed. In such a case, an alternative method has also been proposed in which when another viewing user gifts gift B to the avatar's head, gift A is controlled to overwrite gift B immediately. However, in this case, for the viewing user who gifted Gift A, the gift that he gifted himself would suddenly be deleted from the video due to gifting by another viewing user, so the gift There are also issues such as increasing the sense of disappointment with the act of teasing.

また、ギフティングとは、視聴ユーザが動画配信サービスを提供するサービス提供者に対価を支払うことでギフトを購入した上で、当該ギフトを配信ユーザ(アバター)にギフティングする態様を意味することからすれば、視聴ユーザによるギフティング機会を増加させることは、サービス提供者にとっての課題といえる。 Furthermore, gifting refers to a mode in which a viewing user purchases a gift by paying a fee to a service provider that provides a video distribution service, and then gifts the gift to a distribution user (avatar). Therefore, it can be said that increasing gifting opportunities by viewing users is a challenge for service providers.

したがって、本件出願において開示された幾つかの実施形態は、視聴ユーザによるギフティング機会を増加させる動画処理方法、サーバ装置及びコンピュータプログラムを提供する。 Therefore, some embodiments disclosed in the present application provide a video processing method, a server device, and a computer program that increase gifting opportunities by viewing users.

一態様に係る動画処理方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される動画処理方法であって、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信する受信工程と、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成する生成工程と、を含むものである。 A video processing method according to one aspect is a video processing method executed by one or more processors that execute computer-readable instructions, the video processing method being performed by a viewing user who views a video including an animation of an avatar object of a distribution user. a receiving step of receiving a request signal generated based on the operation and requesting that a first gift be given to the attachment site of the avatar object from the viewing user's terminal device via a communication line; When it is determined that the combination of the plurality of first gifts given to the attachment part of the avatar object satisfies a predetermined condition based on the request signal of the attachment part of the avatar object, The present invention includes a generation step of generating the video including an animation in which a second gift having characteristics common to the first gift is worn.

一態様に係るサーバ装置は、1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成するものである。 The server device according to one aspect includes one or more processors, and the processor generates a video image based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and generates a video image of a site where the avatar object is attached. A request signal requesting that a first gift be given to the user is received from the terminal device of the viewing user via a communication line, and the request signal is sent to the attachment site of the avatar object based on the plurality of request signals. If it is determined that the combination of the plurality of first gifts given by the user satisfies a predetermined condition, a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object. The video including the attached animation is generated.

一態様に係るサーバ装置は、1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトに係る情報を、前記第2のギフトが装着されたアニメーションを含む前記動画を生成する前記視聴ユーザの端末装置又は前記配信ユーザの端末装置へ送信するものである。 The server device according to one aspect includes one or more processors, and the processor generates a video image based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and generates a video image of a site where the avatar object is attached. A request signal requesting that a first gift be given to the user is received from the terminal device of the viewing user via a communication line, and the request signal is sent to the attachment site of the avatar object based on the plurality of request signals. If it is determined that the combination of the plurality of first gifts given by the avatar object satisfies a predetermined condition, a second gift having a feature common to the first gift at the attachment site of the avatar object. Such information is transmitted to the terminal device of the viewing user or the terminal device of the distribution user that generates the video including the animation in which the second gift is attached.

一態様に係るコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成する、ように前記プロセッサを機能させるものである。 The computer program according to one embodiment is executed by one or more processors, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, a request signal requesting that a first gift be given to the user from the terminal device of the viewing user via a communication line; If it is determined that the combination of the plurality of given first gifts satisfies a predetermined condition, a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object. The processor is configured to function to generate the moving image including the animated animation.

一態様に係るコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトに係る情報を、前記第2のギフトが装着されたアニメーションを含む前記動画を生成する前記視聴ユーザの端末装置又はサーバ装置へ送信する、ように前記プロセッサを機能させるものである。 The computer program according to one embodiment is executed by one or more processors, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, a request signal requesting that a first gift be given to the user from the terminal device of the viewing user via a communication line; When it is determined that the combination of the plurality of first gifts given satisfies a predetermined condition, a second gift having a feature common to the first gift at the attachment site of the avatar object. The processor functions to transmit information to the terminal device or server device of the viewing user that generates the video including the animation in which the second gift is attached.

一態様に係るコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、通信回線を介して発信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成するために、前記第2のギフトに係る情報を配信ユーザの端末装置又はサーバ装置から受信する、ように前記プロセッサを機能させるものである。 The computer program according to one embodiment is executed by one or more processors, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, A request signal requesting that a first gift be given to the avatar object is transmitted via a communication line, and a plurality of the first gifts are given to the attachment site of the avatar object based on the plurality of request signals. The video includes an animation in which a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object when it is determined that the first gift combination satisfies a predetermined condition. In order to generate the gift, the processor is operated to receive information regarding the second gift from the distribution user's terminal device or server device.

一態様に係るコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、通信回線を介して発信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を配信ユーザの端末装置又はサーバ装置から受信する、ように前記プロセッサを機能させるものである。 The computer program according to one embodiment is executed by one or more processors, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and is generated based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, A request signal requesting that a first gift be given to the avatar object is transmitted via a communication line, and a plurality of the first gifts are given to the attachment site of the avatar object based on the plurality of request signals. The video includes an animation in which a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object when it is determined that the first gift combination satisfies a predetermined condition. The processor functions to receive the information from the distribution user's terminal device or server device.

図1は、一実施形態に係る動画配信システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a video distribution system according to an embodiment. 図2は、図1に示した端末装置(サーバ装置)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the terminal device (server device) shown in FIG. 図3は、図1に示した端末装置の機能の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of the functions of the terminal device shown in FIG. 1. 図4は、図1に示したサーバ装置の機能の一例を模式的に示すブロック図である。FIG. 4 is a block diagram schematically showing an example of the functions of the server device shown in FIG. 1. 図5は、データベース部によって管理されるテーブルの一例を示す図である。FIG. 5 is a diagram showing an example of a table managed by the database unit. 図6Aは、データベース部によって管理されるテーブルの一例を示す図であって、判定部が判定する際のイメージを模式的に示す図である。FIG. 6A is a diagram showing an example of a table managed by the database unit, and is a diagram schematically showing an image when the determination unit makes a determination. 図6Bは、データベース部によって管理されるテーブルの一例を示す図であって、判定部が判定する際のイメージを模式的に示す図である。FIG. 6B is a diagram illustrating an example of a table managed by the database unit, and is a diagram schematically illustrating an image when the determination unit makes a determination. 図6Cは、データベース部によって管理されるテーブルの一例を示す図であって、判定部が判定する際のイメージを模式的に示す図である。FIG. 6C is a diagram illustrating an example of a table managed by the database unit, and is a diagram schematically illustrating an image when the determination unit makes a determination. 図6Dは、データベース部によって管理されるテーブルの一例を示す図であって、判定部が判定する際のイメージを模式的に示す図である。FIG. 6D is a diagram showing an example of a table managed by the database unit, and is a diagram schematically showing an image when the determination unit makes a determination. 図7は、配信ユーザの端末装置の表示部に表示される確認画面の一例を示す図である。FIG. 7 is a diagram showing an example of a confirmation screen displayed on the display unit of the distribution user's terminal device. 図8は、図1に示した動画配信システムにおいて行われる動作の一例を示すフロー図である。FIG. 8 is a flow diagram showing an example of operations performed in the video distribution system shown in FIG. 1. 図9は、配信ユーザのアバターオブジェクトのアニメーションを含む動画の一例を示す図である。FIG. 9 is a diagram illustrating an example of a video including an animation of a distribution user's avatar object. 図10は、配信ユーザのアバターオブジェクトの装着部位に第1のギフトが装着された状態のアニメーションを含む動画の一例を示す図である。FIG. 10 is a diagram illustrating an example of a video including an animation of a state in which the first gift is attached to the attachment site of the distribution user's avatar object. 図11は、配信ユーザのアバターオブジェクトの装着部位において、第1のギフトに代わって第2のギフトが装着されるイメージの一例を模式的に示す図である。FIG. 11 is a diagram schematically illustrating an example of an image in which a second gift is attached in place of the first gift at the attachment site of the distribution user's avatar object.

以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。さらにまた、アプリケーションという用語は、ソフトウェア又はプログラムと称呼されるものであってもよく、コンピュータに対する指令であって、ある種の結果を得ることができるように組み合わされたものであればよい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. Note that common components in the drawings are given the same reference numerals. Also, it should be noted that components depicted in one drawing may be omitted from another drawing for convenience of explanation. Furthermore, it should be noted that the attached drawings are not necessarily drawn to scale. Furthermore, the term application may also be referred to as software or a program, as long as it is a set of instructions to a computer that can be combined to achieve a certain result.

1.動画配信システムの構成
本件出願において開示される動画配信システム1は、簡潔にいえば、配信を行う配信ユーザが、その端末装置を用いて、この配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて生成されたアバターオブジェクトのアニメーションを含む動画を、通信回線を介して、動画を視聴する視聴ユーザの端末装置へと配信することを可能にするものである。
1. Configuration of video distribution system To put it simply, the video distribution system 1 disclosed in the present application allows a distribution user who distributes data and/or data regarding the distribution user's operations using the terminal device. It is possible to deliver a video containing an animation of an avatar object generated based on voice data related to utterances and singing to the terminal device of the viewing user who views the video via a communication line. .

図1は、一実施形態に係る動画配信システム1の構成の一例を示すブロック図である。図1に示すように、動画配信システム1は、通信回線(図示せず)に接続される複数の端末装置10と、通信回線に接続される1又はそれ以上のサーバ装置20と、を含むことができる。各端末装置10は、通信回線を介して、1又はそれ以上のサーバ装置20に接続される。 FIG. 1 is a block diagram showing an example of the configuration of a video distribution system 1 according to an embodiment. As shown in FIG. 1, the video distribution system 1 includes a plurality of terminal devices 10 connected to a communication line (not shown) and one or more server devices 20 connected to the communication line. I can do it. Each terminal device 10 is connected to one or more server devices 20 via a communication line.

なお、通信回線とは、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができる。 Note that the communication line may include, but is not limited to, a mobile phone network, a wireless LAN, a fixed telephone network, the Internet, an intranet, and/or Ethernet (registered trademark).

1-1.端末装置10
図1に示すように、複数の端末装置10は、1又はそれ以上の配信ユーザの端末装置10(ここでは端末装置10A)と、1又はそれ以上の視聴ユーザの端末装置10(ここでは端末装置10B乃至10D)と、を含むことができる。各端末装置10は、共通した構成を有することにより、動画を配信するための端末装置(配信ユーザの端末装置10)及び動画を視聴するための端末装置(視聴ユーザの端末装置10)のいずれにもなり得るものである。
1-1. Terminal device 10
As shown in FIG. 1, the plurality of terminal devices 10 include one or more distribution user's terminal device 10 (here, terminal device 10A), one or more viewing user's terminal device 10 (here, terminal device 10A), and one or more viewing user's terminal device 10 (here, terminal device 10B to 10D). By having a common configuration, each terminal device 10 can be used as either a terminal device for distributing videos (terminal device 10 of a distribution user) or a terminal device for viewing videos (terminal device 10 of a viewing user). It is also possible.

各端末装置10は、配信ユーザの端末装置10として動作する場合には、インストールされた動画配信用アプリケーションを実行することにより、その配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データを取得し、取得したデータに従って変化させた仮想的なキャラクター(アバターオブジェクト)のアニメーションを含む動画を生成して、当該動画を通信回線を介してサーバ装置20(配信サーバ装置20C)に送信することができる。当該動画は、サーバ装置20(配信サーバ装置20C)により通信回線を介して、インストールされた動画視聴用アプリケーションを実行する、動画を受信するための端末装置10(視聴ユーザの端末装置10)に配信される。 When each terminal device 10 operates as a distribution user's terminal device 10, by executing the installed video distribution application, each terminal device 10 can collect data related to the distribution user's actions and/or utterances uttered by the distribution user. Acquire audio data related to singing, generate a video including an animation of a virtual character (avatar object) changed according to the acquired data, and send the video to the server device 20 (distribution server device 20C) via a communication line. can be sent to. The video is distributed via a communication line by the server device 20 (distribution server device 20C) to the terminal device 10 (viewing user's terminal device 10) for receiving the video, which executes the installed video viewing application. be done.

さらに、各端末装置10が配信ユーザの端末装置10として動作する場合において、サーバ装置20が、通信回線を介して、視聴ユーザの操作に基づいてこの配信ユーザ(アバターオブジェクト)の装着部位に対してギフト(第1のギフト)を付与すること(ギフティング)を要求する要求信号を、動画を視聴する視聴ユーザの端末装置10から受信すると、各端末装置10は、サーバ装置20(情報処理サーバ装置20B)から当該要求信号をサーバ装置20から受信して、アバターオブジェクトの装着部位に第1のギフトが装着された状態のアニメーションを含む動画を生成することができる。 Furthermore, when each terminal device 10 operates as a distribution user's terminal device 10, the server device 20 controls the attachment site of the distribution user (avatar object) via the communication line based on the operation of the viewing user. When receiving a request signal requesting to give a gift (first gift) (gifting) from the terminal device 10 of the viewing user who views the video, each terminal device 10 transmits the request signal to the server device 20 (information processing server device). 20B) from the server device 20, it is possible to generate a video including an animation of the first gift being attached to the attachment site of the avatar object.

ところで、アバターオブジェクトの装着部位とは、アバターオブジェクトの頭、顔、首、右手、左手、腰、右足、左足、等のアバターオブジェクトの一部分、及び/又はアバターオブジェクトから離れた部分(頭上、足元、後ろ等、アバターオブジェクトを包囲する空間を含む)のことを意味する。 By the way, the attachment part of the avatar object refers to a part of the avatar object such as the avatar object's head, face, neck, right hand, left hand, waist, right foot, left foot, etc., and/or a part away from the avatar object (overhead, feet, (including the space surrounding the avatar object, such as the back).

なお、前述のギフティングに際し、アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号が複数(1つの視聴ユーザ端末装置10から複数の要求信号が発信される場合、及び複数の視聴ユーザ端末装置10から要求信号が発信される場合の両方を含む)発信される場合においては、配信ユーザの端末装置10は、サーバ装置20(情報処理サーバ装置20B)から、アバターオブジェクトの装着部位に対して第1のギフトと共通する特徴を有する第2のギフトが装着された状態のアニメーションを含む動画を生成することを要求する情報を受信して当該動画を生成することができる。 In addition, in the above-mentioned gifting, a plurality of request signals requesting that the first gift be given to the attachment site of the avatar object (in the case where a plurality of request signals are transmitted from one viewing user terminal device 10, In the case where the request signal is transmitted from a plurality of viewing user terminal devices 10), the distribution user's terminal device 10 receives the avatar object from the server device 20 (information processing server device 20B). The video may be generated by receiving information requesting to generate a video including an animation of a second gift having the same characteristics as the first gift being attached to the attachment site of the gift. .

なお、アバターオブジェクトの装着部位に対して第2のギフトが装着された状態のアニメーションを含む動画を生成するか否かについての判定方法については後述するが、当該判定は、後述するサーバ装置20(情報処理サーバ装置20B)で実行される。 Note that a method for determining whether or not to generate a video including an animation of the second gift being attached to the attachment site of the avatar object will be described later, but this determination will be made by the server device 20 (described later) It is executed by the information processing server device 20B).

一方、各端末装置10は、動画を視聴するための端末装置(視聴ユーザの端末装置)として動作する場合には、インストールされた動画視聴用アプリケーションを実行することにより、配信ユーザの端末装置10により配信された動画を、サーバ装置20(配信サーバ装置20C)を介して受信することができる。 On the other hand, when each terminal device 10 operates as a terminal device for viewing videos (a viewing user's terminal device), each terminal device 10 operates as a terminal device of a distribution user by executing an installed video viewing application. The distributed video can be received via the server device 20 (distribution server device 20C).

さらに、各端末装置10は、視聴ユーザの端末装置として動作する場合には、動画視聴用アプリケーションを実行することにより、視聴ユーザの操作に基づいて配信ユーザ(アバターオブジェクト)の装着部位に対してギフト(第1のギフト)を付与することを要求する要求信号をサーバ装置20(ギフトAPIサーバ装置20A)に送信することができる。 Furthermore, when each terminal device 10 operates as a viewing user's terminal device, by executing a video viewing application, a gift is given to the wearing part of the distribution user (avatar object) based on the viewing user's operation. A request signal requesting to give (first gift) can be transmitted to the server device 20 (gift API server device 20A).

さらに、各端末装置10は、視聴ユーザの端末装置として動作する場合には、動画視聴用アプリケーションを実行することにより、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに係る情報をサーバ装置20(コメントAPIサーバ装置20D)に送信することができる。 Furthermore, when each terminal device 10 operates as a viewing user's terminal device, by executing a video viewing application, information related to comments from the viewing user to the distribution user (avatar object) is transmitted to the server device 20 (comment API server device 20D).

なお、前述した動画配信用アプリケーション及び動画視聴用アプリケーションは、統合された1つのアプリケーションとして、又は、それぞれ別々のアプリケーションとして、各端末装置10にインストール及び実行されるものとすることができる。 Note that the video distribution application and the video viewing application described above can be installed and executed on each terminal device 10 as one integrated application or as separate applications.

各端末装置10は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等を、これらに限定することなく含むことができるものである。 Each terminal device 10 is any terminal device capable of performing such operations, including, but not limited to, a smartphone, a tablet, a mobile phone (feature phone), a personal computer, etc. It is something that can be done.

1-2.サーバ装置20
図1に示すように、サーバ装置20は、後述する複数のサーバ装置が組み合わされた動画配信システムと呼ぶこともできる。
1-2. Server device 20
As shown in FIG. 1, the server device 20 can also be called a video distribution system in which a plurality of server devices, which will be described later, are combined.

サーバ装置20は、配信ユーザの端末装置10から送信された動画を各視聴ユーザの端末装置10に配信することができる。 The server device 20 can distribute the video transmitted from the distribution user's terminal device 10 to each viewing user's terminal device 10.

さらに、サーバ装置20は、アバターオブジェクトの装着部位に対してギフト(第1のギフト)を付与すること(ギフティング)を要求する要求信号を、各視聴ユーザの端末装置10から受信することができる。また当該要求信号に係る情報を、配信ユーザの端末装置10へ発信した上で、当該情報を受信した配信ユーザの端末装置10によって生成されるアバターオブジェクトの装着部位に当該ギフトが装着された状態のアニメーションを含む動画を受信することもできる。 Further, the server device 20 can receive a request signal requesting a gift (first gift) to be given to the attachment site of the avatar object (gifting) from the terminal device 10 of each viewing user. . In addition, after transmitting information related to the request signal to the distribution user's terminal device 10, the gift is attached to the attachment site of the avatar object generated by the distribution user's terminal device 10 that receives the information. You can also receive videos that include animations.

なお、前述のギフティングに際し、アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号が複数(1つの視聴ユーザ端末装置10から複数の要求信号が発信される場合、及び複数の視聴ユーザ端末装置10から要求信号が発信される場合の両方を含む)発信される場合においては、サーバ装置20は、アバターオブジェクトの装着部位に対して第2のギフトが装着された状態のアニメーションを含む動画を生成するか否かについて判定して、その当該動画を生成すると判定した場合には、当該動画を生成することを要求する情報を配信ユーザの端末装置10へ発信することができる。その上で、サーバ装置20は、配信ユーザの端末装置10から、アバターオブジェクトの装着部位に第2のギフトが装着された状態のアニメーションを含む動画を受信することができる。 In addition, in the above-mentioned gifting, a plurality of request signals requesting that the first gift be given to the attachment site of the avatar object (in the case where a plurality of request signals are transmitted from one viewing user terminal device 10, and (including cases where a request signal is transmitted from a plurality of viewing user terminal devices 10)), the server device 20 displays a state in which the second gift is attached to the attachment site of the avatar object. It is determined whether or not to generate a video including the animation, and when it is determined that the video is to be generated, information requesting generation of the video may be transmitted to the distribution user's terminal device 10. can. In addition, the server device 20 can receive from the distribution user's terminal device 10 a video including an animation of the second gift being attached to the attachment site of the avatar object.

さらに、サーバ装置20は、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに係る情報を、視聴ユーザの端末装置10から受信することができ、且つ当該コメントを同一の動画を視聴する視聴ユーザに対して配信することができる。 Furthermore, the server device 20 can receive information related to comments from viewing users to distribution users (avatar objects) from the viewing users' terminal devices 10, and can transmit the comments to viewing users who view the same video. It can be distributed by

このような動作を実行するために、サーバ装置20は、一実施形態において、相互に通信回線(図示しない無線回線及び/又は有線回線を含む)を介して接続された、ギフトAPIサーバ装置20A、情報処理サーバ装置20B、配信サーバ装置20C、及びコメントAPIサーバ装置20Dを含むことができる。 In order to perform such operations, the server device 20, in one embodiment, includes a gift API server device 20A, which are connected to each other via a communication line (including a wireless line and/or a wired line not shown). It can include an information processing server device 20B, a distribution server device 20C, and a comment API server device 20D.

ギフトAPIサーバ装置20Aは、視聴ユーザの操作に基づいてアバターオブジェクトの装着部位に対してギフト(第1のギフト)を付与すること(ギフティング)を要求する要求信号を、各視聴ユーザの端末装置10から受信することができる。この際、ギフトAPIサーバ装置20Aは、当該要求信号から、ギフティング行為がなされた視聴ユーザの識別情報(各視聴ユーザの端末装置10のシリアル番号や各視聴ユーザに付与されるID情報等)、ギフティングされたギフトに係る情報(アバターオブジェクトのいずれの装着部位に対応するどのようなギフトであるかの情報)、及びギフティング対象のアバターオブジェクトたる配信ユーザの識別情報(配信ユーザの端末装置10のシリアル番号や配信ユーザに付与されるID情報等)を少なくとも読み出して、読み出した情報を自動的に、又は情報処理サーバ装置20Bから問い合わせを受けたときに、情報処理サーバ装置20Bに送信することができる。 The gift API server device 20A sends a request signal requesting that a gift (first gift) be given to the attachment site of the avatar object (gifting) based on the viewing user's operation to the terminal device of each viewing user. It can be received from 10. At this time, the gift API server device 20A collects identification information of the viewing user who performed the gifting act from the request signal (serial number of the terminal device 10 of each viewing user, ID information given to each viewing user, etc.), Information related to the gift that has been gifted (information about what kind of gift corresponds to which part of the avatar object it is attached to), and identification information of the distribution user who is the avatar object to be gifted (the terminal device 10 of the distribution user) (serial number, ID information given to the distribution user, etc.) and transmit the read information to the information processing server device 20B automatically or when receiving an inquiry from the information processing server device 20B. I can do it.

情報処理サーバ装置20Bは、ギフトAPIサーバ装置20Aが読み出した情報を、自動的に、又は自ら問い合わせをして、当該情報をギフトAPIサーバ装置20Aから受信する。また、情報処理サーバ装置20Bは、配信ユーザ毎のテーブル(データベース)を有することができ、ギフトAPIサーバ装置20Aが読み出したギフトに係る情報を、各テーブルに格納することができる。 The information processing server device 20B receives the information read by the gift API server device 20A from the gift API server device 20A, either automatically or by making an inquiry on its own. Further, the information processing server device 20B can have a table (database) for each distribution user, and can store information related to gifts read by the gift API server device 20A in each table.

さらにまた、情報処理サーバ装置20Bは、テーブルに格納されたギフトに係る情報を参照して、複数のギフティング行為(1人の視聴ユーザによる複数のギフティング行為、及び複数の視聴ユーザによる複数のギフティング行為の両方を含む)があった場合に、アバターオブジェクトの装着部位に対して第1のギフトと共通する特徴を有する第2のギフトが装着された状態のアニメーションを含む動画を生成するか否かについて判定することができる。なお、当該判定は、複数のギフティング行為(複数の第1のギフト)の組合せが予め設定された所定条件を満たすか否かによって判定される。 Furthermore, the information processing server device 20B refers to information related to gifts stored in the table, and identifies multiple gifting actions (multiple gifting actions by one viewing user, and multiple gifting actions by multiple viewing users). (including both gifting acts), whether to generate a video containing an animation of a state in which a second gift having characteristics in common with the first gift is attached to the attachment part of the avatar object. It can be determined whether or not. Note that this determination is made based on whether a combination of multiple gifting acts (multiple first gifts) satisfies a predetermined condition set in advance.

さらにまた、情報処理サーバ装置20Bは、テーブルに格納されたギフトに係る情報を参照して、アバターオブジェクトの装着部位に第1のギフトが装着された状態のアニメーションを含む動画を生成することを要求する情報を、配信ユーザの端末装置10へ発信することができる。同様に、前述の判定によって、第2のギフトが装着された状態のアニメーションを含む動画を生成すると判定した場合においては、アバターオブジェクトの装着部位に第2のギフトが装着された状態のアニメーションを含む動画を生成することを要求する情報を、配信ユーザの端末装置10へ発信することができる。 Furthermore, the information processing server device 20B refers to the information related to the gift stored in the table and requests to generate a video including an animation of the first gift being attached to the attachment site of the avatar object. information can be transmitted to the distribution user's terminal device 10. Similarly, if it is determined by the above-mentioned determination that a video including an animation of the second gift being attached is to be generated, an animation of the second gift being attached to the attachment part of the avatar object is included. Information requesting generation of a video can be sent to the distribution user's terminal device 10.

さらにまた、情報処理サーバ装置20Bは、テーブルに格納された視聴ユーザの識別情報及びギフトに係る情報を参照して、アバターオブジェクトの装着部位(配信ユーザ)に対して、どの視聴ユーザがどのようなギフトを付与したかに係る全て又は一部の情報をコメントAPIサーバ装置20Dに送信することができる。 Furthermore, the information processing server device 20B refers to the viewing user's identification information and gift-related information stored in the table, and determines which viewing user has what type of attachment site (distribution user) of the avatar object. All or part of the information regarding whether a gift has been given can be transmitted to the comment API server device 20D.

さらにまた、情報処理サーバ装置20Bは、複数のギフティング行為(複数の第1のギフト)の組合せが予め設定された所定条件を満たしていないと判定した場合、どのような組合せになれば当該所定条件を満たすかに係る必要条件を算出した上で、当該必要条件をコメントAPIサーバ装置20Dに送信することもできる。なお、ここでいう必要条件の詳細は後述する。 Furthermore, if the information processing server device 20B determines that a combination of multiple gifting acts (multiple first gifts) does not satisfy a predetermined condition, the information processing server device 20B determines what kind of combination will result in the specified predetermined condition. After calculating the necessary conditions related to whether the conditions are satisfied, it is also possible to transmit the necessary conditions to the comment API server device 20D. Note that the details of the necessary conditions here will be described later.

配信サーバ装置20Cは、配信ユーザの端末装置10から送信された動画を、各視聴ユーザの端末装置10に配信することができる。 The distribution server device 20C can distribute the video transmitted from the distribution user's terminal device 10 to each viewing user's terminal device 10.

また、配信サーバ装置20Cは、アバターオブジェクトの装着部位に第1のギフトが装着された状態のアニメーションを含む動画を配信ユーザの端末装置10から受信して、当該動画を各視聴ユーザの端末装置10に配信することができる。 The distribution server device 20C also receives a video including an animation of the first gift being attached to the attachment site of the avatar object from the distribution user's terminal device 10, and transmits the video to the terminal device 10 of each viewing user. can be delivered to.

さらにまた、配信サーバ装置20Cは、アバターオブジェクトの装着部位に第2のギフトが装着された状態のアニメーションを含む動画を配信ユーザの端末装置10から受信して、当該動画を各視聴ユーザの端末装置10に配信することができる。 Furthermore, the distribution server device 20C receives a video including an animation of the second gift being attached to the attachment site of the avatar object from the distribution user's terminal device 10, and transmits the video to the terminal device of each viewing user. It can be distributed to 10.

コメントAPIサーバ装置20Dは、視聴ユーザの端末装置10から視聴ユーザのコメントを受信することができ、受信した当該コメントを、同一の動画を視聴している各視聴ユーザに対して配信することができる。 The comment API server device 20D can receive the viewing user's comment from the viewing user's terminal device 10, and can distribute the received comment to each viewing user who is viewing the same video. .

また、コメントAPIサーバ装置20Dは、情報処理サーバ装置20Bから受信する、アバターオブジェクトの装着部位(配信ユーザ)に対してどの視聴ユーザがどんなギフト
を付与したかに係る全て又は一部の情報に対応するコメントを、同一の動画を視聴している各視聴ユーザに対して配信することができる。
Additionally, the comment API server device 20D corresponds to all or part of the information received from the information processing server device 20B regarding which viewing user has given what gift to the attachment site (distribution user) of the avatar object. comments can be distributed to each viewing user who is viewing the same video.

さらにまた、コメントAPIサーバ装置20Dは、情報処理サーバ装置20Bから受信する、前述の必要条件に対応するコメントを、同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Furthermore, the comment API server device 20D can also distribute comments corresponding to the above-mentioned requirements, received from the information processing server device 20B, to each viewing user who is viewing the same video.

なお、図1に示した例では、負荷を分散すること等を目的として、サーバ装置20が、ギフトAPIサーバ装置20A、情報処理サーバ装置20B、配信サーバ装置20C、及びコメントAPIサーバ装置20Dからなる4つのサーバ装置を有する構成が示されている。しかし、これら4つのサーバ装置のうちの少なくとも1つのサーバ装置が残りのサーバ装置のいずれかと統合されるようにしてもよい。 In the example shown in FIG. 1, for the purpose of distributing the load, the server device 20 is configured to include a gift API server device 20A, an information processing server device 20B, a distribution server device 20C, and a comment API server device 20D. A configuration with four server devices is shown. However, at least one of these four server devices may be integrated with any of the remaining server devices.

2.各装置のハードウェア構成
次に、端末装置10及びサーバ装置20の各々が有するハードウェア構成の一例について説明する。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of each of the terminal device 10 and the server device 20 will be described.

2-1.端末装置10のハードウェア構成
各端末装置10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置10(サーバ装置20)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されたものである。)
2-1. Hardware Configuration of Terminal Device 10 An example of the hardware configuration of each terminal device 10 will be described with reference to FIG. 2. FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the terminal device 10 (server device 20) shown in FIG. (This is written in relation to the server device 20.)

図2に示すように、各端末装置10は、主に、中央処理装置11と、主記憶装置12と、入出力インタフェイス装置13と、入力装置14と、補助記憶装置15と、出力装置16と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each terminal device 10 mainly includes a central processing unit 11, a main storage device 12, an input/output interface device 13, an input device 14, an auxiliary storage device 15, and an output device 16. and can include. These devices are connected to each other by a data bus and/or a control bus.

中央処理装置11は、「CPU」と称されるものであり、主記憶装置12に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置12に記憶させるものである。さらに、中央処理装置11は、入出力インタフェイス装置13を介して、入力装置14、補助記憶装置15及び出力装置16等を制御することができる。端末装置10は、1又はそれ以上のこのような中央処理装置11を含むことが可能である。 The central processing unit 11 is referred to as a "CPU" and performs calculations on instructions and data stored in the main storage device 12, and stores the results of the calculations in the main storage device 12. be. Further, the central processing unit 11 can control the input device 14, the auxiliary storage device 15, the output device 16, etc. via the input/output interface device 13. The terminal device 10 may include one or more such central processing units 11.

主記憶装置12は、「メモリ」と称されるものであり、入力装置14、補助記憶装置15及び通信回線30(サーバ装置20等)から、入出力インタフェイス装置13を介して受信した命令及びデータ、並びに、中央処理装置11の演算結果を記憶するものである。主記憶装置12は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 12 is called a “memory” and stores commands and commands received from the input device 14, auxiliary storage device 15, and communication line 30 (server device 20, etc.) via the input/output interface device 13. It stores data and the calculation results of the central processing unit 11. The main storage device 12 may include, but is not limited to, RAM (Random Access Memory), ROM (Read Only Memory), and/or flash memory.

補助記憶装置15は、主記憶装置12よりも大きな容量を有する記憶装置である。前述した特定のアプリケーション(動画配信用アプリケーション、動画視聴用アプリケーション等)やウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置11により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を入出力インタフェイス装置13を介して主記憶装置12に送信することができる。補助記憶装置15は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。 The auxiliary storage device 15 is a storage device that has a larger capacity than the main storage device 12. The instructions and data (computer programs) that make up the aforementioned specific applications (video distribution applications, video viewing applications, etc.) and web browsers are stored and controlled by the central processing unit 11. Instructions and data (computer programs) can be transmitted to main memory 12 via input/output interface device 13 . The auxiliary storage device 15 can include, but is not limited to, a magnetic disk device and/or an optical disk device.

入力装置14は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むものである。センサは、後述するように、1又はそれ以上のカメラ等及び/又は1又はそれ以上のマイク等を含むセンサをこれらに限定することなく含むことができる。 The input device 14 is a device that takes in data from the outside, and includes, but is not limited to, a touch panel, a button, a keyboard, a mouse, and/or a sensor. Sensors may include, but are not limited to, sensors including, but not limited to, one or more cameras, etc., and/or one or more microphones, etc., as described below.

出力装置16は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。 The output device 16 can include, but is not limited to, a display device, a touch panel, a printer device, and the like.

このようなハードウェア構成にあっては、中央処理装置11が、補助記憶装置15に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置12にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置13を介して出力装置16を制御し、或いはまた、入出力インタフェイス装置13及び通信回線30(通信網30)を介して、他の装置(例えばサーバ装置20及び他の端末装置10等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 11 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 15 into the main storage device 12, and By operating commands and data, the output device 16 is controlled via the input/output interface device 13, or other devices are controlled via the input/output interface device 13 and the communication line 30 (communication network 30). (For example, the server device 20 and other terminal devices 10, etc.) can transmit and receive various information.

これにより、端末装置10は、インストールされた特定のアプリケーションを実行することにより、動画を生成するために必要な動作、動画を発信(配信)及び/又は受信するために必要な動作、ギフティング行為に必要な動作、コメントを発信するために必要な動作(その他、後に詳述する様々な動作を含む)を実行することができる。 Thereby, by executing the installed specific application, the terminal device 10 performs operations necessary to generate a video, operations necessary to transmit (distribute) and/or receive a video, and gifting actions. operations necessary for sending a comment (including various other operations described in detail later).

なお、端末装置10は、中央処理装置11に代えて又は中央処理装置11とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。 Note that the terminal device 10 may include one or more microprocessors and/or graphics processing units (GPUs) instead of or together with the central processing unit 11.

2-2.サーバ装置20のハードウェア構成
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(ギフトAPIサーバ装置20A、情報処理サーバ装置20B、配信サーバ装置20C、及びコメントAPIサーバ装置20D)のハードウェア構成としては、例えば、前述した各端末装置10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Server Device 20 An example of the hardware configuration of each server device 20 will be described with reference to FIG. 2 as well. The hardware configuration of each server device 20 (gift API server device 20A, information processing server device 20B, distribution server device 20C, and comment API server device 20D) is, for example, the same as the hardware configuration of each terminal device 10 described above. It is possible to use the following. Therefore, reference numerals for components included in each server device 20 are shown in parentheses in FIG. 2.

図2に示すように、各サーバ装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each server device 20 mainly includes a central processing unit 21, a main storage device 22, an input/output interface device 23, an input device 24, an auxiliary storage device 25, and an output device 26. and can include. These devices are connected to each other by a data bus and/or a control bus.

中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26は、それぞれ、前述した各端末装置10に含まれる、中央処理装置11、主記憶装置12、入出力インタフェイス装置13、入力装置14、補助記憶装置15及び出力装置16と略同一なものとすることができる。 The central processing unit 21, the main memory 22, the input/output interface device 23, the input device 24, the auxiliary storage 25, and the output device 26 are the central processing unit 11, the main memory included in each terminal device 10 described above, respectively. The device 12, input/output interface device 13, input device 14, auxiliary storage device 15, and output device 16 can be substantially the same.

このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信回線30(通信網30)を介して、他の装置(例えば各端末装置10等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 21 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 25 into the main storage device 22, and By operating commands and data, the output device 26 is controlled via the input/output interface device 23, or other devices are controlled via the input/output interface device 23 and the communication line 30 (communication network 30). (For example, each terminal device 10 etc.) It is possible to transmit and receive various information.

これにより、サーバ装置20は、各配信ユーザの端末装置10により送信された動画を、各視聴ユーザの端末装置10に配信するために必要な動作、各視聴ユーザの端末装置10から発信されるギフティング行為を受信するために必要な動作、端末装置10に動画を生成させるために必要な要求情報を生成するために必要な動作、動画を発信(配信)及び/又は受信するために必要な動作等(後に詳述する様々な動作を含む)を実行することができる。 As a result, the server device 20 performs operations necessary to distribute the video transmitted from the terminal device 10 of each distribution user to the terminal device 10 of each viewing user, operations necessary to receive a streaming action, operations necessary to generate request information necessary to cause the terminal device 10 to generate a video, operations necessary to transmit (distribute) and/or receive a video. etc. (including various operations detailed below).

なお、サーバ装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。 Note that the server device 20 may include one or more microprocessors and/or graphics processing units (GPUs) instead of or together with the central processing unit 21.

3.各装置の機能
次に、端末装置10及びサーバ装置20の各々が有する機能の詳細の一例について説明する。
3. Functions of Each Device Next, a detailed example of the functions each of the terminal device 10 and the server device 20 have will be described.

3-1.端末装置10の機能
端末装置10の機能の一例について図3を参照しつつ説明する。図3は、図1に示した端末装置10の機能の一例を模式的に示すブロック図である。
3-1. Functions of Terminal Device 10 An example of the functions of the terminal device 10 will be described with reference to FIG. 3. FIG. 3 is a block diagram schematically showing an example of the functions of the terminal device 10 shown in FIG. 1.

図3に示すように、端末装置10は、主に、動画生成部100、表示部110、記憶部120、ユーザインタフェイス部130、ギフト記憶部140、及び通信部150を含むことができる。 As shown in FIG. 3, the terminal device 10 can mainly include a video generation section 100, a display section 110, a storage section 120, a user interface section 130, a gift storage section 140, and a communication section 150.

(1)動画生成部100
動画生成部100は、配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて、この配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成することができる。これを実現するために、動画生成部100は、例えば、取得部(図示せず)及び処理部(図示せず)を含むことができる。
(1) Video generation section 100
The video generation unit 100 can generate a video including an animation of the distribution user's avatar object based on data regarding the distribution user's movements and/or audio data regarding speech and singing uttered by the distribution user. To achieve this, the video generation section 100 can include, for example, an acquisition section (not shown) and a processing section (not shown).

取得部は、配信ユーザの顔や手足等(体全体)に関するデータを取得する1又はそれ以上の第1のセンサ(図示せず)と、配信ユーザにより発せられた発話及び/又は歌唱に関する音声データを取得する1又はそれ以上の第2のセンサ(図示せず)と、を含むことができる。 The acquisition unit includes one or more first sensors (not shown) that acquire data regarding the face, limbs, etc. (entire body) of the distribution user, and audio data regarding speech and/or singing uttered by the distribution user. and one or more second sensors (not shown) to obtain the .

第1のセンサは、好ましい実施形態では、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたものを用いることが可能である。第2のセンサは、音声を記録するマイクロフォンを含むことができる。 In a preferred embodiment, the first sensor can include an RGB camera that images visible light and a near-infrared camera that images near-infrared rays. As such a camera, for example, one included in the True Depth camera of iPhone X (registered trademark) can be used. The second sensor can include a microphone that records audio.

まず、第1のセンサに関して、取得部は、配信ユーザの顔や手足等に近接して配置された第1のセンサを用いて配信ユーザの顔や手足等を撮像する。これにより、取得部は、RGBカメラにより取得された画像をタイムコード(取得した時間を示すコード)に対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。さらに、取得部は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間にわたって記録したデータ(例えばTSVファイル[データ間をタブで区切って複数のデータを記録する形式のファイル])を生成することができる。 First, regarding the first sensor, the acquisition unit images the distribution user's face, limbs, etc. using the first sensor placed close to the distribution user's face, limbs, etc. Thereby, the acquisition unit can generate data (for example, an MPEG file) in which an image acquired by the RGB camera is recorded over a unit time in association with a time code (a code indicating the time of acquisition). Further, the acquisition unit stores data (for example, a TSV file) recorded over a unit time by associating a predetermined number (for example, 51) of numerical values (for example, floating point numerical values) indicating the depth acquired by the near-infrared camera with the above-mentioned time code. [File format that records multiple pieces of data by separating data with tabs]) can be generated.

近赤外線カメラに関して、具体的には、ドットプロジェクタがドット(点)パターンをなす赤外線レーザーを配信ユーザの顔や手足に放射し、近赤外線カメラが、配信ユーザの顔や手足に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成する。取得部は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(各特徴点)(例えば51個のポイント・特徴点の各々)における位置のずれを用いて各ポイント(各特徴点)の深度(各ポイント・各特徴点と近赤外線カメラとの間の距離)を算出することができる。取得部は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間にわたって記録したデータを生成することができる。 Regarding the near-infrared camera, specifically, a dot projector emits an infrared laser in a dot pattern onto the face and limbs of the broadcasting user, and the near-infrared camera emits the reflected infrared rays from the face and limbs of the broadcasting user. It captures the dots and generates an image of the infrared dots thus captured. The acquisition unit compares the image of the dot pattern emitted by the dot projector registered in advance and the image captured by the near-infrared camera, and calculates each point (each feature point) (for example, 51 points) in both images. The depth of each point (each feature point) (the distance between each point/feature point and the near-infrared camera) can be calculated using the positional shift at each point (each feature point). The acquisition unit can generate data recorded over a unit time by associating the numerical value indicating the depth calculated in this manner with the time code as described above.

次に、第2のセンサに関して、取得部は、配信ユーザに近接して配置された第2のセンサを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声を取得する。これにより、取得部は、タイムコードに対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。一実施形態では、取得部は、第1のセンサを用いて配信ユーザの顔や手足に関するデータを取得すると同時に、第2のセンサを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声データを取得することができる。この場合には、取得部は、RGBカメラにより取得された画像と、第2のセ
ンサを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声データとを、同一のタイムコードに対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。
Next, regarding the second sensor, the acquisition unit acquires audio related to speech and/or singing uttered by the distribution user using the second sensor placed close to the distribution user. Thereby, the acquisition unit can generate data (for example, an MPEG file) recorded over a unit time in association with the time code. In one embodiment, the acquisition unit uses the first sensor to acquire data regarding the distribution user's face and limbs, and at the same time uses the second sensor to acquire audio data regarding speech and/or singing uttered by the distribution user. can be obtained. In this case, the acquisition unit associates the image acquired by the RGB camera and the audio data related to speech and/or singing uttered by the distribution user using the second sensor with the same time code. Data recorded over a unit time (eg, an MPEG file) can be generated.

取得部は、このように生成した、配信ユーザの顔や手足等に関するデータ(MPEGファイル及びTSVファイル等)、及び/又は、配信ユーザにより発せられた発話及び/又は歌唱に関する音声データ(MPEGファイル等)を、処理部に出力することができる。 The acquisition unit generates data related to the distribution user's face, limbs, etc. (MPEG files, TSV files, etc.) and/or audio data related to speech and/or singing uttered by the distribution user (MPEG files, etc.). ) can be output to the processing unit.

なお、ここでは、第1のセンサがRGBカメラ及び赤外線カメラを含む場合について説明したが、第1のセンサは、例えば、(A)赤外線レーザーにより放射され配信ユーザの顔や手足等に反射した赤外線を検出するカメラ、(B)可視光線を撮像する複数のRGBカメラ、及び、(C)可視光線を撮像する単一のカメラ、のうちのいずれかを含むものであってもよい。上記(A)の場合には、取得部は、前述したものと同様の手法により、配信ユーザの顔や手足等における各特徴点について深度を算出することができる。上記(B)の場合には、取得部は、複数のRGBカメラにより撮像された複数の画像を用いて、配信ユーザの顔や手足等における各特徴点について奥行(深度)を計算することができる。上記(C)の場合には、取得部は、単一のカメラにより撮像された画像から、配信ユーザの顔や手足等における各特徴点の奥行(深度)を、ディープラーニング等を利用して算出することができる。また、上記(C)の場合には、取得部は、単一のカメラにより撮像された画像に対する分析処理(画像処理等)により、配信ユーザの顔や手足等における各特徴点の奥行(深度)を算出してもよい。 Note that here, a case has been described in which the first sensor includes an RGB camera and an infrared camera, but the first sensor may, for example, detect infrared rays emitted by (A) an infrared laser and reflected on the face, limbs, etc. of the distribution user. (B) a plurality of RGB cameras that capture visible light; and (C) a single camera that captures visible light. In the case of (A) above, the acquisition unit can calculate the depth of each feature point on the distribution user's face, limbs, etc. using a method similar to that described above. In the case of (B) above, the acquisition unit can calculate the depth of each feature point on the distribution user's face, limbs, etc., using multiple images captured by multiple RGB cameras. . In the case of (C) above, the acquisition unit uses deep learning etc. to calculate the depth of each feature point on the distribution user's face, limbs, etc. from the image captured by a single camera. can do. In the case of (C) above, the acquisition unit calculates the depth of each feature point on the distribution user's face, limbs, etc. by analysis processing (image processing, etc.) on the image captured by a single camera. may be calculated.

処理部は、取得部からの、配信ユーザの顔や手足等に関するデータに基づいて、仮想的なキャラクター(アバターオブジェクト)のアニメーションを含む動画を生成することができる。アバターオブジェクトの動画自体については、処理部は、図示しないキャラクターデータ記憶部に記憶された様々な情報(例えば、ジオメトリ情報、ボーン情報、テクスチャ情報、シェーダ情報及びブレンドシェイプ情報等)を用いて、図示しないレンダリング部にレンダリングを実行させることにより、アバターオブジェクトの動画を生成することもできる。 The processing unit can generate a video including an animation of a virtual character (avatar object) based on data regarding the distribution user's face, limbs, etc. from the acquisition unit. Regarding the animation itself of the avatar object, the processing unit uses various information (for example, geometry information, bone information, texture information, shader information, blend shape information, etc.) stored in a character data storage unit (not shown) to It is also possible to generate a moving image of an avatar object by having a rendering unit that does not perform rendering execute rendering.

なお、配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて、この配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、他の任意の周知な技術を利用することも可能である。 Note that any other well-known method may be used to generate a video including the animation of the avatar object of the distribution user based on data regarding the distribution user's movements and/or audio data regarding speech and singing uttered by the distribution user. It is also possible to use technology.

ところで、動画生成部100は、後述する通信部150がアバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を生成する旨の要求情報をサーバ装置20(情報処理サーバ装置20B)から受信すると、当該要求情報を通信部150から受信して、当該動画を生成することができる。この場合、動画生成部100は、前述のとおり詳述して生成されたアバターオブジェクトのアニメーションを含む動画に係るデータと、第1のギフト又は第2のギフトに係るデータ(アバターオブジェクトのどの装着部位にどのような形状・大きさ・色を有するギフトであるかに係るデータ)とを組合せて、アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を生成することができる。具体的には、第1のギフト及び第2のギフトに、アバターオブジェクトのどの装着部位に装着されるものであるかに関する情報(装着位置情報)を予め設定しておき、視聴ユーザからのギフティング又は後述する所定条件が満たされることを契機として、当該装着位置情報に基づく装着部位に、第1のギフト又は第2のギフトを動画上に表示させることができる。例えば、第1のギフトが「赤いランドセル」である場合には、装着位置情報は「背中」となり、「赤いランドセル」が視聴ユーザからギフティングされると、アバターオブジェクトの「背中」の少なくとも一部を覆うように(又は「背中」の少なくとも一部に接するように)、当該「赤いランドセル」を動画上に表示させる。同様に、第2のギフトが「虹色の大きなフォーク」である場合には、装着位置情報は「左手」(「右手」でもよい)となり、「左手」において後述の所定条件が満たされると、アバターオブジェクトの「左手」に接触するように(「左手」の一部を覆うように)、当該「虹色の大きなフォーク」を動画上に表示させる。なお、動画内のアバターオブジェクトの各装着部位の位置(位置情報)は、例えば、後述するモーションセンサ等のセンサによって検出されている。したがって、アバターオブジェクトの「背中」に「赤いランドセル」を表示させる場合には、その時点の「背中」の位置情報が参照された上で、当該「背中」に対応して「赤いランドセル」が動画上に表示されることとなる。また、表示された第1のギフト及び第2のギフトは、これらが表示される間(後述の持続時間)においては、装着されたアバターオブジェクトの装着部位の動きに付随して動くように動画上において表示されてもよい。このような、アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を生成する方法は、特許第6431233号明細書に記載の方法や、他の周知技術を用いることができる。 By the way, the video generation unit 100 sends request information to the server device 20 to the effect that the communication unit 150 (described later) generates a video including an animation of the first gift or the second gift being attached to the attachment site of the avatar object. When received from the information processing server device 20B, the request information can be received from the communication unit 150 and the video can be generated. In this case, the video generation unit 100 generates data related to the video including the animation of the avatar object generated in detail as described above, and data related to the first gift or the second gift (which part of the avatar object is attached). data regarding the shape, size, and color of the gift), and a video containing an animation of the first gift or the second gift being attached to the attachment site of the avatar object. can be generated. Specifically, information regarding which part of the avatar object the gift is to be attached to (attachment position information) is set in advance in the first gift and the second gift, and the gift is received from the viewing user. Alternatively, when a predetermined condition described below is satisfied, the first gift or the second gift can be displayed on the video at the attachment site based on the attachment position information. For example, if the first gift is a "red school bag," the wearing position information will be "back," and if the viewing user gifts a "red school bag," at least a portion of the avatar object's "back" will be displayed. The "red school bag" is displayed on the video so as to cover (or touch at least a part of the "back"). Similarly, if the second gift is a "large rainbow-colored fork", the wearing position information will be "left hand" (or "right hand"), and if the predetermined condition described below is satisfied for "left hand", The "large rainbow-colored fork" is displayed on the video so as to touch the "left hand" of the avatar object (so as to cover part of the "left hand"). Note that the position (position information) of each attachment part of the avatar object in the video is detected, for example, by a sensor such as a motion sensor described later. Therefore, when displaying a "red school bag" on the "back" of an avatar object, the position information of the "back" at that time is referred to, and the "red school bag" is displayed in the video corresponding to the "back". It will be displayed on top. In addition, while the displayed first gift and second gift are being displayed (duration described below), the displayed first gift and second gift are displayed on the video so that they move along with the movement of the attachment part of the avatar object to which they are attached. It may be displayed in Such a method of generating a video including an animation of the first gift or the second gift being attached to the attachment site of the avatar object is the method described in Patent No. 6431233 or other well-known methods. technology can be used.

(2)表示部110
表示部110は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の配信及び/又は視聴に必要とされる様々な情報を表示することができる。例えば、表示部110は、配信される動画、受信した動画、及び/又は生成した動画等を、表示することができる。また、表示部110は、サーバ装置20から各端末装置10に配信される各種のコメントも、受信した動画とともに表示することができる。さらにまた、ギフト記憶部140に記憶されているギフト情報を、視聴ユーザの操作に応じて適宜表示することもできる。
(2) Display section 110
The display unit 110 displays various information required for distributing and/or viewing a video (including a video that includes an animation of the first gift or the second gift being attached to the attachment site of the avatar object). can be displayed. For example, the display unit 110 can display distributed videos, received videos, generated videos, and the like. Further, the display unit 110 can also display various comments distributed from the server device 20 to each terminal device 10 together with the received video. Furthermore, the gift information stored in the gift storage section 140 can be displayed as appropriate in accordance with the operation of the viewing user.

(3)記憶部120
記憶部120は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
(3) Storage unit 120
The storage unit 120 stores various information required for distributing and/or viewing videos (including videos that include an animation of the first gift or the second gift being attached to the attachment site of the avatar object). Can be memorized.

(4)ユーザインタフェイス部130
ユーザインタフェイス部130は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の配信及び/又は視聴に必要とされる様々な情報を、配信ユーザ又は視聴ユーザの操作を介して入力することができる。例えば、ユーザインタフェイス部130は、アバターオブジェクトに対するギフティングに係る視聴ユーザの操作(予め用意された複数の第1のギフトから所定のギフトを選択してアバターオブジェクトに付与するコマンドを選択する等の操作を含む)の内容を示す操作データを視聴ユーザから入力して、当該操作データを通信部150へ出力することができる。ここで、前述の操作データとは、例えば、視聴ユーザが配信ユーザに対してどのようなギフト(ギフトの種類)をギフティングしたかに係る情報を含むことができる。
(4) User interface section 130
The user interface unit 130 provides various functions necessary for distributing and/or viewing videos (including videos that include an animation of the first gift or the second gift being attached to the attachment site of the avatar object). Information can be input through operations by a distribution user or a viewing user. For example, the user interface unit 130 allows the viewing user to perform operations related to gifting for the avatar object (such as selecting a predetermined gift from a plurality of first gifts prepared in advance and selecting a command to give to the avatar object). The viewing user can input operation data indicating the contents (including the operation) and output the operation data to the communication unit 150. Here, the above-mentioned operation data can include, for example, information regarding what kind of gift (type of gift) the viewing user has gifted to the distribution user.

また、別の例として、ユーザインタフェイス部130は、視聴ユーザから1又は複数のギフティングがなされた場合に、当該ギフティングに対応するギフト(第1のギフト又は第2のギフト)をアバターオブジェクトの装着部位に装着させることについての問合せをサーバ装置20から受け付けたときに、当該問合せに対する回答に係る操作データを配信ユーザから入力して、当該操作データを通信部150へ出力することができる。 As another example, when one or more gifts are given by the viewing user, the user interface unit 130 transfers the gift (first gift or second gift) corresponding to the gift to the avatar object. When receiving an inquiry from the server device 20 regarding the attachment site, the distribution user can input operation data related to the answer to the inquiry and output the operation data to the communication unit 150.

(5)ギフト記憶部140
ギフト記憶部140は、動画配信用アプリケーション及び動画視聴用アプリケーションが端末装置10にインストールされると、これらのアプリケーションに予め設定されるギフト情報を記憶することができる。なお、ギフト情報とは、各ギフトの名称・形状・色等の識別情報、視聴ユーザがギフティングした場合に当該視聴ユーザに対して請求される各ギフトの金額等を含むことができる。
(5) Gift storage section 140
When the video distribution application and the video viewing application are installed on the terminal device 10, the gift storage unit 140 can store gift information that is preset in these applications. Note that the gift information can include identification information such as the name, shape, and color of each gift, and the amount of each gift that will be charged to the viewing user when the viewing user makes a gift.

(6)通信部150
通信部150は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の配信及び/又は視聴に必要とされる様々な情報を、サーバ装置20との間において通信することができる。例えば、通信部150は、端末装置10が配信ユーザの端末装置10として動作する場合には、アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を生成する旨の要求情報をサーバ装置20(情報処理サーバ装置20B)から受信して、生成された当該動画をサーバ装置20(配信サーバ装置20C)に送信することができる。また、同じく端末装置10が配信ユーザの端末装置10として動作する場合であって、且つ視聴ユーザから1又は複数のギフティングがなされた場合に、当該ギフティングに対応するギフト(第1のギフト又は第2のギフト)をアバターオブジェクトの装着部位に装着させることについての問合せをサーバ装置20から受信して、当該問合せの情報を表示部110へ出力し、当該問合せに対する回答に係る操作データをユーザインタフェイス部130から受信して当該回答に係る情報をサーバ装置20に送信することができる。
(6) Communication department 150
The communication unit 150 transmits various information necessary for distributing and/or viewing videos (including videos that include an animation of the first gift or the second gift being attached to the attachment site of the avatar object). , and the server device 20. For example, when the terminal device 10 operates as the terminal device 10 of the distribution user, the communication unit 150 transmits a video including an animation of the first gift or the second gift being attached to the attachment site of the avatar object. Request information for generation can be received from the server device 20 (information processing server device 20B), and the generated video can be transmitted to the server device 20 (distribution server device 20C). Similarly, when the terminal device 10 operates as the terminal device 10 of the distribution user and one or more gifts have been made by the viewing user, the gift corresponding to the gift (the first gift or An inquiry about attaching a second gift) to the attachment site of an avatar object is received from the server device 20, information on the inquiry is output to the display unit 110, and operation data related to the answer to the inquiry is displayed on the user interface. Information regarding the response received from the face unit 130 can be transmitted to the server device 20.

他方、通信部150は、端末装置10が視聴ユーザの端末装置10として動作する場合には、配信ユーザの端末装置10によって生成された動画をサーバ装置20から受信することができる。また、同じく端末装置10が視聴ユーザの端末装置10として動作する場合には、視聴ユーザから配信ユーザ(アバターオブジェクト)対するギフティングに係る情報、及び視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに係る情報をサーバ装置20(コメントAPIサーバ装置20D)に送信することができる。 On the other hand, when the terminal device 10 operates as the viewing user's terminal device 10, the communication unit 150 can receive the video generated by the distribution user's terminal device 10 from the server device 20. Similarly, when the terminal device 10 operates as the viewing user's terminal device 10, information related to gifting from the viewing user to the distribution user (avatar object) and comments from the viewing user to the distribution user (avatar object) Information can be transmitted to the server device 20 (comment API server device 20D).

(7)スタジオユニット
前述の動画生成部100、表示部110、記憶部120、ユーザインタフェイス部130、ギフト記憶部140、及び通信部150を含むスタジオユニット(図示せず)を端末装置10として用いることもできる。
(7) Studio Unit A studio unit (not shown) including the above-described video generation section 100, display section 110, storage section 120, user interface section 130, gift storage section 140, and communication section 150 is used as the terminal device 10. You can also do that.

スタジオユニットは、パーソナルコンピュータ等の情報処理装置により実装可能なものであって、前述した端末装置10及びサーバ装置20と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。また、スタジオユニットは、インストールされた特定のアプリケーションを実行する情報処理装置として機能することにより、スタジオユニットが設置されたスタジオルーム(図示せず)に居る配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関するデータに基づいて、アバターオブジェクトのアニメーションを含む動画を生成することができる。 The studio unit can be implemented by an information processing device such as a personal computer, and, like the terminal device 10 and server device 20 described above, mainly includes a central processing unit, a main storage device, and an input/output interface. The device may include a device, an input device, an auxiliary storage device, and an output device. These devices are connected to each other by a data bus and/or a control bus. In addition, the studio unit functions as an information processing device that executes a specific installed application, thereby providing information on the behavior of the distribution user in the studio room (not shown) in which the studio unit is installed, and/or the distribution user. It is possible to generate a video including animation of the avatar object based on data related to speech and singing uttered by the user.

スタジオユニットに含まれる動画生成部100の構成要素の多くは、スタジオルームに配される。また、スタジオルームにおいては、配信ユーザが種々のパフォーマンスを行い、スタジオユニットが、当該配信ユーザの動作、表情、及び発話(歌唱を含む)等を検出している。 Most of the components of the video generation section 100 included in the studio unit are arranged in the studio room. Furthermore, in the studio room, distribution users perform various performances, and the studio unit detects the distribution users' movements, facial expressions, speech (including singing), and the like.

配信ユーザは、スタジオユニット(動画生成部100)に含まれる種々のセンサ群によって動作、表情、及び発話(歌唱を含む)等がキャプチャされる対象となっている。この場合において、配信ユーザは、必ずしも人間である必要はなく、例えば、自立運動可能なロボットであってもよい。また、スタジオルーム内の配信ユーザは、1であってもよいし、2以上であってもよい。 The distribution user's movements, facial expressions, speech (including singing), etc. are to be captured by various sensor groups included in the studio unit (video generation section 100). In this case, the distribution user does not necessarily have to be a human, and may be a robot capable of independent movement, for example. Further, the number of distribution users in the studio room may be one, or two or more.

スタジオユニットにおける動画生成部100は、配信ユーザに装着される種々のモーションセンサ(図示せず)と、配信ユーザの手に把持されるコントローラ(図示せず)と、装着具(図示せず)を介して配信ユーザの頭部に取付けられるカメラ(図示せず)と、を有することができる。また、スタジオユニットには、配信ユーザの音声データを取得するために、前述の装着具やスタジオルーム内のいずれかの場所(例えば、壁、床、天井等)にマイクが設けられている。さらに、スタジオユニットは、上記の構成に加えて、複数のベースステーション(図示せず)、トラッキングセンサ(図示せず)、及びディスプレイ(図示せず)を有することができる。 The video generation section 100 in the studio unit includes various motion sensors (not shown) worn by the distribution user, a controller (not shown) held in the hand of the distribution user, and a mounting tool (not shown). and a camera (not shown) attached to the head of the broadcasting user via the broadcasting user. Further, the studio unit is provided with a microphone in the above-mentioned mounting device or somewhere in the studio room (for example, on the wall, floor, ceiling, etc.) in order to acquire the audio data of the distribution user. Additionally, the studio unit may have multiple base stations (not shown), tracking sensors (not shown), and displays (not shown) in addition to the configurations described above.

前述のモーションセンサは、前述のベースステーションと協働して、配信ユーザの位置及び向きを検出することができる。一実施形態において、複数のベースステーションは、多軸レーザーエミッタ―であり、同期用の点滅光を発した後に、1つのベースステーションは例えば鉛直軸の周りでレーザー光を走査し、他のベースステーションは、例えば水平軸の周りでレーザー光を走査するように構成される。モーションセンサは、ベースステーションからの点滅光及びレーザー光の入射を検知する光センサを複数備え、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサでの受光時間、各光センサが検知したレーザー光の入射角度、等を検出することができる。モーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよいし、ZERO C SEVEN Inc.から提供されているXsens MVN Analyzeであってもよい。 The aforementioned motion sensor can cooperate with the aforementioned base station to detect the location and orientation of the broadcast user. In one embodiment, the plurality of base stations are multi-axis laser emitters, and after emitting a synchronizing flashing light, one base station scans the laser light, e.g. around a vertical axis, and the other base stations is configured, for example, to scan a laser beam around a horizontal axis. The motion sensor is equipped with multiple optical sensors that detect the incidence of flashing light and laser light from the base station. It is possible to detect the incident angle of the laser beam detected by the sensor. The motion sensor may be, for example, Vive Tracker provided by HTC CORPORATION, or Vive Tracker provided by ZERO C SEVEN Inc. It may also be Xsens MVN Analyze provided by Microsoft.

スタジオユニットにおける動画生成部100は、モーションセンサにおいて算出された各モーションセンサの位置及び向きを示す検出情報を取得する。モーションセンサは、配信ユーザの手首、足甲、腰、頭頂等の部位に装着されることにより、モーションセンサの位置及び向きを検出することにより、配信ユーザの体の動きを検出することができる。 The video generation section 100 in the studio unit acquires detection information indicating the position and orientation of each motion sensor calculated by the motion sensor. The motion sensor can detect the movement of the distribution user's body by detecting the position and orientation of the motion sensor by being attached to the distribution user's wrist, instep, waist, top of the head, or the like.

一実施形態においては、複数のモーションセンサに多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの位置及び向きを検出してもよい。また、赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの位置及び向きを検出してもよい。 In one embodiment, a plurality of motion sensors are equipped with a large number of infrared LEDs, and light from the infrared LEDs is detected by an infrared camera installed on the floor or wall of a studio room. Position and orientation may also be detected. Furthermore, the position and orientation of the motion sensor may be detected by using a visible light LED instead of the infrared LED and detecting the light from the visible light LED with a visible light camera.

一実施形態においては、モーションセンサに代えて、複数の反射マーカーを用いることもできる。反射マーカーは、配信ユーザに粘着テープ等により貼付される。このように反射マーカーが貼付された配信ユーザを撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出するような構成としてもよい。 In one embodiment, a plurality of reflective markers may be used instead of a motion sensor. The reflective marker is attached to the distribution user using adhesive tape or the like. A configuration may be adopted in which the position and orientation of the reflective marker is detected by photographing the distribution user to whom the reflective marker is attached in this manner to generate photographic data, and performing image processing on this photographic data.

コントローラは、配信ユーザの操作に応じたコントロール信号を出力し、これを動画生成部100が取得する。 The controller outputs a control signal according to the distribution user's operation, and the video generation unit 100 acquires this.

トラッキングセンサは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。当該トラッキング情報は、三次元直交座標系での位置及び各軸回りの角度として算出され、動画生成部100は当該トラッキング情報を取得する。 The tracking sensor generates tracking information for determining virtual camera setting information for constructing a virtual space included in the video. The tracking information is calculated as a position in a three-dimensional orthogonal coordinate system and an angle around each axis, and the video generation unit 100 acquires the tracking information.

配信ユーザの頭部に取付けられるカメラは、配信ユーザの顔を撮像できるように配置される。当該カメラは、配信ユーザの顔を連続的に撮像することで、配信ユーザの顔の撮像データを取得し、動画生成部100はこの撮像データを当該カメラから取得する。なお、当該カメラは、配信ユーザの顔の奥行きを検出可能な3Dカメラであってもよい。 A camera attached to the distribution user's head is arranged so as to be able to capture an image of the distribution user's face. The camera acquires image data of the distribution user's face by continuously capturing images of the distribution user's face, and the video generation unit 100 acquires this image data from the camera. Note that the camera may be a 3D camera that can detect the depth of the distribution user's face.

ディスプレイは表示部110として機能するものであり、配信ユーザによって視認可能な位置に配置され、配信ユーザは、各種情報を取得して動画生成部100によって生成された動画を、ディスプレイを通して視認することが可能となっている。 The display functions as the display unit 110 and is placed in a position where it can be viewed by the distribution user, and the distribution user can acquire various information and view the video generated by the video generation unit 100 through the display. It is possible.

スタジオユニットは、以上のとおり説明した構成要素に加えて、前述にて説明した記憶部120、ユーザインタフェイス部130、ギフト記憶部140、及び通信部150を同様に含む。また、以上のとおり説明したスタジオユニットの構成要素は一例であって、他に適用可能な様々な構成要素を含みうる。 In addition to the components described above, the studio unit similarly includes the storage section 120, user interface section 130, gift storage section 140, and communication section 150 described above. Furthermore, the components of the studio unit described above are merely examples, and may include various other applicable components.

3-2.サーバ装置20の機能
サーバ装置20の機能の一例について図4乃至図7を参照しつつ説明する。図4は、図1に示したサーバ装置20の機能の一例を模式的に示すブロック図である。図5は、データベース部230によって管理されるテーブルの一例を示す図である。図6A乃至図6Dは、データベース部230によって管理されるテーブルの一例を示す図であって、判定部240が判定する際のイメージを模式的に示す図である。図7は、配信ユーザの端末装置10の表示部110に表示される確認画面の一例を示す図である。
3-2. Functions of Server Device 20 An example of the functions of the server device 20 will be described with reference to FIGS. 4 to 7. FIG. 4 is a block diagram schematically showing an example of the functions of the server device 20 shown in FIG. 1. FIG. 5 is a diagram showing an example of a table managed by the database unit 230. 6A to 6D are diagrams showing examples of tables managed by the database unit 230, and are diagrams schematically showing an image when the determination unit 240 makes a determination. FIG. 7 is a diagram showing an example of a confirmation screen displayed on the display unit 110 of the distribution user's terminal device 10.

図4に示すように、サーバ装置20は、主に、記憶部200、通信部210、ギフト処理部220、データベース部230、判定部240、及びコメント処理部250を含むことができる。 As shown in FIG. 4, the server device 20 can mainly include a storage section 200, a communication section 210, a gift processing section 220, a database section 230, a determination section 240, and a comment processing section 250.

(1)記憶部200
記憶部200は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
(1) Storage unit 200
The storage unit 200 stores various information required for distributing and/or viewing videos (including videos that include an animation of the first gift or the second gift being attached to the attachment site of the avatar object). Can be memorized.

(2)通信部210
通信部210は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の配信及び/又は視聴に必要とされる様々な情報を、配信ユーザの端末装置10及び/又は視聴ユーザの端末装置10との間において通信することができる。例えば、通信部210は、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)を、配信ユーザの端末装置10から受信して各視聴ユーザの端末装置10へ配信することができる。
(2) Communication department 210
The communication unit 210 transmits various information required for distributing and/or viewing videos (including videos that include an animation of the first gift or the second gift being attached to the attachment site of the avatar object). , the terminal device 10 of the distribution user and/or the terminal device 10 of the viewing user. For example, the communication unit 210 receives a video (including a video that includes an animation of the first gift or the second gift being attached to the attachment site of the avatar object) from the terminal device 10 of the distribution user, and each It can be distributed to the viewing user's terminal device 10.

また、通信部210は、視聴ユーザから配信ユーザ(アバターオブジェクト)対するギフティングに係る情報、及び視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに係る情報を視聴ユーザの端末装置10から受信して、ギフティングに係る情報はギフト処理部220へ、コメントに係る情報はコメント処理部250へと各々出力する。 The communication unit 210 also receives information related to gifting from the viewing user to the distribution user (avatar object) and information related to comments from the viewing user to the distribution user (avatar object) from the viewing user's terminal device 10. Information related to gifting is output to the gift processing unit 220, and information related to comments is output to the comment processing unit 250.

さらにまた、通信部210は、アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を生成する旨の要求情報を配信ユーザの端末装置10へ送信することができる。 Furthermore, the communication unit 210 transmits request information to the distribution user's terminal device 10 to generate a video including an animation of the first gift or the second gift being attached to the attachment site of the avatar object. be able to.

さらにまた、視聴ユーザから複数のギフティングがなされた場合であって、且つ後述する判定部240によって第1のギフトの組合せが所定条件を満たすことが判定された場合、第2のギフトをアバターオブジェクトの装着部位に装着させることについて配信ユーザの確認を得るための問合せ(確認)に係る要求信号を配信ユーザの端末装置10へ送信し、当該問合せに対する回答に係る情報を配信ユーザの端末装置10から受信することもできる。 Furthermore, if multiple gifts have been made by the viewing user, and if the determination unit 240 (described later) determines that the first gift combination satisfies a predetermined condition, the second gift may be sent to the avatar object. A request signal related to an inquiry (confirmation) for obtaining confirmation from the distribution user regarding the attachment of the item to the attachment site is transmitted to the distribution user's terminal device 10, and information related to the answer to the inquiry is transmitted from the distribution user's terminal device 10. You can also receive it.

(3)ギフト処理部220
ギフト処理部220は、通信部210からギフティングに係る情報(ギフティングに係る要求信号)が出力されると、ギフティング行為がなされた視聴ユーザの識別情報(各視聴ユーザの端末装置10のシリアル番号や各視聴ユーザに付与されるID情報等)、ギフティングされたギフト情報(アバターオブジェクトのいずれの装着部位に対応するどのようなギフトであるかの情報であって、各ギフトの名称・形状・色等の識別情報)、及びギフティング対象のアバターオブジェクトたる配信ユーザの識別情報(配信ユーザの端末装置10のシリアル番号や配信ユーザに付与されるID情報等)を少なくとも読み出して、読み出した情報を自動的に、又は問い合わせに応じてデータベース部230に格納する。
(3) Gift processing section 220
When the communication unit 210 outputs the information related to gifting (request signal related to gifting), the gift processing unit 220 outputs the identification information of the viewing user who performed the gifting act (the serial number of the terminal device 10 of each viewing user). number, ID information given to each viewing user, etc.), gift information (information about what kind of gift it is, which corresponds to which part of the avatar object it is attached to, and the name and shape of each gift)・Identification information such as color, etc.) and identification information of the distribution user who is the avatar object to be gifted (serial number of the terminal device 10 of the distribution user, ID information given to the distribution user, etc.), and the read information. is stored in the database unit 230 automatically or in response to an inquiry.

(4)データベース部230
データベース部230は、ギフト処理部220が読み出した各種の情報を、自動的に、又はギフト処理部220に対して所定時間間隔で問い合わせすることで、ギフト処理部220から受信することができる。また、データベース部230は、図5に示すように、配信ユーザ毎のテーブル(参照テーブル)を有しており、ギフト処理部220から受信した各種の情報を、対応する配信ユーザの各テーブルに格納する。
(4) Database section 230
The database unit 230 can receive various types of information read by the gift processing unit 220 from the gift processing unit 220 automatically or by inquiring the gift processing unit 220 at predetermined time intervals. Further, as shown in FIG. 5, the database unit 230 has a table (reference table) for each distribution user, and stores various information received from the gift processing unit 220 in each table of the corresponding distribution user. do.

次に、図5を参照しつつ、テーブルに格納された情報の一例を説明する。 Next, an example of information stored in the table will be explained with reference to FIG. 5.

データベース部230は、配信ユーザ毎のテーブル500を有するにあたり、各テーブル500には配信ユーザの識別情報501(例えば配信ユーザのID情報)が付与されている。さらに、データベース部230は、ギフト処理部220から受信した配信ユーザの識別情報501に応じて、対応するテーブルにギフティングされたギフト情報を順次(図5においてはギフティングされた順が一例とされているが、例えばアバターオブジェクトに第1のギフトが装着された順でもよい)格納していく。 The database unit 230 has tables 500 for each distribution user, and each table 500 is given identification information 501 of the distribution user (for example, distribution user ID information). Furthermore, the database unit 230 sequentially stores the gift information gifted in the corresponding table according to the distribution user identification information 501 received from the gift processing unit 220 (in FIG. 5, the order of gifting is taken as an example). However, for example, the first gift may be stored in the order in which the first gift is attached to the avatar object).

さらに詳細に説明すると、まずアバターオブジェクトの装着部位にギフトが全く装着されていない状態(初期状態)から、図5に示すような、「赤いランドセル」、「ダイヤの冠」、「銀のフォーク」、「黄金のハリセン」、「金の指輪」、及び「白のスニーカー」の順番で、1又は複数の視聴ユーザから第1のギフトに係るギフティングが実行された場合、アバターオブジェクトの装着部位には当該順番で各第1のギフトが装着される(アバターオブジェクトの装着部位に第1のギフトが装着されたアニメーションを含む動画が生成される)。したがって、データベース部230は、テーブル500において、「赤いラ
ンドセル」、「ダイヤの冠」、「銀のフォーク」、「黄金のハリセン」、「金の指輪」、及び「白のスニーカー」を、この順番(ギフティングされた順番又は装着された順番)で「装着済ギフト一覧」のボックス502に格納する。なお、図5には記載されていないが、各第1のギフトに対応するアバターオブジェクトの装着部位に係る情報(「赤いランドセル」に対応するアバターオブジェクトの装着部位は「背中」)や、各第1のギフトをギフティングした視聴ユーザの識別情報(例えば視聴ユーザのID情報)を、各第1のギフトと対応するようにボックス502に格納(表示)させてもよい。
To explain in more detail, first, from the state where no gift is attached to the attachment part of the avatar object (initial state), there are gifts such as "red school bag", "diamond crown", and "silver fork" as shown in Figure 5. , "Golden Harisen,""GoldenRing," and "White Sneakers" in the order of gifting from one or more viewing users for the first gift, the attachment part of the avatar object is The first gifts are attached in this order (a video including an animation in which the first gifts are attached to the attachment site of the avatar object is generated). Therefore, the database unit 230 stores "red school bag,""diamondcrown,""silverfork,""goldenharisen,""goldring," and "white sneakers" in this order in table 500. (The order in which the gift was gifted or the order in which it was attached) is stored in the box 502 of the "List of attached gifts". Although not shown in FIG. 5, information regarding the attachment site of the avatar object corresponding to each first gift (the attachment site of the avatar object corresponding to "red school bag" is "back"), The identification information of the viewing user who gifted the first gift (for example, ID information of the viewing user) may be stored (displayed) in the box 502 so as to correspond to each first gift.

次に、前述の6つの第1のギフトがアバターオブジェクトの装着部位に各々装着された状態から、さらに、「ダイヤの冠」、「銀のフォーク」、「銀の指輪」、「銅のナイフ」、「黒いリュックサック」、「白いランドセル」、「金のフォーク」、「金のめがね」、及び「銀のスプーン」の順番で、1又は複数の視聴ユーザからさらに第1のギフトに係るギフティングが実行される。この場合、これらのギフトに対応するアバターオブジェクトの装着部位には、既に前述の6つの第1のギフトが装着されている。つまり、「背中」には「赤いランドセル」、「頭」には「ダイヤの冠」、「左手」には「銀のフォーク」、「右手」には「黄金のハリセン」、「指」には「金の指輪」、「両足」には「白のスニーカー」が装着されているの。一方、「背中」にさらに「黒いリュックサック」、「指」には「銀の指輪」等、対応する装着部位が重複してしまう。このような場合、データベース部230は、少なくとも一時的に、さらにギフティングされた第1のギフトをギフティングされた順番で「未装着ギフト一覧」のボックス503に格納する。この場合、ボックス502と同様、対応するアバターオブジェクトの装着部位に係る情報や、各第1のギフトをギフティングした視聴ユーザの識別情報を、各第1のギフトと対応するようにボックス503に格納(表示)させてもよい。 Next, after the six first gifts described above are attached to the attachment parts of the avatar object, "Diamond Crown", "Silver Fork", "Silver Ring", and "Copper Knife" are added. , "black backpack", "white school bag", "gold fork", "gold glasses", and "silver spoon" in the order of gifts related to the first gift from one or more viewing users. is executed. In this case, the aforementioned six first gifts have already been attached to the attachment parts of the avatar object corresponding to these gifts. In other words, there is a red school bag on the back, a diamond crown on the head, a silver fork on the left hand, a golden harisen on the right hand, and a golden harisen on the fingers. A ``gold ring'' and ``white sneakers'' are attached to both feet. On the other hand, the corresponding attachment parts overlap, such as a ``black backpack'' on the ``back'' and a ``silver ring'' on the ``finger.'' In such a case, the database unit 230 stores, at least temporarily, the further gifted first gifts in the "unattached gift list" box 503 in the order in which they were gifted. In this case, similar to box 502, information related to the attachment part of the corresponding avatar object and identification information of the viewing user who gifted each first gift are stored in box 503 in correspondence with each first gift. (display).

データベース部230は、前述のように格納した情報に基づいて、アバターオブジェクトの装着部位に対して付与された第1のギフトの種類と、第1のギフトの種類毎の付与数とを対応付けて記憶しているといえる。換言すれば、データベース部230は、装着部位毎に、どんな種類の第1のギフトがいくつ付与されたかについて、テーブル500を用いて管理(記憶)しており、管理(記憶)される情報は判定部240の問い合わせに応じて、当該判定部240にも出力される。 Based on the information stored as described above, the database unit 230 associates the type of first gift given to the attachment part of the avatar object with the number of first gifts given for each type. It can be said that I remember it. In other words, the database unit 230 uses the table 500 to manage (memorize) the number and type of first gifts given for each attachment site, and the information to be managed (stored) is determined In response to an inquiry from section 240, the information is also output to determination section 240.

なお、アバターオブジェクトに装着された第1のギフトは、アバターオブジェクトに装着された時点を起算して、所定時間経過(例えば、1分又は2分)すると、自動的に動画から消去されるように、動画配信用アプリケーション及び動画視聴用アプリケーショにおいて予め設定されている。したがって、仮に、前述の「赤いランドセル」がアバターオブジェクトに装着されてから所定時間経過した後に、「黒いリュックサック」がギフティングされると、「黒いリュックサック」はアバターオブジェクトに装着されることとなる(この場合、データベース230は、「黒いリュックサック」をボックス502に格納することとなる)。 Note that the first gift attached to the avatar object will be automatically deleted from the video after a predetermined period of time (for example, 1 minute or 2 minutes) has passed from the time it was attached to the avatar object. , is set in advance in the video distribution application and the video viewing application. Therefore, if a "black backpack" is gifted after a predetermined period of time has passed since the aforementioned "red school bag" was attached to the avatar object, the "black backpack" will not be attached to the avatar object. (In this case, the database 230 will store “black backpack” in box 502).

(5)判定部240
判定部240は、複数のギフティング行為(1人の視聴ユーザによる複数のギフティング行為、及び複数の視聴ユーザによる複数のギフティング行為の両方を含む)があった場合に、アバターオブジェクトの装着部位に対して第1のギフトと共通する特徴を有する第2のギフトが装着された状態のアニメーションを含む動画を生成するか否かについて判定する。この判定は、データベース部230が管理するテーブル500を参照して(データベース部230から出力される情報に基づいて)実行され、複数の第1のギフトの組合せが、動画配信用アプリケーション及び動画視聴用アプリケーショにおいて予め設定される所定条件を満たすか否かによって判定される。
(5) Determination unit 240
When there are multiple gifting actions (including both multiple gifting actions by one viewing user and multiple gifting actions by multiple viewing users), the determination unit 240 determines the attachment site of the avatar object. It is determined whether or not to generate a video including an animation of a second gift being worn, which has characteristics common to the first gift. This determination is performed with reference to the table 500 managed by the database unit 230 (based on information output from the database unit 230), and the combination of the plurality of first gifts is determined by the video distribution application and the video viewing application. The determination is made based on whether or not a predetermined condition preset in the application is satisfied.

判定の例を、図6A乃至図6Dを参照しつつ説明する。 An example of determination will be described with reference to FIGS. 6A to 6D.

図5を参照して前述したとおり、アバターオブジェクトの装着部位のうち「頭」に着目すると、既に「ダイヤの冠」が装着されている。この状態において、さらに「ダイヤの冠」がギフティングされる場合、第1のギフトの組合せは全く同一の「ダイヤの冠」が2つということになる(図6A参照)。ここで、前述の所定条件の少なくとも一つが、同一の第1のギフトが2つ揃うことであった場合、「ダイヤの冠」が2つ揃うことが前述の所定条件を満たす。このような所定条件は、動画配信用アプリケーション及び動画視聴用アプリケーションにおいて予め任意に設定することができる。このように所定条件が満たされると、判定部240はアバターオブジェクトの「頭」において第1のギフトたる「ダイヤの冠」と共通する特徴を有する第2のギフトが装着された状態のアニメーションを含む動画を生成すると判定する。この場合の第2のギフトとしては、例えば、「大きなダイヤの冠」や「100カラットダイヤのティアラ」等、第1のギフトの大きさ、色、及び/又は少なくとも一部の形状が変化するものを適宜に採用することができる。 As described above with reference to FIG. 5, when focusing on the "head" of the attachment parts of the avatar object, the "diamond crown" is already attached. In this state, if a "diamond crown" is further gifted, the first gift combination will be two identical "diamond crowns" (see FIG. 6A). Here, if at least one of the aforementioned predetermined conditions is that two identical first gifts are present, then the aforementioned predetermined condition is satisfied that two "diamond crowns" are present. Such predetermined conditions can be arbitrarily set in advance in the video distribution application and the video viewing application. When the predetermined condition is satisfied in this way, the determination unit 240 includes an animation of a state in which a second gift having the same characteristics as the first gift "diamond crown" is attached to the "head" of the avatar object. It is determined that a video will be generated. In this case, the second gift may be one that changes the size, color, and/or at least part of the shape of the first gift, such as a "large diamond crown" or "100 carat diamond tiara." can be adopted as appropriate.

次に、図5を参照して前述したとおり、アバターオブジェクトの装着部位のうち「指」に着目すると、既に「金の指輪」が装着されている。この状態において、さらに「銀の指輪」がギフティングされる場合、第1のギフトの組合せは、「金の指輪」及び「銀の指輪」、ということになる(図6B参照)。ここで、前述の所定条件の少なくとも一つが、色のみが異なる2つの第1のギフトが揃うことであった場合、当該組合せは所定条件を満たす。このように所定条件が満たされると、判定部240は図6Aを参照しつつ説明した場合と同様、第1のギフトたる「金の指輪」と共通する特徴を有する「ダイヤの指輪」等の第2のギフトが装着された状態のアニメーションを含む動画を生成すると判定する。 Next, as described above with reference to FIG. 5, if we pay attention to the "finger" of the attachment parts of the avatar object, a "gold ring" is already attached. In this state, if a "silver ring" is further gifted, the first gift combination will be a "gold ring" and a "silver ring" (see FIG. 6B). Here, if at least one of the predetermined conditions described above is that the two first gifts differing only in color come together, the combination satisfies the predetermined condition. When the predetermined condition is satisfied in this way, the determination unit 240 selects a second gift such as a "diamond ring" that has the same characteristics as the first gift "gold ring", as described with reference to FIG. 6A. It is determined that a video including an animation of the gift No. 2 being worn is to be generated.

次に、図5を参照して前述したとおり、アバターオブジェクトの装着部位のうち「背中」に着目すると、既に「赤いランドセル」が装着されている。この状態において、さらに「黒いリュックサック」及び「白いランドセル」がギフティングされる場合、第1のギフトの組合せは、「赤いランドセル」、「黒いリュックサック」及び「白いランドセル」、という3つの組合せになる(図6C参照)。ここで、前述の所定条件の少なくとも一つが、「背中」に対して第1のギフトが3つ揃うことであった場合、当該組合せは所定条件を満たす。このように所定条件が満たされると、判定部240は図6Aを参照しつつ説明した場合と同様、第1のギフトたる「赤いランドセル」と共通する特徴を有する第2のギフトが装着された状態のアニメーションを含む動画を生成すると判定する。この場合の第2のギフトとしては、例えば「大きな翼」等が設定される。このように、第1のギフトと第2のギフトの装着部位が共通することのみをもって、第2のギフトが第1のギフトと共通する特徴を有する、としてもよい。また、第2のギフトが第1のギフトと同じ色であること、同じ大きさであること、同じ種類の物品(同種類)であること、等も、第2のギフトが第1のギフトと共通する特徴を有する、ということができる。 Next, as described above with reference to FIG. 5, if we focus on the "back" of the avatar object's wearing parts, we can see that the "red school bag" is already being worn. In this state, if a "black backpack" and a "white school bag" are further gifted, the first gift combination is the three combinations of "red school bag", "black backpack", and "white school bag". (See Figure 6C). Here, if at least one of the above-mentioned predetermined conditions is that three first gifts are arranged for "back", the combination satisfies the predetermined condition. When the predetermined condition is satisfied in this way, the determination unit 240 determines the state in which the second gift, which has the same characteristics as the first gift "red school bag", is attached, as in the case described with reference to FIG. 6A. It is determined that a video containing the animation will be generated. In this case, the second gift may be, for example, "big wings." In this way, the second gift may have a feature in common with the first gift only by having the first gift and the second gift have the same attachment part. In addition, the second gift may be the same color, the same size, the same type of item (same type), etc. as the first gift. It can be said that they have common characteristics.

次に、図5を参照して前述したとおり、アバターオブジェクトの装着部位のうち「左手」に着目すると、既に「銀のフォーク」が装着されている。この状態において、さらに「銀のフォーク」、「銅のナイフ」、「金のフォーク」、及び「銀のスプーン」がギフティングされる場合、第1のギフトの組合せは、2つの「銀のフォーク」、「銅のナイフ」、「金のフォーク」及び「銀のスプーン」、という合計5つの組合せになる(図6D参照)。ここで、前述の所定条件の少なくとも一つが、「左手」において、金・銀・銅の色が揃い且つナイフ・フォーク・スプーンが揃うことであった場合、当該組合せは所定条件を満たす。このように所定条件が満たされると、判定部240は図6Aを参照しつつ説明した場合と同様、第1のギフトたる「銀のフォーク」と共通する特徴を有する第2のギフトが装着された状態のアニメーションを含む動画を生成すると判定する。この場合の第2のギフトとしては、例えば「虹色の大きなフォーク」等が設定される。 Next, as described above with reference to FIG. 5, when focusing on the "left hand" of the attachment parts of the avatar object, the "silver fork" is already attached. In this state, if a "silver fork", "copper knife", "gold fork", and "silver spoon" are further gifted, the first gift combination is two "silver forks". ”, “copper knife”, “gold fork”, and “silver spoon”, resulting in a total of five combinations (see FIG. 6D). Here, if at least one of the above-mentioned predetermined conditions is that the colors of gold, silver, and copper match in the "left hand" and the knives, forks, and spoons match, then the combination satisfies the predetermined conditions. When the predetermined condition is satisfied in this way, the determination unit 240 determines that the second gift, which has the same characteristics as the first gift "silver fork", is attached, as in the case described with reference to FIG. 6A. It is determined that a video including state animation is to be generated. In this case, the second gift may be, for example, a "large rainbow-colored fork."

以上の例のように、前述の所定条件はどのようにも設定することができる。所定条件を平易(例えば、図6Aや図6Bを参照して説明した例、等)なものとすれば、多くの種類の第2のギフトを出現させることができるため、視聴ユーザによるギフティング意欲を刺激することができる。他方、所定条件を難解(例えば、図6Dを参照しつ説明した例、等)なものとしても、視聴ユーザにとっては、どのような第1のギフトを組み合せれば第2のギフトが出現するのかという関心や好奇心が惹起される。したがって、視聴ユーザによるギフティング機会が増加する。 As in the above example, the predetermined conditions described above can be set in any manner. If the predetermined conditions are simple (for example, the examples explained with reference to FIGS. 6A and 6B), many types of second gifts can appear, which increases the gifting motivation of viewing users. can be stimulated. On the other hand, even if the predetermined conditions are difficult to understand (for example, the example explained with reference to FIG. 6D), the viewing user may wonder what kind of first gifts should be combined to make the second gift appear. This arouses interest and curiosity. Therefore, opportunities for gifting by viewing users increase.

ところで、判定部240は、複数の第1のギフトの組合せが所定条件を満たしていない場合においては、当該組合せが所定条件を満たすために必要な必要条件(所定条件を満たすために必要なギフトの種類や数、等)を算出することができる。判定部240は、設定された所定条件と複数の第1のギフトの組合せとを対比して、当該所定条件を満たすために、どのような第1のギフトがさらに追加でギフティングされる必要があるのか、という条件を算出する。算出された必要条件は、コメント処理部250へ出力される。ここで、必要条件の具体例を説明する。例えば、図6Cを参照しつつ説明した前述の場合において、所定条件が前述のとおり「背中に対して第1のギフトが3つ揃うこと」であるとすると、視聴ユーザから「赤いランドセル」(装着済)と「黒いリュックサック」だけしかギフティングされていない場合、必要条件は「アバターオブジェクトの背中に対応する第1のギフトが1つ」となる。このような必要条件の場合、コメント処理部250からは、例えば「背中につけるギフトがあと1つあればギフトが変化するよ」といったようなコメント情報が動画に合成されて(動画上に表示されて)配信ユーザの端末装置10に送信される。また、図6Dを参照しつつ説明した前述の場合において、所定条件が前述のとおり「左手に対して、金・銀・銅の色が揃い且つナイフ・フォーク・スプーンが揃うこと」であるとすると、視聴ユーザから「銀のフォーク」(装着済)、「金のフォーク」、及び「銀のプーン」だけしかギフティングされていない場合、必要条件は「アバターオブジェクトの左手に対応する銅のナイフ」となる。このような必要条件の場合、コメント処理部250からは、例えば「銅のナイフのギフティング募集中!!」といったようなコメント情報が動画に合成されて(動画上に合成されて)配信ユーザの端末装置10に送信される。 By the way, when the combination of the plurality of first gifts does not satisfy the predetermined condition, the determination unit 240 determines the necessary conditions for the combination to satisfy the predetermined condition (the number of gifts necessary to satisfy the predetermined condition). (type, number, etc.) can be calculated. The determining unit 240 compares the set predetermined condition and the combination of the plurality of first gifts, and determines what kind of first gift needs to be additionally gifted in order to satisfy the predetermined condition. Calculate the conditions for whether or not it exists. The calculated necessary conditions are output to the comment processing section 250. Here, a specific example of the necessary conditions will be explained. For example, in the case described above with reference to FIG. If only the gift item (completed) and the "black backpack" have been gifted, the necessary condition is "one first gift corresponding to the back of the avatar object". In the case of such requirements, the comment processing unit 250 synthesizes comment information such as "The gift will change if you put one more gift on your back" (displayed on the video). ) is transmitted to the distribution user's terminal device 10. Furthermore, in the case described above with reference to FIG. 6D, if the predetermined condition is that "the colors of gold, silver, and copper are the same for the left hand, and the knife, fork, and spoon are also aligned" as described above, then , if only "silver fork" (equipped), "gold fork", and "silver poon" have been gifted by the viewing user, the required condition is "a copper knife corresponding to the left hand of the avatar object" becomes. In the case of such requirements, the comment processing unit 250 synthesizes comment information such as "Currently looking for copper knife gifts!!" on the video and sends it to the distribution user. It is transmitted to the terminal device 10.

また、判定部240は、第1のギフトの組合せが所定条件を満たすと判定した場合、第2のギフトをアバターオブジェクトの装着部位に装着させる(アバターオブジェクトの装着部位に第2のギフトが装着されたアニメーションを含む動画を生成する)ことについて、配信ユーザの確認を得るための問い合わせに係る要求信号を通信部210に出力することができる。通信部210は当該要求信号を配信ユーザ(配信ユーザの端末装置10)へ送信し、当該問い合わせに対する回答に係る情報を配信ユーザの端末装置10から受信する。なお、この場合に、具体的には、図7に示すような画面600が配信ユーザの端末装置10の表示部110に表示される。なお、図7における「合成しますか?」とは、「第2のギフトをアバターオブジェクトに装着させますか?」との文言に置換することができる。このように、第2のギフトをアバターオブジェクトに装着させることについて、配信ユーザが了解した場合(図7において、配信ユーザが「はい」を選択した場合)、第2のギフトが装着されたアバターオブジェクトの装着部位に対して視聴ユーザがさらにギフティングを行われたとしても、一定時間(後述の持続時間)当該ギフティングはアバターオブジェクトに反映されない旨を視聴ユーザに通知するために、例えば「もう合成できないぞ」や「既に第2のギフト装着中!!」といったようなコメント情報を、配信ユーザの端末装置10に送信するように、判定部240がコメント処理部250に対して指示してもよい。 Further, when determining that the combination of the first gifts satisfies the predetermined condition, the determining unit 240 attaches the second gift to the attachment site of the avatar object (the second gift is attached to the attachment site of the avatar object). A request signal related to an inquiry for obtaining confirmation from the distribution user regarding the generation of a moving image including an animation can be output to the communication unit 210. The communication unit 210 transmits the request signal to the distribution user (the distribution user's terminal device 10), and receives information related to the answer to the inquiry from the distribution user's terminal device 10. In this case, specifically, a screen 600 as shown in FIG. 7 is displayed on the display unit 110 of the distribution user's terminal device 10. Note that "Do you want to combine?" in FIG. 7 can be replaced with "Do you want to attach the second gift to the avatar object?". In this way, if the distribution user agrees to attach the second gift to the avatar object (if the distribution user selects "Yes" in FIG. 7), the avatar object to which the second gift is attached Even if the viewing user further performs gifting on the attachment part of The determination unit 240 may instruct the comment processing unit 250 to send comment information such as “I can’t do that” or “I’m already wearing the second gift!!” to the terminal device 10 of the distribution user. .

アバターオブジェクトに装着された第2のギフトに対しては、動画内において持続する(アバターオブジェクトの装着部位に第2のギフトが装着された状態のアニメーションを含む動画内において第2のギフトが存在する)持続時間(例えば、1分又は2分)が予め設定されており、当該持続時間が経過すると、第2のギフトが動画内から消去されるように、動画配信用アプリケーション及び動画視聴用アプリケーションにおいて設定されている。第2のギフトの持続時間は、第2のギフトがアバターオブジェクトの装着部位に装着された時点を起点にしてもよいし、所定条件を満たすために視聴ユーザによって実行された最後のギフティングの時点(所定条件が満たされた時点)を起点にしてもよい。また、第2のギフトが動画内から消去された直後のタイミングで視聴ユーザによるギフティングを惹起させるために、第2のギフトが動画内から消去される直前に、例えば「第2のギフトが消えちゃうから、新たなギフティング募集!!」といったようなコメント情報を、配信ユーザの端末装置10に送信するように、判定部240がコメント処理部250に対して指示してもよい。 The second gift attached to the avatar object persists within the video (the second gift exists within the video that includes an animation of the second gift being attached to the attachment site of the avatar object). ) The duration time (for example, 1 minute or 2 minutes) is set in advance, and the video distribution application and the video viewing application are configured so that the second gift is deleted from the video when the duration time elapses. It is set. The duration of the second gift may start from the time when the second gift is attached to the attachment site of the avatar object, or the time of the last gifting performed by the viewing user to satisfy a predetermined condition. The starting point may be a point in time (when a predetermined condition is met). In addition, in order to induce gifting by viewing users immediately after the second gift is deleted from the video, for example, "The second gift has disappeared" may be displayed immediately before the second gift is deleted from the video. The determining unit 240 may instruct the comment processing unit 250 to transmit comment information such as “We are recruiting new gifters!” to the distribution user's terminal device 10.

(6)コメント処理部250
コメント処理部250は、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメント情報を、通信部210を介して視聴ユーザの端末装置10から受信することができ、視聴ユーザからの当該コメント情報を、同一の動画を視聴している各視聴ユーザに対して配信することができる。
(6) Comment processing section 250
The comment processing unit 250 can receive comment information from the viewing user to the distribution user (avatar object) from the viewing user's terminal device 10 via the communication unit 210, and can receive comment information from the viewing user on the same It can be distributed to each viewing user who is viewing the video.

また、コメント処理部250は、データベース部230にて管理されるテーブル500を参照して、どの視聴ユーザがどんなギフトをアバターオブジェクトの装着部位にギフティングしたかに係る全て又は一部の情報に対応するコメント情報を作成して、当該コメント情報を同一の動画を視聴している各視聴ユーザに対して配信することもできる。 The comment processing unit 250 also refers to the table 500 managed by the database unit 230 and responds to all or part of the information regarding which viewing user has gifted what gift to the attachment site of the avatar object. It is also possible to create comment information and distribute the comment information to each viewing user who is viewing the same video.

さらにまた、コメント処理部250は、データベース部230にて管理されるテーブル500を参照して、アバターオブジェクトの装着部位に対して第1のギフト及び/又は第2のギフトが付与された旨及び/又は装着された旨を示すコメント情報を作成して、当該コメント情報を同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Furthermore, the comment processing unit 250 refers to the table 500 managed by the database unit 230 to inform that the first gift and/or the second gift has been given to the attachment site of the avatar object. Alternatively, it is also possible to create comment information indicating that the device has been worn and distribute the comment information to each viewing user who is viewing the same video.

さらにまた、コメント処理部250は、判定部によって算出された前述の必要条件に対応するコメント情報を作成して、当該コメント情報を同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Furthermore, the comment processing unit 250 creates comment information corresponding to the above-mentioned requirements calculated by the determination unit, and distributes the comment information to each viewing user who is viewing the same video. You can also do it.

4.動画配信システム1の全体的な動作
次に、上記構成を有する動画配信システム1においてなされる全体的な動作について、図8乃至図11を参照して説明する。図8は、図1に示した動画配信システム1において行われる動作の一例を示すフロー図である。図9は、配信ユーザのアバターオブジェクトのアニメーションを含む動画の一例を示す図である。図10は、配信ユーザのアバターオブジェクトの装着部位に第1のギフトが装着された状態のアニメーションを含む動画の一例を示す図である。図11は、配信ユーザのアバターオブジェクトの装着部位において、第1のギフトに代わって第2のギフトが装着されるイメージの一例を模式的に示す図である
4. Overall Operation of Video Distribution System 1 Next, the overall operation performed in the video distribution system 1 having the above configuration will be described with reference to FIGS. 8 to 11. FIG. 8 is a flow diagram showing an example of operations performed in the video distribution system 1 shown in FIG. 1. FIG. 9 is a diagram illustrating an example of a video including an animation of a distribution user's avatar object. FIG. 10 is a diagram illustrating an example of a video including an animation of a state in which the first gift is attached to the attachment site of the distribution user's avatar object. FIG. 11 is a diagram schematically showing an example of an image in which a second gift is attached in place of the first gift at the attachment site of the distribution user's avatar object.

まず、ステップ(以下「ST」という。)300において、配信ユーザ(ここでは配信ユーザA)の操作に従って、その端末装置10(ここでは端末装置10A)が動画配信用アプリケーションを起動して実行する。 First, in step (hereinafter referred to as "ST") 300, the terminal device 10 (here, the terminal device 10A) starts and executes a video distribution application according to the operation of the distribution user (here, distribution user A).

次に、ST301において、端末装置10Aは、配信ユーザAの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて配信ユーザAのアバターオブジェクトのアニメーションを含む動画を生成する。これにより、図9に例示されるように、端末装置10Aの表示部110には、配信ユーザAのアバターオ
ブジェクト400のアニメーションを含む動画401が表示される。
Next, in ST301, the terminal device 10A generates a video including an animation of the distribution user A's avatar object based on data regarding the distribution user A's actions and/or audio data regarding speech and singing uttered by the distribution user. . As a result, as illustrated in FIG. 9, a moving image 401 including an animation of the avatar object 400 of the distribution user A is displayed on the display unit 110 of the terminal device 10A.

さらに、端末装置10Aは、生成した動画401をサーバ装置20の配信サーバ装置20Cに送信する。配信サーバ装置20Cは、端末装置10Aから受信した動画を、動画視聴用アプリケーションを実行している各視聴ユーザの端末装置10に配信する。これにより、各視聴ユーザの端末装置10の表示部110にも、図9に例示したような動画401が表示される。 Further, the terminal device 10A transmits the generated video 401 to the distribution server device 20C of the server device 20. The distribution server device 20C distributes the video received from the terminal device 10A to the terminal device 10 of each viewing user who is running a video viewing application. As a result, the moving image 401 as illustrated in FIG. 9 is also displayed on the display unit 110 of the terminal device 10 of each viewing user.

次に、ST302において、視聴ユーザの端末装置10は、ユーザインタフェイス部130に対する視聴ユーザの操作に基づいて、配信ユーザA(アバターオブジェクト400の装着部位)に対して第1のギフトを付与することを要求する要求信号をサーバ装置20(ギフトAPIサーバ装置20A)に発信する。 Next, in ST302, the viewing user's terminal device 10 gives the first gift to the distribution user A (the part where the avatar object 400 is attached) based on the viewing user's operation on the user interface section 130. A request signal requesting this is sent to the server device 20 (gift API server device 20A).

次に、ST303において、視聴ユーザの端末装置10から第1のギフトに係る要求信号を受信したサーバ装置20(ギフトAPIサーバ装置20A)は、ギフティング行為がなされた視聴ユーザの識別情報、ギフティングされたギフトに係る情報、及びギフティング対象のアバターオブジェクトたる配信ユーザの識別情報を少なくとも読み出す。そして、読み出された各種の情報は、サーバ装置20における情報処理サーバ装置20B内のテーブルに格納される。 Next, in ST303, the server device 20 (gift API server device 20A) that has received the request signal related to the first gift from the viewing user's terminal device 10 sends the identification information of the viewing user who performed the gifting act, the gifting At least the information related to the gift given and the identification information of the distribution user who is the avatar object to be gifted are read out. The various types of information that have been read are then stored in a table within the information processing server device 20B in the server device 20.

次に、ST304にて、サーバ装置20(情報処理サーバ装置20B)は、ST303にてテーブルに情報が格納された時点において、配信ユーザAのアバターオブジェクト400の各装着部位に第1のギフトが既に装着されているか否かについて確認する。ST304において、視聴ユーザによってギフティングがなされたアバターオブジェクト400の装着部位が例えば「頭」であって、そのギフティングに係る情報がST303においてテーブルに格納された時点で、当該「頭」に第1のギフトが装着されていなければ、サーバ装置20(情報処理サーバ装置20B)は、ST304において「NO」と判断した上でST310に進むべく、当該アバターオブジェクト400の「頭」に視聴ユーザからギフティングされた第1のギフト(例えば、「ダイヤの冠」)が装着されたアニメーションを含む動画を生成する旨を要求する情報を配信ユーザAの端末装置10Aへ発信する。 Next, in ST304, the server device 20 (information processing server device 20B) determines that the first gift has already been attached to each attachment site of the distribution user A's avatar object 400 at the time the information is stored in the table in ST303. Check whether it is installed or not. In ST304, the attachment part of the avatar object 400 gifted by the viewing user is, for example, the "head", and when the information related to the gifting is stored in the table in ST303, the first part is attached to the "head". If the gift is not attached, the server device 20 (information processing server device 20B) determines “NO” in ST304 and proceeds to ST310 by attaching a gift from the viewing user to the “head” of the avatar object 400. Information requesting generation of a video including an animation in which the first gift (for example, a "diamond crown") is attached is transmitted to the distribution user A's terminal device 10A.

一方、ST304において、視聴ユーザによってギフティングがなされたアバターオブジェクト400の装着部位が例えば「頭」であって、そのギフティングに係る情報がST303においてテーブルに格納された時点で、当該「頭」に「ダイヤの冠」が既に装着されていれば、サーバ装置20(情報処理サーバ装置20B)は、当該「頭」に対して第1のギフト(「ダイヤの冠」)を付与する旨の要求信号が複数存在すると理解して、ST304において「YES」と判断した上で、後述するST320にて、第1のギフトの組合せに係る判定を実行する。 On the other hand, in ST304, the attachment part of the avatar object 400 gifted by the viewing user is, for example, the "head", and when the information related to the gifting is stored in the table in ST303, the "head" is attached. If the "diamond crown" is already attached, the server device 20 (information processing server device 20B) sends a request signal to give the first gift ("diamond crown") to the "head". After understanding that there are a plurality of gifts and determining "YES" in ST304, a determination regarding the first gift combination is executed in ST320, which will be described later.

次に、前述のとおりST304においてサーバ装置20が「NO」と判断した結果、配信ユーザAの端末装置10Aが、サーバ装置20(情報処理サーバ装置20B)から、アバターオブジェクト400の「頭」に視聴ユーザからギフティングされた第1のギフト(例えば、「ダイヤの冠」)が装着されたアニメーションを含む動画を生成する旨を要求する情報を受信すると、ST310にて、端末装置10Aが当該動画を生成する。これにより、図10に例示されるように、端末装置10Aの表示部110には、配信ユーザAのアバターオブジェクト400の「頭」に「ダイヤの冠」たる第1のギフト410が装着されたアニメーションを含む動画402が表示される。なお、図10における動画402には、同様のステップで、アバターオブジェクト400の「左手」に「銀のフォーク」たる第1のギフト420が装着されている一例が示されている。 Next, as a result of the server device 20 determining “NO” in ST304 as described above, the terminal device 10A of the distribution user A is able to view the “head” of the avatar object 400 from the server device 20 (information processing server device 20B). Upon receiving information requesting to generate a video including an animation in which the first gift (for example, a "diamond crown") given by the user is attached, the terminal device 10A generates the video in ST310. generate. As a result, as illustrated in FIG. 10, the display unit 110 of the terminal device 10A displays an animation in which the first gift 410, which is a "diamond crown," is attached to the "head" of the avatar object 400 of the distribution user A. A video 402 including the following is displayed. Note that the video 402 in FIG. 10 shows an example in which the first gift 420, which is a "silver fork", is attached to the "left hand" of the avatar object 400 in the same steps.

さらに、端末装置10Aは、生成した動画402をサーバ装置20の配信サーバ装置20Cに送信する。配信サーバ装置20Cは、ST311にて、端末装置10Aから受信した動画を、動画視聴用アプリケーションを実行している各視聴ユーザの端末装置10に配信する。これにより、各視聴ユーザの端末装置10の表示部110にも、図10に例示したような動画402が表示されて、ST304においてサーバ装置が「NO」と判断された場合のステップが終了する。 Further, the terminal device 10A transmits the generated video 402 to the distribution server device 20C of the server device 20. In ST311, the distribution server device 20C distributes the video received from the terminal device 10A to the terminal device 10 of each viewing user who is running the video viewing application. As a result, the moving image 402 as illustrated in FIG. 10 is also displayed on the display unit 110 of the terminal device 10 of each viewing user, and the step when the server device determines "NO" in ST304 ends.

他方、前述のとおりST304においてサーバ装置20が「YES」と判断すると、第1のギフトの組合せが所定条件を満たすか否かについて、判定部240が判定することとなる。第1のギフトの組合せが所定条件を満たす場合(ST320にて「YES」の場合)、サーバ装置20(情報処理サーバ装置20Bの判定部240)は、ST321にて、配信ユーザAに対して、アバターオブジェクト400に第2のギフトを装着させてもよいかどうかの問い合わせ(確認)に係る情報を、配信ユーザAの端末装置10Aに発信する。この問い合わせに対して、配信ユーザAがOKである旨の回答を配信ユーザAの端末装置10Aからサーバ装置20へ送信すると、サーバ装置20(情報処理装置20B)は、アバターオブジェクト400の装着部位(例えば、「頭」)に第2のギフト(例えば、「100カラットダイヤのティアラ」)が装着されたアニメーションを含む動画を生成する旨を要求する情報を配信ユーザAの端末装置10Aへ発信する。ところで、第2のギフトの具体例について図11を参照して補足すると、例えば、アバターオブジェクト400の「左手」に「銀のフォーク」たる第1のギフト420が装着されている場合に、所定条件が満たされると、「虹色の大きなフォーク」なる第2のギフト420Zが生成(合成)される。この場合、第1のギフト420と第2のギフト420Zは、対応するアバターオブジェクト400の装着部位が共通するだけでなく、特徴の一つである形状も共通する。このように、第1のギフト420と第2のギフト420Zとは、何らかの共通する特徴を有している。 On the other hand, if the server device 20 determines "YES" in ST304 as described above, the determination unit 240 determines whether or not the first gift combination satisfies the predetermined condition. If the first gift combination satisfies the predetermined condition (“YES” in ST320), the server device 20 (determination unit 240 of the information processing server device 20B) sends the following information to distribution user A in ST321: Information related to an inquiry (confirmation) as to whether or not the second gift may be attached to the avatar object 400 is transmitted to the distribution user A's terminal device 10A. In response to this inquiry, when distribution user A sends an answer indicating that it is OK from distribution user A's terminal device 10A to server device 20, server device 20 (information processing device 20B) Information requesting generation of a video including an animation in which a second gift (for example, a "100 carat diamond tiara") is attached to a "head" is transmitted to the distribution user A's terminal device 10A. By the way, to supplement the specific example of the second gift with reference to FIG. When this is satisfied, a second gift 420Z called "Rainbow-colored Big Fork" is generated (synthesized). In this case, the first gift 420 and the second gift 420Z not only have the same attachment part of the corresponding avatar object 400, but also have the same shape, which is one of their characteristics. In this way, the first gift 420 and the second gift 420Z have some common characteristics.

次に、ST322にて、配信ユーザAの端末装置10Aが、サーバ装置20(情報処理サーバ装置20B)から、アバターオブジェクト400の「頭」に第2のギフト(例えば、「100カラットダイヤのティアラ」)が装着されたアニメーションを含む動画を生成する旨を要求する情報を受信すると、端末装置10Aが当該動画(図示せず)を生成する。 Next, in ST322, the terminal device 10A of the distribution user A receives a second gift (for example, a "100 carat diamond tiara") from the server device 20 (information processing server device 20B) to the "head" of the avatar object 400. ), upon receiving information requesting to generate a video including an animation attached with the terminal device 10A, the terminal device 10A generates the video (not shown).

さらに、端末装置10Aは、生成した動画をサーバ装置20の配信サーバ装置20Cに送信する。配信サーバ装置20Cは、ST323にて、端末装置10Aから受信した動画を、動画視聴用アプリケーションを実行している各視聴ユーザの端末装置10に配信する。これにより、各視聴ユーザの端末装置10の表示部110にも、同様の動画が表示されて、ST304においてサーバ装置が「YES」と判断された場合であって且つST320において「YES」と判断された場合のステップが終了する。 Further, the terminal device 10A transmits the generated video to the distribution server device 20C of the server device 20. In ST323, the distribution server device 20C distributes the video received from the terminal device 10A to the terminal device 10 of each viewing user who is running the video viewing application. As a result, the same video is displayed on the display unit 110 of the terminal device 10 of each viewing user, and if the server device determines "YES" in ST304 and "YES" in ST320, The step ends if

なお、ST320において、第1のギフトの組合せが所定条件を満たさない場合(ST320にて「NO」の場合)、サーバ装置20(情報処理サーバ装置20Bの判定部240)は、ST330にて、当該組合せが所定条件を満たすための必要な必要条件(所定条件を満たすために必要なギフトの種類や数、等)を算出する。さらに、算出された必要条件はコメント情報に変換されて、コメント処理部250を介して各視聴ユーザの端末装置10に配信される。これにより、各視聴ユーザの端末装置10の表示部110にも、同様のコメント情報が表示される。こうして、ST320において「NO」と判断された場合のステップが終了する。 Note that in ST320, if the first gift combination does not satisfy the predetermined condition (“NO” in ST320), the server device 20 (determination unit 240 of the information processing server device 20B) determines the Necessary conditions for the combination to satisfy a predetermined condition (such as the type and number of gifts required to satisfy the predetermined condition) are calculated. Further, the calculated necessary conditions are converted into comment information and distributed to the terminal device 10 of each viewing user via the comment processing unit 250. Accordingly, similar comment information is also displayed on the display unit 110 of the terminal device 10 of each viewing user. In this way, the step in the case where "NO" is determined in ST320 ends.

以上のステップは、視聴ユーザからギフティング行為がなされる度に実行される。したがって、あらゆるギフティング行為に対して、アバターオブジェクト400の各装着部位において、第1のギフト又は第2のギフトが装着されたアニメーションを含む動画を適時に生成及び配信することができる。 The above steps are executed every time a viewing user performs a gifting action. Therefore, for every gifting action, a video including an animation of the first gift or the second gift being attached to each attachment part of the avatar object 400 can be generated and distributed in a timely manner.

5.変形例について
前述の一実施形態においては、動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)の生成は配信ユーザの端末装置10によって実行されていたが、別の実施形態では、例えば、サーバ装置20又は視聴ユーザの端末装置10によって実行されてもよい。また、配信ユーザの端末装置10、サーバ装置20、及び視聴ユーザの端末装置10の各々が動画の一部を生成して、最終的な動画が生成されてもよいし、これらの装置以外の装置がさらに動画の一部を生成してもよい。また、前述の別の実施形態においては、サーバ装置20及び/又は視聴ユーザの端末装置10にレンダリング部(図示せず)を設けておき、配信ユーザの端末装置10は、サーバ装置20及び/又は視聴ユーザの端末装置10が動画(アバターオブジェクトの装着部位に第1のギフト又は第2のギフトが装着された状態のアニメーションを含む動画を含む)を生成することができるように、例えば、第1のギフトに係る情報や第2のギフトに係る情報に加えて、配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関するデータのみを生成して、これらのデータをサーバ装置20及び/又は視聴ユーザの端末装置10へ送信するような構成としてもよい。
5. Regarding Modifications In the above-mentioned embodiment, the generation of the video (including the video including the animation of the first gift or the second gift being attached to the attachment site of the avatar object) is performed by the terminal device 10 of the distribution user. However, in another embodiment, it may be executed by, for example, the server device 20 or the viewing user's terminal device 10. Further, the final video may be generated by each of the distribution user's terminal device 10, the server device 20, and the viewing user's terminal device 10, or a device other than these devices may generate a part of the video. may also generate a portion of the video. Further, in the other embodiment described above, a rendering unit (not shown) is provided in the server device 20 and/or the viewing user's terminal device 10, and the server device 20 and/or the viewing user's terminal device 10 is provided with a rendering unit (not shown). For example, so that the viewing user's terminal device 10 can generate a video (including a video that includes an animation of the first gift or the second gift being attached to the attachment site of the avatar object), In addition to the information related to the second gift and the information related to the second gift, only data related to the distribution user's actions and/or data related to the utterances and singing uttered by the distribution user are generated, and these data are transmitted to the server device 20. And/or it may be configured such that it is transmitted to the viewing user's terminal device 10.

このような構成を実現するために、サーバ装置20、視聴ユーザの端末装置10、及び配信ユーザの端末装置10の各機能は前述の一実施形態から適宜に変更される別の実施形態が採用されうる。例えば、一実施形態において動画生成部100は端末装置10に具備されていたが、サーバ装置20に具備されてもよいし、端末装置10でも視聴ユーザの端末装置10に具備されてもよい。 In order to realize such a configuration, the functions of the server device 20, the viewing user's terminal device 10, and the distribution user's terminal device 10 are changed from the above-mentioned embodiment as appropriate. sell. For example, in one embodiment, the video generation unit 100 is provided in the terminal device 10, but it may be provided in the server device 20, or may be provided in the terminal device 10 or the viewing user's terminal device 10.

また、ギフト情報を格納するテーブル500や当該テーブル500を参照して第1のギフトの組合せが所定条件を満たすか否かに係る判定は、前述の一実施形態においてはサーバ装置20における情報処理サーバ装置20Bによって実行されていたが、別の実施形態では、配信ユーザの端末装置10で実行されてもよい。これに伴って、前述の一実施形態において判定部240はサーバ装置20に具備されていたが、配信ユーザの端末装置10に具備されてもよい。 Further, in the above embodiment, the information processing server in the server device 20 refers to the table 500 that stores gift information and determines whether or not the first gift combination satisfies a predetermined condition by referring to the table 500. Although executed by the device 20B, in another embodiment, it may be executed by the distribution user's terminal device 10. Accordingly, although the determination unit 240 was included in the server device 20 in the above-described embodiment, it may also be included in the terminal device 10 of the distribution user.

さらにまた、前述の一実施形態においては、アバターオブジェクトの装着部位毎に付与される第1のギフトの組合せ(例えば、「頭」に付与される第1のギフトの組合せ)に基づいて、当該組合せが所定条件を満たすか否かを判定していたが、別の実施形態では、例えば、アバターオブジェクトの複数の装着部位に付与される複数の第1のギフトの組合せに基づいて、当該組合せが所定条件を満たすか否かを判定してもよい。具体的には、アバターオブジェクトの「頭」に付与される第1のギフトと「首」に付与される第1のギフトとの組合せや、アバターオブジェクトの「左手」に付与される第1のギフト、「右手」に付与される第1のギフト、「左足」に付与される第1のギフト、及び「右足」に付与される第1のギフトの組合せであってもよい。 Furthermore, in the above embodiment, based on the first gift combination given to each attachment part of the avatar object (for example, the first gift combination given to the "head"), the combination is However, in another embodiment, for example, based on a combination of a plurality of first gifts given to a plurality of attachment parts of an avatar object, the combination is determined to be a predetermined condition. It may be determined whether the conditions are satisfied. Specifically, a combination of a first gift given to the "head" and a first gift given to the "neck" of the avatar object, and a first gift given to the "left hand" of the avatar object. , a first gift given to the "right hand," a first gift given to the "left foot," and a first gift given to the "right foot."

さらにまた、前述の所定条件は、別の実施形態においては、所定時間毎(例えば、日毎、週毎、月毎)に変化するように設定されてもよい。 Furthermore, in another embodiment, the above-mentioned predetermined conditions may be set to change every predetermined time (for example, every day, every week, every month).

さらにまた、前述の一実施形態において図11を参照して説明したように、第2のギフトは予め設定された第1のギフトの組合せに応じて予め決められたギフトが合成されるように設定されてもよいが、別の実施形態では、予め設定された第1のギフトの組合せに応じて、複数種類の第2のギフトが合成されるように設定し、且つ当該複数種類の第2のギフトから配信ユーザの選択によって決定された第2のギフトがアバターオブジェクトに装着されるように設定してもよい。 Furthermore, as described with reference to FIG. 11 in the above-described embodiment, the second gift is set such that a predetermined gift is synthesized according to a preset combination of first gifts. However, in another embodiment, a plurality of types of second gifts are set to be combined according to a preset combination of first gifts, and the plurality of types of second gifts are combined. A second gift determined by the distribution user's selection from the gifts may be set to be attached to the avatar object.

したがって、様々な実施形態によれば、視聴ユーザによるギフティング機会を増加させる動画処理方法、サーバ装置及びコンピュータプログラムを提供することができる。 Therefore, according to various embodiments, it is possible to provide a video processing method, a server device, and a computer program that increase gifting opportunities by viewing users.

6.様々な態様について
第1の態様に係る動画処理方法は、「コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される動画処理方法であって、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信する受信工程と、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成する生成工程と、を含む」ものである。
6. Regarding Various Aspects The video processing method according to the first aspect is "a video processing method executed by one or more processors that execute computer-readable instructions, which includes an animation of an avatar object of a distribution user. A request signal generated based on an operation of a viewing user viewing a video and requesting that a first gift be given to the attachment site of the avatar object is transmitted from the viewing user's terminal device via a communication line. the receiving step, and when it is determined that the combination of the plurality of first gifts given to the attachment site of the avatar object satisfies a predetermined condition based on the plurality of request signals; and a step of generating the video including an animation in which a second gift having the same characteristics as the first gift is attached to the attachment site of the avatar object.

第2の態様に係る動画処理方法は、上記第1の態様において「前記アニメーションが前記配信ユーザの動作に基づいて生成される」ものである。 A video processing method according to a second aspect is the one in which "the animation is generated based on the action of the distribution user" in the first aspect.

第3の態様に係る動画処理方法は、上記第1の態様又は上記第2の態様において「前記第2のギフトは、前記第1のギフトの大きさ、色、及び/又は、少なくとも一部の形状が変化する」ものである。 In the video processing method according to the third aspect, in the first aspect or the second aspect, "the second gift has a size, a color, and/or at least a portion of the first gift. "changes in shape."

第4の態様に係る動画処理方法は、上記第1の態様から上記第3の態様のいずれかにおいて「複数の前記第1のギフトの組合せが所定条件を満たしていない場合、前記組合せが前記所定条件を満たすための必要条件を示すコメント情報を複数の視聴ユーザの端末装置に対して送信する工程をさらに含む」ものである。 A video processing method according to a fourth aspect includes, in any one of the first to third aspects, "If the combination of the plurality of first gifts does not satisfy the predetermined condition, the combination The method further includes the step of transmitting comment information indicating the necessary conditions for satisfying the conditions to the terminal devices of the plurality of viewing users.

第5の態様に係る動画処理方法は、上記第1の態様から上記第4の態様のいずれかにおいて「或る視聴ユーザの端末装置から受信した前記要求信号に応答して、前記アバターオブジェクトの前記装着部位に対して前記第1のギフトが付与された旨、及び/又は前記アバターオブジェクトの前記装着部位に対して前記第1のギフトが装着された旨を示すコメント情報を複数の視聴ユーザの端末装置に対して送信する工程をさらに含む」ものである。 A video processing method according to a fifth aspect includes, in any one of the first to fourth aspects, "In response to the request signal received from a terminal device of a certain viewing user, the video processing method of the avatar object is Comment information indicating that the first gift has been attached to the attachment site and/or that the first gift has been attached to the attachment site of the avatar object is sent to the terminals of a plurality of viewing users. further comprising the step of transmitting the information to the device.

第6の態様に係る動画処理方法は、上記第1の態様から上記第5の態様のいずれかにおいて「前記組合せが前記所定条件を満たしたか否かに関する判定は、前記アバターオブジェクトの前記装着部位に対して付与された前記第1のギフトの種類と、前記第1のギフトの種類毎の付与数とを対応付けて記憶する参照テーブルに基づいて行われる」ものである。 A video processing method according to a sixth aspect includes, in any one of the first to fifth aspects, "the determination as to whether or not the combination satisfies the predetermined condition is based on the attachment part of the avatar object." This is done based on a reference table that stores the types of the first gift given to the recipient and the number of gifts given for each type of first gift in association with each other.

第7の態様に係る動画処理方法は、上記第1の態様から上記第6の態様のいずれかにおいて「前記組合せが前記所定条件を満たした場合に、前記第2のギフトに対して前記動画において持続する持続時間を設定し、該持続時間が経過したときに前記第2のギフトを前記動画から消去する工程をさらに含む」ものである。 A video processing method according to a seventh aspect includes, in any one of the first to sixth aspects, "If the combination satisfies the predetermined condition, the video processing method for the second gift is further comprising the step of setting a duration to last, and deleting the second gift from the video when the duration elapses.

第8の態様に係る動画処理方法は、上記第1の態様から上記第7の態様のいずれかにおいて「前記受信工程及び前記生成工程が、前記視聴ユーザの端末装置及び/又は前記配信ユーザの端末装置に通信回線を介して接続されるサーバ装置により実行される」ものである。 A video processing method according to an eighth aspect is a video processing method according to any one of the first aspect to the seventh aspect, in which “the receiving step and the generating step are performed on the terminal device of the viewing user and/or the terminal device of the distribution user "is executed by a server device connected to the device via a communication line."

第9の態様に係る動画処理方法は、上記第8の態様において「前記組合せが前記所定条件を満たしたことが、前記サーバ装置により判定される」ものである。 A video processing method according to a ninth aspect is one in which "the server device determines that the combination satisfies the predetermined condition" in the eighth aspect.

第10の態様に係る動画処理方法は、上記第1の態様から上記第7の態様のいずれかにおいて「前記生成工程が、前記配信ユーザの端末装置により実行される」ものである。 A video processing method according to a tenth aspect is that in any of the first to seventh aspects, "the generation step is executed by a terminal device of the distribution user."

第11の態様に係る動画処理方法は、上記第10の態様において「前記組合せが前記所定条件を満たしたことが、前記サーバ装置又は前記配信ユーザの端末装置により判定される」ものである。 A video processing method according to an eleventh aspect is that in the tenth aspect, "it is determined by the server device or the terminal device of the distribution user that the combination satisfies the predetermined condition."

第12の態様に係る動画処理方法は、上記第1の態様から上記第7の態様のいずれかにおいて「前記生成工程が、前記視聴ユーザの端末装置により実行される」ものである。 A video processing method according to a twelfth aspect is that in any of the first to seventh aspects, "the generation step is executed by the viewing user's terminal device."

第13の態様に係る動画処理方法は、上記第12の態様において「前記組合せが前記所定条件を満たしたことが、前記サーバ装置又は前記配信ユーザの端末装置により判定される」ものである。 A video processing method according to a thirteenth aspect is the method according to the twelfth aspect, in which "it is determined by the server device or the distribution user's terminal device that the combination satisfies the predetermined condition."

第14の態様に係る動画処理方法は、上記第1の態様から上記第13の態様のいずれかにおいて「前記アバターオブジェクトの前記装着部位が、該アバターオブジェクトの一部分及び/又は該アバターオブジェクトから離れた部分にある」ものである。 A video processing method according to a fourteenth aspect includes, in any one of the first to thirteenth aspects, “the attachment part of the avatar object is separated from a part of the avatar object and/or the avatar object; It is something that lies in the parts of the body.

第15の態様に係る動画処理方法は、上記第1の態様から上記第14の態様のいずれかにおいて「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A video processing method according to a fifteenth aspect is the method according to any one of the first to fourteenth aspects, in which "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU). ” is a thing.

第16の態様に係る動画処理方法は、上記第1の態様から上記第15の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A video processing method according to a sixteenth aspect is one in which "the communication line includes the Internet" in any of the first to fifteenth aspects.

第17の態様に係るサーバ装置は、「1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成する」ものである。 A server device according to a seventeenth aspect includes “one or more processors, wherein the processor generates the avatar object based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user. A request signal requesting that a first gift be given to the attachment site of the avatar object is received from the terminal device of the viewing user via a communication line, and the attachment of the avatar object is performed based on the plurality of request signals. If it is determined that the combination of the plurality of first gifts given to parts satisfies a predetermined condition, a second gift having characteristics common to the first gift is given to the attachment part of the avatar object. "generate the video including the animation in which the gift is attached."

第18の態様に係るサーバ装置は、「1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトに係る情報を、前記第2のギフトが装着されたアニメーションを含む前記動画を生成する前記視聴ユーザの端末装置又は前記配信ユーザの端末装置へ送信する」ものである。 The server device according to the eighteenth aspect is characterized in that the server device includes “one or more processors, and the processor generates the avatar object based on the operation of the viewing user who views the video including the animation of the avatar object of the distribution user. A request signal requesting that a first gift be given to the attachment site of the avatar object is received from the terminal device of the viewing user via a communication line, and the attachment of the avatar object is performed based on the plurality of request signals. If it is determined that the combination of the plurality of first gifts given to parts satisfies a predetermined condition, a second gift having characteristics common to the first gift is given to the attachment part of the avatar object. information regarding the second gift to the terminal device of the viewing user or the terminal device of the distribution user that generates the video including the animation in which the second gift is attached.

第19の態様に係るサーバ装置は、上記第17の態様又は上記第18の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A server device according to a nineteenth aspect is one in which “the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)” in the seventeenth aspect or the eighteenth aspect. .

第20の態様に係るサーバ装置は、上記第17の態様から上記第19の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A server device according to a twentieth aspect is one in which “the communication line includes the Internet” in any one of the seventeenth to nineteenth aspects.

第21の態様に係るコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成する、ように前記プロセッサを機能させる」ものである。 The computer program according to the twenty-first aspect is “generated by being executed by one or more processors based on the operation of a viewing user who views a video including an animation of an avatar object of a distribution user, A request signal requesting that a first gift be given to the attachment site is received from the viewing user's terminal device via a communication line, and the attachment site of the avatar object is received based on the plurality of request signals. If it is determined that the combination of the plurality of first gifts given to the avatar object satisfies a predetermined condition, a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object. "generating the video that includes an animation of the gift being attached."

第22の態様に係るコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトに係る情報を、前記第2のギフトが装着されたアニメーションを含む前記動画を生成する前記視聴ユーザの端末装置又はサーバ装置へ送信する、ように前記プロセッサを機能させる」ものである。 The computer program according to the twenty-second aspect is “generated by being executed by one or more processors based on an operation of a viewing user who views a video including an animation of an avatar object of a distribution user, A request signal requesting that a first gift be given to the attachment site is received from the viewing user's terminal device via a communication line, and the attachment site of the avatar object is received based on the plurality of request signals. If it is determined that the combination of the plurality of first gifts given to the avatar object satisfies a predetermined condition, a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object. The processor functions to transmit information related to the gift to the terminal device or server device of the viewing user that generates the video including the animation in which the second gift is attached.

第23の態様に係るコンピュータプログラムは、上記第21の態様又は上記第22の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A computer program according to a twenty-third aspect is that in the twenty-first aspect or the twenty-second aspect, "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)." .

第24の態様に係るコンピュータプログラムは、上記21の態様から上記23の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A computer program according to a twenty-fourth aspect is one in which "the communication line includes the Internet" in any one of the twenty-first to twenty-third aspects.

第25の態様に係るコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、通信回線を介して発信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが装着されたアニメーションを含む前記動画を生成するために、前記第2のギフトに係る情報を配信ユーザの端末装置又はサーバ装置から受信する、ように前記プロセッサを機能させる」ものである。 The computer program according to the twenty-fifth aspect is “generated by being executed by one or more processors based on the operation of a viewing user who views a video including an animation of an avatar object of a distribution user, and A request signal requesting that a first gift be given to the wearing part is transmitted via a communication line, and a plurality of gifts are given to the wearing part of the avatar object based on the plurality of request signals. If it is determined that the combination of the first gifts satisfies a predetermined condition, an animation is performed in which a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object. "The processor is operated to receive information regarding the second gift from the distribution user's terminal device or server device in order to generate the video containing the second gift."

第26の態様に係るコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトの装着部位に対して第1のギフトを付与することを要求する要求信号を、通信回線を介して発信し、複数の前記要求信号に基づいて前記アバターオブジェクトの前記装着部位に対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記アバターオブジェクトの前記装着部位に前記第1のギフトと共通する特徴を有する第2のギフトが
装着されたアニメーションを含む前記動画を配信ユーザの端末装置又はサーバ装置から受信する、ように前記プロセッサを機能させる」ものである。
The computer program according to the twenty-sixth aspect is “generated by being executed by one or more processors based on the operation of a viewing user who views a video including an animation of an avatar object of a distribution user, A request signal requesting that a first gift be given to the wearing part is transmitted via a communication line, and a plurality of gifts are given to the wearing part of the avatar object based on the plurality of request signals. If it is determined that the combination of the first gifts satisfies a predetermined condition, an animation is performed in which a second gift having characteristics common to the first gift is attached to the attachment site of the avatar object. The processor functions to receive the moving image containing the content from the distribution user's terminal device or server device.

第27の態様に係るコンピュータプログラムは、上記第25の態様又は上記第26の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A computer program according to a twenty-seventh aspect is that in the twenty-fifth aspect or the twenty-sixth aspect, "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)." .

第28の態様に係るコンピュータプログラムは、上記25の態様から上記27の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A computer program according to a twenty-eighth aspect is one in which "the communication line includes the Internet" in any of the twenty-fifth to twenty-seventh aspects.

7.本件出願に開示された技術が適用される分野
本件出願に開示された技術は、例えば、次のような分野において適用することが可能なものである。
(1)アバターオブジェクトが登場するライブ動画を配信するアプリケーション・サービス
(2)文字及びアバターオブジェクトを用いてコミュニケーションすることができるアプリケーション・サービス(チャットアプリケーション、メッセンジャー、メールアプリケーション等)
7. Fields to which the technology disclosed in the present application is applicable The technology disclosed in the present application can be applied, for example, to the following fields.
(1) Application services that deliver live videos featuring avatar objects (2) Application services that allow communication using text and avatar objects (chat applications, messengers, email applications, etc.)

1 動画配信システム
10(10A~10D) 端末装置
20 サーバ装置
20A ギフトAPIサーバ装置
20B 情報処理サーバ装置
20C 配信サーバ装置
20D コメントAPIサーバ装置
100 動画生成部
220 ギフト処理部
230 データベース部
240 判定部
250 コメント処理部
400 アバターオブジェクト
401、402 動画
410、420 第1のギフト
420Z 第2のギフト
500 テーブル
1 Video distribution system 10 (10A to 10D) Terminal device 20 Server device 20A Gift API server device 20B Information processing server device 20C Distribution server device 20D Comment API server device 100 Video generation section 220 Gift processing section 230 Database section 240 Judgment section 250 Comment processing section
400 Avatar object 401, 402 Video 410, 420 First gift 420Z Second gift 500 Table

Claims (30)

コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される動画処理方法であって、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信する受信工程と、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を生成する生成工程と、
を含む動画処理方法。
A video processing method performed by one or more processors executing computer-readable instructions, the method comprising:
The terminal device of the viewing user generates a request signal that is generated based on the operation of the viewing user who views a video including the animation of the distribution user's avatar object, and requests that the avatar object be given a first gift. a receiving step of receiving data from the user via a communication line;
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. a generation step of synthesizing at least one second gift with a small number of second gifts, and generating the moving image including an animation in which one of the at least one second gift is attached to the avatar object;
Video processing methods including.
前記少なくとも一の第2のギフトは、複数の第2のギフトである、請求項1に記載の動画処理方法。 The video processing method according to claim 1, wherein the at least one second gift is a plurality of second gifts. 前記一の第2のギフトは、前記複数の第2のギフトの中から前記配信ユーザの選択によって決定される、請求項2に記載の動画処理方法。 3. The video processing method according to claim 2, wherein the one second gift is determined by the distribution user's selection from among the plurality of second gifts. 前記第1のギフト及び前記第2のギフトは共通する特徴を有し、
前記共通する特徴は、前記アバターオブジェクトへの装着部位が共通する、
請求項1~請求項3のいずれか一項に記載の動画処理方法。
the first gift and the second gift have common characteristics;
The common feature is that the attachment parts to the avatar objects are common.
The moving image processing method according to any one of claims 1 to 3.
前記第1のギフト及び前記第2のギフトは共通する特徴を有し、
前記共通する特徴は、同じ色である、同じ大きさである、又は、同じ種類の物品である、
請求項1~請求項3のいずれか一項に記載の動画処理方法。
the first gift and the second gift have common characteristics;
The common feature is the same color, the same size, or the same type of article;
The moving image processing method according to any one of claims 1 to 3.
前記組合せは、前記アバターオブジェクトの複数の装着部位に対して付与された複数の前記第1のギフトの組合せである、請求項1乃至請求項5のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 5, wherein the combination is a combination of a plurality of the first gifts given to a plurality of attachment parts of the avatar object. 前記所定条件は、所定時間毎に変化するように設定される、請求項1乃至請求項6のいずれか一項に記載の動画処理方法。 7. The video processing method according to claim 1, wherein the predetermined condition is set to change at predetermined time intervals. 前記組合せが前記所定条件を満たすことが判定された場合に、複数種類の前記第2のギフトが合成されたうえで、複数種類の前記第2のギフトのうち前記配信ユーザの選択によって決定された一種の前記第2のギフトが装着された前記アニメーションを含む前記動画が前記生成工程において生成される、請求項1乃至請求項7のいずれか一項に記載の動画処理方法。 When it is determined that the combination satisfies the predetermined condition, the plurality of types of the second gift are combined, and the second gift is determined by the distribution user's selection from among the plurality of types of the second gift. The video processing method according to any one of claims 1 to 7, wherein the video including the animation in which one of the second gifts is attached is generated in the generation step. 前記アニメーションが前記配信ユーザの動作に基づいて生成される、請求項1乃至請求項8のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 8, wherein the animation is generated based on the action of the distribution user. 複数の前記第1のギフトの組合せが所定条件を満たしていない場合、前記組合せが前記所定条件を満たすための必要条件を示すコメント情報を複数の視聴ユーザの端末装置に対して送信する工程をさらに含む、請求項1乃至請求項9のいずれか一項に記載の動画処理方法。 If the combination of the plurality of first gifts does not satisfy the predetermined condition, the method further includes the step of transmitting comment information indicating a necessary condition for the combination to satisfy the predetermined condition to the terminal devices of the plurality of viewing users. The moving image processing method according to any one of claims 1 to 9, comprising: 或る視聴ユーザの端末装置から受信した前記要求信号に応答して、前記アバターオブジェクトに対して前記第1のギフトが付与された旨、及び/又は前記アバターオブジェクトに対して前記第1のギフトが装着された旨を示すコメント情報を複数の視聴ユーザの端末装置に対して送信する工程をさらに含む、請求項1乃至請求項10のいずれか一項に記載の動画処理方法。 In response to the request signal received from a terminal device of a certain viewing user, the first gift is given to the avatar object, and/or the first gift is given to the avatar object. The video processing method according to any one of claims 1 to 10, further comprising the step of transmitting comment information indicating that the device is worn to terminal devices of a plurality of viewing users. 前記組合せが前記所定条件を満たしたか否かに関する判定は、前記アバターオブジェクトに対して付与された前記第1のギフトの種類と、前記第1のギフトの種類毎の付与数とを対応付けて記憶する参照テーブルに基づいて行われる、請求項1乃至請求項11のいずれか一項に記載の動画処理方法。 The determination as to whether the combination satisfies the predetermined condition is made by storing the type of the first gift given to the avatar object and the number of gifts given for each type of first gift in association with each other. The video processing method according to any one of claims 1 to 11, wherein the video processing method is performed based on a reference table. 前記組合せが前記所定条件を満たした場合に、前記第2のギフトに対して前記動画において持続する持続時間を設定し、該持続時間が経過したときに前記第2のギフトを前記動画から消去する消去工程をさらに含む、請求項1乃至請求項12のいずれか一項に記載の動画処理方法。 If the combination satisfies the predetermined condition, setting a duration for the second gift to last in the video, and deleting the second gift from the video when the duration elapses. The moving image processing method according to any one of claims 1 to 12, further comprising an erasing step. 前記受信工程及び前記生成工程が、前記視聴ユーザの端末装置及び/又は前記配信ユーザの端末装置に通信回線を介して接続されるサーバ装置により実行される、請求項1乃至請求項13のいずれか一項に記載の動画処理方法。 Any one of claims 1 to 13, wherein the receiving step and the generating step are performed by a server device connected to the viewing user's terminal device and/or the distribution user's terminal device via a communication line. The video processing method described in item 1. 前記生成工程が、前記配信ユーザの端末装置により実行される、請求項1乃至請求項13のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 13, wherein the generation step is executed by a terminal device of the distribution user. 前記組合せが前記所定条件を満たしたことが、前記視聴ユーザの端末装置及び/又は前記配信ユーザの端末装置に通信回線を介して接続されるサーバ装置、又は前記配信ユーザの端末装置により判定される、請求項15に記載の動画処理方法。 It is determined by a server device connected to the viewing user's terminal device and/or the distribution user's terminal device via a communication line, or by the distribution user's terminal device that the combination satisfies the predetermined condition. The moving image processing method according to claim 15. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項1乃至請求項16のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 16, wherein the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項1乃至請求項17のいずれか一項に記載
の動画処理方法。
The video processing method according to any one of claims 1 to 17, wherein the communication line includes the Internet.
1又は複数のプロセッサを具備し、
該プロセッサが、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を生成する、サーバ装置。
comprising one or more processors,
The processor is
The terminal device of the viewing user generates a request signal that is generated based on the operation of the viewing user who views a video including the animation of the distribution user's avatar object, and requests that the avatar object be given a first gift. received via a communication line from
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. The server device generates the moving image including an animation in which at least one second gift with a small number of second gifts is combined and one second gift among the at least one second gift is attached to the avatar object.
1又は複数のプロセッサを具備し、
該プロセッサが、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトに係る情報を、前記第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を生成する前記視聴ユーザの端末装置又は前記配信ユーザの端末装置へ送信する、サーバ装置。
comprising one or more processors,
The processor is
The terminal device of the viewing user generates a request signal that is generated based on the operation of the viewing user who views a video including the animation of the distribution user's avatar object, and requests that the avatar object be given a first gift. received via a communication line from
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. The second gift is synthesized with information related to at least one second gift with a small number of items , and one second gift of the at least one second gift includes an animation attached to the avatar object. A server device that transmits the video to the viewing user's terminal device that generates the video or the distribution user's terminal device.
前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項19又は請求項20に記載のサーバ装置。 The server device according to claim 19 or 20, wherein the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項19乃至請求項21のいずれか一項に記載のサーバ装置。 The server device according to any one of claims 19 to 21, wherein the communication line includes the Internet. 1又は複数のプロセッサに実行されることにより、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を生成する、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
The terminal device of the viewing user generates a request signal that is generated based on the operation of the viewing user who views a video including the animation of the distribution user's avatar object, and requests that the avatar object be given a first gift. received via a communication line from
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. generating the video including an animation in which at least one second gift of the at least one second gift is attached to the avatar object;
A computer program that causes the processor to function as described above.
1又は複数のプロセッサに実行されることにより、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトに係る情報を、前記第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を生成する前記視聴ユーザの端末装置又はサーバ装置へ送信する、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
The terminal device of the viewing user generates a request signal that is generated based on the operation of the viewing user who views a video including the animation of the distribution user's avatar object, and requests that the avatar object be given a first gift. received via a communication line from
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. The second gift is synthesized with information related to at least one second gift with a small number of items , and one second gift of the at least one second gift includes an animation attached to the avatar object. transmitting the video to the terminal device or server device of the viewing user that generates the video;
A computer program that causes the processor to function as described above.
前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項23又は請求項24に記載のコンピュータプログラム。 25. A computer program product according to claim 23 or claim 24, wherein the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項23乃至請求項25のいずれか一項に記載のコンピュータプログラム。 26. A computer program product according to any one of claims 23 to 25, wherein the communication line includes the Internet. 1又は複数のプロセッサに実行されることにより、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、通信回線を介して発信し、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を生成するために、前記第2のギフトに係る情報を配信ユーザの端末装置又はサーバ装置から受信する、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
A request signal is generated based on the operation of a viewing user who views a video including an animation of the distribution user's avatar object, and transmits a request signal requesting that the avatar object be given a first gift via a communication line. death,
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. of the at least one second gift is combined to generate the video including an animation in which the at least one second gift of the at least one second gift is attached to the avatar object. 2. Receive information related to the gift from the distribution user's terminal device or server device,
A computer program that causes the processor to function as described above.
1又は複数のプロセッサに実行されることにより、
配信ユーザのアバターオブジェクトのアニメーションを含む動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトを付与することを要求する要求信号を、通信回線を介して発信し、
複数の前記要求信号に基づいて前記アバターオブジェクトに対して付与された複数の前記第1のギフトの組合せが所定条件を満たすことが判定された場合に、前記第1のギフトの合計数よりも数の少ない少なくとも一の第2のギフトが合成され、前記少なくとも一の第2のギフトのうち一の第2のギフトが前記アバターオブジェクトに装着されたアニメーションを含む前記動画を配信ユーザの端末装置又はサーバ装置から受信する、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
A request signal is generated based on the operation of a viewing user who views a video including an animation of the distribution user's avatar object, and transmits a request signal requesting that the avatar object be given a first gift via a communication line. death,
If it is determined that the combination of the plurality of first gifts given to the avatar object based on the plurality of request signals satisfies a predetermined condition, the number of first gifts is greater than the total number of the first gifts. At least one second gift with a small number of images is synthesized, and one of the at least one second gift is attached to the avatar object and delivers the video including the animation attached to the avatar object. receive from the device,
A computer program that causes the processor to function as described above.
前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項27又は請求項28に記載のコンピュータプログラム。 29. A computer program product according to claim 27 or claim 28, wherein the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項27乃至請求項29のいずれか一項に記載のコンピュータプログラム。 30. A computer program product according to any one of claims 27 to 29, wherein the communication line includes the Internet.
JP2022123305A 2020-03-12 2022-08-02 Video processing method, server device and computer program Active JP7405351B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022123305A JP7405351B2 (en) 2020-03-12 2022-08-02 Video processing method, server device and computer program
JP2023205411A JP2024028853A (en) 2020-03-12 2023-12-05 Moving image processing method, server device and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020043287A JP6942834B2 (en) 2019-09-20 2020-03-12 Video processing method, server device and computer program
JP2021146135A JP7118228B2 (en) 2020-03-12 2021-09-08 Video processing method, server device and computer program
JP2022123305A JP7405351B2 (en) 2020-03-12 2022-08-02 Video processing method, server device and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021146135A Division JP7118228B2 (en) 2020-03-12 2021-09-08 Video processing method, server device and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023205411A Division JP2024028853A (en) 2020-03-12 2023-12-05 Moving image processing method, server device and computer program

Publications (2)

Publication Number Publication Date
JP2022167902A JP2022167902A (en) 2022-11-04
JP7405351B2 true JP7405351B2 (en) 2023-12-26

Family

ID=79244530

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021146135A Active JP7118228B2 (en) 2020-03-12 2021-09-08 Video processing method, server device and computer program
JP2022123305A Active JP7405351B2 (en) 2020-03-12 2022-08-02 Video processing method, server device and computer program
JP2023205411A Pending JP2024028853A (en) 2020-03-12 2023-12-05 Moving image processing method, server device and computer program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021146135A Active JP7118228B2 (en) 2020-03-12 2021-09-08 Video processing method, server device and computer program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023205411A Pending JP2024028853A (en) 2020-03-12 2023-12-05 Moving image processing method, server device and computer program

Country Status (1)

Country Link
JP (3) JP7118228B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7223241B1 (en) 2022-07-13 2023-02-16 株式会社Mixi Information processing device, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012200458A (en) 2011-03-25 2012-10-22 Konami Digital Entertainment Co Ltd Present determination system, control method for present determination system, present determination server device, control method for present determination server device, and program
JP2015114961A (en) 2013-12-13 2015-06-22 株式会社 ディー・エヌ・エー Content delivery server, program, and method
JP6491388B1 (en) 2018-08-28 2019-03-27 グリー株式会社 Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user
JP2019051108A (en) 2017-09-15 2019-04-04 株式会社スクウェア・エニックス Game program and game system
JP6511217B1 (en) 2018-11-21 2019-05-15 株式会社 ディー・エヌ・エー System, method, and program for delivering live video
JP2019071959A (en) 2017-10-12 2019-05-16 株式会社バンダイナムコエンターテインメント Content distribution system and computer system
JP6543403B1 (en) 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012200458A (en) 2011-03-25 2012-10-22 Konami Digital Entertainment Co Ltd Present determination system, control method for present determination system, present determination server device, control method for present determination server device, and program
JP2015114961A (en) 2013-12-13 2015-06-22 株式会社 ディー・エヌ・エー Content delivery server, program, and method
JP2019051108A (en) 2017-09-15 2019-04-04 株式会社スクウェア・エニックス Game program and game system
JP2019071959A (en) 2017-10-12 2019-05-16 株式会社バンダイナムコエンターテインメント Content distribution system and computer system
JP6491388B1 (en) 2018-08-28 2019-03-27 グリー株式会社 Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user
JP6511217B1 (en) 2018-11-21 2019-05-15 株式会社 ディー・エヌ・エー System, method, and program for delivering live video
JP6543403B1 (en) 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program

Also Published As

Publication number Publication date
JP7118228B2 (en) 2022-08-15
JP2022167902A (en) 2022-11-04
JP2022002113A (en) 2022-01-06
JP2024028853A (en) 2024-03-05

Similar Documents

Publication Publication Date Title
JP7389855B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
KR102481333B1 (en) A moving image distribution system, a moving image distribution method, and a moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor.
JP2019220205A (en) Massive simultaneous remote digital presence world
JP7408068B2 (en) Computer program, server device and method
US11151766B2 (en) Photoreal character configurations for spatial computing
US20160320833A1 (en) Location-based system for sharing augmented reality content
JP2024028853A (en) Moving image processing method, server device and computer program
KR20190079441A (en) Method for providing virtual space simulation of shoppingmall and server using the same
JP6691631B1 (en) Movie processing method, server device, and computer program
JP2024040211A (en) Moving image processing method, server device, and computer program
JP6942834B2 (en) Video processing method, server device and computer program
JP2019133276A (en) Image processing system and terminal
JP2021071942A (en) Moving image processing method, server device, and computer program
JP2020043578A (en) Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
US12039650B2 (en) Moving image processing method of a moving image viewed by a viewing user, a server device controlling the moving image, and a computer program thereof
JP7418709B2 (en) Computer programs, methods and server devices
NL2014682B1 (en) Method of simulating conversation between a person and an object, a related computer program, computer system and memory means.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231205

R150 Certificate of patent or registration of utility model

Ref document number: 7405351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150