JP7430353B2 - Video processing method, server device and computer program - Google Patents

Video processing method, server device and computer program Download PDF

Info

Publication number
JP7430353B2
JP7430353B2 JP2022101777A JP2022101777A JP7430353B2 JP 7430353 B2 JP7430353 B2 JP 7430353B2 JP 2022101777 A JP2022101777 A JP 2022101777A JP 2022101777 A JP2022101777 A JP 2022101777A JP 7430353 B2 JP7430353 B2 JP 7430353B2
Authority
JP
Japan
Prior art keywords
gift
video
distribution user
action
predetermined action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022101777A
Other languages
Japanese (ja)
Other versions
JP2022132299A (en
Inventor
貴志 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022101777A priority Critical patent/JP7430353B2/en
Publication of JP2022132299A publication Critical patent/JP2022132299A/en
Priority to JP2024008210A priority patent/JP2024040211A/en
Application granted granted Critical
Publication of JP7430353B2 publication Critical patent/JP7430353B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

本件出願に開示された技術は、視聴ユーザが視聴する動画の動画処理方法、当該動画を制御するサーバ装置及びコンピュータプログラムに関する。 The technology disclosed in the present application relates to a video processing method for a video viewed by a viewing user, a server device and a computer program for controlling the video.

従来から、ネットワークを介して端末装置に動画を配信する動画配信サービスが知られている。この種の動画配信サービスにおいては、当該動画を配信する配信ユーザのアバター(アバタ―オブジェクト)が表示されたり、当該動画を視聴する視聴ユーザと配信ユーザとがメッセージやチャット等を通じてコミュニケーションを図ることができるような環境が提供されている。 2. Description of the Related Art Video distribution services that distribute videos to terminal devices via networks have been known. In this type of video distribution service, the avatar (avatar object) of the distribution user who distributes the video is displayed, and the viewing user who watches the video and the distribution user can communicate through messages, chat, etc. A conducive environment is provided.

さらに、視聴ユーザと配信ユーザとのコミュニケーションツールとして、特許文献1には、視聴ユーザが取得したアイテムを動画内のアバターオブジェクト(配信ユーザ)へプレゼントとして提供する行為(ギフティング)を電子的に実現させる旨が開示されている。 Furthermore, as a communication tool between viewing users and distribution users, Patent Document 1 electronically realizes the act (gifting) of providing an item acquired by a viewing user as a present to an avatar object (distribution user) in a video. It is disclosed that the

また、VirtualCast(登録商標)等の動画配信サービスにおいては、視聴ユーザからアバターオブジェクト(配信ユーザ)に対してギフティングされたギフトを、配信ユーザの動作に基づいて、アバターオブジェクトが動画上で把持することができる環境が提供されている(非特許文献1)。 In addition, in video distribution services such as VirtualCast (registered trademark), the avatar object grasps the gift given by the viewing user to the avatar object (distribution user) on the video based on the distribution user's movements. (Non-Patent Document 1).

なお、上記特許文献1及び非特許文献1は、引用によりその全体が本明細書に組み入れられる。 Note that the above-mentioned Patent Document 1 and Non-Patent Document 1 are incorporated in their entirety into this specification by reference.

特開2012-120098号公報Japanese Patent Application Publication No. 2012-120098

"VirtualCast"、[online]、[2019年9月10日検索]、インターネット(URL: https://virtualcast.jp/)"VirtualCast", [online], [searched on September 10, 2019], Internet (URL: https://virtualcast.jp/)

特許文献1及び非特許文献1に開示されるギフティングは、視聴ユーザと配信ユーザ(アバター)との間の直接的なコミュニケーションを通して、アバターオブジェクトに対する視聴ユーザの親近感や関与感を醸成するものである。しかしながら、特許文献1及び非特許文献1に開示される技術においては、ギフティングに対応するギフトを動画上に表示させる環境、又はアバターオブジェクトが当該ギフトを動画上で把持できる環境を提供するにとどまることから、視聴ユーザによるギフティング機会は未だ限定的となっている。 The gifting disclosed in Patent Document 1 and Non-Patent Document 1 fosters a sense of intimacy and involvement of the viewing user with respect to the avatar object through direct communication between the viewing user and the distribution user (avatar). be. However, the technologies disclosed in Patent Document 1 and Non-Patent Document 1 only provide an environment in which a gift corresponding to gifting is displayed on a video, or an environment in which an avatar object can grasp the gift on a video. Therefore, gifting opportunities for viewing users are still limited.

また、ギフティングとは、視聴ユーザが動画配信サービスを提供するサービス提供者に対価を支払うことでギフトを購入した上で、当該ギフトを配信ユーザ(アバターオブジェクト)にギフティングする態様を意味することからすれば、動画配信サービスの運営面の観点で、視聴ユーザによるギフティング機会を増加させることはサービス提供者にとっての課題といえる。 Furthermore, gifting refers to a mode in which a viewing user purchases a gift by paying a fee to a service provider that provides a video distribution service, and then gifts the gift to a distribution user (avatar object). Therefore, from the operational perspective of video distribution services, it can be said that increasing gifting opportunities for viewing users is a challenge for service providers.

したがって、本件出願において開示された幾つかの実施形態は、視聴ユーザによるギフティング機会を増加させる動画処理方法、サーバ装置及びコンピュータプログラムを提供する。 Therefore, some embodiments disclosed in the present application provide a video processing method, a server device, and a computer program that increase gifting opportunities by viewing users.

一態様による動画処理方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される動画処理方法であって、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成する生成工程と、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信する受信工程と、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させる第1表示工程と、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させる第2表示工程と、を含むものである。 A video processing method according to one aspect is a video processing method executed by one or more processors that execute computer-readable instructions, the video processing method including an animation of an avatar object of the distribution user based on the distribution user's actions. a generation step of generating a first gift object, and a request signal generated based on the operation of the viewing user who views the video and requesting that the first gift object be given to the avatar object on the terminal device of the viewing user. a first display step of displaying the first gift object given to the avatar object on the video based on the request signal; and a first display step of displaying the first gift object given to the avatar object based on the request signal on the video; If it is determined that the avatar object has performed a predetermined action on one or more of the first gift objects displayed on the video based on the action of the avatar object that has performed the predetermined action, The method includes a second display step of displaying a second gift object different from the first gift object on the moving image.

一態様によるサーバ装置は、1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させるものである。 A server device according to one aspect includes one or more processors, the processor generates a video including an animation of an avatar object of the distribution user based on the distribution user's actions, and the operation of a viewing user who views the video. A request signal generated based on the request signal requesting to give a first gift object to the avatar object is received from the terminal device of the viewing user via a communication line, and based on the request signal, The first gift object given to the avatar object is displayed on the video, and based on the distribution user's action, one or more of the first gift objects displayed on the video are On the other hand, if the terminal device of the distribution server determines that the avatar object has performed the predetermined action, a second gift object different from the first gift object that has performed the predetermined action is displayed on the video. This is what is displayed.

一態様によるサーバ装置は、1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成する前記配信ユーザの端末装置又は視聴ユーザの端末装置へ送信し、前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記配信ユーザの端末装置又は前記視聴ユーザの端末装置へ送信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記配信ユーザの端末装置又は前記視聴ユーザの端末装置へ送信するものである。 A server device according to one aspect includes one or more processors, and the processor generates the video by using information for generating a video including an animation of an avatar object of the distribution user based on the behavior of the distribution user. is transmitted to the distribution user's terminal device or the viewing user's terminal device, is generated based on the operation of the viewing user who views the video, and requests the avatar object to be given a first gift object. A request signal is received from the viewing user's terminal device via a communication line, and information regarding the first gift object given to the avatar object based on the request signal is transmitted to the first gift object. to the distribution user's terminal device or the viewing user's terminal device to display on the video, and one or more of the first gift objects displayed on the video based on the distribution user's operation. When the terminal device of the distribution server determines that the avatar object has executed a predetermined action, information regarding a second gift object different from the first gift object that has performed the predetermined action. , the second gift object is transmitted to the distribution user's terminal device or the viewing user's terminal device that displays the second gift object on the video.

一態様によるコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させる、ように前記プロセッサを機能させるものである。 A computer program according to one aspect is configured to generate a moving image including an animation of an avatar object of the distribution user based on the operation of the distribution user by being executed by one or more processors, and to respond to operations of a viewing user who views the video. a request signal generated based on the request signal requesting to give the first gift object to the avatar object from the server device or the terminal device of the viewing user via a communication line, and based on the request signal. The first gift object given to the avatar object is displayed on the video, and one or more of the first gifts displayed on the video are displayed based on the action of the distribution user. When it is determined that the avatar object has performed a predetermined action on the object, a second gift object different from the first gift object for which the predetermined action has been performed is displayed on the video. The processor functions as follows.

一態様によるコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成するサーバ装置又は視聴ユーザの端末装置へ送信し、前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信する、ように前記プロセッサを機能させるものである。 A computer program according to one aspect is executed by one or more processors to transmit information for generating a video including an animation of an avatar object of the distribution user based on the distribution user's actions to a server that generates the video. The server transmits a request signal, which is generated based on the operation of the viewing user who views the video, to the device or the terminal device of the viewing user, requesting that the first gift object be given to the avatar object. information regarding the first gift object given to the avatar object based on the request signal received from the device or the terminal device of the viewing user via a communication line; The avatar is transmitted to the server device to be displayed on the video or the terminal device of the viewing user, and based on the operation of the distribution user, the avatar is sent to the one or more first gift objects displayed on the video. When it is determined that the object has executed the predetermined action, information regarding a second gift object different from the first gift object that has performed the predetermined action is displayed on the video. The processor functions to transmit the information to the server device for display or the viewing user's terminal device.

一態様によるコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、当該動画に関する情報をサーバ装置又は前記配信ユーザの端末装置から受信し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを前記動画上に表示させるために、前記第1のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させるために、前記第2のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信する、ように前記プロセッサを機能させるものである。 A computer program according to one aspect is executed by one or more processors to generate a video including an animation of an avatar object of the distribution user based on the distribution user's actions, and transmits information regarding the video to a server device or A request signal received from the terminal device of the distribution user, generated based on the operation of the viewing user who views the video, and requesting to give the first gift object to the avatar object, is transmitted through the communication line. In order to display the first gift object given to the avatar object based on the request signal on the video, information regarding the first gift object is sent to the server device or the The distribution information is received from a terminal device of a distribution user, and based on the distribution user's operation, the avatar object performs a predetermined action on one or more of the first gift objects displayed on the video. information regarding the second gift object in order to display on the video a second gift object different from the first gift object for which the predetermined action has been performed when determined by the terminal device of the server; The processor functions to receive the information from the server device or the distribution user's terminal device.

一態様によるコンピュータプログラムは、1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を、サーバ装置又は前記配信ユーザの端末装置から受信し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信する、ように前記プロセッサを機能させるものである。 A computer program according to one aspect is executed by one or more processors to receive a video including an animation of an avatar object of the distribution user based on an action of the distribution user from a server device or a terminal device of the distribution user. , a request signal generated based on an operation of a viewing user viewing the video and requesting that a first gift object be given to the avatar object is transmitted via a communication line, and the request signal is receive the video displaying the first gift object given to the avatar object from the server device or the distribution user's terminal device based on the distribution user's action; When the terminal device of the distribution server determines that the avatar object has performed a predetermined action on one or more of the first gift objects displayed above, the first gift object that has performed the predetermined action The processor is operated to receive the moving image displaying a second gift object different from the first gift object from the server device or the distribution user's terminal device.

図1は、一実施形態に関する動画配信システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a video distribution system according to an embodiment. 図2は、図1に示した端末装置(サーバ装置)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the terminal device (server device) shown in FIG. 図3は、図1に示した端末装置の機能の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of the functions of the terminal device shown in FIG. 1. 図4は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトが表示された一例を示す図である。FIG. 4 is a diagram illustrating an example in which a first gift object is displayed on a video including an animation of a distribution user's avatar object. 図5は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトが表示され、且つ2つの第1コリジョン領域が重複する場合を示す図である。FIG. 5 is a diagram illustrating a case where a first gift object is displayed on a video including an animation of a distribution user's avatar object, and two first collision areas overlap. 図6は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第2のギフトオブジェクトが表示された一例を示す図である。FIG. 6 is a diagram illustrating an example in which a second gift object is displayed on a video including an animation of a distribution user's avatar object. 図7は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第2のギフトオブジェクトが表示された一例を示す図である。FIG. 7 is a diagram illustrating an example in which a second gift object is displayed on a video including an animation of a distribution user's avatar object. 図8は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上にエフェクトオブジェクトが表示された一例を示す図である。FIG. 8 is a diagram illustrating an example of an effect object displayed on a video including an animation of a distribution user's avatar object. 図9は、図1に示したサーバ装置の機能の一例を模式的に示すブロック図である。FIG. 9 is a block diagram schematically showing an example of the functions of the server device shown in FIG. 1. 図10は、図1に示した動画配信システムにおいて行われる動作の一例を示すフロー図である。FIG. 10 is a flow diagram showing an example of operations performed in the video distribution system shown in FIG. 1.

以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。さらにまた、アプリケーションという用語は、ソフトウェア又はプログラムと称呼されるものであってもよく、コンピュータに対する指令であって、ある種の結果を得ることができるように組み合わされたものであればよい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. Note that common components in the drawings are given the same reference numerals. Also, it should be noted that components depicted in one drawing may be omitted from another drawing for convenience of explanation. Furthermore, it should be noted that the attached drawings are not necessarily drawn to scale. Furthermore, the term application may also be referred to as software or a program, as long as it is a set of instructions to a computer that can be combined to achieve a certain result.

1.動画配信システムの構成
本件出願において開示される動画配信システム1は、簡潔にいえば、配信を行う配信ユーザが、その端末装置を用いて、この配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて生成されたアバターオブジェクトのアニメーションを含む動画を、通信回線を介して、動画を視聴する視聴ユーザの端末装置へと配信することを可能にするものである。
1. Configuration of Video Distribution System The video distribution system 1 disclosed in the present application, to put it simply, allows a distribution user who performs distribution to use the terminal device to transmit data and/or data regarding the operation of the distribution user and/or data issued by the distribution user. It is possible to deliver a video containing an animation of an avatar object generated based on voice data related to utterances and singing to the terminal device of the viewing user who views the video via a communication line. .

図1は、一実施形態に関する動画配信システム1の構成の一例を示すブロック図である。図1に示すように、動画配信システム1は、通信回線(図示せず)に接続される複数の端末装置10と、通信回線に接続される1又はそれ以上のサーバ装置20と、を含むことができる。各端末装置10は、通信回線を介して、1又はそれ以上のサーバ装置20に接続される。 FIG. 1 is a block diagram showing an example of the configuration of a video distribution system 1 according to an embodiment. As shown in FIG. 1, the video distribution system 1 includes a plurality of terminal devices 10 connected to a communication line (not shown) and one or more server devices 20 connected to the communication line. I can do it. Each terminal device 10 is connected to one or more server devices 20 via a communication line.

なお、通信回線とは、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができる。 Note that the communication line may include, but is not limited to, a mobile phone network, a wireless LAN, a fixed telephone network, the Internet, an intranet, and/or Ethernet (registered trademark).

1-1.端末装置10
図1に示すように、複数の端末装置10は、1又はそれ以上の配信ユーザの端末装置10(ここでは端末装置10A)と、1又はそれ以上の視聴ユーザの端末装置10(ここでは端末装置10B乃至10D)と、を含むことができる。各端末装置10は、共通した構成を有することにより、動画を配信するための端末装置(配信ユーザの端末装置10)及び動画を視聴するための端末装置(視聴ユーザの端末装置10)のいずれにもなり得るものである。
1-1. Terminal device 10
As shown in FIG. 1, the plurality of terminal devices 10 include one or more distribution user's terminal device 10 (here, terminal device 10A), one or more viewing user's terminal device 10 (here, terminal device 10A), and one or more viewing user's terminal device 10 (here, terminal device 10B to 10D). By having a common configuration, each terminal device 10 can be used as either a terminal device for distributing videos (terminal device 10 of a distribution user) or a terminal device for viewing videos (terminal device 10 of a viewing user). It is also possible.

各端末装置10は、配信ユーザの端末装置10として動作する場合には、インストールされた動画配信用アプリケーションを実行することにより、その配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データを取得し、取得したデータに従って変化させた仮想的なキャラクター(アバターオブジェクト)のアニメーションを含む動画を生成して、当該動画を、通信回線を介してサーバ装置20(配信サーバ装置20C)に送信することができる。当該動画は、サーバ装置20(配信サーバ装置20C)により通信回線を介して、インストールされた動画視聴用アプリケーションを実行する、動画を受信するための端末装置10(視聴ユーザの端末装置10)に配信される。 When each terminal device 10 operates as a distribution user's terminal device 10, by executing the installed video distribution application, each terminal device 10 can collect data related to the distribution user's actions and/or utterances uttered by the distribution user. Acquire audio data related to singing, generate a video including an animation of a virtual character (avatar object) changed according to the acquired data, and send the video to the server device 20 (distribution server device 20C) via a communication line. ) can be sent to. The video is distributed via a communication line by the server device 20 (distribution server device 20C) to the terminal device 10 (viewing user's terminal device 10) for receiving the video, which executes the installed video viewing application. be done.

さらに、各端末装置10が配信ユーザの端末装置10として動作する場合において、サーバ装置20が、通信回線を介して、視聴ユーザの操作に基づいてこの配信ユーザ(アバターオブジェクト)に対してギフトオブジェクト(第1のギフトオブジェクト)を付与すること(ギフティング)を要求する1又は複数の要求信号(1つの視聴ユーザ端末装置10から複数の要求信号が発信される場合、及び複数の視聴ユーザ端末装置10から要求信号が発信される場合の両方を含む)を、動画を視聴する視聴ユーザの端末装置10から受信すると、各端末装置10は、サーバ装置20(情報処理サーバ装置20B)から当該要求信号を受信して、アバターオブジェクトのアニメーションを含む動画上に、当該第1のギフトオブジェクトを表示させることができる。当該動画上に第1のギフトオブジェクトを表示させる具体的な方法については後述する。 Furthermore, when each terminal device 10 operates as a distribution user's terminal device 10, the server device 20 sends a gift object ( one or more request signals requesting to give (gifting) a first gift object (if a plurality of request signals are transmitted from one viewing user terminal device 10, each terminal device 10 receives the request signal from the server device 20 (information processing server device 20B). The first gift object can be received and displayed on the video including the animation of the avatar object. A specific method for displaying the first gift object on the video will be described later.

さらにまた、各端末装置10が配信ユーザの端末装置10として動作する場合において、配信ユーザの動作に基づいて、動画上に表示された1又は複数の第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと端末装置10が判定した場合に、当該端末装置10は、当該所定アクションを実行された第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを動画上に表示させることができる。なお、所定アクションの詳細、所定アクションの判定方法の詳細、及び動画上に第2のギフトオブジェクトを表示させる具体的な方法については後述する。 Furthermore, when each terminal device 10 operates as a distribution user's terminal device 10, an avatar object is assigned to one or more first gift objects displayed on the video based on the distribution user's operation. When the terminal device 10 determines that the action has been performed, the terminal device 10 can display on the video a second gift object that is different from the first gift object for which the predetermined action was performed. Note that details of the predetermined action, details of the method of determining the predetermined action, and a specific method of displaying the second gift object on the video will be described later.

一方、各端末装置10は、動画を視聴するための端末装置(視聴ユーザの端末装置)として動作する場合には、インストールされた動画視聴用アプリケーションを実行することにより、配信ユーザの端末装置10により配信された動画を、サーバ装置20(配信サーバ装置20C)を介して受信することができる。 On the other hand, when each terminal device 10 operates as a terminal device for viewing videos (a viewing user's terminal device), each terminal device 10 operates as a terminal device of a distribution user by executing an installed video viewing application. The distributed video can be received via the server device 20 (distribution server device 20C).

さらに、各端末装置10は、視聴ユーザの端末装置として動作する場合には、動画視聴用アプリケーションを実行することにより、視聴ユーザの操作に基づいて配信ユーザ(アバターオブジェクト)に対して第1のギフトオブジェクトを付与すること(ギフティング)を要求する要求信号をサーバ装置20(ギフトAPIサーバ装置20A)に送信することができる。 Furthermore, when each terminal device 10 operates as a viewing user's terminal device, by executing a video viewing application, the first gift is sent to the distribution user (avatar object) based on the viewing user's operation. A request signal requesting to give an object (gifting) can be transmitted to the server device 20 (gift API server device 20A).

さらに、各端末装置10は、視聴ユーザの端末装置として動作する場合には、動画視聴用アプリケーションを実行することにより、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに関する情報をサーバ装置20(コメントAPIサーバ装置20D)に送信することができる。 Furthermore, when each terminal device 10 operates as a viewing user's terminal device, by executing a video viewing application, information regarding comments from the viewing user to the distribution user (avatar object) is transmitted to the server device 20 (comment API). server device 20D).

なお、前述した動画配信用アプリケーション及び動画視聴用アプリケーションは、統合された1つのアプリケーションとして、又は、それぞれ別々のアプリケーションとして、各端末装置10にインストール及び実行されるものとすることができる。 Note that the video distribution application and the video viewing application described above can be installed and executed on each terminal device 10 as one integrated application or as separate applications.

各端末装置10は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等を、これらに限定することなく含むことができるものである。 Each terminal device 10 is any terminal device capable of performing such operations, including, but not limited to, a smartphone, a tablet, a mobile phone (feature phone), a personal computer, etc. It is something that can be done.

1-2.サーバ装置20
図1に示すように、サーバ装置20は、後述する複数のサーバ装置が組み合わされた動画配信システムと呼ぶこともできる。
1-2. Server device 20
As shown in FIG. 1, the server device 20 can also be called a video distribution system in which a plurality of server devices, which will be described later, are combined.

サーバ装置20は、配信ユーザの端末装置10から送信されたアバターオブジェクトのアニメーションを含む動画を各視聴ユーザの端末装置10に配信することができる。 The server device 20 can distribute a video including the animation of the avatar object transmitted from the terminal device 10 of the distribution user to the terminal device 10 of each viewing user.

さらに、サーバ装置20は、アバターオブジェクトに対して第1のギフトオブジェクトを付与すること(ギフティング)を要求する1又は複数の要求信号(1つの視聴ユーザ端末装置10から複数の要求信号が発信される場合、及び複数の視聴ユーザ端末装置10から要求信号が発信される場合の両方を含む)を、各視聴ユーザの端末装置10から受信することができる。また、サーバ装置20は、当該要求信号に関する情報を、配信ユーザの端末装置10へ発信した上で、配信ユーザの端末装置10がアバターオブジェクトのアニメーションを含む動画上に当該要求信号に対応する第1のギフトオブジェクトを表示させた動画を生成する。サーバ装置20は、当該動画(第1のギフトオブジェクトが表示された動画)を配信ユーザの端末装置10から受信することもできる。 Furthermore, the server device 20 sends one or more request signals (a plurality of request signals are sent from one viewing user terminal device 10) requesting that the first gift object be given to the avatar object (gifting). (including both cases in which request signals are sent from a plurality of viewing user terminal devices 10) can be received from the terminal device 10 of each viewing user. Further, the server device 20 transmits information regarding the request signal to the distribution user's terminal device 10, and then the distribution user's terminal device 10 displays a first message corresponding to the request signal on the video including the animation of the avatar object. Generate a video displaying the gift object. The server device 20 can also receive the video (video in which the first gift object is displayed) from the terminal device 10 of the distribution user.

さらにまた、配信ユーザの動作に基づいて、動画上に表示された1又は複数の第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと端末装置10(配信ユーザの端末装置10)が判定した場合において、当該端末装置10が、当該所定アクションを実行された第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを動画上に表示させると、サーバ装置20は、当該第2のギフトオブジェクトが表示された動画を当該端末装置10から受信することもできる。 Furthermore, based on the distribution user's actions, the terminal device 10 (the distribution user's terminal device 10) determines that the avatar object has performed a predetermined action on one or more first gift objects displayed on the video. In this case, when the terminal device 10 displays on the video a second gift object different from the first gift object for which the predetermined action has been performed, the server device 20 displays the second gift object on the video. It is also possible to receive a moving image on which is displayed from the terminal device 10.

さらに、サーバ装置20は、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに関する情報を、視聴ユーザの端末装置10から受信することができ、且つ当該コメントを同一の動画を視聴する視聴ユーザに対して配信することができる。 Further, the server device 20 can receive information regarding comments from the viewing user to the distribution user (avatar object) from the viewing user's terminal device 10, and can transmit the comment to the viewing user who views the same video. Can be delivered.

このような動作を実行するために、サーバ装置20は、一実施形態において、相互に通信回線(図示しない無線回線及び/又は有線回線を含む)を介して接続された、ギフトAPIサーバ装置20A、情報処理サーバ装置20B、配信サーバ装置20C、及びコメントAPIサーバ装置20Dを含むことができる。 In order to perform such operations, the server device 20, in one embodiment, includes a gift API server device 20A, which are connected to each other via a communication line (including a wireless line and/or a wired line not shown). It can include an information processing server device 20B, a distribution server device 20C, and a comment API server device 20D.

ギフトAPIサーバ装置20Aは、視聴ユーザの操作に基づいてアバターオブジェクトに対して第1のギフトオブジェクトを付与すること(ギフティング)を要求する1又は複数の要求信号を、各視聴ユーザの端末装置10から受信することができる。この際、ギフトAPIサーバ装置20Aは、当該要求信号から、ギフティング行為がなされた視聴ユーザの識別情報(各視聴ユーザの端末装置10のシリアル番号や各視聴ユーザに付与されるID情報等)、ギフティングされた第1のギフトオブジェクトに関する情報(種類、名称、色、大きさ等に関する情報等)、及びギフティング対象のアバターオブジェクトたる配信ユーザの識別情報(配信ユーザの端末装置10のシリアル番号や配信ユーザに付与されるID情報等)を少なくとも読み出して、読み出した情報を自動的に、又は情報処理サーバ装置20Bから問い合わせを受けたときに、情報処理サーバ装置20Bに送信することができる。 The gift API server device 20A sends one or more request signals requesting that a first gift object be given to the avatar object (gifting) based on the viewing user's operation, to the terminal device 10 of each viewing user. can be received from. At this time, the gift API server device 20A collects identification information of the viewing user who performed the gifting act from the request signal (serial number of the terminal device 10 of each viewing user, ID information given to each viewing user, etc.), Information regarding the first gift object that was gifted (information regarding the type, name, color, size, etc.), and identification information of the distribution user who is the avatar object to be gifted (such as the serial number of the terminal device 10 of the distribution user) ID information given to the distribution user) and transmit the read information to the information processing server device 20B automatically or when receiving an inquiry from the information processing server device 20B.

情報処理サーバ装置20Bは、自動的に又は自ら問い合わせをして、ギフトAPIサーバ装置20Aから当該ギフトAPIサーバ装置20Aが読み出した情報を受信して、当該情報を配信ユーザの端末装置10へ発信することができる。また、情報処理サーバ装置20Bは、配信ユーザ毎のテーブル(データベース)を有することができ、ギフトAPIサーバ装置20Aが読み出した第1のギフトオブジェクトに関する情報を、配信ユーザ毎のテーブルに記憶してもよい。 The information processing server device 20B receives the information read by the gift API server device 20A from the gift API server device 20A, automatically or by making an inquiry, and transmits the information to the distribution user's terminal device 10. be able to. Further, the information processing server device 20B can have a table (database) for each distribution user, and may store information regarding the first gift object read by the gift API server device 20A in the table for each distribution user. good.

さらに、情報処理サーバ装置20Bは、記憶された視聴ユーザの識別情報及び第1のギフトオブジェクトに関する情報を参照して、アバターオブジェクト(配信ユーザ)に対して、どの視聴ユーザがどのような第1のギフトオブジェクトを付与したかに関する全て又は一部のコメント情報をコメントAPIサーバ装置20Dに送信することができる。 Further, the information processing server device 20B refers to the stored identification information of the viewing user and the information regarding the first gift object, and determines which viewing user is the first gift object for the avatar object (distribution user). All or part of comment information regarding whether a gift object has been given can be transmitted to the comment API server device 20D.

さらにまた、情報処理サーバ装置20Bは、第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと判定され第2のギフトオブジェクトが動画上に表示された旨に関する情報を、配信ユーザの端末装置10から受信して、第2のギフトオブジェクトが動画上に表示されることに関するコメント情報をコメントAPIサーバ装置20Dに送信するような機能を含んでいてもよい。 Furthermore, the information processing server device 20B transmits information to the distribution user's terminal that it has been determined that the avatar object has performed a predetermined action on the first gift object and that the second gift object has been displayed on the video. It may include a function of receiving comment information from the device 10 and transmitting comment information regarding the display of the second gift object on the video to the comment API server device 20D.

配信サーバ装置20Cは、配信ユーザの端末装置10から送信された動画(第1のギフトオブジェクトが表示された動画及び第2のギフトオブジェクトが表示された動画、を含む)を、各視聴ユーザの端末装置10に配信することができる。 The distribution server device 20C transmits the video (including the video in which the first gift object is displayed and the video in which the second gift object is displayed) transmitted from the terminal device 10 of the distribution user to the terminal of each viewing user. It can be distributed to the device 10.

コメントAPIサーバ装置20Dは、視聴ユーザの端末装置10から視聴ユーザのコメントを受信することができ、受信した当該コメントを、同一の動画を視聴している各視聴ユーザに対して配信することができる。 The comment API server device 20D can receive the viewing user's comment from the viewing user's terminal device 10, and can distribute the received comment to each viewing user who is viewing the same video. .

また、コメントAPIサーバ装置20Dは、情報処理サーバ装置20Bから受信する、アバターオブジェクト(配信ユーザ)に対してどの視聴ユーザがどんな第1のギフトオブジェクトを付与したかに関する全て又は一部の情報に対応するコメントを、同一の動画を視聴している各視聴ユーザに対して配信することができる。 The comment API server device 20D also responds to all or part of the information received from the information processing server device 20B regarding which viewing user has given what first gift object to the avatar object (distribution user). comments can be distributed to each viewing user who is viewing the same video.

さらにまた、コメントAPIサーバ装置20Dは、情報処理サーバ装置20Bから受信する、第2のギフトオブジェクトが動画上に表示されることに関するコメント情報に基づいて、当該コメント情報に対応するコメントを同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Furthermore, based on the comment information regarding the second gift object being displayed on the video, which is received from the information processing server device 20B, the comment API server device 20D adds a comment corresponding to the comment information to the same video. It is also possible to distribute the content to each viewing user who is viewing the video.

なお、図1に示した例では、負荷を分散すること等を目的として、サーバ装置20が、ギフトAPIサーバ装置20A、情報処理サーバ装置20B、配信サーバ装置20C、及びコメントAPIサーバ装置20Dからなる4つのサーバ装置を有する構成が示されている。しかし、これら4つのサーバ装置のうちの少なくとも1つのサーバ装置が残りのサーバ装置のいずれかと統合されるようにしてもよい。例えば、情報処理サーバ装置20Bと配信サーバ装置20Cとを統合してもよい。 In the example shown in FIG. 1, for the purpose of distributing the load, the server device 20 is configured to include a gift API server device 20A, an information processing server device 20B, a distribution server device 20C, and a comment API server device 20D. A configuration with four server devices is shown. However, at least one of these four server devices may be integrated with any of the remaining server devices. For example, the information processing server device 20B and the distribution server device 20C may be integrated.

2.各装置のハードウェア構成
次に、端末装置10及びサーバ装置20の各々が有するハードウェア構成の一例について説明する。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of each of the terminal device 10 and the server device 20 will be described.

2-1.端末装置10のハードウェア構成
各端末装置10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置10(サーバ装置20)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されたものである。)
2-1. Hardware Configuration of Terminal Device 10 An example of the hardware configuration of each terminal device 10 will be described with reference to FIG. 2. FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the terminal device 10 (server device 20) shown in FIG. (This is written in relation to the server device 20.)

図2に示すように、各端末装置10は、主に、中央処理装置11と、主記憶装置12と、入出力インタフェイス13と、入力装置14と、補助記憶装置15と、出力装置16と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each terminal device 10 mainly includes a central processing unit 11, a main storage device 12, an input/output interface 13, an input device 14, an auxiliary storage device 15, and an output device 16. , can be included. These devices are connected to each other by a data bus and/or a control bus.

中央処理装置11は、「CPU」と称されるものであり、主記憶装置12に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置12に記憶させるものである。さらに、中央処理装置11は、入出力インタフェイス13を介して、入力装置14、補助記憶装置15及び出力装置16等を制御することができる。端末装置10は、1又はそれ以上のこのような中央処理装置11を含むことが可能である。 The central processing unit 11 is referred to as a "CPU" and performs calculations on instructions and data stored in the main storage device 12, and stores the results of the calculations in the main storage device 12. be. Furthermore, the central processing unit 11 can control the input device 14, the auxiliary storage device 15, the output device 16, etc. via the input/output interface 13. The terminal device 10 may include one or more such central processing units 11.

主記憶装置12は、「メモリ」と称されるものであり、入力装置14、補助記憶装置15及び通信網30(サーバ装置20等)から、入出力インタフェイス13を介して受信した命令及びデータ、並びに、中央処理装置11の演算結果を記憶するものである。主記憶装置12は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 12 is referred to as a "memory" and stores instructions and data received via the input/output interface 13 from the input device 14, auxiliary storage device 15, and communication network 30 (server device 20, etc.). , as well as the calculation results of the central processing unit 11. The main storage device 12 may include, but is not limited to, RAM (Random Access Memory), ROM (Read Only Memory), and/or flash memory.

補助記憶装置15は、主記憶装置12よりも大きな容量を有する記憶装置である。前述した特定のアプリケーション(動画配信用アプリケーション、動画視聴用アプリケーション等)やウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置11により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インタフェイス13を介して主記憶装置12に送信することができる。補助記憶装置15は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。 The auxiliary storage device 15 is a storage device that has a larger capacity than the main storage device 12. Instructions and data (computer programs) constituting the aforementioned specific applications (video distribution applications, video viewing applications, etc.) and web browsers are stored and controlled by the central processing unit 11. Instructions and data (computer programs) can be transmitted to main memory 12 via input/output interface 13 . The auxiliary storage device 15 can include, but is not limited to, a magnetic disk device and/or an optical disk device.

入力装置14は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むものである。センサは、後述するように、1又はそれ以上のカメラ等及び/又は1又はそれ以上のマイク等を含むセンサをこれらに限定することなく含むことができる。 The input device 14 is a device that takes in data from the outside, and includes, but is not limited to, a touch panel, a button, a keyboard, a mouse, and/or a sensor. Sensors may include, but are not limited to, sensors including, but not limited to, one or more cameras, etc., and/or one or more microphones, etc., as described below.

出力装置16は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。 The output device 16 can include, but is not limited to, a display device, a touch panel, a printer device, and the like.

このようなハードウェア構成にあっては、中央処理装置11が、補助記憶装置15に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置12にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス13を介して出力装置16を制御し、或いはまた、入出力インタフェイス13及び通信網30を介して、他の装置(例えばサーバ装置20及び他の端末装置10等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 11 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 15 into the main storage device 12, and By operating instructions and data, the output device 16 can be controlled via the input/output interface 13, or other devices (for example, the server device 20 and others) can be controlled via the input/output interface 13 and the communication network 30. It is possible to send and receive various information to and from the terminal device 10 (such as the terminal device 10).

これにより、端末装置10は、インストールされた特定のアプリケーションを実行することにより、動画を生成するために必要な動作、動画を発信(配信)及び/又は受信するために必要な動作、ギフティング行為に必要な動作、後述する所定アクションが実行されたかに関する判定、コメントを発信するために必要な動作(その他、後に詳述する様々な動作を含む)を実行することができる。 Thereby, by executing the installed specific application, the terminal device 10 performs operations necessary to generate a video, operations necessary to transmit (distribute) and/or receive a video, and gifting actions. , determination as to whether a predetermined action described below has been performed, and operation necessary for issuing a comment (including various other operations described in detail later).

なお、端末装置10は、中央処理装置11に代えて又は中央処理装置11とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。 Note that the terminal device 10 may include one or more microprocessors and/or graphics processing units (GPUs) instead of or together with the central processing unit 11.

2-2.サーバ装置20のハードウェア構成
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(ギフトAPIサーバ装置20A、情報処理サーバ装置20B、配信サーバ装置20C、及びコメントAPIサーバ装置20D)のハードウェア構成としては、例えば、前述した各端末装置10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Server Apparatus 20 An example of the hardware configuration of each server apparatus 20 will be described with reference to FIG. 2 as well. The hardware configuration of each server device 20 (gift API server device 20A, information processing server device 20B, distribution server device 20C, and comment API server device 20D) is, for example, the same as the hardware configuration of each terminal device 10 described above. It is possible to use the following. Therefore, reference numerals for components included in each server device 20 are shown in parentheses in FIG. 2.

図2に示すように、各サーバ装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each server device 20 mainly includes a central processing unit 21, a main storage device 22, an input/output interface 23, an input device 24, an auxiliary storage device 25, and an output device 26. , can be included. These devices are connected to each other by a data bus and/or a control bus.

中央処理装置21、主記憶装置22、入出力インタフェイス23、入力装置24、補助記憶装置25及び出力装置26は、それぞれ、前述した各端末装置10に含まれる、中央処理装置11、主記憶装置12、入出力インタフェイス13、入力装置14、補助記憶装置15及び出力装置16と略同一なものとすることができる。 The central processing unit 21, the main storage device 22, the input/output interface 23, the input device 24, the auxiliary storage device 25, and the output device 26 are the central processing unit 11 and the main storage device included in each terminal device 10 described above, respectively. 12, input/output interface 13, input device 14, auxiliary storage device 15, and output device 16 can be substantially the same.

このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス23を介して出力装置26を制御し、或いはまた、入出力インタフェイス23及び通信回線30を介して、他の装置(例えば各端末装置10等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 21 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 25 into the main storage device 22, and By operating commands and data, the output device 26 is controlled via the input/output interface 23, or other devices (for example, each terminal device 10, etc.) are controlled via the input/output interface 23 and the communication line 30. ) various information can be sent and received between them.

これにより、サーバ装置20は、各配信ユーザの端末装置10により生成され送信された動画を各視聴ユーザの端末装置10に配信するために必要な動作、各視聴ユーザの端末装置10から発信されるギフティング行為を受信するために必要な動作、端末装置10に動画を生成させるために必要な要求情報を生成するために必要な動作、動画を発信(配信)及び/又は受信するために必要な動作等(後に詳述する様々な動作を含む)を実行することができる。 Thereby, the server device 20 performs the operations necessary to distribute the video generated and transmitted by the terminal device 10 of each distribution user to the terminal device 10 of each viewing user, and performs the operations necessary to distribute the video generated and transmitted from the terminal device 10 of each distribution user to the terminal device 10 of each viewing user. Operations necessary to receive a gifting action, operations necessary to generate request information necessary to cause the terminal device 10 to generate a video, operations necessary to transmit (distribute) and/or receive a video. Operations, etc. (including various operations detailed below) may be performed.

なお、サーバ装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。 Note that the server device 20 may include one or more microprocessors and/or graphics processing units (GPUs) instead of or together with the central processing unit 21.

3.各装置の機能
次に、端末装置10及びサーバ装置20の各々が有する機能の詳細の一例について説明する。
3. Functions of Each Device Next, a detailed example of the functions of each of the terminal device 10 and the server device 20 will be described.

3-1.端末装置10の機能
端末装置10の機能の一例について図3乃至図8を参照しつつ説明する。図3は、図1に示した端末装置10の機能の一例を模式的に示すブロック図である。図4は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトが表示された一例を示す図である。図5は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトが表示され、且つ2つの第1コリジョン領域が重複する場合を示す図である。図6及び図7は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上に第2のギフトオブジェクトが表示された一例を示す図である。図8は、配信ユーザのアバターオブジェクトのアニメーションを含む動画上にエフェクトオブジェクトが表示された一例を示す図である。
3-1. Functions of the terminal device 10 An example of the functions of the terminal device 10 will be described with reference to FIGS. 3 to 8. FIG. 3 is a block diagram schematically showing an example of the functions of the terminal device 10 shown in FIG. 1. FIG. 4 is a diagram illustrating an example in which a first gift object is displayed on a video including an animation of a distribution user's avatar object. FIG. 5 is a diagram illustrating a case where a first gift object is displayed on a video including an animation of a distribution user's avatar object, and two first collision areas overlap. 6 and 7 are diagrams showing an example in which a second gift object is displayed on a video including an animation of a distribution user's avatar object. FIG. 8 is a diagram illustrating an example of an effect object displayed on a video including an animation of a distribution user's avatar object.

図3に示すように、端末装置10は、主に、動画生成部100、表示部110、判定部120、記憶部130、ユーザインタフェイス部140、ギフト記憶部150、及び通信部160を含む。 As shown in FIG. 3, the terminal device 10 mainly includes a video generation section 100, a display section 110, a determination section 120, a storage section 130, a user interface section 140, a gift storage section 150, and a communication section 160.

(1)動画生成部100
動画生成部100は、配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて、この配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成することができる。これを実現するために、動画生成部100は、例えば、取得部(図示せず)及び処理部(図示せず)を含むことができる。
(1) Video generation section 100
The video generation unit 100 can generate a video including an animation of the distribution user's avatar object based on data regarding the distribution user's movements and/or audio data regarding speech and singing uttered by the distribution user. To achieve this, the video generation section 100 can include, for example, an acquisition section (not shown) and a processing section (not shown).

取得部は、配信ユーザの顔や手足等(体全体)に関するデータを取得する1又はそれ以上の第1のセンサ(図示せず)と、配信ユーザにより発せられた発話及び/又は歌唱に関する音声データを取得する1又はそれ以上の第2のセンサ(図示せず)と、を含むことができる。 The acquisition unit includes one or more first sensors (not shown) that acquire data regarding the face, limbs, etc. (entire body) of the distribution user, and audio data regarding speech and/or singing uttered by the distribution user. and one or more second sensors (not shown) to obtain the .

第1のセンサは、好ましい実施形態では、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を少なくとも含むことができる。また、第1のセンサは、後述するモーションセンサやトラッキングセンサ等を含むことができる。前述のRGBカメラや近赤外線カメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたものを用いることが可能である。第2のセンサは、音声を記録するマイクロフォンを含むことができる。 In a preferred embodiment, the first sensor can include at least an RGB camera that captures images of visible light and a near-infrared camera that captures images of near-infrared rays. Further, the first sensor can include a motion sensor, a tracking sensor, etc., which will be described later. As the above-mentioned RGB camera and near-infrared camera, it is possible to use, for example, those included in the True Depth camera of iPhone X (registered trademark). The second sensor can include a microphone that records audio.

まず、第1のセンサに関して、取得部は、配信ユーザの顔や手足等に近接して配置された第1のセンサ(第1のセンサに含まれるカメラ)を用いて配信ユーザの顔や手足等を撮像する。これにより、取得部は、RGBカメラにより取得された画像をタイムコード(取得した時間を示すコード)に対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。さらに、取得部は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間にわたって記録したデータ(例えばTSVファイル[データ間をタブで区切って複数のデータを記録する形式のファイル])を生成することができる。 First, regarding the first sensor, the acquisition unit uses the first sensor (camera included in the first sensor) placed close to the distribution user's face, limbs, etc. Take an image. Thereby, the acquisition unit can generate data (for example, an MPEG file) in which an image acquired by the RGB camera is recorded over a unit time in association with a time code (a code indicating the time of acquisition). Further, the acquisition unit stores data (for example, a TSV file) recorded over a unit time by associating a predetermined number (for example, 51) of numerical values (for example, floating point numerical values) indicating the depth acquired by the near-infrared camera with the above-mentioned time code. [File format that records multiple pieces of data by separating data with tabs]) can be generated.

近赤外線カメラに関して、具体的には、ドットプロジェクタがドット(点)パターンをなす赤外線レーザーを演者たる配信ユーザの顔や手足等に放射し、近赤外線カメラが、配信ユーザの顔に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成する。取得部は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(各特徴点)(例えば51個のポイント・特徴点の各々)における位置のずれを用いて各ポイント(各特徴点)の深度(各ポイント・各特徴点と近赤外線カメラとの間の距離)を算出することができる。取得部は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間にわたって記録したデータを生成することができる。 Regarding the near-infrared camera, specifically, a dot projector emits an infrared laser in the form of a dot (dot) pattern onto the face, limbs, etc. of the broadcast user who is the performer, and the near-infrared camera emits an infrared laser that is projected onto the face of the broadcast user and is reflected. It captures infrared dots and generates images of the captured infrared dots. The acquisition unit compares the image of the dot pattern emitted by the dot projector registered in advance and the image captured by the near-infrared camera, and calculates each point (each feature point) (for example, 51 points) in both images. The depth of each point (each feature point) (the distance between each point/feature point and the near-infrared camera) can be calculated using the positional shift at each point (each feature point). The acquisition unit can generate data recorded over a unit time by associating the numerical value indicating the depth calculated in this manner with the time code as described above.

次に、第2のセンサに関して、取得部は、配信ユーザに近接して配置された第2のセンサを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声を取得する。これにより、取得部は、タイムコードに対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。一実施形態では、取得部は、第1のセンサを用いて配信ユーザの顔や手足に関するデータを取得することと同時に、第2のセンサを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声データを取得することができる。この場合には、取得部は、RGBカメラにより取得された画像と、第2のセンサを用いて配信ユーザにより発せられた発話及び/又は歌唱に関する音声データとを、同一のタイムコードに対応付けて単位時間にわたって記録したデータ(例えばMPEGファイル)を生成することができる。 Next, regarding the second sensor, the acquisition unit acquires audio related to speech and/or singing uttered by the distribution user using the second sensor placed close to the distribution user. Thereby, the acquisition unit can generate data (for example, an MPEG file) recorded over a unit time in association with the time code. In one embodiment, the acquisition unit uses the first sensor to acquire data regarding the face and limbs of the distribution user, and at the same time uses the second sensor to acquire data regarding the speech and/or singing uttered by the distribution user. Audio data can be obtained. In this case, the acquisition unit associates the image acquired by the RGB camera and the audio data related to speech and/or singing uttered by the distribution user using the second sensor with the same time code. Data recorded over a unit time (eg, an MPEG file) can be generated.

取得部は、このように生成した、配信ユーザの顔や手足等に関するデータ(MPEGファイル及びTSVファイル等)、及び/又は、配信ユーザにより発せられた発話及び/又は歌唱に関する音声データ(MPEGファイル等)を、処理部に出力することができる。 The acquisition unit generates data related to the distribution user's face, limbs, etc. (MPEG files, TSV files, etc.) and/or audio data related to speech and/or singing uttered by the distribution user (MPEG files, etc.). ) can be output to the processing unit.

なお、ここでは、第1のセンサがRGBカメラ及び赤外線カメラを含む場合について説明したが、第1のセンサは、例えば、(A)赤外線レーザーにより放射され配信ユーザの顔や手足等に反射した赤外線を検出するカメラ、(B)可視光線を撮像する複数のRGBカメラ、及び、(C)可視光線を撮像する単一のカメラ、のうちのいずれかを含むものであってもよい。上記(A)の場合には、取得部は、前述したものと同様の手法により、配信ユーザの顔や手足等における各特徴点について深度を算出することができる。上記(B)の場合には、取得部は、複数のRGBカメラにより撮像された複数の画像を用いて、配信ユーザの顔や手足等における各特徴点について奥行(深度)を計算することができる。上記(C)の場合には、取得部は、単一のカメラにより撮像された画像から、配信ユーザの顔や手足等における各特徴点の奥行(深度)を、ディープラーニング等を利用して算出することができる。また、上記(C)の場合には、取得部は、単一のカメラにより撮像された画像に対する分析処理(画像処理等)により、配信ユーザの顔や手足等における各特徴点の奥行(深度)を算出してもよい。 Note that here, a case has been described in which the first sensor includes an RGB camera and an infrared camera, but the first sensor may, for example, detect infrared rays emitted by (A) an infrared laser and reflected on the face, limbs, etc. of the distribution user. (B) a plurality of RGB cameras that capture visible light; and (C) a single camera that captures visible light. In the case of (A) above, the acquisition unit can calculate the depth of each feature point on the distribution user's face, limbs, etc. using a method similar to that described above. In the case of (B) above, the acquisition unit can calculate the depth of each feature point on the distribution user's face, limbs, etc., using multiple images captured by multiple RGB cameras. . In the case of (C) above, the acquisition unit uses deep learning etc. to calculate the depth of each feature point on the distribution user's face, limbs, etc. from the image captured by a single camera. can do. In the case of (C) above, the acquisition unit calculates the depth of each feature point on the distribution user's face, limbs, etc. by analysis processing (image processing, etc.) on the image captured by a single camera. may be calculated.

また、取得部は、第1のセンサに含まれるモーションセンサやトラッキングセンサを用いて、配信ユーザの体の各部位の位置や向きに関する検出情報を取得し、当該検出情報を処理部に出力することができる。なお、モーションセンサやトラッキングセンサを用いて取得される配信ユーザの体の各部位の位置や向きに関する検出情報の詳細については後述する。 Further, the acquisition unit acquires detection information regarding the position and orientation of each part of the distribution user's body using a motion sensor and a tracking sensor included in the first sensor, and outputs the detection information to the processing unit. I can do it. Note that the details of the detection information regarding the position and orientation of each part of the distribution user's body acquired using the motion sensor and the tracking sensor will be described later.

処理部は、取得部からの、配信ユーザの顔や手足等に関するデータ(及び検出情報等に関する各種情報)に基づいて、仮想的なキャラクター(アバターオブジェクト)のアニメーションを含む動画を生成することができる。アバターオブジェクトの動画自体については、処理部は、図示しないキャラクターデータ記憶部に記憶された様々な情報(例えば、ジオメトリ情報、ボーン情報、テクスチャ情報、シェーダ情報及びブレンドシェイプ情報等)を用いて、図示しないレンダリング部にレンダリングを実行させることにより、アバターオブジェクトの動画を生成することもできる。 The processing unit can generate a video including an animation of a virtual character (avatar object) based on data regarding the distribution user's face, limbs, etc. (and various information regarding detection information, etc.) from the acquisition unit. . Regarding the animation itself of the avatar object, the processing unit uses various information (for example, geometry information, bone information, texture information, shader information, blend shape information, etc.) stored in a character data storage unit (not shown) to It is also possible to generate a moving image of an avatar object by having a rendering unit that does not perform rendering execute rendering.

なお、配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて、この配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、他の任意の周知な技術を利用することも可能である。 Note that any other well-known method may be used to generate a video including the animation of the avatar object of the distribution user based on data regarding the distribution user's movements and/or audio data regarding speech and singing uttered by the distribution user. It is also possible to use technology.

ところで、後述する通信部160が、視聴ユーザからのギフティングに対応して、アバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトを表示させる旨の要求情報をサーバ装置20(情報処理サーバ20B)から受信すると、動画生成部100は、通信部160を介して当該要求情報を受信し、当該要求情報に対応する後述のギフト記憶部150に記憶される第1のギフトオブジェクトに関する識別情報(名称・形状・色等)を参照して、アバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトを表示させる(第1のギフトオブジェクトを表示させた動画を生成する)。 By the way, in response to a gifting from a viewing user, the communication unit 160, which will be described later, sends request information to the server device 20 (information processing server 20B) to display a first gift object on a video including an animation of an avatar object. ), the video generation unit 100 receives the request information via the communication unit 160, and generates identification information (name・Display the first gift object on a video including the animation of the avatar object (generate a video in which the first gift object is displayed) with reference to the shape, color, etc.).

具体的には、視聴ユーザからのギフティング行為を契機として第1のギフトオブジェクトを動画上に表示させるために、第1のギフトオブジェクトの各々には、その形状に対応する第1コリジョン領域が予め設定され、各第1のギフトオブジェクトとこれに対応する第1コリジョン領域に関する情報は、後述するギフト記憶部150において、各第1のギフトオブジェクトに関する情報(大きさ・形状・色等)とともに記憶されている。さらに、第1のギフトオブジェクトを動画上のどの位置に表示させるかを特定するために、第1のギフトオブジェクトの各々には、三次元直交座標系の位置座標がギフティング時に設定される。当該位置座標の設定に際しては、動画上に既に表示されているアバターオブジェクトや第1のギフトオブジェクト等の各種オブジェクトと動画上において重複しない位置座標が設定される。動画上において重複しない位置座標とは、動画上に表示される複数の第1のギフトオブジェクトの各々に設定される複数の第1コリジョン領域が相互に重複しないこと、及び動画上においてアバターオブジェクト(アバターオブジェクトの各部位)に設定される第2コリジョン領域や他のオブジェクト(例えば、第2のギフトオブジェクト)に設定される第3コリジョン領域に対して第1コリジョン領域が重複しないことを意味し、この条件を満たすように、動画生成部100は、第1のギフトオブジェクトの各々に三次元直交座標(X軸を横方向、Y軸を奥行方向、及びZ軸を縦方向)に関する位置座標を設定する。なお、当該位置座標とは、第1のギフトオブジェクトの中心位置に対応するX軸、Y軸、及びZ軸に関する位置座標(例えば、図5において第1のギフトオブジェクト410Aの中心位置Zに対応する位置座標)、及び/又は第1コリジョン領域の外縁を形成する複数の位置に対応するX軸、Y軸、及びZ軸に関する位置座標(例えば、図5において第1のギフトオブジェクト410Aに対応する第1コリジョン領域の外縁を形成する位置Z~Z12に対応する位置座標)を意味する。このように設定された位置座標(及び第1コリジョン領域)に基づいて、各第1のギフトオブジェクトはアバターオブジェクトのアニメーションを含む動画上に表示される。また、このように設定された位置座標に基づいて、複数の第1コリジョン領域が重複しているか否かを判断することができる。なお、第1のギフトオブジェクトの各々に設定される位置座標、第1コリジョン領域、及び第2コリジョン領域は三次元直行座標系にて設定される旨説明したが、動画が二次元で表現される場合においては、二次元直行座標系にて設定されてもよい。 Specifically, in order to display a first gift object on a video in response to a gifting action from a viewing user, each first gift object is provided with a first collision area corresponding to its shape in advance. The information about each first gift object and the corresponding first collision area is stored together with information about each first gift object (size, shape, color, etc.) in the gift storage unit 150, which will be described later. ing. Furthermore, in order to specify at which position on the video the first gift object is to be displayed, position coordinates in a three-dimensional orthogonal coordinate system are set for each of the first gift objects at the time of gifting. When setting the positional coordinates, positional coordinates that do not overlap on the video with various objects such as the avatar object and the first gift object that are already displayed on the video are set. The position coordinates that do not overlap on the video means that the plurality of first collision areas set for each of the plurality of first gift objects displayed on the video do not overlap with each other, and the position coordinates that do not overlap with each other on the video This means that the first collision area does not overlap with the second collision area set for each part of the object) or the third collision area set for another object (for example, the second gift object). In order to satisfy the conditions, the video generation unit 100 sets positional coordinates regarding three-dimensional orthogonal coordinates (X-axis in the horizontal direction, Y-axis in the depth direction, and Z-axis in the vertical direction) for each of the first gift objects. . Note that the position coordinates refer to position coordinates regarding the X, Y, and Z axes corresponding to the center position of the first gift object (for example, corresponding to the center position Z0 of the first gift object 410A in FIG. 5). (e.g., corresponding to the first gift object 410A in FIG. 5) (position coordinates corresponding to positions Z 1 to Z 12 forming the outer edge of the first collision area). Based on the position coordinates (and the first collision area) set in this way, each first gift object is displayed on the video including the animation of the avatar object. Further, based on the position coordinates set in this way, it can be determined whether the plurality of first collision areas overlap. Although it has been explained that the position coordinates, first collision area, and second collision area set for each of the first gift objects are set in a three-dimensional orthogonal coordinate system, the video is expressed in two dimensions. In some cases, it may be set in a two-dimensional orthogonal coordinate system.

また、後述する判定部120が、配信ユーザの動作に基づいて、動画上に表示された第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと判定した場合、動画生成部100は、当該判定に関する信号を判定部120から受信して、アバターオブジェクトのアニメーションを含む動画上に、第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを表示させる(第2のギフトオブジェクトを表示させた動画を生成する)。 Further, when the determination unit 120 (described later) determines that the avatar object has performed a predetermined action on the first gift object displayed on the video based on the distribution user's action, the video generation unit 100 A signal related to the determination is received from the determination unit 120, and a second gift object different from the first gift object is displayed on the video including the animation of the avatar object (a video in which the second gift object is displayed) ).

具体的には、配信ユーザの動作に基づいて動画上に表示された第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと判定部120が判定することを契機として第2のギフトオブジェクトを動画上に表示させるために、第2のギフトオブジェクトの各々には、その形状に対応する第3コリジョン領域が予め設定され、各第2のギフトオブジェクトとこれに対応する第3コリジョン領域に関する情報は、後述するギフト記憶部150において、第2のギフトオブジェクトに関する情報(大きさ・形状・色等)とともに記憶されている。さらに、第2のギフトオブジェクトを動画上のどの位置に表示させるかを特定するために、第2のギフトオブジェクトの各々には、三次元直交座標系の位置座標が設定される。当該位置座標の設定に際しては、動画上に既に表示されているアバターオブジェクトや第1のギフトオブジェクト等の各種オブジェクトと動画上において重複しない位置座標が設定される。動画上において重複しない位置座標とは、前述と同様、動画上に表示される複数の第1のギフトオブジェクトの各々に設定される複数の第1コリジョン領域やアバターオブジェクトに設定される第2コリジョン領域に対して第3コリジョン領域が重複しないことを意味し、この条件を満たすように、動画生成部100は第2のギフトオブジェクトの各々に三次元直交座標((X軸を横方向、Y軸を奥行方向、Z軸を縦方向)に関する位置座標を設定する。なお、当該位置座標とは、前述の第1のギフトオブジェクトと同様、第2のギフトオブジェクトの中心位置に対応するX軸、Y軸、及びZ軸に関する位置座標、及び/又は第3コリジョン領域の外縁を形成する複数の位置に対応するX軸、Y軸、及びZ軸に関する位置座標を意味する。このように設定された位置座標(及び第3コリジョン領域)に基づいて、各第2のギフトオブジェクトはアバターオブジェクトのアニメーションを含む動画上に表示される。なお、第2のギフトオブジェクトの各々に設定される位置座標及び第3コリジョン領域は三次元直行座標にて設定される旨説明したが、動画が二次元で表現される場合においては、二次元直行座標系にて設定されてもよい。 Specifically, when the determination unit 120 determines that the avatar object has performed a predetermined action on the first gift object displayed on the video based on the distribution user's action, the second gift object is In order to display on the video, a third collision area corresponding to the shape of each second gift object is set in advance, and information regarding each second gift object and the corresponding third collision area is set in advance. is stored together with information regarding the second gift object (size, shape, color, etc.) in the gift storage unit 150, which will be described later. Furthermore, in order to specify where on the video the second gift object is to be displayed, position coordinates in a three-dimensional orthogonal coordinate system are set for each of the second gift objects. When setting the positional coordinates, positional coordinates that do not overlap on the video with various objects such as the avatar object and the first gift object that are already displayed on the video are set. As mentioned above, positional coordinates that do not overlap on a video are a plurality of first collision areas set for each of a plurality of first gift objects displayed on a video or a second collision area set for an avatar object. This means that the third collision area does not overlap, and in order to satisfy this condition, the video generation unit 100 sets each of the second gift objects in three-dimensional orthogonal coordinates ((X-axis in the horizontal direction, Y-axis in the Set the position coordinates in the depth direction (the Z axis is the vertical direction).The position coordinates are the X and Y axes corresponding to the center position of the second gift object, similar to the first gift object described above. , and positional coordinates regarding the Z-axis, and/or positional coordinates regarding the X-axis, Y-axis, and Z-axis corresponding to a plurality of positions forming the outer edge of the third collision area.Positional coordinates set in this way (and the third collision area), each second gift object is displayed on the video including the animation of the avatar object. Furthermore, the position coordinates and the third collision area set for each of the second gift objects are displayed on the video including the animation of the avatar object. Although it has been explained that the area is set using three-dimensional orthogonal coordinates, if the moving image is expressed in two dimensions, it may be set using a two-dimensional orthogonal coordinate system.

ところで、前述のとおり、所定アクションを実行したと判定部120が判定することを契機として第2のギフトオブジェクトを動画上に表示させるに際して、所定アクションが実行された第1のギフトオブジェクトに対しては様々な方法が採用されうる。例えば、動画上に第2のギフトオブジェクトが表示されるに際して所定アクションが実行された第1のギフトオブジェクトを当該動画上から消去する構成が採用される。また、所定アクションが実行された第1のギフトオブジェクトは動画上から消去せず、当該第1のギフトオブジェクトの形態(例えば、形状、大きさ、色、等)が時間経過とともに次第に変化する(例えば、第1のギフトオブジェクトの大きさだけが変化する場合、第1のギフトオブジェクトの一部の色が変化する場合、等)ことで第2のギフトオブジェクトが生成される(第2のギフトオブジェクトが動画上に表示される)構成としてもよい。また、前述の両方の構成が採用されるようにしてもよい(例えば、所定アクションが実行された第1のギフトオブジェクトが2つであった場合、当該2つのうちの一方の第1のギフトオブジェクトは動画上から消去され、他方の第1のギフトオブジェクトの形態が次第に変化して第2のギフトオブジェクトが生成されるような構成としてもよい)。 By the way, as described above, when displaying the second gift object on the video triggered by the determination unit 120 determining that the predetermined action has been performed, the first gift object for which the predetermined action has been performed is Various methods can be employed. For example, a configuration is adopted in which when a second gift object is displayed on a video, a first gift object for which a predetermined action has been performed is deleted from the video. Furthermore, the first gift object for which the predetermined action has been performed is not deleted from the video, and the form (e.g., shape, size, color, etc.) of the first gift object gradually changes over time (e.g. , when only the size of the first gift object changes, when the color of a part of the first gift object changes, etc.), a second gift object is generated (when the second gift object changes). It may also be a configuration (displayed on the video). Further, both of the above-mentioned configurations may be adopted (for example, if there are two first gift objects on which a predetermined action has been performed, one of the two first gift objects may be deleted from the video, and the form of the other first gift object may gradually change to generate a second gift object).

なお、動画生成部100は、所定の条件が満たされる場合においては、第1のギフトオブジェクトがアバターオブジェクトによって把持されると認識して、図4に示すように、当該第1のギフトオブジェクトがアバターオブジェクトによって把持された状態の動画を生成することができる。ここで所定の条件とは、配信ユーザの動作に基づいて、第1のギフトオブジェクトに設定された第1コリジョン領域と、アバターオブジェクトの手(又は指)に設定された第2コリジョン領域とが、動画内において少なくとも一部において重なりあう(重複する)と判断され、且つアバターオブジェクトの手(又は指)が折れ曲がっていると判断された場合をいう。この各判断は、動画生成部100によって実行されてもよいし、別の構成要素によって実行された上で各判断結果が少なくとも動画生成部100に送信される構成であってもよい。なお、アバターオブジェクトの手(又は指)が折れ曲がっていると判断する方法は、後述するコントローラの信号に基づいて実行することができる。なお、アバターオブジェクトによって把持される点に関しては、第2のギフトオブジェクトも同様である。つまり、第2のギフトオブジェクトに設定された第3コリジョン領域と、前述の第2コリジョン領域とが、動画内において少なくとも一部において重なりあう(重複する)と判断され、且つアバターオブジェクトの手(又は指)が折れ曲っていると判断された場合に、第2のギフトオブジェクトはアバターオブジェクトによって把持される。 Note that when a predetermined condition is satisfied, the video generation unit 100 recognizes that the first gift object is held by the avatar object, and as shown in FIG. It is possible to generate a video of the object being grasped. Here, the predetermined condition means that the first collision area set on the first gift object and the second collision area set on the hand (or finger) of the avatar object are based on the distribution user's actions. This refers to a case where it is determined that at least a portion of the video overlaps (overlaps), and the hands (or fingers) of the avatar object are determined to be bent. Each of these determinations may be executed by the video generation unit 100, or a configuration may be adopted in which each determination result is transmitted to at least the video generation unit 100 after being executed by another component. Note that the method for determining that the hands (or fingers) of the avatar object are bent can be performed based on signals from the controller, which will be described later. Note that the second gift object is held in the same way by the avatar object. In other words, it is determined that the third collision area set for the second gift object and the above-mentioned second collision area overlap (overlap) at least in part in the video, and the avatar object's hand (or If it is determined that the second gift object (finger) is bent, the second gift object is grasped by the avatar object.

なお、複数の第1コリジョン領域が重複するか否か、及び第1コリジョン領域と第2コリジョン領域とが重複するか否かに関する判断は、各コリジョン領域の外縁に対応するX軸、Y軸、及びZ軸に関する複数の位置座標に基づいて実行される。 Note that judgments regarding whether or not the plurality of first collision areas overlap and whether or not the first collision area and the second collision area overlap are made based on the X-axis, Y-axis, and Y-axis corresponding to the outer edges of each collision area. and a plurality of position coordinates regarding the Z axis.

前述のとおり、所定アクションを実行したと判定部120が判定することを契機として第2のギフトオブジェクトを動画上に表示させるに際し、動画上にどのような第2のギフトオブジェクトを表示させるかについては、動画生成部100は、後述するギフト記憶部150に記憶される設定条件を参照して決定する。当該設定条件とは、例えば、第一に、所定アクションが実行された第1のギフトオブジェクトの種類、所定アクションが実行された第1のギフトオブジェクトの種類毎の付与数、及び後述する特定位置(図4においては、特定位置Y1又はY2)から構成される種々の組合せに応じて、どのような第2のギフトオブジェクトが対応するかを関連付けた条件である。また設定条件とは、第二に、少なくとも1つのギフトオブジェクトを別の第1のギフトオブジェクトに接触させる場合においては、所定アクションが実行された第1のギフトオブジェクトの種類と数(付与数)から構成される種々の組合せに応じて、どのような第2のギフトオブジェクトが対応するかを関連付けた情報である。 As described above, when displaying the second gift object on the video in response to the determination by the determination unit 120 that a predetermined action has been performed, the following describes what kind of second gift object to display on the video. , the video generation unit 100 makes the determination with reference to setting conditions stored in the gift storage unit 150, which will be described later. The setting conditions include, for example, firstly, the type of the first gift object on which the predetermined action was performed, the number of grants for each type of the first gift object on which the predetermined action was performed, and the specific position (described later). In FIG. 4, the conditions are associating what kind of second gift object corresponds to various combinations formed from the specific position Y1 or Y2). Second, in the case where at least one gift object is brought into contact with another first gift object, the setting condition is based on the type and number of first gift objects (number of grants) on which the predetermined action has been performed. This is information that associates what kind of second gift object corresponds to various combinations.

前述の設定条件の第一の場合の具体例としては、図4に示される場合を参照しつつ説明すると、所定アクションが実行された第1のギフトオブジェクトの種類が「男の子のぬいぐるみ」(図4における参照符号410A)、所定アクションが実行された第1のギフトオブジェクトの種類毎(「男の子のぬいぐるみ」410A)の付与数が「1つ」、特定位置が「Y1]の場合、第2のギフトオブジェクトとしては、図6に示すように、複数の「小さなクマのぬいぐるみ」(図6における参照符号420)と予め設定されている。同様に、図4の場合において、所定アクションが実行された第1のギフトオブジェクトの種類が「男の子のぬいぐるみ」(図4における参照符号410B)、所定アクションが実行された第1のギフトオブジェクトの種類毎(「男の子のぬいぐるみ」410B)の付与数が「1つ」、特定位置が「Y2」の場合、第2のギフトオブジェクトとしては、1つの「大きな象のぬいぐるみ」(図示せず)、と予め設定されている。これらの設定条件に関する各種条件は、適宜に変更すればよく、例えばテーブルの形式でギフト記憶部150に記憶される。 A specific example of the first case of the setting condition described above will be explained with reference to the case shown in FIG. (reference numeral 410A), when the number of grants for each type of first gift object ("boy's stuffed toy" 410A) for which the predetermined action was performed is "1", and the specific position is "Y1", the second gift As shown in FIG. 6, the objects are set in advance as a plurality of "small stuffed bears" (reference numeral 420 in FIG. 6). Similarly, in the case of FIG. 4, the type of the first gift object for which the predetermined action was performed is "boy's stuffed toy" (reference numeral 410B in FIG. 4); If the number of gifts for each item (“boy stuffed toy” 410B) is “1” and the specific position is “Y2”, the second gift object is one “large elephant stuffed toy” (not shown). It is set in advance. Various conditions related to these setting conditions may be changed as appropriate, and are stored in the gift storage unit 150 in the form of a table, for example.

他方、前述の設定条件の第二の場合の具体例としては、図5に示される場合を参照しつつ説明すると、所定アクションが実行された第1のギフトオブジェクトの種類と数が「男の子のぬいぐるみ」410Aが「1つ」、及び「男の子のぬいぐるみ」410Bが「1つ」の場合、第2のギフトオブジェクトとしては、図7に示すように、1つの「小さな男の子のぬいぐるみ」(図7における参照符号430)と予め設定されている。前述と同様、これらの設定条件に関する各種条件は、適宜に変更すればよく、例えば、第1のギフトオブジェクト同士の接触時間や第1のギフトオブジェクト同士が接触する際の衝突速度を条件としてもよい(具体的には、衝突速度はαkm/h以上の時には、第2のギフトオブジェクトとして「チーターのぬいぐるみ」を表示させ、αkm/h未満の時には、第2のギフトオブジェクトとして「亀のぬいぐるみ」を表示させる)し、所定アクションが実行された複数の第1のギフトオブジェクトの接触時の相対位置(例えば、図5に示される場合において、接触時において「男の子のぬいぐるみを」410Aが「男の子のぬいぐるみ」410Bよりも上側の場合と下側の場合とで、表示させる第2のギフトオブジェクトの種類が異ならせる)を条件としてもよい。また、これらの設定条件は、例えばテーブルの形式でギフト記憶部150に記憶される。 On the other hand, as a specific example of the second case of the above-mentioned setting condition, it will be explained with reference to the case shown in FIG. ” 410A is “one” and “boy stuffed toy” 410B is “one”, the second gift object is one “little boy stuffed toy” (in FIG. 7), as shown in FIG. Reference number 430) is set in advance. As described above, various conditions related to these setting conditions may be changed as appropriate. For example, the contact time between the first gift objects or the collision speed when the first gift objects contact each other may be set as conditions. (Specifically, when the collision speed is equal to or higher than αkm/h, a “cheetah stuffed toy” is displayed as the second gift object, and when it is less than αkm/h, a “turtle stuffed toy” is displayed as the second gift object.) 410A) and the relative positions of the plurality of first gift objects upon contact for which a predetermined action has been performed (for example, in the case shown in FIG. 410B, the type of the second gift object to be displayed may be different depending on whether it is above or below 410B). Further, these setting conditions are stored in the gift storage unit 150 in the form of a table, for example.

なお、前述の第一及び第二の設定条件には、動画上に表示される第2のギフトオブジェクト(例えば、図6に関する複数の「小さなクマのぬいぐるみ」420、及び図7に関する「「小さな男の子のぬいぐるみ」430)が、動画上のどの位置に表示されるかに関する条件も含むことができる。具体的には、図6の場合においては、第2のギフトオブジェクトとしての複数の「小さなクマのぬいぐるみ」420の各々には、動画上の複数箇所に渡って別々に配されるように、X軸、Y軸、及びZ軸に関する個別の位置座標に関する情報が予め設定される(つまり、第2のギフトオブジェクトが表示される位置は、所定アクションが実行された第1のギフトオブジェクトが存在していた位置とは異なる位置にも表示される)。他方、図7の場合においては、第2のギフトオブジェクトとしての「小さな男の子のぬいぐるみ」430には、第1のギフトオブジェクト(例えば、「男の子のぬいぐるみ」410A)が存在していた位置座標と同一の位置座標に関する情報が予め設定される。 Note that the above-mentioned first and second setting conditions include the second gift objects displayed on the video (for example, a plurality of "little stuffed bears" 420 in FIG. 6, and "little boy" in FIG. 430) may be displayed on the video. Specifically, in the case of FIG. 6, each of the plurality of "small stuffed bears" 420 as the second gift object has an Information regarding individual position coordinates regarding the axis, Y axis, and Z axis is preset (that is, the position where the second gift object is displayed is the position where the first gift object on which the predetermined action was performed is located). (It may also be displayed in a different position than the original position.) On the other hand, in the case of FIG. 7, the "little boy's stuffed toy" 430 as the second gift object has the same positional coordinates as the first gift object (for example, "boy's stuffed toy" 410A). Information regarding the position coordinates of is set in advance.

さらに、動画生成部100は、所定アクションを実行したと判定部120が判定することを契機として第2のギフトオブジェクトを動画上に表示させるに際し、図8に示すように、当該第2のギフトオブジェクトが動画上に表示される途中の状態(第2のギフトオブジェクトが表示される直前の状態)を示すエフェクトオブジェクト500を動画上に表示させてもよい。この場合において、動画生成部100は、所定アクション(図8においては、第1のギフトオブジェクトである「男の子のぬいぐるみ」410Aを、別の第1のギフトオブジェクトである「男の子のぬいぐるみ」410Bに接触させること)を実行したと判定部120が判定した時点を契機にエフェクトオブジェクト500を動画上に表示させ、第2のギフトオブジェクトを動画上に実際に表示させた時点を契機に当該エフェクトオブジェクト500を動画上から消去させる。また、動画生成部100は、2つの第1コリジョン領域(例えば、図5における第1コリジョン領域411A及び411B)が重複している位置座標を参照して、その重複している位置座標にエフェクトオブジェクト500を表示することができる。 Furthermore, when displaying the second gift object on the video triggered by the determination unit 120 determining that the predetermined action has been performed, the video generation unit 100 displays the second gift object as shown in FIG. An effect object 500 indicating a state in the middle of being displayed on the video (a state immediately before the second gift object is displayed) may be displayed on the video. In this case, the video generation unit 100 performs a predetermined action (in FIG. 8, the first gift object "boy's stuffed toy" 410A is brought into contact with another first gift object "boy's stuffed toy" 410B). The effect object 500 is displayed on the video at the time when the determination unit 120 determines that the second gift object is actually displayed on the video, and the effect object 500 is displayed at the time when the second gift object is actually displayed on the video. Delete it from the video. The video generation unit 100 also refers to the positional coordinates where the two first collision areas (for example, the first collision areas 411A and 411B in FIG. 5) overlap, and creates an effect object at the overlapping positional coordinates. 500 can be displayed.

(2)表示部110
表示部110は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の配信及び/又は視聴に必要とされる様々な情報を表示することができる。例えば、表示部110は、配信される動画、受信した動画、及び/又は生成した動画等を、表示することができる。また、表示部110は、サーバ装置20から各端末装置10に配信される各種のコメントも、受信した動画とともに表示することができる。さらにまた、ギフト記憶部150に記憶されているギフト情報(第1のギフトオブジェクトに関する情報)を、視聴ユーザの操作に応じて適宜表示することもできる。
(2) Display section 110
The display unit 110 can display various information required for distributing and/or viewing a video (including a video displaying the first gift object and a video displaying the second gift object). can. For example, the display unit 110 can display distributed videos, received videos, generated videos, and the like. Further, the display unit 110 can also display various comments distributed from the server device 20 to each terminal device 10 together with the received video. Furthermore, the gift information (information regarding the first gift object) stored in the gift storage section 150 can be displayed as appropriate in response to the viewing user's operation.

(3)判定部120
判定部120は、動画生成部100によって、アバターオブジェクトのアニメーションを含む動画上に1又は複数の第1のギフトオブジェクトが表示された状態(1又は複数の第1のギフトオブジェクトを表示させた動画が生成された状態)において、配信ユーザの動作に基づいて、当該動画上に表示された第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したか否かを判定する。ここで、所定アクションとは、例えば、アバターオブジェクトが第1のギフトオブジェクトを当該動画内の特定位置に移動させるアクションや、アバターオブジェクトが少なくとも1つの第1のギフトオブジェクトを別の第1のギフトオブジェクトに接触、摺動、又は衝突させるアクションを含むことができる。なお、前述のアクションは、いずれも配信ユーザの動作に基づくものである。
(3) Determination unit 120
The determination unit 120 determines that the video generation unit 100 generates a state in which one or more first gift objects are displayed on a video including an animation of an avatar object (a video in which one or more first gift objects is displayed is In the generated state), it is determined whether the avatar object has performed a predetermined action with respect to the first gift object displayed on the video, based on the distribution user's action. Here, the predetermined action is, for example, an action in which the avatar object moves a first gift object to a specific position in the video, or an action in which the avatar object moves at least one first gift object to another first gift object. may include touching, sliding, or colliding actions. Note that the above-mentioned actions are all based on the actions of the distribution user.

前述のとおり、第1のギフトオブジェクトの各々には、固有の(第1のギフトオブジェクトの形態に対応する)第1コリジョン領域が予め設定され、アバターオブジェクトの手(又は指)には第2コリジョン領域が予め設定され、前述の所定の条件が満たされると、第1のギフトオブジェクトはアバターオブジェクトによって把持される。なお、アバターオブジェクトは、その両手において原則2つの第1のギフトオブジェクトを把持することができるが、必ずしもこれに限定されない。例えば、アバターオブジェクトは、その両手において3つ以上の第1のギフトオブジェクトを把持するようにしてもよいし、動画内に複数のアバターオブジェクトが表示される場合においては、4つ以上の第1のギフトオブジェクトがアバターオブジェクトによって把持されうる。 As described above, each of the first gift objects has a unique first collision area (corresponding to the form of the first gift object) set in advance, and the hand (or finger) of the avatar object has a second collision area. When the area is preset and the predetermined conditions described above are met, the first gift object is grasped by the avatar object. Note that, although the avatar object can hold two first gift objects with both hands in principle, the invention is not necessarily limited to this. For example, the avatar object may hold three or more first gift objects in both hands, or if multiple avatar objects are displayed in the video, the avatar object may hold four or more first gift objects. A gift object can be grasped by an avatar object.

判定部120は、図4に示すように、アバターオブジェクト400が、第1のギフトオブジェクト410A(又は410B)を第1の位置X1(又は第1の位置X1’)において把持する状態を起点として、配信ユーザの動作に基づいて、当該把持した状態を維持したまま第1のギフトオブジェクト410A(又は410B)を第1の位置X1(又は第1の位置X1’)とは異なる位置である第2の位置Y1(又は第2の位置Y2)へと移動させる場合に、動画内の特定位置に移動させるアクションが実行されたと判定する。この場合、第2の位置Y1(又は第2の位置Y2)が特定位置となる。なお、第1の位置X1(又は第1の位置X1’)は、動画上におけるあらゆる位置において適宜変更される。また、第2の位置Y1(又は第2の位置Y2)は、動画上におけるいずれかの位置においてXYZ座標系で予め設定しておけばよい。 As shown in FIG. 4, the determination unit 120 starts from a state in which the avatar object 400 grips the first gift object 410A (or 410B) at the first position X1 (or first position X1'). Based on the distribution user's actions, the first gift object 410A (or 410B) is moved to a second position that is different from the first position X1 (or first position X1') while maintaining the gripped state. When moving to position Y1 (or second position Y2), it is determined that an action to move to a specific position in the video has been executed. In this case, the second position Y1 (or second position Y2) becomes the specific position. Note that the first position X1 (or first position X1') is changed as appropriate at any position on the video. Further, the second position Y1 (or the second position Y2) may be set in advance at any position on the video in the XYZ coordinate system.

また、図4に示すように、アバターオブジェクト400が2つの第1のギフトオブジェクト410A及び410Bを両手に把持する状態を起点として、図5に示すように、配信ユーザの動作に基づいて2つの第1のギフトオブジェクト410A及び410Bを接触させると、判定部120は所定アクションが実行されたと判定する。ここで、2つの第1のギフトオブジェクト410A及び410Bが接触するとは、当該2つの第1のギフトオブジェクト410A及び410Bの各々に設定される第1コリジョン領域411A及び411Bが少なくとも一部において重なりあう(重複する)ことを意味する。また、2つの第1のギフトオブジェクト410A及び410Bが接触するとは、両者が摺動又は衝突する態様も含まれる。 Further, as shown in FIG. 4, starting from a state in which the avatar object 400 holds the two first gift objects 410A and 410B in both hands, as shown in FIG. When the first gift objects 410A and 410B are brought into contact, the determination unit 120 determines that a predetermined action has been performed. Here, when the two first gift objects 410A and 410B come into contact, it means that the first collision areas 411A and 411B set for each of the two first gift objects 410A and 410B overlap at least in part ( overlap). Furthermore, the two first gift objects 410A and 410B contacting each other also includes a manner in which they slide or collide.

ところで、2つの第1のギフトオブジェクト410A及び410Bの各々に設定される第1コリジョン領域411A及び411Bが少なくとも一部において重なりあう(重複する)ことは、前述にて説明したとおり、第1コリジョン領域411A及び411Bに対応するX軸、Y軸、及びZ軸に関する位置座標に基づいて判定される。 By the way, as explained above, the first collision areas 411A and 411B set for each of the two first gift objects 410A and 410B overlap (overlap) at least in part. The determination is made based on the position coordinates regarding the X-axis, Y-axis, and Z-axis corresponding to 411A and 411B.

(4)記憶部130
記憶部130は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
(4) Storage unit 130
The storage unit 130 can store various information required for distributing and/or viewing videos (including videos displaying the first gift object and videos displaying the second gift object). can.

(5)ユーザインタフェイス部140
ユーザインタフェイス部140は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の配信及び/又は視聴に必要とされる様々な情報を、配信ユーザ又は視聴ユーザの操作を介して入力することができる。例えば、ユーザインタフェイス部140は、アバターオブジェクトに対するギフティングに関する視聴ユーザの操作(予め用意された複数の第1のギフトオブジェクトの中からいずれかを選択してアバターオブジェクトに付与するコマンドを選択する等の操作を含む)の内容を示す操作データや、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメント情報(例えば、配信ユーザに対する視聴ユーザの「両手に持っている2つの男の子のぬいぐるみをぶつけてみて!」との所定アクションのヒントとなるようなコメント情報)の内容を示すデータを視聴ユーザから入力して、これら各種データを通信部160へ出力することができる。なお、前述の操作データとは、例えば、視聴ユーザが配信ユーザに対してどのような第1のギフトオブジェクト(第1のギフトオブジェクトの種類)をギフティングしたかに関する情報を含むことができる。
(5) User interface section 140
The user interface unit 140 distributes various information required for distributing and/or viewing a video (including a video displaying a first gift object and a video displaying a second gift object). The information can be input through operation by the user or viewing user. For example, the user interface unit 140 allows the viewing user to perform an operation related to gifting to the avatar object (such as selecting one of a plurality of first gift objects prepared in advance and selecting a command to be given to the avatar object). operation data indicating the content of the operation (including the operation of the avatar object), and comment information from the viewing user to the distribution user (avatar object) (for example, the viewing user says to the distribution user, ``Let's hit the two boy stuffed animals you are holding in your hands!'' It is possible for the viewing user to input data indicating the contents of comment information (such as comment information that provides a hint for a predetermined action such as ""), and output these various data to the communication section 160. Note that the above-mentioned operation data can include, for example, information regarding what kind of first gift object (type of first gift object) the viewing user gifted to the distribution user.

(6)ギフト記憶部150
ギフト記憶部150は、動画配信用アプリケーション及び動画視聴用アプリケーションが端末装置10にインストールされると、これらのアプリケーションに予め設定されるギフト情報を記憶することができる。なお、ギフト情報とは、第1のギフトオブジェクト及び第2のギフトオブジェクトの名称・形状・色等の識別情報や、視聴ユーザが第1のギフトオブジェクトをギフティングした場合に当該視聴ユーザに対して請求される第1のギフトオブジェクト毎の金額に関する情報を含むことができる。
(6) Gift storage section 150
When the video distribution application and the video viewing application are installed on the terminal device 10, the gift storage unit 150 can store gift information that is preset in these applications. Note that the gift information includes identification information such as the name, shape, and color of the first gift object and the second gift object, and information provided to the viewing user when the viewing user gifts the first gift object. Information regarding the amount per first gift object to be claimed may be included.

なお、前述の識別情報には、各第1のギフトオブジェクト及び第2のギフトオブジェクトに対応する前述の第1コリジョン領域及び第3コリジョン領域に関する情報も含まれる。 Note that the above-mentioned identification information also includes information regarding the above-mentioned first collision area and third collision area corresponding to each of the first gift object and the second gift object.

また、ギフト記憶部150は、所定アクションを実行したと判定部120が判定することを契機として第2のギフトオブジェクトを動画上に表示させる際に、動画生成部100が参照する前述の設定条件を記憶する。 Furthermore, the gift storage unit 150 stores the above-mentioned setting conditions that the video generation unit 100 refers to when displaying the second gift object on the video triggered by the determination unit 120 determining that a predetermined action has been performed. Remember.

(7)通信部160
通信部160は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の配信及び/又は視聴に必要とされる様々な情報を、サーバ装置20との間において通信することができる。例えば、通信部160は、端末装置10が配信ユーザの端末装置10として動作する場合には、アバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクトを表示させる旨の要求情報をサーバ装置20(情報処理サーバ装置20B)から受信して、生成された当該動画をサーバ装置20(配信サーバ装置20C)に送信することができる。
(7) Communication department 160
The communication unit 160 transmits various information required for distribution and/or viewing of videos (including videos displaying the first gift object and videos displaying the second gift object) to the server device 20. It is possible to communicate with For example, when the terminal device 10 operates as the terminal device 10 of the distribution user, the communication unit 160 sends request information to the server device 20 ( The generated video can be received from the information processing server device 20B) and transmitted to the server device 20 (distribution server device 20C).

また、通信部160は、所定アクションを実行したと判定部120が判定したことによって動画生成部100が動画上に第2のギフトオブジェクトを表示させた場合、当該第2のギフトオブジェクトを表示させた動画をサーバ装置20(配信サーバ装置20C)に送信することができる。このように、通信部160は、動画生成部100が生成する様々な動画を動画生成部100から受信して、これらの様々な動画をサーバ装置20(配信サーバ装置20C)に送信することができる。 Furthermore, when the video generation unit 100 displays the second gift object on the video because the determination unit 120 determines that the predetermined action has been performed, the communication unit 160 displays the second gift object. The video can be transmitted to the server device 20 (distribution server device 20C). In this way, the communication unit 160 can receive various videos generated by the video generating unit 100 from the video generating unit 100, and can transmit these various videos to the server device 20 (distribution server device 20C). .

他方、通信部160は、端末装置10が視聴ユーザの端末装置10として動作する場合には、配信ユーザの端末装置10によって生成された動画をサーバ装置20から受信することができる。また、同じく端末装置10が視聴ユーザの端末装置10として動作する場合には、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するギフティングに関する情報、及び視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに関する情報をサーバ装置20(コメントAPIサーバ装置20D)に送信することができる。 On the other hand, when the terminal device 10 operates as the viewing user's terminal device 10, the communication unit 160 can receive the video generated by the distribution user's terminal device 10 from the server device 20. Similarly, when the terminal device 10 operates as the viewing user's terminal device 10, information regarding gifting from the viewing user to the distribution user (avatar object) and information regarding comments from the viewing user to the distribution user (avatar object) are transmitted. It can be transmitted to the server device 20 (comment API server device 20D).

(8)スタジオユニット
前述の動画生成部100、表示部110、判定部120、記憶部130、ユーザインタフェイス部140、ギフト記憶部150、及び通信部160を含むスタジオユニット(図示せず)を端末装置10として用いることもできる。
(8) Studio unit A studio unit (not shown) including the aforementioned video generation section 100, display section 110, determination section 120, storage section 130, user interface section 140, gift storage section 150, and communication section 160 is used as a terminal. It can also be used as the device 10.

スタジオユニットは、パーソナルコンピュータ等の情報処理装置により実装可能なものであって、前述した端末装置10及びサーバ装置20と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイスと、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。また、スタジオユニットは、インストールされた特定のアプリケーションを実行する情報処理装置として機能することにより、スタジオユニットが設置されたスタジオルーム(図示せず)に居る配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関するデータに基づいて、アバターオブジェクトのアニメーションを含む動画を生成することができる。 The studio unit can be implemented by an information processing device such as a personal computer, and, like the terminal device 10 and server device 20 described above, mainly includes a central processing unit, a main storage device, and an input/output interface. , an input device, an auxiliary storage device, and an output device. These devices are connected to each other by a data bus and/or a control bus. In addition, the studio unit functions as an information processing device that executes a specific installed application, thereby providing information on the behavior of the distribution user in the studio room (not shown) in which the studio unit is installed, and/or the distribution user. It is possible to generate a video including animation of the avatar object based on data related to speech and singing uttered by the user.

スタジオユニットに含まれる動画生成部100の構成要素の多くは、スタジオルームに配される。また、スタジオルームにおいては、配信ユーザが種々のパフォーマンスを行い、スタジオユニットが、当該配信ユーザの動作、表情、及び発話(歌唱を含む)等を検出している。 Most of the components of the video generation section 100 included in the studio unit are arranged in the studio room. Furthermore, in the studio room, distribution users perform various performances, and the studio unit detects the distribution users' movements, facial expressions, speech (including singing), and the like.

配信ユーザは、スタジオユニット(動画生成部100)に含まれる種々のセンサ群によって動作、表情、及び発話(歌唱を含む)等がキャプチャされる対象となっている。この場合において、配信ユーザは、必ずしも人間である必要はなく、例えば、自立運動可能なロボットであってもよい。また、スタジオルーム内の配信ユーザは、1であってもよいし、2以上であってもよい。 The distribution user's movements, facial expressions, speech (including singing), etc. are to be captured by various sensor groups included in the studio unit (video generation section 100). In this case, the distribution user does not necessarily have to be a human, and may be a robot capable of independent movement, for example. Further, the number of distribution users in the studio room may be one, or two or more.

スタジオユニットにおける動画生成部100は、配信ユーザの複数の部位(例えば、手首、足甲、腰、頭頂等)に装着される種々のモーションセンサ(図示せず)と、配信ユーザの手に把持されるコントローラ(図示せず)と、装着具(図示せず)を介して配信ユーザの頭部に取付けられるカメラ(図示せず)と、を有することができる。また、スタジオユニットには、配信ユーザの音声データを取得するために、前述の装着具やスタジオルーム内のいずれかの場所(例えば、壁、床、天井等)にマイクが設けられている。さらに、スタジオユニットは、上記の構成に加えて、複数のベースステーション(図示せず)、トラッキングセンサ(図示せず)、及びディスプレイ(図示せず)を有することができる。 The video generation section 100 in the studio unit includes various motion sensors (not shown) attached to multiple parts of the distribution user (for example, wrists, insteps, hips, top of the head, etc.) and motion sensors held in the distribution user's hands. and a camera (not shown) attached to the head of the distribution user via a mounting device (not shown). Further, the studio unit is provided with a microphone in the above-mentioned mounting device or somewhere in the studio room (for example, on the wall, floor, ceiling, etc.) in order to acquire the audio data of the distribution user. Additionally, the studio unit may have multiple base stations (not shown), tracking sensors (not shown), and displays (not shown) in addition to the configurations described above.

前述のモーションセンサは、前述のベースステーションと協働して、配信ユーザの位置及び向きを検出することができる。一実施形態において、複数のベースステーションは、多軸レーザーエミッタ―であり、同期用の点滅光を発した後に、1つのベースステーションは例えば鉛直軸の周りでレーザー光を走査し、他のベースステーションは、例えば水平軸の周りでレーザー光を走査するように構成される。モーションセンサは、ベースステーションからの点滅光及びレーザー光の入射を検知する光センサを複数備え、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサでの受光時間、各光センサが検知したレーザー光の入射角度、等を検出することができる。モーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよいし、ZERO C SEVEN Inc.から提供されているXsens MVN Analyzeであってもよい。 The aforementioned motion sensor can cooperate with the aforementioned base station to detect the location and orientation of the broadcast user. In one embodiment, the plurality of base stations are multi-axis laser emitters, and after emitting a synchronizing flashing light, one base station scans the laser light, e.g. around a vertical axis, and the other base stations is configured, for example, to scan a laser beam around a horizontal axis. The motion sensor is equipped with multiple optical sensors that detect the incidence of flashing light and laser light from the base station. It is possible to detect the incident angle of the laser beam detected by the sensor. The motion sensor may be, for example, Vive Tracker provided by HTC CORPORATION, or Vive Tracker provided by ZERO C SEVEN Inc. It may also be Xsens MVN Analyze provided by Microsoft.

スタジオユニットにおける動画生成部100は、モーションセンサにおいて算出された各モーションセンサの位置及び向きを示す検出情報を取得する。モーションセンサは、配信ユーザの手首、足甲、腰、頭頂等の部位に装着されることにより、モーションセンサの位置及び向きを検出して、配信ユーザにおける体の各部位の動きを検出することができる。なお、モーションセンサの位置及び向きを示す検出情報は、動画内(動画に含まれる仮想空間内)における配信ユーザにおける体の各部位毎のXYZ座標系における位置座標値として算出される。X軸は動画内における横方向、Y軸は動画内における奥行方向、Z軸は動画内における縦方向に対応する。したがって、配信ユーザにおける体の各部位の動きも、全てXYZ座標系における位置座標値として検出される。 The video generation section 100 in the studio unit acquires detection information indicating the position and orientation of each motion sensor calculated by the motion sensor. By being attached to the distribution user's wrist, instep, waist, top of the head, etc., the motion sensor can detect the position and orientation of the motion sensor and detect the movement of each part of the distribution user's body. can. Note that the detection information indicating the position and orientation of the motion sensor is calculated as position coordinate values in the XYZ coordinate system for each body part of the distribution user within the video (in the virtual space included in the video). The X axis corresponds to the horizontal direction within the video, the Y axis corresponds to the depth direction within the video, and the Z axis corresponds to the vertical direction within the video. Therefore, the movements of each part of the distribution user's body are all detected as position coordinate values in the XYZ coordinate system.

一実施形態においては、複数のモーションセンサに多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの位置及び向きを検出してもよい。また、赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの位置及び向きを検出してもよい。 In one embodiment, a plurality of motion sensors are equipped with a large number of infrared LEDs, and light from the infrared LEDs is detected by an infrared camera installed on the floor or wall of a studio room. Position and orientation may also be detected. Furthermore, the position and orientation of the motion sensor may be detected by using a visible light LED instead of the infrared LED and detecting the light from the visible light LED with a visible light camera.

一実施形態においては、モーションセンサに代えて、複数の反射マーカーを用いることもできる。反射マーカーは、配信ユーザに粘着テープ等により貼付される。このように反射マーカーが貼付された配信ユーザを撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向き(前述と同様に、XYZ座標系における位置座標値)を検出するような構成としてもよい。 In one embodiment, a plurality of reflective markers may be used instead of a motion sensor. The reflective marker is attached to the distribution user using adhesive tape or the like. By photographing the distribution user with the reflective marker affixed in this way to generate photographic data, and performing image processing on this photographic data, the position and orientation of the reflective marker (as described above, the position coordinate value in the XYZ coordinate system) can be calculated. ) may be configured to detect.

コントローラは、配信ユーザによる指の折り曲げ等の操作に応じたコントロール信号を出力し、これを動画生成部100が取得する。 The controller outputs a control signal in response to an operation such as bending a finger by the distribution user, and the video generation unit 100 acquires this control signal.

トラッキングセンサは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。当該トラッキング情報は、三次元直交座標系での位置及び各軸回りの角度として算出され、動画生成部100は当該トラッキング情報を取得する。 The tracking sensor generates tracking information for determining virtual camera setting information for constructing a virtual space included in the video. The tracking information is calculated as a position in a three-dimensional orthogonal coordinate system and an angle around each axis, and the video generation unit 100 acquires the tracking information.

配信ユーザの頭部に取付けられるカメラは、配信ユーザの顔を撮像できるように配置される。当該カメラは、配信ユーザの顔を連続的に撮像することで、配信ユーザの顔の撮像データを取得し、動画生成部100はこの撮像データを当該カメラから取得する。なお、当該カメラは、配信ユーザの顔の奥行きを検出可能な3Dカメラであってもよい。 A camera attached to the distribution user's head is arranged so as to be able to capture an image of the distribution user's face. The camera acquires image data of the distribution user's face by continuously capturing images of the distribution user's face, and the video generation unit 100 acquires this image data from the camera. Note that the camera may be a 3D camera that can detect the depth of the distribution user's face.

ディスプレイは表示部110として機能するものであり、配信ユーザによって視認可能な位置に配置され、配信ユーザは、各種情報を取得して動画生成部100によって生成された動画を、ディスプレイを通して視認することが可能となっている。 The display functions as the display unit 110 and is placed in a position where it can be viewed by the distribution user, and the distribution user can acquire various information and view the video generated by the video generation unit 100 through the display. It is possible.

動画生成部100は、前述のモーションセンサ、トラッキングセンサ、各種カメラ、及びコントローラ等からの情報を取得して、アバターオブジェクトのアニメーションを含む動画を生成することができる。 The video generation unit 100 can generate a video including the animation of the avatar object by acquiring information from the aforementioned motion sensor, tracking sensor, various cameras, controller, and the like.

また、スタジオユニットは、以上のとおり説明した構成要素とその機能に加えて、前述にて説明した動画生成部100、表示部110、判定部120、記憶部130、ユーザインタフェイス部140、ギフト記憶部150、及び通信部160(又はこれらの機能を有する別の構成要素)を含むことができる。これにより、前述の所定アクションに関する判定や、アバターオブジェクトのアニメーションを含む動画上に第1のギフトオブジェクト及び/又は第2のギフトオブジェクトを表示させること等を実行することができる。以上のとおり説明したスタジオユニットの構成要素は一例であって、他に適用可能な様々な構成要素を含みうる。 In addition to the components and functions described above, the studio unit also includes the video generation section 100, display section 110, determination section 120, storage section 130, user interface section 140, and gift storage section described above. 150, and a communication unit 160 (or another component having these functions). Thereby, it is possible to make a determination regarding the above-mentioned predetermined action, display the first gift object and/or the second gift object on the video including the animation of the avatar object, and the like. The components of the studio unit described above are merely examples, and may include various other applicable components.

3-2.サーバ装置20の機能
サーバ装置20の機能の一例について図9を参照しつつ説明する。図9は、図1に示したサーバ装置20の機能の一例を模式的に示すブロック図である。
3-2. Functions of the server device 20 An example of the functions of the server device 20 will be described with reference to FIG. 9. FIG. 9 is a block diagram schematically showing an example of the functions of the server device 20 shown in FIG. 1.

図9に示すように、サーバ装置20は、主に、記憶部200、通信部210、ギフト処理部220、及びコメント処理部230を含むことができる。 As shown in FIG. 9, the server device 20 can mainly include a storage section 200, a communication section 210, a gift processing section 220, and a comment processing section 230.

(1)記憶部200
記憶部200は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の配信及び/又は視聴に必要とされる様々な情報を記憶することができる。
(1) Storage unit 200
The storage unit 200 can store various information required for distributing and/or viewing videos (including videos displaying the first gift object and videos displaying the second gift object). can.

(2)通信部210
通信部210は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の配信及び/又は視聴に必要とされる様々な情報を、配信ユーザの端末装置10及び/又は視聴ユーザの端末装置10との間において通信することができる。例えば、通信部210は、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)を、配信ユーザの端末装置10から受信して各視聴ユーザの端末装置10へ配信することができる。
(2) Communication department 210
The communication unit 210 transmits various information necessary for distributing and/or viewing a video (including a video displaying the first gift object and a video displaying the second gift object) to the distribution user. Communication is possible between the terminal device 10 and/or the terminal device 10 of the viewing user. For example, the communication unit 210 receives a video (including a video displaying a first gift object and a video displaying a second gift object) from the distribution user's terminal device 10 and receives the video from the terminal device of each viewing user. It can be distributed to the device 10.

また、通信部210は、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するギフティングに関する情報、及び視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメントに関する情報を視聴ユーザの端末装置10から受信すると、ギフティングに関する情報はギフト処理部220へ、コメントに関する情報はコメント処理部230へと各々出力する。 Further, when receiving information regarding gifting from the viewing user to the distribution user (avatar object) and information regarding comments from the viewing user to the distribution user (avatar object) from the viewing user's terminal device 10, the communication unit 210 receives information regarding gifting from the viewing user to the distribution user (avatar object). Information is output to the gift processing section 220, and information regarding comments is output to the comment processing section 230.

さらにまた、通信部210は、ギフト処理部220が読み出した第1のギフトオブジェクトに関する情報をギフト処理部220から入手して、アバターオブジェクトのアニメーションを含む動画上に当該第1のギフトオブジェクトを表示させる旨の要求情報を配信ユーザの端末装置10へ送信することができる。なお、通信部210がギフト処理部220から入手する第1のギフトオブジェクトに関する情報とは、配信ユーザの端末装置10における動画生成部100がギフト記憶部150に記憶される多数の第1のギフトオブジェクトに関する情報の中から、どの第1のギフトオブジェクトの情報を参照すればよいかを
特定できる程度の情報であればよい。例えば、視聴ユーザの端末装置10から、第1のギフトオブジェクトとして「男の子のぬいぐるみ」がギフティングされた場合、通信部210は、ギフト処理部220から、当該「男の子のぬいぐるみ」たる第1のギフトオブジェクトの名称(又は名称に類する文字列等)のみであってもよい。
Furthermore, the communication unit 210 obtains information regarding the first gift object read by the gift processing unit 220 from the gift processing unit 220, and causes the first gift object to be displayed on the video including the animation of the avatar object. Request information to that effect can be transmitted to the distribution user's terminal device 10. Note that the information regarding the first gift object that the communication unit 210 obtains from the gift processing unit 220 means that the video generation unit 100 in the distribution user's terminal device 10 collects a large number of first gift objects stored in the gift storage unit 150. Any information is sufficient as long as it is possible to specify which first gift object's information should be referred to from among the information related to the gift object. For example, when a "boy's stuffed toy" is gifted as a first gift object from the viewing user's terminal device 10, the communication unit 210 receives the first gift as the "boy's stuffed toy" from the gift processing unit 220. It may be only the name of the object (or a character string similar to the name, etc.).

さらにまた、通信部210は、配信ユーザの端末装置10から、第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと判定され第2のギフトオブジェクトが動画上に表示された旨に関する情報を受信して、当該情報をコメント処理部230へ出力することもできる。 Furthermore, the communication unit 210 receives information from the distribution user's terminal device 10 that it has been determined that the avatar object has performed a predetermined action on the first gift object and that the second gift object has been displayed on the video. It is also possible to receive the information and output the information to the comment processing section 230.

(3)ギフト処理部220
ギフト処理部220は、通信部210からギフティングに関する情報を受信すると、ギフティング行為がなされた視聴ユーザの識別情報(各視聴ユーザの端末装置10のシリアル番号や各視聴ユーザに付与されるID情報等)、ギフティングされた第1のギフトオブジェクトに関する情報(第1のギフトオブジェクトの名称・大きさ・形状・色等の識別情報)、及びギフティング対象のアバターオブジェクトたる配信ユーザの識別情報(配信ユーザの端末装置10のシリアル番号や配信ユーザに付与されるID情報等)を読み出す。
(3) Gift processing section 220
When the gift processing unit 220 receives the information regarding gifting from the communication unit 210, the gift processing unit 220 receives the identification information of the viewing user who has performed the gifting act (the serial number of the terminal device 10 of each viewing user and the ID information given to each viewing user). etc.), information regarding the gifted first gift object (identification information such as name, size, shape, color, etc. of the first gift object), and identification information of the distribution user who is the avatar object to be gifted (distribution The serial number of the user's terminal device 10, ID information given to the distribution user, etc.) are read out.

なお、第1のギフトオブジェクトに関し、ギフト処理部220は、配信ユーザの端末装置10における動画生成部100がギフト記憶部150に記憶される多数の第1のギフトオブジェクトに関する情報の中から、どの第1のギフトオブジェクトの情報を参照すればよいかを特定できる程度の情報(例えば、前述のとおり、第1のギフトオブジェクトの名称又は名称に類する文字列等)のみを読み出せばよく、第1のギフトオブジェクトの大きさ、形状、色等の識別情報は必ずしも読み出さなくてもよい。また、各第1のギフトオブジェクトに対応する第1コリジョン領域に関する情報は、ギフト処理部220にて読み出されることはなく、前述したギフト記憶部150にて記憶されている。 Regarding the first gift object, the gift processing unit 220 determines which one the video generation unit 100 in the distribution user's terminal device 10 selects from among the many pieces of information regarding the first gift object stored in the gift storage unit 150. It is only necessary to read out enough information to specify whether to refer to the information of the first gift object (for example, as described above, the name of the first gift object or a character string similar to the name, etc.). Identification information such as the size, shape, color, etc. of the gift object does not necessarily have to be read out. Further, the information regarding the first collision area corresponding to each first gift object is not read out by the gift processing unit 220 but is stored in the gift storage unit 150 described above.

なお、ギフト処理部220によって読み出された各種情報は、記憶部200に出力されて、当該記憶部200にて記憶される。 Note that the various information read by the gift processing section 220 is output to the storage section 200 and stored in the storage section 200.

(4)コメント処理部230
コメント処理部230は、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメント情報(例えば、配信ユーザに対する視聴ユーザの『両手に持っている2つの「男の子のぬいぐるみ」をぶつけてみて!』との所定アクションのヒントとなるようなコメント情報を含む)を、通信部210を介して視聴ユーザの端末装置10から受信することができ、視聴ユーザからの当該コメント情報を、同一の動画を視聴している各視聴ユーザに対して配信することができる。
(4) Comment processing unit 230
The comment processing unit 230 receives comment information from the viewing user to the distribution user (avatar object) (for example, a predetermined action of the viewing user to the distribution user such as "Try hitting the two "boy stuffed animals" you are holding in both hands!") (including comment information that may give hints) can be received from the viewing user's terminal device 10 via the communication unit 210, and the comment information from the viewing user can be received by each viewer who is viewing the same video. It can be distributed to viewing users.

また、コメント処理部230は、ギフト処理部220によって読み出された各種情報(記憶部200に記憶された情報)を参照して、どの視聴ユーザがどんな第1のギフトオブジェクトをアバターオブジェクトに対してギフティングしたかに関する全て又は一部の情報に対応するコメント情報(例えば、『視聴ユーザXが「男の子のぬいぐるみ」をギフティングしたよ!』とのコメント情報)を作成して、当該コメント情報を同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Further, the comment processing unit 230 refers to the various information read out by the gift processing unit 220 (information stored in the storage unit 200), and determines which viewing user has given which first gift object to the avatar object. Create comment information that corresponds to all or part of the information regarding whether the gift was given (for example, comment information such as ``Viewing user X gifted a boy's stuffed animal!''), and It is also possible to distribute the video to each viewing user who is viewing the same video.

さらにまた、コメント処理部230は、通信部210から、第2のギフトオブジェクトが動画上に表示された旨に関する情報を受信すると、その旨に対応するコメント情報(例えば、『たくさんの「小さなクマのぬいぐるみ」出現!』とのコメント情報)を作成して、当該コメント情報を同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Furthermore, when the comment processing unit 230 receives information from the communication unit 210 that the second gift object is displayed on the video, the comment processing unit 230 transmits comment information corresponding to that (for example, “Many small bears It is also possible to create comment information such as ``A stuffed animal has appeared!'' and distribute the comment information to each viewing user who is viewing the same video.

さらにまた、コメント処理部230は、視聴ユーザから配信ユーザ(アバターオブジェクト)に対するコメント情報を、通信部210を介して視聴ユーザの端末装置10から受信しているか否かにかかわらず、ギフト処理部220によって読み出された各種情報を参照して、ギフティングされた第1のギフトオブジェクトに対する所定アクションのヒントとなるようなコメント情報(例えば、『2つの「男の子のぬいぐるみ」を上下にくっつけて並べてみて!』とのコメント情報)を自ら作成して、当該コメント情報を同一の動画を視聴している各視聴ユーザに対して配信することもできる。 Furthermore, the comment processing unit 230 receives comment information from the viewing user to the distribution user (avatar object) from the viewing user's terminal device 10 via the communication unit 210. By referring to the various information read out by It is also possible to create comment information such as "!" by yourself and distribute the comment information to each viewing user who is viewing the same video.

4.動画配信システム1の全体的な動作
次に、上記構成を有する動画配信システム1においてなされる全体的な動作について、図10を参照して説明する。図10は、図1に示した動画配信システム1において行われる動作の一例を示すフロー図である。
4. Overall Operation of Video Distribution System 1 Next, the overall operation performed in the video distribution system 1 having the above configuration will be described with reference to FIG. 10. FIG. 10 is a flow diagram showing an example of operations performed in the video distribution system 1 shown in FIG. 1.

まず、ステップ(以下「ST」という。)300において、配信ユーザの操作に従って、その端末装置10(ここでは端末装置10A)が動画配信用アプリケーションを起動して実行する。 First, in step (hereinafter referred to as "ST") 300, the terminal device 10 (herein, the terminal device 10A) starts and executes a video distribution application according to the operation of the distribution user.

次に、ST301において、端末装置10Aは、配信ユーザの動作に関するデータ及び/又は配信ユーザによって発せられた発話や歌唱に関する音声データに基づいて配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成する。これにより、端末装置10Aの表示部110には、配信ユーザのアバターオブジェクト400のアニメーションを含む動画(例えば、図4において第1のギフトオブジェクト410A及び410Bが表示される前の状態の動画)が表示される。 Next, in ST301, the terminal device 10A generates a video including an animation of the distribution user's avatar object based on data regarding the distribution user's actions and/or audio data regarding speech and singing uttered by the distribution user. As a result, a video including an animation of the distribution user's avatar object 400 (for example, a video of the state before the first gift objects 410A and 410B are displayed in FIG. 4) is displayed on the display unit 110 of the terminal device 10A. be done.

さらに、端末装置10Aは、生成した動画をサーバ装置20の配信サーバ装置20Cに送信する。配信サーバ装置20Cは、端末装置10Aから受信した動画を、動画視聴用アプリケーションを実行している各視聴ユーザの端末装置10(ここでは、端末装置10B、端末装置10C、及び端末装置10D)に配信する。これにより、各視聴ユーザの端末装置10の表示部110にも、同じ動画が表示される。 Further, the terminal device 10A transmits the generated video to the distribution server device 20C of the server device 20. The distribution server device 20C distributes the video received from the terminal device 10A to the terminal devices 10 (here, the terminal device 10B, the terminal device 10C, and the terminal device 10D) of each viewing user who is running a video viewing application. do. As a result, the same video is also displayed on the display unit 110 of the terminal device 10 of each viewing user.

次に、ST302において、視聴ユーザの端末装置10は、ユーザインタフェイス部140に対する視聴ユーザの操作に基づいて、配信ユーザ(アバターオブジェクト)に対して第1のギフトオブジェクトを付与することを要求する要求信号をサーバ装置20(ギフトAPIサーバ装置20A)に発信する。 Next, in ST302, the viewing user's terminal device 10 requests the distribution user (avatar object) to give the first gift object based on the viewing user's operation on the user interface unit 140. A signal is sent to the server device 20 (gift API server device 20A).

次に、ST303において、視聴ユーザの端末装置10から第1のギフトオブジェクトに関する要求信号を受信したサーバ装置20(ギフトAPIサーバ装置20A)は、ギフティング行為がなされた視聴ユーザの識別情報、ギフティングされた第1のギフトオブジェクトに関する情報、及びギフティング対象のアバターオブジェクトたる配信ユーザの識別情報を読み出す。 Next, in ST303, the server device 20 (gift API server device 20A) that has received the request signal regarding the first gift object from the viewing user's terminal device 10 sends the identification information of the viewing user who performed the gifting act, the gifting information regarding the first gift object and identification information of the distribution user who is the avatar object to be gifted.

そして、ST304において、サーバ装置20(情報処理サーバ装置20B)は、読み出された情報に基づいて、アバターオブジェクトのアニメーションを含む動画上に当該第1のギフトオブジェクトを表示させる旨の要求情報を配信ユーザの端末装置10へ送信する。この際、情報処理サーバ装置20Bは、ギフトAPIサーバ装置20Aから、第1のギフトオブジェクトに関する情報の少なくとも一部(例えば、前述のとおり、第1のギフトオブジェクトの名称又は名称に類する文字列等)を取得して、アバターオブジェクトのアニメーションを含む動画上に当該第1のギフトオブジェクトを表示させる旨の要求情報を生成する。 Then, in ST304, the server device 20 (information processing server device 20B) distributes request information to display the first gift object on the video including the animation of the avatar object, based on the read information. It is transmitted to the user's terminal device 10. At this time, the information processing server device 20B receives at least part of the information regarding the first gift object (for example, as described above, the name of the first gift object or a character string similar to the name, etc.) from the gift API server device 20A. and generates request information to display the first gift object on the video including the animation of the avatar object.

次に、ST305において、配信ユーザの端末装置10Aは、ST304にてサーバ装置20から送信された要求情報に基づいて、アバターオブジェクトのアニメーションを含む動画上に当該要求情報に対応する第1のギフトオブジェクトを表示させる。なお、配信ユーザの端末装置10Aが、当該要求情報に対応する第1のギフトオブジェクトを動画上に表示させるに際し、配信ユーザの端末装置10Aは、前述のギフト記憶部150に記憶される第1のギフトオブジェクトの名称・形状・色・第1コリジョン領域等の識別情報を参照する。 Next, in ST305, the distribution user's terminal device 10A displays the first gift object corresponding to the request information on the video including the animation of the avatar object based on the request information transmitted from the server device 20 in ST304. Display. Note that when the distribution user's terminal device 10A displays the first gift object corresponding to the request information on the video, the distribution user's terminal device 10A displays the first gift object stored in the gift storage unit 150 described above. Identification information such as the name, shape, color, first collision area, etc. of the gift object is referenced.

次に、ST306において、配信ユーザの端末装置10Aは、動画上に表示された1又は複数の第1のギフトオブジェクトに対してアバターオブジェクトが所定アクションを実行したと判定すると、第2のギフトオブジェクトを動画上に表示させる。なお、当該所定アクションに関する判定は、前述のとおり配信ユーザの端末装置10Aの判定部120によって実行される。また、所定アクションが実行された第1のギフトオブジェクトの処理方法、及び第2のギフトオブジェクトの動画上への表示方法等については、前述のとおりである。 Next, in ST306, when the distribution user's terminal device 10A determines that the avatar object has performed a predetermined action on one or more first gift objects displayed on the video, the distribution user's terminal device 10A executes a second gift object. Display on video. Note that the determination regarding the predetermined action is performed by the determination unit 120 of the distribution user's terminal device 10A, as described above. Furthermore, the method of processing the first gift object for which the predetermined action has been performed, the method of displaying the second gift object on the video, etc. are as described above.

以上のとおり、動画上に第2のギフトオブジェクトが表示されることをもって、ステップは終了する。 As described above, the step ends when the second gift object is displayed on the video.

5.変形例について
前述の一実施形態においては、動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)の生成は配信ユーザの端末装置10によって実行されていたが、別の実施形態では、例えば、サーバ装置20又は視聴ユーザの端末装置10によって実行されてもよい。この場合においては、サーバ装置20及び/又は視聴ユーザの端末装置10にレンダリング部(図示せず)を設けておき、配信ユーザの端末装置10は、サーバ装置20及び/又は視聴ユーザの端末装置10が動画(第1のギフトオブジェクトを表示させた動画及び第2のギフトオブジェクトを表示させた動画を含む)を生成することができるように、様々な情報(例えば、第1のギフトオブジェクトに関する各種の識別情報や第2のギフトオブジェクトに関する各種の識別情報)のみを生成するような構成としてもよい。
5. Regarding Modifications In the embodiment described above, the generation of the video (including the video displaying the first gift object and the video displaying the second gift object) is executed by the distribution user's terminal device 10. However, in another embodiment, it may be executed by the server device 20 or the viewing user's terminal device 10, for example. In this case, a rendering unit (not shown) is provided in the server device 20 and/or the viewing user's terminal device 10, and the distribution user's terminal device 10 is connected to the server device 20 and/or the viewing user's terminal device 10. can generate a video (including a video displaying the first gift object and a video displaying the second gift object). A configuration may be adopted in which only the identification information and various types of identification information regarding the second gift object are generated.

このような構成を実現するために、サーバ装置20、視聴ユーザの端末装置10、及び配信ユーザの端末装置10の各機能は前述の一実施形態から適宜に変更される別の実施形態が採用されうる。例えば、一実施形態において動画生成部100は端末装置10に具備されていたが、サーバ装置20に具備されてもよいし、端末装置10でも視聴ユーザの端末装置10に具備されてもよい。 In order to realize such a configuration, the functions of the server device 20, the viewing user's terminal device 10, and the distribution user's terminal device 10 are changed from the above-mentioned embodiment as appropriate. sell. For example, in one embodiment, the video generation unit 100 is provided in the terminal device 10, but it may be provided in the server device 20, or may be provided in the terminal device 10 or the viewing user's terminal device 10.

また、前述の所定アクションが実行されたどうかに関する判定は、前述の一実施形態においては配信ユーザの端末装置10によって実行されていたが、別の実施形態では、サーバ装置20又は端末装置10でも視聴ユーザの端末装置10で実行されてもよい。この場合、サーバ装置20又は視聴ユーザの端末装置10には、判定部120と同様の機能が具備される。 Further, in the above-described embodiment, the determination as to whether or not the predetermined action has been performed is performed by the distribution user's terminal device 10, but in another embodiment, the server device 20 or the terminal device 10 may also be used for viewing and listening. It may be executed on the user's terminal device 10. In this case, the server device 20 or the viewing user's terminal device 10 is equipped with the same function as the determination unit 120.

したがって、様々な実施形態によれば、視聴ユーザによるギフティング機会を増加させる動画処理方法、サーバ装置及びコンピュータプログラムを提供することができる。さらに、第1のギフトオブジェクトを第2のギフトオブジェクトに変化させることで、動画上に表示されるギフトオブジェクトのバリエーションを増やすことができる。また、様々な実施形態のうち複数の第1のギフトオブジェクトを1つの第2のギフトオブジェクトに変化させる場合においては、視聴ユーザの端末装置10における表示部110の限られた領域内に表示された第1のギフトオブジェクトの数をスムーズに削減させることができるため(この場合において、動画上に表示される第2のギフトオブジェクトの大きさは第1のギフトオブジェクトよりも小さくすることが好ましい)、視聴ユーザのギフティング意欲を効率的に向上させることが可能となる。さらにまた、第1のギフトオブジェクトを配信ユーザ(アバターオブジェクト)の所定アクションを介して第2のギフトオブジェクトに変化させる実施形態とすることで、配信ユーザに対して何らかのアクションを実行させるきっかけを創出することができる。さらにまた、様々な実施形態によれば、視聴ユーザは、配信ユーザに対して、所定アクションに関連するアドバイスをコメント情報(例えば、配信ユーザに対する視聴ユーザの「両手に持っている2つの男の子のぬいぐるみをぶつけてみて!」とのコメント情報)として発信することができるため、配信ユーザと視聴ユーザとの間のコミュニケーションが活性化される。 Therefore, according to various embodiments, it is possible to provide a video processing method, a server device, and a computer program that increase gifting opportunities by viewing users. Furthermore, by changing the first gift object to the second gift object, it is possible to increase the variety of gift objects displayed on the video. Furthermore, in the case of changing a plurality of first gift objects into one second gift object among various embodiments, the object displayed within a limited area of the display unit 110 of the viewing user's terminal device 10 Since the number of first gift objects can be smoothly reduced (in this case, the size of the second gift object displayed on the video is preferably smaller than the first gift object), It becomes possible to efficiently improve the viewing user's gifting motivation. Furthermore, by creating an embodiment in which the first gift object is changed into a second gift object through a predetermined action of the distribution user (avatar object), an opportunity for the distribution user to perform some action is created. be able to. Furthermore, according to various embodiments, the viewing user may provide advice related to a predetermined action to the distribution user using comment information (for example, the viewing user's message regarding the distribution user's message "Two boy stuffed animals held in both hands") "Try hitting me!" (comment information), thereby activating communication between the broadcasting user and the viewing user.

6.様々な態様について
第1の態様による動画処理方法は、「コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される動画処理方法であって、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成する生成工程と、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信する受信工程と、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記
動画上に表示させる第1表示工程と、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させる第2表示工程と、を含む」ものである。
6. Regarding Various Aspects A video processing method according to a first aspect is a video processing method executed by one or more processors that execute computer-readable instructions, the video processing method being performed by one or more processors that execute computer-readable instructions, A generation step of generating a video including an animation of an avatar object, and a request signal generated based on an operation of a viewing user who views the video and requesting a first gift object to be given to the avatar object. , a receiving step of receiving from the viewing user's terminal device via a communication line, and a first step of displaying the first gift object given to the avatar object based on the request signal on the video. If it is determined that the avatar object has performed a predetermined action on one or more of the first gift objects displayed on the video based on the display step and the action of the distribution user, a second display step of displaying a second gift object different from the first gift object on which a predetermined action has been performed on the moving image.

第2の態様による動画処理方法は、上記第1の態様において「前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクション」である。 In the video processing method according to the second aspect, in the first aspect, "the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user." be.

第3の態様による動画処理方法は、上記第1の態様において「前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクション」である。 In the video processing method according to the third aspect, in the first aspect, the predetermined action is such that the avatar object transfers at least one of the first gift objects to another gift object based on the action of the distribution user. 1 is an action of touching the gift object of No. 1.

第4の態様による動画処理方法は、上記第3の態様において「前記第1のギフトオブジェクトの各々には、第1コリジョン領域が設定され、少なくとも2つの前記第1コリジョン領域が、前記動画内で少なくとも一部において重なりあうと判定された場合に、少なくとも2つの前記第1のギフトオブジェクトが接触していると認識される」ものである。 In the video processing method according to the fourth aspect, in the third aspect, "a first collision area is set for each of the first gift objects, and at least two of the first collision areas are set within the video. At least two first gift objects are recognized as being in contact when it is determined that they overlap at least in part.

第5の態様による動画処理方法は、上記第4の態様において「少なくとも2つの前記第1コリジョン領域が前記動画内で少なくとも一部において重なりあうか否かの判定は、前記動画内における横方向のX軸、奥行方向のY軸、及び縦方向のZ軸に基づく各前記第1コリジョン領域の位置座標に基づいて実行される」ものである。 In the video processing method according to the fifth aspect, in the fourth aspect, "the determination as to whether or not at least two of the first collision areas overlap at least in part within the video is performed in the horizontal direction within the video. This is executed based on the position coordinates of each of the first collision areas based on the X axis, the Y axis in the depth direction, and the Z axis in the vertical direction.

第6の態様による動画処理方法は、上記第2の態様において「前記第1のギフトオブジェクトの各々には、第1コリジョン領域が設定され、前記アバターオブジェクトの手には、第2コリジョン領域が設定され、前記第1コリジョン領域と前記第2コリジョン領域が、前記動画内で少なくとも一部において重なりあうと判定された場合で、且つ前記配信ユーザの動作に基づいて、前記アバターオブジェクトの指が曲がっていると判定された場合に、前記第1のギフトオブジェクトが前記アバターオブジェクトによって把持されていると認識され、前記動画内の第1の位置で前記アバターオブジェクトによる前記第1のギフトオブジェクトを把持される状態が開始され、前記第1の位置とは異なる前記動画内の第2の位置まで前記把持される状態が維持される場合に、前記特定位置に移動させるアクションが実行されたと認識される」ものである。 In the video processing method according to the sixth aspect, in the second aspect, "a first collision area is set for each of the first gift objects, and a second collision area is set for the hand of the avatar object." and the first collision area and the second collision area are determined to overlap at least in part in the video, and the finger of the avatar object is bent based on the action of the distribution user. If it is determined that the first gift object is being held by the avatar object, it is recognized that the first gift object is being held by the avatar object, and the first gift object is being held by the avatar object at a first position in the video. When the state is started and the grasped state is maintained up to a second position in the video different from the first position, it is recognized that the action of moving to the specific position has been performed. It is.

第7の態様による動画処理方法は、上記第6の態様において「前記第1コリジョン領域と前記第2コリジョン領域が前記動画内で少なくとも一部において重なりあうか否かの判定は、前記動画内における横方向のX軸、奥行方向のY軸、及び縦方向のZ軸に基づく前記第1コリジョン領域の位置座標並びに前記第2コリジョン領域の位置座標に基づいて実行される」ものである。 In the video processing method according to the seventh aspect, in the sixth aspect, "the determination of whether or not the first collision area and the second collision area overlap at least in part within the video is performed in accordance with the sixth aspect. This is executed based on the position coordinates of the first collision area and the position coordinates of the second collision area based on the horizontal X axis, the depth Y axis, and the vertical Z axis.

第8の態様による動画処理方法は、上記第2の態様において「前記第2のギフトオブジェクトは、前記特定位置、前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクトの種類毎の付与数に基づいて決定され前記動画上に表示される」ものである。 In the video processing method according to the eighth aspect, in the second aspect, "the second gift object is assigned according to the specific position, the type of the first gift object, and the type of the first gift object. ``determined based on the number and displayed on the video.''

第9の態様による動画処理方法は、上記第3の態様又は上記第4の態様において「前記第2のギフトオブジェクトは、前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクトの種類毎の付与数に基づいて決定され前記動画上に表示される」ものである。 In the video processing method according to the ninth aspect, in the third aspect or the fourth aspect, "the second gift object is arranged for each type of the first gift object and for each type of the first gift object". is determined based on the number of assignments and displayed on the video.

第10の態様による動画処理方法は、上記第9の態様において「前記第2のギフトオブジェクトは、さらに前記第1のギフトオブジェクト同士の接触時間に基づいて決定され前記動画上に表示される」ものである。 A video processing method according to a tenth aspect is the method according to the ninth aspect, in which "the second gift object is further determined based on the contact time between the first gift objects and displayed on the video." It is.

第11の態様による動画処理方法は、上記第9の態様又は上記第10の態様において「前記第2のギフトオブジェクトは、さらに前記第1のギフトオブジェクト同士が接触する際の衝突速度に基づいて決定され前記動画上に表示される」ものである。 In the video processing method according to the eleventh aspect, in the ninth aspect or the tenth aspect, "the second gift object is further determined based on the collision speed when the first gift objects contact each other." and displayed on the video.

第12の態様による動画処理方法は、上記第1の態様から上記第11の態様のいずれかにおいて「前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトを前記動画上から消去させる」ものである。 A video processing method according to a twelfth aspect includes, in any one of the first to eleventh aspects, "the second displaying step includes, when it is determined that the avatar object has performed the predetermined action, The first gift object for which the predetermined action has been performed is deleted from the video.

第13の態様による動画処理方法は、上記第1の態様から上記第11の態様のいずれかにおいて「前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトを前記第2のギフトオブジェクトに変化させて、前記第2のギフトオブジェクトを前記動画上に表示させる」ものである。 A video processing method according to a thirteenth aspect includes, in any one of the first to eleventh aspects, "the second displaying step includes, when it is determined that the avatar object has performed the predetermined action, the first gift object for which the predetermined action has been performed is changed into the second gift object, and the second gift object is displayed on the video.

第14の態様による動画処理方法は、上記第1の態様から上記第11の態様のいずれかにおいて「前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを実行したと判定された場合に、前記所定アクションを実行された複数の前記第1のギフトオブジェクトのうち少なくとも1つの前記第1のギフトオブジェクトを前記動画上から消去させ、且つ他の少なくとも1つの前記第1のギフトオブジェクトを前記第2のギフトオブジェクトに変化させる」ものである。 A video processing method according to a fourteenth aspect includes, in any one of the first to eleventh aspects, "the second displaying step includes, when it is determined that the avatar object has performed the predetermined action, Among the plurality of first gift objects for which the predetermined action has been performed, at least one of the first gift objects is erased from the video, and at least one other of the first gift objects is erased from the second gift object. ``transform into a gift object''.

第15の態様による動画処理方法は、上記第12の態様から上記第14の態様のいずれかにおいて「前記第2のギフトオブジェクトは、前記動画上から消去される前又は前記第2のギフトオブジェクトに変化される前に前記第1のギフトオブジェクトが前記動画内に存在していた位置とは異なる位置に表示される」ものである。 A video processing method according to a fifteenth aspect includes, in any one of the twelfth to fourteenth aspects, "the second gift object is deleted from the video or The first gift object is displayed in a different position from the position in the video before the first gift object was changed.

第16の態様による動画処理方法は、上記第1の態様から上記第15の態様のいずれかにおいて「前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを開始し、前記第2のギフトオブジェクトが前記動画上に表示される途中の状態を示すエフェクトオブジェクトを、前記動画上に表示させる工程を含む」ものである。 A video processing method according to a sixteenth aspect includes, in any one of the first to fifteenth aspects, "the second display step includes the avatar object starting the predetermined action, and the second gift object displaying, on the video, an effect object indicating a state in the middle of being displayed on the video.

第17の態様による動画処理方法は、上記第1の態様から上記第16の態様のいずれかにおいて「前記生成工程、前記第1表示工程、及び前記第2表示工程が、前記配信ユーザの端末装置により実行される」ものである。 The video processing method according to the seventeenth aspect is characterized in that in any one of the first to sixteenth aspects, “the generation step, the first display step, and the second display step are performed on a terminal device of the distribution user. "is carried out by."

第18の態様による動画処理方法は、上記第17の態様において「前記受信工程は、前記視聴ユーザの端末装置及び/又は前記配信ユーザの端末装置に通信回線を介して接続されるサーバ装置により実行され、前記動画上に表示された前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したことが、前記配信ユーザの端末装置により判定される」ものである。 In the video processing method according to the eighteenth aspect, in the seventeenth aspect, "the receiving step is performed by a server device connected to the terminal device of the viewing user and/or the terminal device of the distribution user via a communication line. and that the distribution user's terminal device determines that the avatar object has performed a predetermined action on the first gift object displayed on the video.

第19の態様による動画処理方法は、上記第1の態様から上記第16の態様のいずれかにおいて「前記生成工程、前記受信工程、前記第1表示工程、及び前記第2表示工程が、前記視聴ユーザの端末装置及び/又は前記配信ユーザの端末装置に通信回線を介して接続されるサーバ装置により実行される」ものである。 A video processing method according to a nineteenth aspect is a video processing method according to any one of the first to sixteenth aspects, in which “the generation step, the reception step, the first display step, and the second display step include the viewing and viewing steps. This is executed by a user's terminal device and/or a server device connected to the distribution user's terminal device via a communication line.

第20の態様による動画処理方法は、上記第19の態様において「前記動画上に表示された前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したことが、前記配信ユーザの端末装置により判定される」ものである。 The video processing method according to the 20th aspect includes, in the 19th aspect, "It is determined that the avatar object has performed a predetermined action on the first gift object displayed on the video," "determined by the device."

第21の態様による動画処理方法は、上記第1の態様から上記第16の態様のいずれかにおいて「前記生成工程、前記第1表示工程、及び前記第2表示工程が、前記視聴ユーザの端末装置により実行される」ものである。 A video processing method according to a twenty-first aspect is characterized in that in any one of the first to sixteenth aspects, "the generation step, the first display step, and the second display step are performed on the viewing user's terminal device." "is carried out by."

第22の態様による動画処理方法は、上記第21の態様において「前記受信工程は、前記視聴ユーザの端末装置及び/又は前記配信ユーザの端末装置に通信回線を介して接続されるサーバ装置により実行され、前記動画上に表示された前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したことが、前記配信ユーザの端末装置により判定される」ものである。 In the video processing method according to the twenty-second aspect, in the twenty-first aspect, “the receiving step is performed by a server device connected to the terminal device of the viewing user and/or the terminal device of the distribution user via a communication line. and that the distribution user's terminal device determines that the avatar object has performed a predetermined action on the first gift object displayed on the video.

第23の態様による動画処理方法は、上記第1の態様から上記第22の態様のいずれかにおいて「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A video processing method according to a twenty-third aspect is provided in any one of the first aspect to the twenty-second aspect, in which "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)." It is something.

第24の態様による動画処理方法は、上記第1の態様から上記第23の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A video processing method according to a twenty-fourth aspect is one in which "the communication line includes the Internet" in any of the first to twenty-third aspects.

第25の態様によるサーバ装置は、「1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させる」ものである。 The server device according to the twenty-fifth aspect is characterized in that the server device includes “one or more processors, the processor generates a video including an animation of an avatar object of the distribution user based on the distribution user's actions, and the viewing and viewing of the video is performed. A request signal generated based on a user's operation and requesting that a first gift object be given to the avatar object is received from the viewing user's terminal device via a communication line, and the request signal is applied to the request signal. The first gift object given to the avatar object based on the distribution user is displayed on the video, and one or more of the first gift objects displayed on the video are displayed on the video based on the distribution user's actions. When the terminal device of the distribution server determines that the avatar object has performed a predetermined action on the gift object, a second gift object different from the first gift object on which the predetermined action has been performed is sent. "displayed on the video."

第26の態様によるサーバ装置は、「1又は複数のプロセッサを具備し、該プロセッサが、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成する前記配信ユーザの端末装置又は視聴ユーザの端末装置へ送信し、前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記配信ユーザの端末装置又は前記視聴ユーザの端末装置へ送信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記配信ユーザの端末装置又は前記視聴ユーザの端末装置へ送信する」ものである。 The server device according to the twenty-sixth aspect includes “one or more processors, and the processor generates information for generating a moving image including an animation of an avatar object of the distribution user based on the operation of the distribution user. to the terminal device of the distribution user that generates the video or the terminal device of the viewing user, the video is generated based on the operation of the viewing user who views the video, and a first gift object is given to the avatar object. A request signal for requesting the avatar object is received from the viewing user's terminal device via a communication line, and information regarding the first gift object given to the avatar object based on the request signal is transmitted to the first gift object. to the distribution user's terminal device or the viewing user's terminal device to display the gift object on the video, and based on the distribution user's operation, one or more of the first gift objects displayed on the video a second gift object different from the first gift object on which the predetermined action was performed when the terminal device of the distribution server determines that the avatar object has performed the predetermined action on the gift object; information regarding the second gift object to the terminal device of the distribution user or the terminal device of the viewing user who causes the second gift object to be displayed on the video.

第27の態様によるサーバ装置は、上記第25の態様又は上記第26の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A server device according to a twenty-seventh aspect is one in which "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)" in the twenty-fifth aspect or the twenty-sixth aspect.

第28の態様によるサーバ装置は、上記第25の態様から上記第27の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A server device according to a twenty-eighth aspect is one in which “the communication line includes the Internet” in any one of the twenty-fifth aspect to the twenty-seventh aspect.

第29の態様によるコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させる、ように前記プロセッサを機能させる」ものである。 The computer program according to the twenty-ninth aspect is ``generated by one or more processors to generate a video including an animation of an avatar object of the distribution user based on the distribution user's actions, and a viewing user who views the video. A request signal generated based on the operation of the avatar object and requesting that a first gift object be given to the avatar object is received from the server device or the viewing user's terminal device via a communication line, and the request signal is generated based on the operation of The first gift object given to the avatar object based on the signal is displayed on the video, and the one or more gift objects displayed on the video are displayed on the video based on the distribution user's action. If it is determined that the avatar object has performed a predetermined action on a first gift object, a second gift object different from the first gift object for which the predetermined action has been performed is displayed on the video. "to cause the processor to function in such a way as to cause the processor to function in a manner that

第30の態様によるコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成するサーバ装置又は視聴ユーザの端末装置へ送信し、前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信する、ように前記プロセッサを機能させる」ものである。 A computer program according to a thirtieth aspect provides: ``When executed by one or more processors, information for generating a moving image including an animation of an avatar object of the distribution user based on the movement of the distribution user is generated. a request signal that is transmitted to a generating server device or a viewing user's terminal device, is generated based on an operation of the viewing user who views the video, and requests that a first gift object be given to the avatar object; is received from the server device or the viewing user's terminal device via a communication line, and information regarding the first gift object given to the avatar object based on the request signal is transmitted to the first gift object. transmitting the object to the server device that displays the object on the video or the viewing user's terminal device, and transmitting the object to the one or more first gift objects displayed on the video based on the operation of the distribution user. If it is determined that the avatar object has executed a predetermined action, information regarding a second gift object different from the first gift object on which the predetermined action has been performed is transmitted to the second gift object. The processor functions to transmit the information to the server device or the viewing user's terminal device to be displayed on the video.

第31の態様によるコンピュータプログラムは、上記第29の態様又は上記第30の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A computer program according to a 31st aspect is one in which "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)" in the 29th aspect or the 30th aspect.

第32の態様によるコンピュータプログラムは、上記29の態様から上記31の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A computer program according to a thirty-second aspect is one in which "the communication line includes the Internet" in any of the twenty-ninth to thirty-first aspects.

第33の態様によるコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、当該動画に関する情報をサーバ装置又は前記配信ユーザの端末装置から受信し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを前記動画上に表示させるために、前記第1のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させるために、前記第2のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信する、ように前記プロセッサを機能させる」ものである。 A computer program according to a thirty-third aspect provides: ``In order to generate a moving image including an animation of an avatar object of the distribution user based on an action of the distribution user by being executed by one or more processors, the computer program generates information regarding the video. A request signal received from a server device or a terminal device of the distribution user, generated based on an operation of a viewing user who views the video, and requesting to give a first gift object to the avatar object, The server sends information regarding the first gift object via a communication line and displays the first gift object given to the avatar object based on the request signal on the video. received from the device or the distribution user's terminal device, and the avatar object performed a predetermined action on the one or more first gift objects displayed on the video based on the distribution user's action. In order to display on the video a second gift object that is different from the first gift object for which the predetermined action has been performed, "The processor is made to function so as to receive information regarding an object from the server device or the distribution user's terminal device."

第34の態様によるコンピュータプログラムは、「1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を、サーバ装置又は前記配信ユーザの端末装置から受信し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信する、ように前記プロセッサを機能させる」ものである。 The computer program according to the thirty-fourth aspect provides the following method: ``By being executed by one or more processors, a moving image including an animation of an avatar object of the distribution user based on the distribution user's action is generated by a server device or a terminal device of the distribution user. transmitting, via a communication line, a request signal generated based on an operation of a viewing user viewing the video and requesting that a first gift object be given to the avatar object; receiving the video displaying the first gift object given to the avatar object based on the request signal from the server device or the terminal device of the distribution user; , when the terminal device of the distribution server determines that the avatar object has performed a predetermined action on one or more of the first gift objects displayed on the video, the predetermined action is executed. the processor is configured to receive, from the server device or the distribution user's terminal device, the moving image displaying a second gift object different from the first gift object.

第35の態様によるコンピュータプログラムは、上記第33の態様又は上記第34の態様において「前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である」ものである。 A computer program according to a thirty-fifth aspect is one in which "the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU)" in the thirty-third aspect or the thirty-fourth aspect.

第36の態様によるコンピュータプログラムは、上記33の態様から上記35の態様のいずれかにおいて「前記通信回線がインターネットを含む」ものである。 A computer program according to a thirty-sixth aspect is one in which "the communication line includes the Internet" in any one of the thirty-third to thirty-fifth aspects.

第37の態様による配信ユーザの端末装置は、「配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させる」ものである。 A distribution user's terminal device according to a thirty-seventh aspect “generates a video including an animation of the distribution user's avatar object based on the distribution user's actions, and generates the video based on the operation of the viewing user who views the video,” A request signal requesting that a first gift object be given to the avatar object is received from the server device or the viewing user's terminal device via a communication line, and the request signal is sent to the avatar object based on the request signal. The first gift object given by the user is displayed on the video, and the avatar is assigned to one or more of the first gift objects displayed on the video based on the distribution user's actions. When it is determined that the object has performed a predetermined action, a second gift object different from the first gift object for which the predetermined action has been performed is displayed on the video.

第38の態様による配信ユーザの端末装置は、「配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成するサーバ装置又は視聴ユーザの端末装置へ送信し、前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信する」ものである。 The distribution user's terminal device according to the thirty-eighth aspect provides information for generating a video including an animation of the distribution user's avatar object based on the distribution user's actions to the server device that generates the video or the viewing user's terminal. A request signal generated based on the operation of the viewing user who views the video and requesting that the first gift object be given to the avatar object is sent to the server device or the viewing user. Displaying the first gift object on the video, the information regarding the first gift object received from the terminal device via the communication line and given to the avatar object based on the request signal. transmitted to a server device or a terminal device of the viewing user, and the avatar object executes a predetermined action on the one or more first gift objects displayed on the video based on the action of the distribution user. If it is determined that the predetermined action has been performed, the server device displays information regarding a second gift object different from the first gift object on which the predetermined action has been performed, or displays the second gift object on the video; "to be transmitted to the viewing user's terminal device."

第39の態様による視聴ユーザの端末装置は、「1又は複数のプロセッサに実行されることにより、配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、当該動画に関する情報をサーバ装置又は前記配信ユーザの端末装置から受信し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを前記動画上に表示させるために、前記第1のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを前記動画上に表示させるために、前記第2のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信する」ものである。 The viewing user's terminal device according to the thirty-ninth aspect is configured to generate a video that includes an animation of an avatar object of the distribution user based on the distribution user's actions by being executed by one or more processors. a request that is generated based on an operation of a viewing user who views the video, and requests that a first gift object be given to the avatar object; information regarding the first gift object in order to transmit a signal via a communication line and display the first gift object given to the avatar object on the video based on the request signal; is received from the server device or the distribution user's terminal device, and the avatar object performs a predetermined action on the one or more first gift objects displayed on the video based on the distribution user's action. If the terminal device of the distribution server determines that the predetermined action has been performed, the second gift object, which is different from the first gift object for which the predetermined action has been performed, is displayed on the video. 2 from the server device or the distribution user's terminal device.

第40の態様による視聴ユーザの端末装置は、「配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を、サーバ装置又は前記配信ユーザの端末装置から受信し、前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信し、前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信サーバの端末装置によって判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトとは異なる第2のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信する」ものである。 The viewing user's terminal device according to the fortieth aspect “receives a video including an animation of the distribution user's avatar object based on the distribution user's actions from the server device or the distribution user's terminal device, and views the video. A request signal that is generated based on an operation of a viewing user and requests the avatar object to be given a first gift object is transmitted via a communication line, and the request signal is sent to the avatar object based on the request signal. The video in which the first gift object given to the user is displayed is received from the server device or the terminal device of the distribution user, and the first gift object displayed on the video is received based on the operation of the distribution user. Alternatively, when the terminal device of the distribution server determines that the avatar object has performed a predetermined action on a plurality of the first gift objects, the first gift object for which the predetermined action has been performed is the video displaying a different second gift object is received from the server device or the distribution user's terminal device.

7.本件出願に開示された技術が適用される分野
本件出願に開示された技術は、例えば、次のような分野において適用することが可能なものである。
(1)アバターオブジェクトが登場するライブ動画を配信するアプリケーション・サービス
(2)文字及びアバターオブジェクトを用いてコミュニケーションすることができるアプリケーション・サービス(チャットアプリケーション、メッセンジャー、メールアプリケーション等)
7. Fields to which the technology disclosed in the present application is applicable The technology disclosed in the present application can be applied, for example, to the following fields.
(1) Application services that deliver live videos featuring avatar objects (2) Application services that allow communication using text and avatar objects (chat applications, messengers, email applications, etc.)

1 動画配信システム
10(10A~10D) 端末装置
20 サーバ装置
20A ギフトAPIサーバ装置
20B 情報処理サーバ装置
20C 配信サーバ装置
20D コメントAPIサーバ装置
100 動画生成部
110 表示部
120 判定部
130 記憶部
140 ユーザインタフェイス部
150 ギフト記憶部
160 通信部
400 アバターオブジェクト
410A、410B 第1のギフトオブジェクト
411A、411B 第1コリジョン領域
420、430 第2のギフトオブジェクト
500 エフェクトオブジェクト
1 Video distribution system 10 (10A to 10D) Terminal device 20 Server device 20A Gift API server device 20B Information processing server device 20C Distribution server device 20D Comment API server device 100 Video generation section 110 Display section 120 Judgment section 130 Storage section 140 User interface Face section 150 Gift storage section 160 Communication section 400 Avatar object 410A, 410B First gift object 411A, 411B First collision area 420, 430 Second gift object 500 Effect object

Claims (55)

コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される動画処理方法であって、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成する生成工程と、
前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信する受信工程と、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させる第1表示工程と、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトを前記動画上に表示させる第2表示工程と、
を含み、
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、動画処理方法。
A video processing method performed by one or more processors executing computer-readable instructions, the method comprising:
a generation step of generating a video including an animation of an avatar object of the distribution user based on the distribution user's actions;
A request signal generated based on an operation of a viewing user who views the video and requesting that a first gift object be given to the avatar object is received from the viewing user's terminal device via a communication line. a receiving process,
a first display step of displaying the first gift object given to the avatar object based on the request signal on the video;
If it is determined that the avatar object has performed a predetermined action on one or more of the first gift objects displayed on the video based on the distribution user's action, at least the predetermined action , a second display step of displaying on the video a second gift object that is associated in advance with a combination that includes at least the type of the first gift object for which the predetermined action was performed and first information ;
including;
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object A video processing method that is any one of a contact time between the first gift objects, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである、請求項1に記載の動画処理方法。The video processing method according to claim 1, wherein the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user. 前記組合せは、少なくとも前記特定位置、及び前記第1のギフトオブジェクトの種類から構成され、The combination includes at least the specific location and the type of the first gift object,
前記第1情報は、前記特定位置である、請求項2に記載の動画処理方法。The moving image processing method according to claim 2, wherein the first information is the specific position.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである、請求項1に記載の動画処理方法。The predetermined action is an action in which the avatar object causes at least one of the first gift objects to come into contact with another first gift object, based on an action of the distribution user. Video processing method. 前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士の接触時間から構成され、The combination includes at least the type of the first gift object and the contact time between the first gift objects,
前記第1情報は、前記接触時間である、請求項4に記載の動画処理方法。The moving image processing method according to claim 4, wherein the first information is the contact time.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の衝突速度から構成され、The combination includes at least the type of the first gift object and the collision speed when the first gift objects contact each other,
前記第1情報は、前記衝突速度である、請求項4に記載の動画処理方法。The moving image processing method according to claim 4, wherein the first information is the collision speed.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の相対位置から構成され、The combination includes at least the type of the first gift object and the relative position when the first gift objects come into contact with each other,
前記第1情報は、前記相対位置である、請求項4に記載の動画処理方法。The moving image processing method according to claim 4, wherein the first information is the relative position.
前記第1のギフトオブジェクトの各々には、第1コリジョン領域が設定され、A first collision area is set in each of the first gift objects,
前記アバターオブジェクトの手には、第2コリジョン領域が設定され、A second collision area is set on the hand of the avatar object,
前記第1コリジョン領域と前記第2コリジョン領域が、前記動画内で少なくとも一部において重なりあうと判定された場合で、且つ前記配信ユーザの動作に基づいて、前記アバターオブジェクトの指が曲がっていると判定された場合に、前記第1のギフトオブジェクトが前記アバターオブジェクトの手によって把持されていると認識され、If it is determined that the first collision area and the second collision area overlap at least in part in the video, and the finger of the avatar object is bent based on the movement of the distribution user. If determined, the first gift object is recognized as being held by the hand of the avatar object;
前記第1のギフトオブジェクトは、前記アバターオブジェクトの手によって把持されている場合に、移動可能である、請求項1乃至7のいずれか一項に記載の動画処理方法。The video processing method according to any one of claims 1 to 7, wherein the first gift object is movable when held by the hand of the avatar object.
前記所定アクションは、前記アバターオブジェクトが前記第1のギフトオブジェクトを把持していると判定されている場合に実行可能とされる、請求項8に記載の動画処理方法。 The video processing method according to claim 8, wherein the predetermined action is executable when it is determined that the avatar object is holding the first gift object. 前記所定アクションの実行を誘導するコメント情報を前記動画上に表示させるコメント情報表示工程をさらに含む、請求項1乃至のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 9 , further comprising a comment information display step of displaying comment information on the video to guide execution of the predetermined action. 前記動画上に表示される前記第2のギフトオブジェクトは、前記所定アクションの種類に予め関連付けられている、請求項1乃至10のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 10 , wherein the second gift object displayed on the video is associated in advance with the type of the predetermined action. 前記動画上に表示される前記第2のギフトオブジェクトは、前記所定アクションが実行された前記第1のギフトオブジェクトの数に予め関連付けられている、請求項1乃至10のいずれか一項に記載の動画処理方法。 The second gift object displayed on the video is associated in advance with the number of the first gift objects for which the predetermined action has been performed. Video processing method. 前記視聴ユーザの操作に基づいて、前記視聴ユーザの端末装置から前記コメント情報を受信するコメント情報受信工程をさらに含む、請求項10に記載の動画処理方法。 The video processing method according to claim 10 , further comprising a comment information receiving step of receiving the comment information from the viewing user's terminal device based on the viewing user's operation. 前記受信工程によって受信した前記要求信号、又は前記第2表示工程における前記判定に基づいて、前記コメント情報を作成するコメント情報作成工程をさらに含む、請求項10に記載の動画処理方法。 The video processing method according to claim 10 , further comprising a comment information creation step of creating the comment information based on the request signal received in the reception step or the determination in the second display step. 前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトを前記動画上から消去させたうえで、前記第2のギフトオブジェクトを前記動画上に表示させる請求項1乃至14のいずれか一項に記載の動画処理方法。 In the second display step, when it is determined that the avatar object has performed the predetermined action, the first gift object for which the predetermined action has been performed is deleted from the video, and then the first gift object is displayed. The video processing method according to any one of claims 1 to 14 , wherein the gift object No. 2 is displayed on the video. 前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを実行したと判定された場合に、前記所定アクションを実行された前記第1のギフトオブジェクトを時間経過とともに前記第2のギフトオブジェクトに変化させて、前記第2のギフトオブジェクトを前記動画上に表示させる、請求項1乃至14のいずれか一項に記載の動画処理方法。 In the second display step, when it is determined that the avatar object has performed the predetermined action, the first gift object on which the predetermined action has been performed is changed into the second gift object over time. The video processing method according to any one of claims 1 to 14 , wherein the second gift object is displayed on the video. 前記第2表示工程は、前記アバターオブジェクトが前記所定アクションを実行したと判定された場合に、前記所定アクションを実行された複数の前記第1のギフトオブジェクトのうち少なくとも1つの前記第1のギフトオブジェクトを前記動画上から消去させ、且つ他の少なくとも1つの前記第1のギフトオブジェクトを時間経過とともに前記第2のギフトオブジェクトに変化させる、請求項1乃至14のいずれか一項に記載の動画処理方法。 In the second display step, when it is determined that the avatar object has performed the predetermined action, at least one of the first gift objects for which the predetermined action has been performed is displayed. 15. The video processing method according to any one of claims 1 to 14 , wherein the first gift object is deleted from the video, and at least one other of the first gift objects is changed to the second gift object over time. . 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項1乃至17のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 17 , wherein the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項1乃至18のいずれか一項に記載の動画処理方法。 The video processing method according to any one of claims 1 to 18 , wherein the communication line includes the Internet. 1又は複数のプロセッサを具備し、
該プロセッサが、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、
前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信ユーザの端末装置によって判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトを前記動画上に表示させ
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、
サーバ装置。
comprising one or more processors,
The processor is
generating a video including an animation of an avatar object of the distribution user based on the distribution user's actions;
A request signal generated based on an operation of a viewing user who views the video and requesting that a first gift object be given to the avatar object is received from the viewing user's terminal device via a communication line. death,
displaying the first gift object given to the avatar object based on the request signal on the video;
When the terminal device of the distribution user determines that the avatar object has performed a predetermined action with respect to the one or more first gift objects displayed on the video, based on the distribution user's actions; , displaying on the video a second gift object that is associated in advance with a combination that includes at least the predetermined action, the type of the first gift object on which the predetermined action was performed , and first information. let me ,
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object contact time between the two, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other,
server equipment.
1又は複数のプロセッサを具備し、
該プロセッサが、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成する前記配信ユーザの端末装置又は視聴ユーザの端末装置へ送信し、
前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記視聴ユーザの端末装置から通信回線を介して受信し、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記配信ユーザの端末装置又は前記視聴ユーザの端末装置へ送信し、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信ユーザの端末装置によって判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記配信ユーザの端末装置又は前記視聴ユーザの端末装置へ送信し、
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、
サーバ装置。
comprising one or more processors,
The processor is
transmitting information for generating a video including an animation of an avatar object of the distribution user based on the distribution user's actions to a terminal device of the distribution user that generates the video or a terminal device of a viewing user;
A request signal generated based on the operation of the viewing user who views the video and requesting that a first gift object be given to the avatar object is transmitted from the viewing user's terminal device via a communication line. receive,
The distribution user's terminal device or the viewing user's terminal displays information regarding the first gift object given to the avatar object based on the request signal on the video. send to the device,
When the terminal device of the distribution user determines that the avatar object has performed a predetermined action with respect to the one or more first gift objects displayed on the video, based on the distribution user's actions; information about a second gift object associated in advance with a combination including at least the predetermined action, the type of the first gift object on which the predetermined action was executed, and first information; 2 to the terminal device of the distribution user or the terminal device of the viewing user to display the gift object on the video ,
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object contact time between the two, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other,
server equipment.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである、請求項20又は21に記載のサーバ装置。The server device according to claim 20 or 21, wherein the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user. 前記組合せは、少なくとも前記特定位置、及び前記第1のギフトオブジェクトの種類から構成され、The combination includes at least the specific location and the type of the first gift object,
前記第1情報は、前記特定位置である、請求項22に記載のサーバ装置。The server device according to claim 22, wherein the first information is the specific location.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである、請求項20又は21に記載のサーバ装置。According to claim 20 or 21, the predetermined action is an action in which the avatar object causes at least one of the first gift objects to come into contact with another first gift object based on the operation of the distribution user. The server device described. 前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士の接触時間から構成され、The combination includes at least the type of the first gift object and the contact time between the first gift objects,
前記第1情報は、前記接触時間である、請求項24に記載のサーバ装置。The server device according to claim 24, wherein the first information is the contact time.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の衝突速度から構成され、The combination includes at least the type of the first gift object and the collision speed when the first gift objects contact each other,
前記第1情報は、前記衝突速度である、請求項24に記載のサーバ装置。The server device according to claim 24, wherein the first information is the collision speed.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の相対位置から構成され、The combination includes at least the type of the first gift object and the relative position when the first gift objects come into contact with each other,
前記第1情報は、前記相対位置である、請求項24に記載のサーバ装置。The server device according to claim 24, wherein the first information is the relative position.
前記第1のギフトオブジェクトの各々には、第1コリジョン領域が設定され、A first collision area is set in each of the first gift objects,
前記アバターオブジェクトの手には、第2コリジョン領域が設定され、A second collision area is set on the hand of the avatar object,
前記第1コリジョン領域と前記第2コリジョン領域が、前記動画内で少なくとも一部において重なりあうと前記配信ユーザの端末装置によって判定された場合で、且つ前記配信ユーザの動作に基づいて、前記アバターオブジェクトの指が曲がっていると前記配信ユーザの端末装置によって判定された場合に、前記第1のギフトオブジェクトが前記アバターオブジェクトの手によって把持されていると認識され、In the case where it is determined by the distribution user's terminal device that the first collision area and the second collision area overlap at least in part within the video, and based on the distribution user's movement, the avatar object If the distribution user's terminal device determines that the finger of the avatar object is bent, the first gift object is recognized as being held by the hand of the avatar object;
前記第1のギフトオブジェクトは、前記アバターオブジェクトの手によって把持されている場合に、移動可能である、請求項20乃至27のいずれか一項に記載のサーバ装置。The server device according to any one of claims 20 to 27, wherein the first gift object is movable when held by the hand of the avatar object.
前記所定アクションは、前記アバターオブジェクトが前記第1のギフトオブジェクトを把持していると前記配信ユーザの端末装置によって判定されている場合に実行可能とされる、請求項28に記載のサーバ装置。The server device according to claim 28, wherein the predetermined action is executable when the distribution user's terminal device determines that the avatar object is holding the first gift object. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項20乃至29のいずれか一項に記載のサーバ装置。 The server device according to any one of claims 20 to 29 , wherein the processor is a central processing unit (CPU), a microprocessor, or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項20乃至30のいずれか一項に記載のサーバ装置。 The server device according to any one of claims 20 to 30 , wherein the communication line includes the Internet. 1又は複数のプロセッサに実行されることにより、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成し、
前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを、前記動画上に表示させ、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトを前記動画上に表示させ
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
generating a video including an animation of an avatar object of the distribution user based on the distribution user's actions;
A request signal generated based on the operation of the viewing user who views the video and requesting that the first gift object be given to the avatar object is transmitted from the server device or the terminal device of the viewing user to the communication line. received through,
displaying the first gift object given to the avatar object based on the request signal on the video;
If it is determined that the avatar object has performed a predetermined action on one or more of the first gift objects displayed on the video based on the distribution user's action, at least the predetermined action , displaying on the video a second gift object that is associated in advance with a combination that includes at least the type of the first gift object for which the predetermined action was performed and first information ;
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object contact time between the two, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other,
A computer program that causes the processor to function as described above.
1又は複数のプロセッサに実行されることにより、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するための情報を、前記動画を生成するサーバ装置又は視聴ユーザの端末装置へ送信し、
前記動画を視聴する前記視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、前記サーバ装置又は前記視聴ユーザの端末装置から通信回線を介して受信し、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトに関する情報を、前記第1のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信し、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトに関する情報を、前記第2のギフトオブジェクトを前記動画上に表示させる前記サーバ装置又は前記視聴ユーザの端末装置へ送信し、
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
transmitting information for generating a video including an animation of an avatar object of the distribution user based on the distribution user's actions to a server device that generates the video or a terminal device of a viewing user;
A request signal generated based on an operation of the viewing user who views the video and requesting that a first gift object be given to the avatar object is communicated from the server device or the viewing user's terminal device. received via the line,
transmitting information regarding the first gift object given to the avatar object based on the request signal to the server device or the viewing user's terminal device that displays the first gift object on the video; death,
If it is determined that the avatar object has performed a predetermined action on one or more of the first gift objects displayed on the video based on the distribution user's action, at least the predetermined action , information regarding a second gift object previously associated with a combination including at least the type of the first gift object for which the predetermined action was performed and first information; to the server device or the viewing user's terminal device to be displayed on the screen;
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object contact time between the two, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other,
A computer program that causes the processor to function as described above.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである、請求項32又は33に記載のコンピュータプログラム。34. The computer program according to claim 32, wherein the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the distribution user's action. 前記組合せは、少なくとも前記特定位置、及び前記第1のギフトオブジェクトの種類から構成され、The combination includes at least the specific location and the type of the first gift object,
前記第1情報は、前記特定位置である、請求項34に記載のコンピュータプログラム。The computer program product according to claim 34, wherein the first information is the specific location.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである、請求項32又は33に記載のコンピュータプログラム。According to claim 32 or 33, the predetermined action is an action in which the avatar object causes at least one of the first gift objects to contact another first gift object based on the operation of the distribution user. The computer program described. 前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士の接触時間から構成され、The combination includes at least the type of the first gift object and the contact time between the first gift objects,
前記第1情報は、前記接触時間である、請求項36に記載のコンピュータプログラム。37. The computer program product according to claim 36, wherein the first information is the contact time.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の衝突速度から構成され、The combination includes at least the type of the first gift object and the collision speed when the first gift objects contact each other,
前記第1情報は、前記衝突速度である、請求項36に記載のコンピュータプログラム。37. The computer program product according to claim 36, wherein the first information is the collision speed.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の相対位置から構成され、The combination includes at least the type of the first gift object and the relative position when the first gift objects come into contact with each other,
前記第1情報は、前記相対位置である、請求項36に記載のコンピュータプログラム。37. The computer program product according to claim 36, wherein the first information is the relative position.
前記第1のギフトオブジェクトの各々には、第1コリジョン領域が設定され、A first collision area is set in each of the first gift objects,
前記アバターオブジェクトの手には、第2コリジョン領域が設定され、A second collision area is set on the hand of the avatar object,
前記第1コリジョン領域と前記第2コリジョン領域が、前記動画内で少なくとも一部において重なりあうと判定された場合で、且つ前記配信ユーザの動作に基づいて、前記アバターオブジェクトの指が曲がっていると判定された場合に、前記第1のギフトオブジェクトが前記アバターオブジェクトの手によって把持されていると認識され、If it is determined that the first collision area and the second collision area overlap at least in part in the video, and the finger of the avatar object is bent based on the movement of the distribution user. If determined, the first gift object is recognized as being held by the hand of the avatar object;
前記第1のギフトオブジェクトは、前記アバターオブジェクトの手によって把持されている場合に、移動可能である、請求項32乃至39のいずれか一項に記載のコンピュータプログラム。40. A computer program product according to any one of claims 32 to 39, wherein the first gift object is movable when held by the hand of the avatar object.
前記所定アクションは、前記アバターオブジェクトが前記第1のギフトオブジェクトを把持していると判定されている場合に実行可能とされる、請求項40に記載のコンピュータプログラム。The computer program product according to claim 40, wherein the predetermined action is executable when it is determined that the avatar object is holding the first gift object. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項32乃至41のいずれか一項に記載のコンピュータプログラム。 42. A computer program product according to any one of claims 32 to 41 , wherein the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項32乃至42のいずれか一項に記載のコンピュータプログラム。 43. A computer program product according to any one of claims 32 to 42 , wherein the communication line includes the Internet. 1又は複数のプロセッサに実行されることにより、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を生成するために、当該動画に関する情報をサーバ装置又は前記配信ユーザの端末装置から受信し、
前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを前記動画上に表示させるために、前記第1のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信し、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信ユーザの端末装置によって判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトを前記動画上に表示させるために、前記第2のギフトオブジェクトに関する情報を前記サーバ装置又は前記配信ユーザの端末装置から受信し、
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
In order to generate a video including an animation of the distribution user's avatar object based on the distribution user's actions, receiving information regarding the video from a server device or the distribution user's terminal device,
transmitting, via a communication line, a request signal that is generated based on an operation of a viewing user who views the video and requests that a first gift object be given to the avatar object;
In order to display the first gift object given to the avatar object based on the request signal on the video, information regarding the first gift object is transmitted to the server device or the distribution user's terminal device. received from
When the terminal device of the distribution user determines that the avatar object has performed a predetermined action with respect to the one or more first gift objects displayed on the video, based on the distribution user's actions; , displaying on the video a second gift object that is associated in advance with a combination that includes at least the predetermined action, the type of the first gift object on which the predetermined action was performed , and first information. receiving information regarding the second gift object from the server device or the distribution user's terminal device ,
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object contact time between the two, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other,
A computer program that causes the processor to function as described above.
1又は複数のプロセッサに実行されることにより、
配信ユーザの動作に基づく前記配信ユーザのアバターオブジェクトのアニメーションを含む動画を、サーバ装置又は前記配信ユーザの端末装置から受信し、
前記動画を視聴する視聴ユーザの操作に基づいて生成され、前記アバターオブジェクトに対して第1のギフトオブジェクトを付与することを要求する要求信号を、通信回線を介して発信し、
前記要求信号に基づいて前記アバターオブジェクトに対して付与された前記第1のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信し、
前記配信ユーザの動作に基づいて、前記動画上に表示された1又は複数の前記第1のギフトオブジェクトに対して前記アバターオブジェクトが所定アクションを実行したと前記配信ユーザの端末装置によって判定された場合に、少なくとも前記所定アクションと、該所定アクションを実行された前記第1のギフトオブジェクトの種類と、第1情報と、を少なくとも含む組合せに予め関連付けられた第2のギフトオブジェクトを表示させた前記動画を、前記サーバ装置又は前記配信ユーザの端末装置から受信し、
前記第1情報は、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである場合、前記特定位置であり、
前記所定アクションが、前記配信ユーザの動作に基づいて前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである場合、前記第1のギフトオブジェクト同士の接触時間、前記第1のギフトオブジェクト同士が接触する際の衝突速度及び前記第1のギフトオブジェクト同士が接触する際の相対位置のうちいずれかである、
ように前記プロセッサを機能させるコンピュータプログラム。
By being executed by one or more processors,
receiving a video including an animation of an avatar object of the distribution user based on the distribution user's actions from a server device or a terminal device of the distribution user;
transmitting, via a communication line, a request signal that is generated based on an operation of a viewing user who views the video and requests that a first gift object be given to the avatar object;
receiving the video displaying the first gift object given to the avatar object based on the request signal from the server device or the distribution user's terminal device;
When the terminal device of the distribution user determines that the avatar object has performed a predetermined action with respect to the one or more first gift objects displayed on the video, based on the distribution user's actions; , the video displaying a second gift object associated in advance with a combination including at least the predetermined action, the type of the first gift object on which the predetermined action was performed , and first information. from the server device or the distribution user's terminal device ,
The first information is
If the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the action of the distribution user, the predetermined action is the specific position;
When the predetermined action is an action in which the avatar object contacts at least one of the first gift objects with another first gift object based on the action of the distribution user, the first gift object contact time between the two, a collision speed when the first gift objects contact each other, and a relative position when the first gift objects contact each other,
A computer program that causes the processor to function as described above.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが前記第1のギフトオブジェクトを特定位置に移動させるアクションである、請求項44又は45に記載のコンピュータプログラム。46. The computer program according to claim 44, wherein the predetermined action is an action in which the avatar object moves the first gift object to a specific position based on the distribution user's action. 前記組合せは、少なくとも前記特定位置、及び前記第1のギフトオブジェクトの種類から構成され、The combination includes at least the specific location and the type of the first gift object,
前記第1情報は、前記特定位置である、請求項46に記載のコンピュータプログラム。47. The computer program product according to claim 46, wherein the first information is the specific location.
前記所定アクションは、前記配信ユーザの動作に基づいて、前記アバターオブジェクトが少なくとも1つの前記第1のギフトオブジェクトを、別の前記第1のギフトオブジェクトに接触させるアクションである、請求項44又は45に記載のコンピュータプログラム。According to claim 44 or 45, the predetermined action is an action in which the avatar object causes at least one of the first gift objects to come into contact with another first gift object, based on the operation of the distribution user. The computer program described. 前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士の接触時間から構成され、The combination includes at least the type of the first gift object and the contact time between the first gift objects,
前記第1情報は、前記接触時間である、請求項48に記載のコンピュータプログラム。49. The computer program product according to claim 48, wherein the first information is the contact time.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の衝突速度から構成され、The combination includes at least the type of the first gift object and the collision speed when the first gift objects contact each other,
前記第1情報は、前記衝突速度である、請求項48に記載のコンピュータプログラム。49. The computer program product according to claim 48, wherein the first information is the collision speed.
前記組合せは、少なくとも前記第1のギフトオブジェクトの種類、及び前記第1のギフトオブジェクト同士が接触する際の相対位置から構成され、The combination includes at least the type of the first gift object and the relative position when the first gift objects come into contact with each other,
前記第1情報は、前記相対位置である、請求項48に記載のコンピュータプログラム。49. The computer program product according to claim 48, wherein the first information is the relative position.
前記第1のギフトオブジェクトの各々には、第1コリジョン領域が設定され、A first collision area is set in each of the first gift objects,
前記アバターオブジェクトの手には、第2コリジョン領域が設定され、A second collision area is set on the hand of the avatar object,
前記第1コリジョン領域と前記第2コリジョン領域が、前記動画内で少なくとも一部において重なりあうと前記配信ユーザの端末装置によって判定された場合で、且つ前記配信ユーザの動作に基づいて、前記アバターオブジェクトの指が曲がっていると前記配信ユーザの端末装置によって判定された場合に、前記第1のギフトオブジェクトが前記アバターオブジェクトの手によって把持されていると認識され、In the case where it is determined by the distribution user's terminal device that the first collision area and the second collision area overlap at least in part within the video, and based on the distribution user's movement, the avatar object If the distribution user's terminal device determines that the finger of the avatar object is bent, the first gift object is recognized as being held by the hand of the avatar object;
前記第1のギフトオブジェクトは、前記アバターオブジェクトの手によって把持されている場合に、移動可能である、請求項44乃至51のいずれか一項に記載のコンピュータプログラム。52. A computer program product according to any one of claims 44 to 51, wherein the first gift object is movable when held by the hand of the avatar object.
前記所定アクションは、前記アバターオブジェクトが前記第1のギフトオブジェクトを把持していると前記配信ユーザの端末装置によって判定されている場合に実行可能とされる、請求項52に記載のコンピュータプログラム。53. The computer program product according to claim 52, wherein the predetermined action is executable when the distribution user's terminal device determines that the avatar object is holding the first gift object. 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項44乃至53のいずれか一項に記載のコンピュータプログラム。 54. A computer program product according to any one of claims 44 to 53 , wherein the processor is a central processing unit (CPU), a microprocessor or a graphics processing unit (GPU). 前記通信回線がインターネットを含む、請求項44乃至54のいずれか一項に記載のコンピュータプログラム。 55. A computer program product according to any one of claims 44 to 54 , wherein the communication line includes the Internet.
JP2022101777A 2020-08-13 2022-06-24 Video processing method, server device and computer program Active JP7430353B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022101777A JP7430353B2 (en) 2020-08-13 2022-06-24 Video processing method, server device and computer program
JP2024008210A JP2024040211A (en) 2020-08-13 2024-01-23 Moving image processing method, server device, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020136660A JP7133590B2 (en) 2020-08-13 2020-08-13 Video processing method, server device and computer program
JP2022101777A JP7430353B2 (en) 2020-08-13 2022-06-24 Video processing method, server device and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020136660A Division JP7133590B2 (en) 2019-10-31 2020-08-13 Video processing method, server device and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024008210A Division JP2024040211A (en) 2020-08-13 2024-01-23 Moving image processing method, server device, and computer program

Publications (2)

Publication Number Publication Date
JP2022132299A JP2022132299A (en) 2022-09-08
JP7430353B2 true JP7430353B2 (en) 2024-02-13

Family

ID=75713325

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020136660A Active JP7133590B2 (en) 2019-10-31 2020-08-13 Video processing method, server device and computer program
JP2022101777A Active JP7430353B2 (en) 2020-08-13 2022-06-24 Video processing method, server device and computer program
JP2024008210A Pending JP2024040211A (en) 2020-08-13 2024-01-23 Moving image processing method, server device, and computer program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020136660A Active JP7133590B2 (en) 2019-10-31 2020-08-13 Video processing method, server device and computer program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024008210A Pending JP2024040211A (en) 2020-08-13 2024-01-23 Moving image processing method, server device, and computer program

Country Status (1)

Country Link
JP (3) JP7133590B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7223241B1 (en) 2022-07-13 2023-02-16 株式会社Mixi Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142494A1 (en) 2017-01-31 2018-08-09 株式会社 ニコン Display control system and display control method
JP2018171274A (en) 2017-03-31 2018-11-08 株式会社バンダイナムコエンターテインメント Computer system, game system, and program
JP6431233B1 (en) 2018-05-08 2018-11-28 グリー株式会社 Video distribution system that distributes video including messages from viewing users

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6509955B2 (en) 2017-06-28 2019-05-08 株式会社コロプラ INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING DEVICE

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142494A1 (en) 2017-01-31 2018-08-09 株式会社 ニコン Display control system and display control method
JP2018171274A (en) 2017-03-31 2018-11-08 株式会社バンダイナムコエンターテインメント Computer system, game system, and program
JP6431233B1 (en) 2018-05-08 2018-11-28 グリー株式会社 Video distribution system that distributes video including messages from viewing users

Also Published As

Publication number Publication date
JP2024040211A (en) 2024-03-25
JP7133590B2 (en) 2022-09-08
JP2021072096A (en) 2021-05-06
JP2022132299A (en) 2022-09-08

Similar Documents

Publication Publication Date Title
US10325407B2 (en) Attribute detection tools for mixed reality
JP7408068B2 (en) Computer program, server device and method
JP2022549853A (en) Individual visibility in shared space
US11823316B2 (en) Photoreal character configurations for spatial computing
JP2024040211A (en) Moving image processing method, server device, and computer program
JP2024028853A (en) Moving image processing method, server device and computer program
JP6691631B1 (en) Movie processing method, server device, and computer program
JP6751193B1 (en) Video processing method, server device, and computer program
JP2023100732A (en) Computer program, server device, terminal device, and method
JP2022173211A (en) Moving image distribution system, moving image distribution method, and moving image distribution program
US12039650B2 (en) Moving image processing method of a moving image viewed by a viewing user, a server device controlling the moving image, and a computer program thereof
WO2021053870A1 (en) Video processing method, server device, and computer program
JP7418709B2 (en) Computer programs, methods and server devices
Wan et al. Interactive shadow play animation system
US20240265613A1 (en) Animation operation method, animation operation program, and animation operation system
Zhong et al. Doodle space: painting on a public display by cam-phone
Malerczyk Dynamic Gestural Interaction with Immersive Environments
CN115576414A (en) Projection limb interaction system and method
CN118466741A (en) Virtual scene interaction method and related device
Hoch et al. Individual and Group Interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240123

R150 Certificate of patent or registration of utility model

Ref document number: 7430353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150