JP2024041749A - Moving image distribution system, moving image distribution method, and moving image distribution program - Google Patents
Moving image distribution system, moving image distribution method, and moving image distribution program Download PDFInfo
- Publication number
- JP2024041749A JP2024041749A JP2023203854A JP2023203854A JP2024041749A JP 2024041749 A JP2024041749 A JP 2024041749A JP 2023203854 A JP2023203854 A JP 2023203854A JP 2023203854 A JP2023203854 A JP 2023203854A JP 2024041749 A JP2024041749 A JP 2024041749A
- Authority
- JP
- Japan
- Prior art keywords
- user
- character
- video
- distribution
- starring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000033001 locomotion Effects 0.000 claims abstract description 120
- 230000008901 benefit Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 description 86
- 230000008569 process Effects 0.000 description 56
- 230000000694 effects Effects 0.000 description 30
- 230000006870 function Effects 0.000 description 25
- 238000011156 evaluation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 230000001815 facial effect Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 230000008921 facial expression Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
本明細書における開示は、動画配信システム、動画配信方法及び動画配信プログラムに関する。本明細書における開示は、より具体的には、ユーザの動きに基づいて生成されるキャラクタを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラムに関する。 The disclosure herein relates to a video distribution system, a video distribution method, and a video distribution program. More specifically, the disclosure herein relates to a video distribution system, a video distribution method, and a video distribution program that live-distributes a video including a character generated based on a user's movement.
従来から様々な動画配信サービスが知られている。近年では、配信ユーザの動きに基づいてキャラクタのアニメーションを生成し、かかるキャラクタのアニメーションを含む動画をライブ配信する動画配信システムが注目を集めている。このような動画配信システムは、例えば、特開2015-184689号公報(特許文献1)及び「長谷川 雄介,ヴァーチャルアイドル新時代の幕開け PROJECT MariA,CG WORLD,日本,株式会社ボーンデジタル,2017年11月10日,第231巻,pp.74-79」(非特許文献1)に開示されている。 Various video distribution services have been known for a long time. In recent years, a video distribution system that generates character animation based on the movement of a distribution user and live-distributes a video including the character animation has been attracting attention. Such video distribution systems are disclosed, for example, in Japanese Patent Application Publication No. 2015-184689 (Patent Document 1) and “Yusuke Hasegawa, The Beginning of a New Era of Virtual Idols” PROJECT MariA, CG WORLD, Japan, Born Digital Co., Ltd., November 2017 10th, Vol. 231, pp. 74-79" (Non-Patent Document 1).
配信ユーザの動きに基づいて生成されたキャラクタを含む動画を配信する動画配信サービスとして、株式会社ドワンゴが提供する「バーチャルキャスト」が知られている。バーチャルキャストでは、ある配信ユーザが配信している動画に他のユーザのキャラクタが参加することで、二人の配信ユーザが各々のキャラクタを介して動画内で仮想的に共演することができる。 "Virtual Cast" provided by Dwango Co., Ltd. is known as a video distribution service that distributes videos that include characters generated based on the movements of distribution users. In virtual cast, characters of other users participate in a video being distributed by a distribution user, allowing two distribution users to virtually co-star in the video through their respective characters.
動画を視聴する視聴ユーザからの要求に応じて、当該視聴ユーザが購入したギフトに対応するギフトオブジェクトを表示画面に表示させる動画配信システムも知られている。例えば、特開2012-120098号公報(特許文献2)に開示されている動画配信システムでは、視聴ユーザは、ギフトアイテムを購入し、この購入したギフトアイテムを配信ユーザに対してギフトとして提供することができる。ギフトは、視聴ユーザからの表示要求に応じて配信中の動画に表示される。ギフトの表示要求は、当該ギフトが視聴ユーザによって購入されたことに応じて自動的に生成されることもある。特許第6543403号(特許文献3)の明細書には、配信ユーザの動きに基づいて動くキャラクタと対応付けてギフティングされたオブジェクトを表示することが記載されている。 A video distribution system is also known that displays a gift object corresponding to a gift purchased by the viewing user on a display screen in response to a request from the viewing user who views the video. For example, in the video distribution system disclosed in Japanese Unexamined Patent Publication No. 2012-120098 (Patent Document 2), a viewing user purchases a gift item and provides the purchased gift item to the distribution user as a gift. I can do it. Gifts are displayed on videos being distributed in response to display requests from viewing users. A gift display request may be automatically generated in response to the gift being purchased by a viewing user. The specification of Japanese Patent No. 6543403 (Patent Document 3) describes displaying a gifted object in association with a moving character based on the movement of a distribution user.
共演動画においてホストユーザのキャラクタとゲストユーザのキャラクタとが共演する場合には、ホストユーザのキャラクタの外観は当該ホストユーザの設定によって定められ、ゲストユーザのキャラクタの外観は当該ゲストユーザの設定によって定められる。つまり、共演動画に含まれるキャラクタの画像は、共演者の各々によって独自に決められている。このため、従来の共演動画では統一感が表現しにくいという問題がある。 When a host user's character and a guest user's character co-star in a co-starring video, the appearance of the host user's character is determined by the settings of the host user, and the appearance of the guest user's character is determined by the settings of the guest user. It will be done. In other words, the image of the character included in the co-starring video is uniquely determined by each co-star. For this reason, there is a problem in that it is difficult to express a sense of unity in conventional co-starring videos.
本発明の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本発明のより具体的な目的の一つは、統一感が向上した共演動画を配信することができる動画配信システム、動画配信方法及び動画配信プログラムを提供することである。 It is an object of the present invention to provide technical improvements that solve or alleviate at least some of the problems of the prior art mentioned above. One of the more specific objects of the present invention is to provide a video distribution system, a video distribution method, and a video distribution program that can distribute co-starring videos with an improved sense of unity.
本発明の一態様は、一又は複数のコンピュータプロセッサを備える動画配信システムに関する。一態様において、前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、第1ユーザの動きに基づいて生成される第1キャラクタ及び第2ユーザの動きに基づいて生成される第2キャラクタを含む共演動画を配信し、前記第1キャラクタと対応付けて第1オブジェクトを表示させ、前記第2キャラクタと対応付けて前記第1オブジェクトと同一のマッチングオブジェクトが表示されているか判定し、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合に、前記共演動画において前記第2キャラクタに対応付けて前記第1オブジェクトと同一のマッチングオブジェクトを表示させる。 One aspect of the present invention relates to a video distribution system that includes one or more computer processors. In one aspect, the one or more computer processors execute computer-readable instructions to generate a first character based on a first user's movement and a first character generated based on a second user's movement. Distribute a co-starring video including a second character, display a first object in association with the first character, and determine whether a matching object identical to the first object is displayed in association with the second character. , when it is determined that the matching object is not displayed in association with the second character, the same matching object as the first object is displayed in association with the second character in the co-starring video.
本発明の一態様において、前記第2キャラクタに対応付けて表示された前記マッチングオブジェクトは、前記共演動画のみにおいて表示される。 In one aspect of the present invention, the matching object displayed in association with the second character is displayed only in the co-starring video.
本発明の一態様による動画配信システムは、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合に、前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促し、前記表示要求に基づいて前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる。 The video distribution system according to one aspect of the present invention provides a display request for displaying the matching object in association with the second character when it is determined that the matching object is not displayed in association with the second character. The matching object is displayed in association with the second character in the co-starring video based on the display request.
本発明の一態様による動画配信システムは、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記共演動画を視聴している一又は複数の視聴ユーザに対して前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促す。 When it is determined that the matching object is not displayed in association with the second character, the video distribution system according to one aspect of the present invention prompts one or more viewing users who are watching the co-starring video to make a display request to display the matching object in association with the second character.
本発明の一態様による動画配信システムは、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記第1ユーザに対して前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促す。 In the video distribution system according to one aspect of the present invention, when it is determined that the matching object is not displayed in association with the second character, the video distribution system matches the first user with the matching object in association with the second character. Prompts you to make a display request to display the object.
本発明の一態様による動画配信システムは、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記第2ユーザに対して前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促す。 In the video distribution system according to one aspect of the present invention, when it is determined that the matching object is not displayed in association with the second character, the video distribution system matches the second user with the matching object in association with the second character. Prompts you to make a display request to display the object.
本発明の一態様による動画配信システムは、前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に、前記第1ユーザに対して特典を与える。本発明の一態様による動画配信システムは、前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に、前記第2ユーザに対して特典を与える。本発明の一態様による動画配信システムは、前記共演動画を視聴している一又は複数の視聴ユーザのうちの第1視聴ユーザから前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求がなされたことに応じて前記マッチングオブジェクトが表示された場合に前記第1視聴ユーザに対して特典を与える。本発明の一態様による動画配信システムは、前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に、前記第1ユーザ、前記第2ユーザ、及び前記共演動画を視聴している一又は複数の視聴ユーザのそれぞれに対して特典を与える。 The video distribution system according to one aspect of the present invention provides a benefit to the first user when the matching object is displayed in association with the second character in the co-starring video. The video distribution system according to one aspect of the present invention provides a benefit to the second user when the matching object is displayed in association with the second character in the co-starring video. In the video distribution system according to one aspect of the present invention, a display request to display the matching object in association with the second character is received from a first viewing user among one or more viewing users who are viewing the co-starring video. A privilege is given to the first viewing user when the matching object is displayed in response to the matching object. In the video distribution system according to one aspect of the present invention, when the matching object is displayed in association with the second character in the co-starring video, the first user, the second user, and the co-starring video are viewed. A privilege is given to each of the one or more viewing users who are watching the video.
本発明の一態様において、前記共演動画は、前記第2ユーザから前記第1ユーザとの共演を申請する共演申請を受け付けたことに応じて生成される。 In one aspect of the present invention, the co-starring video is generated in response to receiving a co-starring request from the second user for co-starring with the first user.
本発明の一態様において、前記第1オブジェクトは、前記第1キャラクタの装着部位に対応付けて表示され、前記マッチングオブジェクトは、前記第2キャラクタの前記装着部位に対応付けて表示される。 In one aspect of the present invention, the first object is displayed in association with the attachment part of the first character, and the matching object is displayed in association with the attachment part of the second character.
本発明の一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法に関する。当該動画配信方法は、第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び前記第1キャラクタと対応付けて表示される第1オブジェクトを含む共演動画を配信する工程と、前記第2キャラクタと対応付けて前記第1オブジェクトと同一のマッチングオブジェクトが表示されているか判定する工程と、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合に、前記共演動画において前記第2キャラクタに対応付けて前記第1オブジェクトと同一のマッチングオブジェクトを表示させる工程と、備える。 One aspect of the present invention relates to a video distribution method performed by one or more computer processors executing computer-readable instructions. The video distribution method includes a first character generated based on a first user's movement, a second character generated based on a second user's movement, and a first character displayed in association with the first character. a step of distributing a co-starring video including the object; a step of determining whether a matching object identical to the first object is displayed in association with the second character; and a step of determining whether the matching object is displayed in association with the second character. The method further includes the step of displaying a matching object that is the same as the first object in association with the second character in the co-starring video when it is determined that the object is not displayed.
本発明の一態様は、動画配信プログラムに関する。当該動画配信プログラムは、一又は複数のコンピュータプロセッサに、第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び前記第1キャラクタと対応付けて表示される第1オブジェクトを含む共演動画を配信する工程と、前記第2キャラクタと対応付けて前記第1オブジェクトと同一のマッチングオブジェクトが表示されているか判定する工程と、前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合に、前記共演動画において前記第2キャラクタに対応付けて前記第1オブジェクトと同一のマッチングオブジェクトを表示させる工程と、を実行させる。 One aspect of the present invention relates to a video distribution program. The video distribution program causes one or more computer processors to generate a first character generated based on a first user's movement, a second character generated based on a second user's movement, and the first character. a step of distributing a co-starring video including a first object displayed in association with the second character; a step of determining whether a matching object identical to the first object is displayed in association with the second character; If it is determined that the matching object is not displayed in association with the character, the step of displaying the same matching object as the first object in association with the second character in the co-starring video is executed.
本発明の実施形態によれば、統一感が向上した共演動画を配信することができる動画配信システム、動画配信方法及び動画配信プログラムを提供することができる。 According to the embodiments of the present invention, it is possible to provide a video distribution system, a video distribution method, and a video distribution program that can distribute co-starring videos with an improved sense of unity.
以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Hereinafter, various embodiments of the present invention will be described with appropriate reference to the drawings. Identical or similar components in multiple drawings are provided with the same reference numerals.
図1及び図2を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で動画を配信するユーザUa,Ub及び当該ユーザUa,Ubが使用している配信ユーザ装置20a,20bを模式的に示す模式図である。配信ユーザ装置20aは、動画配信システム1において、ユーザUaの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するための機能を有し、配信ユーザ装置20bは、動画配信システム1において、ユーザUbの動きに基づいて生成されるキャラクタオブジェクトを含む動画を配信するための機能を有する。 A video distribution system according to an embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing a video distribution system 1 according to an embodiment, and FIG. 2 shows users Ua and Ub who distribute videos in the video distribution system 1 and distribution user devices used by the users Ua and Ub. FIG. 2 is a schematic diagram schematically showing 20a and 20b. In the video distribution system 1, the distribution user device 20a has a function for distributing a video including a character object generated based on the movement of the user Ua. It has a function for distributing a video containing a character object generated based on the movement of Ub.
詳しくは後述するように、動画配信システム1は、二人以上の配信ユーザのキャラクタオブジェクトを含む動画を生成し、当該動画を配信することができる。言い換えると、動画配信システム1においては、二人以上の配信ユーザが動画内で各々のキャラクタオブジェクトを介して仮想的に共演することができる。このように、二人以上の配信ユーザが各々のキャラクタオブジェクトを介して動画内で仮想的に共演している場合、その動画を「共演動画」と呼ぶ。本明細書においては、動画に含まれる配信ユーザのキャラクタオブジェクトを単に「キャラクタ」と呼ぶことがある。 As will be described in detail later, the video distribution system 1 can generate a video including character objects of two or more distribution users and distribute the video. In other words, in the video distribution system 1, two or more distribution users can virtually perform together in a video via their respective character objects. In this way, when two or more distribution users virtually co-star in a video via their respective character objects, the video is called a "co-star video." In this specification, a character object of a distribution user included in a video may be simply referred to as a "character."
ユーザUa及びユーザUbはいずれも、動きに基づいて生成されるキャラクタを含む動画を配信する配信ユーザであるとともに、他の配信ユーザの動画を視聴する視聴ユーザでもある。本明細書では、視聴ユーザ装置10、配信ユーザ装置20a,20b、又はこれら以外の装置を使用して動画を視聴するユーザを視聴ユーザと呼ぶ。このため、配信ユーザ装置20a,20bは、動画配信システム1において配信される動画を視聴する機能を有していてもよい。 User Ua and user Ub are both distribution users who distribute videos including characters generated based on movement, and viewing users who view videos of other distribution users. In this specification, a user who views a video using the viewing user device 10, the distribution user devices 20a, 20b, or a device other than these is referred to as a viewing user. Therefore, the distribution user devices 20a and 20b may have a function of viewing videos distributed by the video distribution system 1.
ユーザUaは、ユーザUbとの共演を申請する共演申請を行うことができる。この共演申請が許可されると、ユーザUbのキャラクタとユーザUaのキャラクタとを含む共演動画が生成され、当該共演動画が配信される。ユーザUbが配信している動画にユーザUaが参加し、ユーザUbとユーザUaとが共演する場合、共演申請を行ってユーザUbと共演したユーザUaを「ゲストユーザ」と呼び、ゲストユーザが参加する動画を配信しているユーザUbを「ホストユーザ」と呼ぶことがある。ホストユーザ及びゲストユーザの概念は相対的なものである。例えば、上記の例とは逆に、ユーザUbがユーザUaに対して共演申請を送り、この共演申請に基づいてユーザUbがユーザUaの動画において共演する場合には、ユーザUaがホストユーザとなりユーザUbがゲストユーザとなる。本明細書においては、説明の便宜のために、ユーザUbからユーザUaに対してインビテーションが送信されることを想定する。つまり、ユーザUbがホストユーザでありユーザUaがゲストユーザであることを想定する。ただし、本明細書におけるユーザUaに関する説明は、可能な限りゲストユーザ一般に関する説明に拡張され得る。同様に、本明細書におけるユーザUbに関する説明は、可能な限りホストユーザ一般に関する説明に拡張され得る。例えば、本明細書において配信ユーザUaに関して説明している場合であってもその説明はゲストユーザ一般に関する説明と理解され得るし、配信ユーザUbに関する説明はホストユーザ一般に関する説明と理解され得る。 User Ua can apply for co-starring with user Ub. When this co-starring request is approved, a co-starring video including the user Ub's character and the user Ua's character is generated, and the co-starring video is distributed. When user Ua participates in a video that user Ub is distributing, and user Ub and user Ua co-star, user Ua who has applied for co-starring and co-stars with user Ub is called a "guest user", and the guest user participates. The user Ub who is distributing the video may be called a "host user". The concepts of host user and guest user are relative. For example, contrary to the above example, if user Ub sends a co-starring request to user Ua, and based on this co-starring request, user Ub co-stars in user Ua's video, user Ua becomes the host user and the user Ub becomes a guest user. In this specification, for convenience of explanation, it is assumed that an invitation is sent from user Ub to user Ua. That is, it is assumed that user Ub is a host user and user Ua is a guest user. However, the description regarding the user Ua in this specification may be extended to the general guest users as much as possible. Similarly, the description herein regarding the user Ub may be extended to the extent possible to the description regarding host users in general. For example, even when a description is given regarding distribution user Ua in this specification, the explanation can be understood as an explanation regarding guest users in general, and a description regarding distribution user Ub can be understood as an explanation regarding host users in general.
動画配信システム1は、視聴ユーザ装置10と、配信ユーザ装置20a,20bと、サーバ装置60と、ストレージ70と、を備える。視聴ユーザ装置10と、配信ユーザ装置20と、サーバ装置60と、ストレージ70とは、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置60は、後述するように、配信ユーザUa及び配信ユーザUbのキャラクタのアニメーションを含む動画を配信するように構成される。 The video distribution system 1 includes a viewing user device 10, distribution user devices 20a and 20b, a server device 60, and a storage 70. The viewing user device 10, the distribution user device 20, the server device 60, and the storage 70 are connected to each other via a network 50 so as to be able to communicate with each other. The server device 60 is configured to distribute videos including animations of characters of distribution users Ua and distribution users Ub, as will be described later.
この動画は、サーバ装置60から視聴ユーザ装置10及び配信ユーザ装置20a,20bに配信される。配信された動画は、視聴ユーザ装置10のディスプレイに表示される。視聴ユーザ装置10のユーザである視聴ユーザは、配信された動画を視聴ユーザ装置10により視聴することができる。図面を簡潔するために図1には視聴ユーザ装置10が1台だけ示されているが、動画配信システム1は、複数の視聴ユーザ装置を備えていてもよい。配信ユーザUa,Ubは、配信された動画を視聴することにより、動画中の動画を確認しながらパフォーマンスを行うことができる。 This video is distributed from the server device 60 to the viewing user device 10 and the broadcasting user devices 20a and 20b. The distributed video is displayed on the display of the viewing user device 10. A viewing user, who is a user of the viewing user device 10, can view the distributed video using the viewing user device 10. Although only one viewing user device 10 is shown in FIG. 1 for the sake of simplicity, the video distribution system 1 may include multiple viewing user devices. By viewing the distributed video, the broadcasting users Ua and Ub can perform while checking the video within the video.
図示の実施形態において、配信ユーザ装置20aは、コンピュータプロセッサ21aと、通信I/F22aと、ディスプレイ23aと、カメラ24aと、マイク25aと、を備えている。同様に、配信ユーザ装置20bは、コンピュータプロセッサ21bと、通信I/F22bと、ディスプレイ23bと、カメラ24bと、マイク25bと、を備えている。配信ユーザ装置20aと配信ユーザ装置20bとは同様の構成及び機能を有しているため、両者を特に区別する必要がない場合には、両者をまとめて配信ユーザ装置20と呼ぶことがあり、その構成要素もコンピュータプロセッサ21などと呼ぶことがある。 In the illustrated embodiment, the distribution user device 20a includes a computer processor 21a, a communication I/F 22a, a display 23a, a camera 24a, and a microphone 25a. Similarly, the distribution user device 20b includes a computer processor 21b, a communication I/F 22b, a display 23b, a camera 24b, and a microphone 25b. Since the distribution user device 20a and the distribution user device 20b have similar configurations and functions, if there is no particular need to distinguish between the two, they may be collectively referred to as the distribution user device 20. A component may also be called a computer processor 21 or the like.
コンピュータプロセッサ21は、ストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。 The computer processor 21 is an arithmetic device that loads an operating system and various programs that implement various functions from storage into memory, and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, various other arithmetic devices, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, or MCU. Although computer processor 21 is illustrated as a single component in FIG. 1, computer processor 21 may be a collection of multiple physically separate computer processors.
通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。配信ユーザ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。 The communication I/F 22 is implemented as hardware, firmware, communication software such as a TCP/IP driver or a PPP driver, or a combination thereof. The distribution user device 20 can send and receive data to and from other devices via the communication I/F 22.
ディスプレイ23は、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。 Display 23 has a display panel and a touch panel. The touch panel is configured to be able to detect a touch operation (contact operation) by a player. The touch panel can detect various touch operations such as tap, double tap, and drag by the player. The touch panel may include a capacitive proximity sensor and be configured to be able to detect a non-contact operation by the player.
カメラ24は、配信ユーザUa,Ubの顔を連続的に撮像し、配信ユーザUa,Ubの顔の撮像データを取得する。カメラ24により撮像された配信ユーザUa,Ubの顔の撮像データは、通信I/F22を介してサーバ装置60に送信される。カメラ24は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。カメラ24は、配信ユーザUa,Ubの顔以外の部位、例えば、手、脚、手の指、又はこれら以外の部位を撮像して撮像データを取得しても良い。 The camera 24 continuously images the faces of the distribution users Ua and Ub, and obtains image data of the distribution users Ua and Ub's faces. Image data of the faces of the distribution users Ua and Ub captured by the camera 24 is transmitted to the server device 60 via the communication I/F 22 . The camera 24 may be a 3D camera that can detect the depth of a person's face. The camera 24 may acquire imaging data by capturing images of distribution users Ua, Ub's parts other than their faces, for example, their hands, legs, fingers, or other parts.
マイク25は、入力された音声を音声データに変換するように構成された集音装置である。マイク25は、配信ユーザUa,Ubの音声入力を取得することができるように構成され。マイク25により取得された配信ユーザUa,Ubの音声入力は音声データに変換され、この音声データが通信I/F22を介してサーバ装置60に送信される。 The microphone 25 is a sound collection device configured to convert input audio into audio data. The microphone 25 is configured to be able to acquire audio input from distribution users Ua and Ub. The voice input of the distribution users Ua and Ub acquired by the microphone 25 is converted into voice data, and this voice data is transmitted to the server device 60 via the communication I/F 22.
視聴ユーザ装置10は、配信ユーザ装置20と同様の構成要素を備えてもよい。例えば、視聴ユーザ装置10は、コンピュータプロセッサ、通信I/F、ディスプレイ、及びカメラを備えてもよい。視聴ユーザ装置10は、所定のアプリケーションソフトウェアをダウンロード及びインストールすることにより、配信ユーザ装置20と同様の機能を奏してもよい。 The viewing user device 10 may include the same components as the distribution user device 20. For example, viewing user device 10 may include a computer processor, a communication I/F, a display, and a camera. The viewing user device 10 may perform the same functions as the distribution user device 20 by downloading and installing predetermined application software.
視聴ユーザ装置10及び配信ユーザ装置20は、スマートフォンなどの情報処理装置である。視聴ユーザ装置10及び配信ユーザ装置20は、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。視聴ユーザ装置10及び配信ユーザ装置20の各々は、上記の構成要素以外に、ジャイロセンサ等の各種センサを備えるセンサユニット、及び各種情報を記憶するストレージを備えてもよい。 The viewing user device 10 and the distribution user device 20 are information processing devices such as smartphones. The viewing user device 10 and the distribution user device 20 include, in addition to smartphones, mobile phones, tablet terminals, personal computers, e-book readers, wearable computers, game consoles, and various other information processing devices capable of playing back videos. It's okay. In addition to the above-described components, each of the viewing user device 10 and the distribution user device 20 may include a sensor unit including various sensors such as a gyro sensor, and a storage that stores various information.
次に、サーバ装置60について説明する。図示の実施形態において、サーバ装置60は、コンピュータプロセッサ61と、通信I/F62と、ストレージ63と、を備えている。 Next, the server device 60 will be explained. In the illustrated embodiment, the server device 60 includes a computer processor 61, a communication I/F 62, and a storage 63.
コンピュータプロセッサ61は、ストレージ63又はその他のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ61は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ61は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ61は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。 The computer processor 61 is an arithmetic device that loads an operating system and various programs that implement various functions into memory from the storage 63 or other storage, and executes instructions included in the loaded programs. The computer processor 61 is, for example, a CPU, MPU, DSP, GPU, various other arithmetic devices, or a combination thereof. The computer processor 61 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, or MCU. Although computer processor 21 is illustrated as a single component in FIG. 1, computer processor 61 may be a collection of multiple physically separate computer processors.
通信I/F62は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置60は、通信I/F62を介して、他の装置とデータを送受信することができる。 The communication I/F 62 is implemented as hardware, firmware, or communication software such as a TCP/IP driver or a PPP driver, or a combination of these. The server device 60 can send and receive data to and from other devices via the communication I/F 62.
ストレージ63は、コンピュータプロセッサ61によりアクセスされる記憶装置である。ストレージ63は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ63には、様々なプログラムが記憶され得る。ストレージ63に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置60とは物理的に別体のストレージ(例えば、ストレージ70)に格納されてもよい。 Storage 63 is a storage device accessed by computer processor 61. Storage 63 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or any other storage device capable of storing data. Various programs may be stored in storage 63. At least a portion of the programs and various data that may be stored in storage 63 may be stored in a storage device (e.g., storage 70) that is physically separate from server device 60.
本明細書において、コンピュータプロセッサ21又はコンピュータプロセッサ61によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令はそれぞれ、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21又はコンピュータプロセッサ61によって実行されるプログラム又は当該プログラムに含まれる命令はそれぞれ、複数の仮想コンピュータプロセッサにより実行されてもよい。 Each program described herein as being executed by computer processor 21 or computer processor 61, or the instructions contained therein, may be executed by a single computer processor or distributed by multiple computer processors. It may also be executed as follows. Furthermore, each program executed by the computer processor 21 or the computer processor 61 or the instructions included in the program may be executed by a plurality of virtual computer processors.
次に、ストレージ63に記憶されるデータについて説明する。図示の実施形態においては、ストレージ63には、モデルデータ63a、オブジェクトデータ63b、ギフトオブジェクト情報63c、保有オブジェクト情報63d、オブジェクト表示情報63e、及び前記以外の配信動画の生成及び配信に必要な様々なデータが記憶される。 Next, data stored in the storage 63 will be explained. In the illustrated embodiment, the storage 63 includes model data 63a, object data 63b, gift object information 63c, possessed object information 63d, object display information 63e, and various other items necessary for generating and distributing distribution videos. Data is stored.
モデルデータ63aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ63aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ63aは、例えば、キャラクタの顔及び顔以外の部分の骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ63aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。 The model data 63a is model data for generating character animation. The model data 63a may be three-dimensional model data for generating three-dimensional animation, or two-dimensional model data for generating two-dimensional model data. The model data 63a includes, for example, rig data (sometimes referred to as "skeleton data") indicating the skeleton of the character's face and parts other than the face, and surface data indicating the shape and texture of the character's surface. The model data 63a can include a plurality of different model data. This plurality of model data may have mutually different rig data, or may have the same rig data. This plurality of model data may have different surface data from each other, or may have the same surface data.
オブジェクトデータ63bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ63bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ63bには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。 The object data 63b includes asset data for constructing a virtual space that constitutes a moving image. The object data 63b includes data for drawing the background of the virtual space constituting the video, data for drawing various objects displayed in the video, and data for drawing various objects displayed in the video other than these. Contains data. The object data 63b may include object position information indicating the position of the object in the virtual space.
ギフトオブジェクト情報63cは、ギフトオブジェクトを管理する情報である。ギフトオブジェクト情報63cの例が図3に示されている。図示のように、ギフトオブジェクト63cにおいては、オブジェクトを識別するオブジェクト識別情報と対応づけて、当該オブジェクトの特徴を示すオブジェクト情報が記憶されている。あるオブジェクトのオブジェクト情報には、当該オブジェクトの画像を示す画像データ、当該オブジェクトの種類を示す種類データ、当該オブジェクトが後述する装着オブジェクトである場合にキャラクタへの装着位置を示す装着位置データ、当該オブジェクトの価格、及びこれら以外の当該オブジェクトを特徴付ける様々なデータが含まれ得る。 The gift object information 63c is information for managing gift objects. An example of gift object information 63c is shown in FIG. As illustrated, in the gift object 63c, object information indicating the characteristics of the object is stored in association with object identification information for identifying the object. Object information for an object includes image data indicating an image of the object, type data indicating the type of the object, mounting position data indicating the mounting position on the character if the object is a mounting object (described later), and the object. , and various other data characterizing the object.
一実施形態において、ギフトオブジェクトは、動画を視聴している視聴ユーザからのギフトの表示要求に基づいて当該動画に表示される。ギフトオブジェクトには、様々な種類がある。ギフトオブジェクトには、例えば、エフェクトギフトに対応するエフェクトオブジェクトと、通常ギフトに対応する通常オブジェクトと、装着ギフトに対応する装着オブジェクトと、メッセージギフトに対応するメッセージオブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトを購入することができる。視聴ユーザと配信ユーザ(例えば、配信ユーザUa,Ub)との区別は、ユーザの行為に着目した区別である。例えば、動画配信システム1において、あるユーザが動画を視聴する場合には当該ユーザは視聴ユーザと呼ばれるが、そのユーザが動画を配信する場合には配信ユーザと呼ばれる。 In one embodiment, gift objects are displayed in a video based on a request to display a gift from a viewing user who is viewing the video. There are various types of gift objects. The gift objects may include, for example, an effect object corresponding to an effect gift, a normal object corresponding to a normal gift, a wearing object corresponding to a wearing gift, and a message object corresponding to a message gift. Viewing users can purchase desired gifts. The distinction between viewing users and distribution users (for example, distribution users Ua, Ub) is a distinction that focuses on the actions of the users. For example, in the video distribution system 1, when a certain user views a video, the user is called a viewing user, but when the user distributes the video, the user is called a distribution user.
エフェクトギフトを示すエフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタと重複するように表示されることもあるが、キャラクタの特定の部位と関連付けられずに表示される点で装着オブジェクトと異なっている。 An effect object indicating an effect gift is an object that affects the impression of the entire viewing screen of the distributed video, and is, for example, an object imitating confetti. The object imitating confetti may be displayed over the entire viewing screen, thereby changing the impression of the entire viewing screen before and after the object is displayed. Although effect objects may be displayed overlapping the character, they differ from attachment objects in that they are displayed without being associated with a specific part of the character.
通常ギフトを示す通常オブジェクトは、視聴ユーザから配信ユーザ(例えば、配信ユーザUa,Ub)へのギフトを示すオブジェクトであり、例えばぬいぐるみ、花束、アクセサリ、又は前記以外のギフトやプレゼントに適した物品を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタ以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタと重複するように表示されることもあるが、キャラクタの特定の部位と関連付けられた表示はなされない点で装着オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタの顔を含む頭部以外の部分と重複し、当該キャラクタの頭部とは重複しないように表示される。一態様において、通常オブジェクトをキャラクタと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタの顔を含む上半身以外の部分と重複し、当該キャラクタの上半身とは重複しないように表示される。 A normal object indicating a normal gift is an object indicating a gift from a viewing user to a distribution user (for example, distribution users Ua, Ub), and includes, for example, a stuffed animal, a bouquet of flowers, an accessory, or other items suitable for a gift or present. It is a modeled object. In one aspect, the normal object is displayed on the video display screen so as not to come into contact with the character. In one embodiment, the normal object is displayed on the video display screen so as not to overlap with the character. The normal object may be displayed so as to overlap objects other than the character in the virtual space. Normal objects are sometimes displayed so as to overlap with the character, but are different from attached objects in that they are not displayed in association with a specific part of the character. In one aspect, when displaying a normal object overlapping with a character, the normal object is displayed so as to overlap with parts other than the head including the face of the character and not overlap with the head of the character. be done. In one embodiment, when a normal object is displayed overlapping with a character, the normal object is displayed so as to overlap with parts other than the upper body of the character including the face, and not overlap with the upper body of the character. .
装着ギフトを示す装着オブジェクトは、キャラクタの特定の部位(装着部位)と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタの特定の部位と関連付けて表示画面に表示される装着オブジェクトは、当該キャラクタの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタの特定の部位と関連付けて表示画面に表示される装着オブジェクトは、当該キャラクタの当該特定の部位の一部又は全部を覆うように表示画面に表示される。特定の部位は、3次元座標空間における位置を示す3次元位置情報で特定されてもよいし、3次元座標空間の位置情報に関連付けられていてもよい。例えばキャラクタの頭部において、特定の部位は、頭部の前方左側、前方右側、後方左側、後方右側、中央前側、中央後側、左目、右目、左耳、右耳、及び髪全体という単位で定められてもよい。 A wearable object indicating a wearable gift is an object displayed on the display screen in association with a specific part (wearing part) of the character. In one embodiment, a mounting object displayed on the display screen in association with a specific part of the character is displayed on the display screen so as to be in contact with the specific part of the character. In one embodiment, a mounting object displayed on the display screen in association with a specific part of the character is displayed on the display screen so as to cover part or all of the specific part of the character. A specific part may be specified by three-dimensional position information indicating a position in a three-dimensional coordinate space, or may be associated with position information in a three-dimensional coordinate space. For example, in a character's head, specific parts include the front left side, front right side, back left side, back right side, center front side, center rear side, left eye, right eye, left ear, right ear, and the entire hair. It may be determined.
装着オブジェクトは、例えば、キャラクタに装着されるアクセサリ(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクタに装着可能なオブジェクトである。装着オブジェクトに対応するギフトオブジェクト情報63cには、当該装着オブジェクトがキャラクタのどの部位に関連付けられるかを示す装着部位情報が含まれてもよい。ある装着オブジェクトの装着部位情報は、当該装着オブジェクトがキャラクタのどの部位に装着されるかを示すことができる。例えば、装着オブジェクトがカチューシャである場合には、当該装着オブジェクトの装着部位情報は、当該装着オブジェクトがキャラクタの「頭部」に装着されることを示してもよい。装着オブジェクトが装着される装着部位情報が3次元座標空間の位置として特定される場合には、当該装着部位情報は3次元座標空間における複数の位置と関連付けられてもよい。例えば「カチューシャ」を示す装着オブジェクトが装着される位置を示す装着部位情報は、キャラクタの「頭部後方左側」と「頭部後方右側」の2つの部位と関連付けられてもよい。つまり、「カチューシャ」を示す装着オブジェクトは、「頭部後方左側」及び「頭部後方右側」の両方に装着されてもよい。装着オブジェクトがTシャツである場合には、当該装着オブジェクトの装着部位情報は、当該装着オブジェクトがキャラクタの「胴部」に装着されることを示してもよい。 The wearable objects include, for example, accessories (headbands, necklaces, earrings, etc.) that are worn on the character, clothes (T-shirts, etc.), costumes, and other objects that can be worn on the character. The gift object information 63c corresponding to the wearing object may include wearing part information indicating which part of the character the wearing object is associated with. The attachment part information of a certain attachment object can indicate which part of the character the attachment object is attached to. For example, when the wearing object is a headband, the wearing part information of the wearing object may indicate that the wearing object is worn on the "head" of the character. When the wearing part information on which the wearing object is worn is specified as a position in a three-dimensional coordinate space, the wearing part information may be associated with a plurality of positions in the three-dimensional coordinate space. For example, wearing part information indicating a position where a wearing object indicating a "headband" is worn may be associated with two parts of the character: "back left side of head" and "back right side of head". In other words, the wearing object indicating a "headband" may be worn on both the "back left side of the head" and the "back right side of the head." When the wearing object is a T-shirt, the wearing part information of the wearing object may indicate that the wearing object is worn on the "torso" of the character.
装着部位が共通する2種類の装着オブジェクトは、時間を隔てて動画に表示される。すなわち、装着部位が共通する2種類の装着オブジェクトは、時間を隔ててキャラクタに装着される。言い換えると、装着部位が共通する2種類の装着オブジェクトは、キャラクタに同時には装着されない。例えば、カチューシャを示す装着オブジェクト及び帽子を示す装着オブジェクトに関し、装着部位としていずれも「頭部」が設定されている場合、カチューシャを示す装着オブジェクトと帽子を示す装着オブジェクトとは同時には表示されない。 Two types of attachment objects that have a common attachment location are displayed in the video at different times. In other words, two types of attachment objects having a common attachment site are attached to the character at different times. In other words, two types of attachment objects that have a common attachment site are not attached to the character at the same time. For example, when a wearing object representing a headband and a wearing object representing a hat are both set to the "head" as the wearing part, the wearing object representing a headband and the wearing object representing a hat are not displayed at the same time.
ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装着オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装着オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。 Each gift object may have a display time set according to its type. In one embodiment, the display time of the attachment object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the attachment object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.
保有オブジェクト情報63dは、動画配信システムのユーザ(視聴ユーザ及び配信ユーザ)が保有しているオブジェクトを示すリストである。保有オブジェクト情報63cの例が図4に示されている。図示のように、保有オブジェクト情報63cにおいては、視聴ユーザのアカウント情報と対応づけて、当該視聴ユーザが保有するオブジェクトを特定するオブジェクトIDが記憶されている。視聴ユーザのアカウント情報は、例えば、当該視聴ユーザを特定するユーザIDである。視聴ユーザが保有するオブジェクトは、例えば、上述したギフトオブジェクトである。配信ユーザは、動画の配信中に当該動画に含まれるキャラクタに保有しているオブジェクトを装着させることができる。 The held object information 63d is a list showing objects held by users (viewing users and distribution users) of the video distribution system. An example of the held object information 63c is shown in FIG. As shown in the figure, in the held object information 63c, an object ID that specifies an object held by the viewing user is stored in association with the viewing user's account information. The viewing user's account information is, for example, a user ID that identifies the viewing user. The object held by the viewing user is, for example, the gift object described above. A distribution user can attach an object held to a character included in the video while distributing the video.
オブジェクト表示情報63eは、動画において配信ユーザのキャラクタと対応付けて表示されている装着オブジェクトを管理するための情報である。オブジェクト表示情報63dの例が図5に示されている。図示のように、オブジェクト表示情報63dにおいては、動画を配信している配信ユーザのアカウント情報と対応づけて、当該動画に表示されているオブジェクトを特定するオブジェクトIDが記憶されている。オブジェクト表示情報63dにおいては、動画を配信している配信ユーザのアカウント情報と対応づけて、当該配信ユーザのキャラクタに対応付けて当該動画に表示されている装着オブジェクトを特定するオブジェクトIDが記憶されていてもよい。配信ユーザのアカウント情報は、例えば、当該配信ユーザを特定するユーザIDである。 The object display information 63e is information for managing the attached object displayed in association with the distribution user's character in the video. An example of the object display information 63d is shown in FIG. As shown in the figure, in the object display information 63d, an object ID that identifies an object displayed in the video is stored in association with account information of a distribution user who is distributing the video. In the object display information 63d, an object ID is stored that identifies the attached object displayed in the video in association with the character of the distribution user, in association with the account information of the distribution user who is distributing the video. It's okay. The distribution user's account information is, for example, a user ID that identifies the distribution user.
次に、コンピュータプロセッサ21a,21bにより実現される機能についてより具体的に説明する。コンピュータプロセッサ21aは、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、フェイスモーションデータ生成部21a1として機能する。同様に、コンピュータプロセッサ21bは、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、フェイスモーションデータ生成部21b1として機能する。コンピュータプロセッサ21a,21bにより実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21a,21b以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21a,21bにより実現される機能の少なくとも一部は、例えば、サーバ装置60に搭載されているコンピュータプロセッサ61により実現されてもよい。 Next, the functions realized by the computer processors 21a and 21b will be explained in more detail. The computer processor 21a functions as a face motion data generation section 21a1 by executing computer-readable instructions included in the distribution program. Similarly, the computer processor 21b functions as the face motion data generator 21b1 by executing computer-readable instructions included in the distribution program. At least some of the functions realized by the computer processors 21a and 21b may be realized by a computer processor other than the computer processors 21a and 21b of the video distribution system 1. At least some of the functions realized by the computer processors 21a and 21b may be realized by the computer processor 61 installed in the server device 60, for example.
フェイスモーションデータ生成部21a1は、カメラ24aの撮像データに基づいて、配信ユーザUaの顔の動きのデジタル表現であるフェイスモーションデータを生成する。同様に、フェイスモーションデータ生成部21b1は、カメラ24bの撮像データに基づいて、配信ユーザUbの顔の動きのデジタル表現であるフェイスモーションデータを生成する。フェイスモーションデータは、時間の経過に伴って随時生成される。フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータ生成部21a1にて生成されるフェイスモーションデータは、配信ユーザUaの顔の動き(表情の変化)を時系列的にデジタル表現することができ、フェイスモーションデータ生成部21b1にて生成されるフェイスモーションデータは、配信ユーザUbの顔の動き(表情の変化)を時系列的にデジタル表現することができる。フェイスモーションデータ生成部21a1,21b1にて生成されたフェイスモーションデータは、通信I/F22a,22bを介してサーバ装置60に送信される。 The face motion data generation unit 21a1 generates face motion data that is a digital representation of the distribution user Ua's facial movement based on the image data of the camera 24a. Similarly, the face motion data generation unit 21b1 generates face motion data that is a digital representation of the distribution user Ub's facial movement based on the imaging data of the camera 24b. Face motion data is generated as time passes. Face motion data may be generated every predetermined sampling time interval. In this way, the face motion data generated by the face motion data generation unit 21a1 can digitally represent the facial movements (changes in facial expression) of the distribution user Ua in a time-series manner, and the face motion data generated by the face motion data generation unit 21b1 The face motion data generated in can digitally represent the facial movements (changes in facial expression) of the distribution user Ub in a time-series manner. The face motion data generated by the face motion data generation units 21a1 and 21b1 is transmitted to the server device 60 via the communication I/Fs 22a and 22b.
配信ユーザ装置20においては、フェイスモーションデータ生成部21a1にて生成されるフェイスモーションデータに加えて、配信ユーザUa,Ubの体の顔以外の各部位の位置及び向きのデジタル表現であるボディモーションデータを生成してもよい。配信ユーザ装置20は、フェイスモーションデータに加えて、ボディモーションデータをサーバ装置60に送信してもよい。ボディモーションデータを生成するために、配信ユーザUa,Ubは、モーションセンサを装着してもよい。配信ユーザ装置20は、配信ユーザUa,Ubに装着されたモーションセンサの検出情報に基づいて、ボディモーションデータを生成することができるように構成されてもよい。ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、配信ユーザUa,Ubの体の動きを時系列的にデジタルデータとして表現する。配信ユーザUa,Ubに装着されたモーションセンサの検出情報に基づくボディモーションデータの生成は、例えば、撮影スタジオで行われてもよい。撮影スタジオには、ベースステーションと、トラッキングセンサと、ディスプレイと、が備えられてもよい。ベースステーションは、多軸レーザーエミッターであってもよい。配信ユーザUa,Ubに装着されるモーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。撮影スタジオに備えられるベースステーションは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。また、撮影スタジオと別室には、サポーターコンピュータが設置されていてもよい。撮影スタジオのディスプレイは、サポートコンピュータから受信した情報を表示するように構成されてもよい。サーバ装置60は、サポーターコンピュータが設置されている部屋と同じ部屋に設置されてもよい。サポーターコンピュータが設置されている部屋と撮影スタジオとはガラス窓によって隔てられていてもよい。この場合、サポーターコンピュータのオペレータ(本明細書では「サポーター」ということがある。)は、配信ユーザUa,Ubを視認できる。サポーターコンピュータは、サポーターの操作に応じて、撮影スタジオに備えられた各種装置の設定を変更することができるように構成されてもよい。サポーターコンピュータは、例えば、ベースステーションによる走査インターバルの設定、トラッキングセンサの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。サポーターは、サポーターコンピュータにメッセージを入力し、当該入力されたメッセージを撮影スタジオのディスプレイに表示することができる。 In the distribution user device 20, in addition to the face motion data generated by the face motion data generation unit 21a1, body motion data that is a digital representation of the position and orientation of each part of the distribution users Ua, Ub's body other than the face is generated. may be generated. Distribution user device 20 may transmit body motion data to server device 60 in addition to face motion data. In order to generate body motion data, distribution users Ua and Ub may wear motion sensors. The distribution user device 20 may be configured to be able to generate body motion data based on detection information of a motion sensor attached to the distribution users Ua, Ub. Body motion data may be generated at predetermined sampling time intervals. In this way, the body motion data expresses the body movements of distribution users Ua and Ub in time series as digital data. The body motion data may be generated based on the detection information of the motion sensors attached to the distribution users Ua and Ub, for example, in a photography studio. The photography studio may be equipped with a base station, a tracking sensor, and a display. The base station may be a multi-axis laser emitter. The motion sensor attached to the distribution users Ua and Ub may be, for example, Vive Tracker provided by HTC CORPORATION. The base station provided in the photography studio may be, for example, a base station provided by HTC CORPORATION. Further, a supporter computer may be installed in a separate room from the photography studio. A display in the photography studio may be configured to display information received from the support computer. The server device 60 may be installed in the same room where the supporter computer is installed. The room in which the supporter computer is installed and the photography studio may be separated by a glass window. In this case, the operator of the supporter computer (herein sometimes referred to as "supporter") can visually recognize the distribution users Ua and Ub. The supporter computer may be configured to be able to change the settings of various devices provided in the photography studio in accordance with operations by the supporter. The supporter computer can, for example, set the scanning interval by the base station, set the tracking sensor, and change various settings of various devices other than these. The supporter can enter a message into the supporter computer and display the entered message on a display in the photo studio.
配信ユーザ装置20は、配信プログラム及び/又はそれ以外のプログラムをコンピュータプロセッサで実行することにより、フェイスモーションデータ生成部21a1以外の機能を実現してもよい。例えば、配信ユーザ装置20は、動画視聴用の視聴プログラムを実行することにより受信した動画を再生する機能を実現してもよい。配信プログラムと視聴プログラムとは、一つのアプリケーションソフトウェアにパッケージングされていてもよいし、別個のアプリケーションソフトウェアとして提供されてもよい。 The distribution user device 20 may implement functions other than the face motion data generation section 21a1 by executing the distribution program and/or other programs on a computer processor. For example, the distribution user device 20 may implement a function of playing the received video by executing a viewing program for video viewing. The distribution program and the viewing program may be packaged into one application software, or may be provided as separate application software.
視聴ユーザ装置10は、配信ユーザ装置20と同様の機能を提供するように構成されてもよい。例えば、視聴ユーザ装置10は、動画視聴用の視聴プログラムを実行することにより受信した動画を再生する機能を実現してもよく、配信プログラムを実行することによりフェイスモーションデータ生成部21a1の機能と同様の機能を実現してもよい。 Viewing user device 10 may be configured to provide similar functionality to distribution user device 20. For example, the viewing user device 10 may implement a function of playing the received video by executing a viewing program for video viewing, and may have a function similar to that of the face motion data generation unit 21a1 by executing a distribution program. The function may be realized.
次に、コンピュータプロセッサ61により実現される機能についてより具体的に説明する。コンピュータプロセッサ61は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、アニメーション生成部61a、動画生成部61b、動画配信部61c、ギフト要求処理部61d、ギフト購入処理部61e、共演申請処理部61f、判定部61g、マッチング処理部61h、及び特典付与部61iとして機能する。 Next, the functions realized by the computer processor 61 will be explained in more detail. By executing computer-readable instructions included in the distribution program, the computer processor 61 generates an animation generation section 61a, a video generation section 61b, a video distribution section 61c, a gift request processing section 61d, a gift purchase processing section 61e, and a co-starring application. It functions as a processing section 61f, a determining section 61g, a matching processing section 61h, and a privilege granting section 61i.
アニメーション生成部61aは、配信ユーザ装置20のフェイスモーションデータ生成部21a1によって生成されたフェイスモーションデータを、モデルデータ63aに含まれる所定のモデルデータに適用することにより、キャラクタのアニメーションを生成するように構成される。アニメーション生成部61aは、キャラクタの表情が当該フェイスモーションデータに基づいて変化するように、当該キャラクタのアニメーションを生成することができる。具体的には、アニメーション生成部61aは、配信ユーザUaに関するフェイスモーションデータに基づいて、配信ユーザUaの表情の動きに同期して動くキャラクタのアニメーションを生成することができる。同様に、アニメーション生成部61aは、配信ユーザUbに関するフェイスモーションデータに基づいて、配信ユーザUbの表情の動きに同期して動くキャラクタのアニメーションを生成することができる。 The animation generation unit 61a generates character animation by applying the face motion data generated by the face motion data generation unit 21a1 of the distribution user device 20 to predetermined model data included in the model data 63a. configured. The animation generation unit 61a can generate an animation of the character so that the facial expression of the character changes based on the face motion data. Specifically, the animation generation unit 61a can generate an animation of a character that moves in synchronization with the movement of the facial expression of the distribution user Ua, based on face motion data regarding the distribution user Ua. Similarly, the animation generation unit 61a can generate an animation of a character that moves in synchronization with the facial movements of the distribution user Ub, based on the face motion data regarding the distribution user Ub.
配信ユーザ装置20から配信ユーザUa,Ubに関するボディモーションデータが提供される場合には、アニメーション生成部61aは、配信ユーザUa,Ubに関するボディモーションデータ及びフェイスモーションデータに基づいて、配信ユーザUa,Ubの体及び表情の動きに同期して動くキャラクタのアニメーションを生成することができる。 When the distribution user device 20 provides body motion data regarding the distribution users Ua, Ub, the animation generation unit 61a generates the distribution users Ua, Ub based on the body motion data and face motion data regarding the distribution users Ua, Ub. It is possible to generate character animation that moves in synchronization with the body and facial movements of the character.
動画生成部61bは、配信ユーザUaの動画を配信する場合には、オブジェクトデータ63bを用いて背景を示す背景画像を生成し、この背景画像と、配信ユーザUaに対応するキャラクタのアニメーションと、を含む動画を生成することができる。動画生成部61bは、生成した動画に、配信ユーザ装置20aから受信した音声データに基づいて生成される配信ユーザUaの音声を合成することができる。同様に、動画生成部61bは、配信ユーザUbの動画を配信する場合には、オブジェクトデータ63bを用いて背景を示す背景画像を生成し、この背景画像と、配信ユーザUbに対応するキャラクタのアニメーションと、を含む動画を生成することができる。動画生成部61bは、配信ユーザUa又は配信ユーザUbの要求に応じて、自らのキャラクタに対して保有しているオブジェクトを装着させることができる。装着させることができるオブジェクトは、例えば、上述した装着オブジェクトである。配信ユーザUa又は配信ユーザUbは、配信ユーザ装置20a又は配信ユーザ装置20bを操作することにより、動画の配信開始前又は配信開始後に、自らのキャラクタに装着オブジェクトを装着させるための表示要求をサーバ装置60に対して送信することができる。動画生成部61bは、この表示要求に基づいて配信ユーザ装置20a又は配信ユーザ装置20bのキャラクタに装着オブジェクトを装着させることができる。動画生成部61bは、生成した動画に、配信ユーザ装置20bから受信した音声データに基づいて生成される配信ユーザUbの音声を合成することができる。動画生成部61bによって生成される動画において、配信ユーザUa,Ubに対応するキャラクタは、背景画像に重畳して表示される。以上のようにして、動画生成部61bは、配信ユーザUa又は配信ユーザUbの表情の動きに同期して動くキャラクタのアニメーションを生成し、このアニメーションに配信ユーザUa又は配信ユーザUbの音声が合成された配信用の動画を生成することができる。配信ユーザUaのキャラクタ及び配信ユーザUbのキャラクタを両方とも含む共演動画については後述する。 When distributing the video of the distribution user Ua, the video generation unit 61b generates a background image indicating the background using the object data 63b, and combines this background image and the animation of the character corresponding to the distribution user Ua. You can generate videos that include The video generation unit 61b can synthesize the generated video with the audio of the distribution user Ua, which is generated based on the audio data received from the distribution user device 20a. Similarly, when distributing a video of a distribution user Ub, the video generation unit 61b generates a background image indicating the background using the object data 63b, and combines this background image with an animation of a character corresponding to the distribution user Ub. It is possible to generate a video containing . The video generation unit 61b can attach the object it owns to its own character in response to a request from the distribution user Ua or the distribution user Ub. The object that can be attached is, for example, the attachment object described above. By operating the distribution user device 20a or the distribution user device 20b, the distribution user Ua or the distribution user Ub sends a display request to the server device for equipping their own character with an attachment object before or after the start of video distribution. 60. Based on this display request, the video generation unit 61b can attach the attachment object to the character of the distribution user device 20a or the distribution user device 20b. The video generation unit 61b can synthesize the generated video with the audio of the distribution user Ub, which is generated based on the audio data received from the distribution user device 20b. In the video generated by the video generation unit 61b, the characters corresponding to the distribution users Ua and Ub are displayed superimposed on the background image. As described above, the video generation unit 61b generates an animation of a character that moves in synchronization with the facial movements of the distribution user Ua or distribution user Ub, and the voice of the distribution user Ua or distribution user Ub is synthesized with this animation. It is possible to generate videos for distribution. A co-starring video including both distribution user Ua's character and distribution user Ub's character will be described later.
動画配信部61cは、動画生成部61bにおいて生成された動画を配信する。この動画は、ネットワーク50を介して視聴ユーザ装置10及びこれら以外の視聴ユーザ装置に配信される。生成された動画は、配信ユーザ装置20a,20bにも配信される。受信された動画は、視聴ユーザ装置10及び配信ユーザ装置20a,20bにおいて再生される。 The video distribution unit 61c distributes the video generated by the video generation unit 61b. This video is distributed via the network 50 to the viewing user device 10 and other viewing user devices. The generated video is also distributed to the distribution user devices 20a and 20b. The received video is played back on the viewing user device 10 and the distribution user devices 20a and 20b.
動画配信部61cから配信された動画の表示例を図6、図7a、及び図7bに示す。これらの図では、配信ユーザUbが配信ユーザ装置20bを用いて、自らのキャラクタを含む動画を配信し、当該動画が視聴ユーザ装置10及び配信ユーザ装置20a,20bにおいて再生されていると想定している。図7aにおいては、配信ユーザUaは、動画配信を行っておらず、別の配信ユーザである配信ユーザUbによって配信されている動画を視聴していると想定している。このため、図6、図7a~図7bに関する説明においては、配信ユーザUaのことも視聴ユーザと呼ぶことがある。図6は、視聴ユーザ装置10において再生されている動画の表示例を示し、図7aは、配信ユーザ装置20aにおいて再生されている動画の表示例を示し、図7bは、配信ユーザ装置20bにおいて再生されている動画の表示例を示す。 Display examples of videos distributed from the video distribution unit 61c are shown in FIGS. 6, 7a, and 7b. In these figures, it is assumed that the distribution user Ub uses the distribution user device 20b to distribute a video including his or her own character, and that the video is being played on the viewing user device 10 and the distribution user devices 20a and 20b. There is. In FIG. 7a, it is assumed that distribution user Ua is not distributing a video, but is viewing a video distributed by distribution user Ub, who is another distribution user. Therefore, in the explanations regarding FIGS. 6 and 7a to 7b, the distribution user Ua may also be referred to as a viewing user. FIG. 6 shows a display example of a video being played on the viewing user device 10, FIG. 7a shows a display example of a video being played on the distribution user device 20a, and FIG. 7b shows a display example of a video being played on the distribution user device 20b. An example of how a video is displayed is shown below.
図6に示されているように、視聴ユーザ装置10のディスプレイには、サーバ装置60から配信された動画の画像30が表示される。この視聴ユーザ装置10に表示されている画像30には、アニメーション生成部61aにより生成された配信ユーザUbのキャラクタ31と、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、が含まれている。 As shown in FIG. 6, the video image 30 distributed from the server device 60 is displayed on the display of the viewing user device 10. The image 30 displayed on the viewing user device 10 includes a character 31 of the distribution user Ub generated by the animation generation unit 61a, a gift button 32, an evaluation button 33, a comment button 34, and a comment display area 35. and are included.
図7aに示されているように、配信ユーザ装置20aのディスプレイには、サーバ装置60から配信された動画の画像40aが表示される。この画像40aには、画像30と同様に、配信ユーザUbのキャラクタ31と、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、が含まれている。これに加えて、画像40aには、配信ユーザUbが配信している動画において配信ユーザUbとの共演を申請するための共演申請ボタン36が含まれる。配信ユーザ装置20aは、例えば、視聴プログラムを含むアプリケーションソフトウェアを実行することにより、配信された動画の画像40aを表示することができる。 As shown in FIG. 7a, an image 40a of a moving image distributed from the server device 60 is displayed on the display of the distribution user device 20a. Similar to the image 30, this image 40a includes a character 31 of distribution user Ub, a gift button 32, an evaluation button 33, a comment button 34, and a comment display area 35. In addition, the image 40a includes a co-starring request button 36 for requesting co-starring with the distribution user Ub in the video that the distribution user Ub is distributing. The distribution user device 20a can display the image 40a of the distributed moving image, for example, by executing application software including a viewing program.
図6に示されているように、一実施形態において、視聴ユーザ装置10の画像30には共演申請ボタン36が含まれない。例えば、視聴ユーザ装置10に配信プログラムを含むアプリケーションソフトウェアがダウンロードもしくはインストールされていない場合、及びは、視聴ユーザ装置10において配信プログラムを含むアプリケーションソフトウェアが起動されていない場合に、共演申請ボタン36が含まれないように視聴ユーザ装置10の画像30が生成される。他の実施形態では、視聴ユーザ装置10の画像30にも共演申請ボタン36を表示してもよい。例えば、視聴ユーザ装置10に配信プログラムを含むアプリケーションソフトウェアがダウンロードもしくはインストールされている場合、または、視聴ユーザ装置10において配信プログラムを含むアプリケーションソフトウェアが起動されている場合に、共演申請ボタン36が含まれるように視聴ユーザ装置10の画像30が生成される。 As shown in FIG. 6, in one embodiment, the image 30 of the viewing user device 10 does not include the co-starring request button 36. For example, if the application software including the distribution program is not downloaded or installed on the viewing user device 10, or if the application software including the distribution program is not activated on the viewing user device 10, the co-starring request button 36 is not included. The image 30 of the viewing user device 10 is generated such that the viewing user device 10 does not appear. In other embodiments, the co-starring request button 36 may also be displayed on the image 30 of the viewing user device 10. For example, when application software including a distribution program is downloaded or installed on the viewing user device 10, or when application software including a distribution program is activated on the viewing user device 10, the co-starring request button 36 is included. An image 30 of the viewing user device 10 is generated as follows.
キャラクタ31は、上記のように、配信ユーザUbのフェイスモーションデータをモデルデータ63aに含まれているモデルデータに適用することにより生成されているため、配信ユーザUbの表情の動きに同期してその表情が変化する。配信ユーザ装置20からボディモーションデータが提供される場合には、キャラクタ31は、その顔以外の部位も、配信ユーザUbの体の動きに同期して変化するように制御され得る。 As described above, the character 31 is generated by applying the facial motion data of the distribution user Ub to the model data included in the model data 63a, so that the character 31 is generated by applying the facial motion data of the distribution user Ub to the model data included in the model data 63a. The expression changes. When body motion data is provided from the distribution user device 20, the character 31 can be controlled so that parts other than its face also change in synchronization with the body movements of the distribution user Ub.
ギフトボタン32は、視聴ユーザ装置10への操作によって選択可能に画像30に表示されている。ギフトボタン32は、例えば、視聴ユーザ装置10のタッチパネルのうちギフトボタン32が表示されている領域へのタップ操作により選択され得る。一実施形態において、ギフトボタン32が選択されると、視聴中の動画を配信している配信ユーザ(ここでは、配信ユーザUbである。)にギフティングするギフトを選択するためのウィンドウが画像30に表示される。当該視聴ユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを購入することができる。他の実施形態においては、ギフトボタン32が選択されたことに応じて、画像30に、購入済みのギフトの一覧を含むウィンドウが表示される。この場合、当該視聴ユーザは、当該ウィンドウに表示されているギフトの中からギフティング対象とするギフトを選択することができる。ギフティング又は購入可能なギフトには、エフェクトギフト、通常ギフト、装着ギフト、及びこれら以外のギフトが含まれ得る。 The gift button 32 is displayed on the image 30 so as to be selectable by operating the viewing user device 10. The gift button 32 can be selected, for example, by tapping an area of the touch panel of the viewing user device 10 in which the gift button 32 is displayed. In one embodiment, when the gift button 32 is selected, a window 30 for selecting a gift to gift to the distribution user (here, distribution user Ub) who is distributing the video being viewed is displayed. will be displayed. The viewing user can purchase a gift to be gifted from among the gifts displayed in the window. In other embodiments, in response to selection of gift button 32, image 30 displays a window containing a list of purchased gifts. In this case, the viewing user can select a gift to be gifted from among the gifts displayed in the window. Gifting or purchasable gifts may include effect gifts, regular gifts, wearable gifts, and other gifts.
評価ボタン33は、視聴ユーザ装置10を使用する視聴ユーザによって選択可能に画像30に表示されている。評価ボタン33は、例えば、視聴ユーザ装置10のタッチパネルのうち評価ボタン33が表示されている領域へのタップ操作により選択され得る。動画を視聴中の視聴ユーザによって評価ボタン33が選択されると、当該動画への肯定的な評価がなされたことを示す評価情報がサーバ装置60に送信されてもよい。サーバ装置60は、視聴ユーザ装置10及びこれ以外の視聴ユーザ装置からの評価情報を集計することができる。評価ボタン33の選択により、当該動画への否定的な評価がなされたことを示す評価情報がサーバ装置60に送信されてもよい。動画への肯定的な評価を示す評価情報をポジティブ評価情報と呼び、動画への否定的な評価がなされたことを示す評価情報をネガティブ評価情報と呼んでもよい。 The evaluation button 33 is displayed on the image 30 so as to be selectable by the viewing user using the viewing user device 10. The evaluation button 33 can be selected, for example, by a tap operation on a region of the touch panel of the viewing user device 10 in which the evaluation button 33 is displayed. When the evaluation button 33 is selected by the viewing user who is viewing the video, evaluation information indicating that the video has been positively evaluated may be transmitted to the server device 60. The server device 60 can aggregate evaluation information from the viewing user device 10 and other viewing user devices. By selecting the evaluation button 33, evaluation information indicating that the video has been negatively evaluated may be transmitted to the server device 60. Evaluation information indicating a positive evaluation of the video may be referred to as positive evaluation information, and evaluation information indicating that the video has been negatively evaluated may be referred to as negative evaluation information.
コメントボタン34は、ユーザによって選択可能に画像30に表示される。コメントボタン34が例えばタップ操作により選択されると、コメントを入力するためのコメント入力ウィンドウが画像30に表示される。視聴ユーザは、視聴ユーザ装置10又は配信ユーザ装置20aの入力機構を介してコメントを入力することができる。入力されたコメントは、視聴ユーザ装置10及び配信ユーザ装置20aからサーバ装置60に送信される。サーバ装置60は、視聴ユーザ装置10、配信ユーザ装置20a、及びこれら以外のユーザ装置からのコメントを受け付け、当該コメントを画像30内のコメント表示領域35に表示する。コメント表示領域35には、各ユーザから投稿されたコメントが、例えば時系列に表示される。コメント表示領域35は、画像30の一部の領域を占める。コメント表示領域35に表示可能なコメント数には上限がある。図示の例では、コメント表示領域35には3つまでコメントが表示され得る。コメント表示領域35に設定されている上限を超えたコメントの投稿がなされた場合には、投稿時間が古いコメントから順にコメント表示領域35から削除される。このため、受け付けるコメントの頻度が高くなるほどコメント領域35における各コメントの表示時間は短くなる。一実施形態においては、画像30にスクロールバーを設置し、このスクロールバーを操作してコメントをスクロールすることにより、コメント表示領域35から削除されたコメントが閲覧可能とされる。 The comment button 34 is displayed on the image 30 so that it can be selected by the user. When the comment button 34 is selected, for example, by a tap operation, a comment input window for inputting a comment is displayed on the image 30. The viewing user can input comments via the input mechanism of the viewing user device 10 or the distribution user device 20a. The input comment is transmitted to the server device 60 from the viewing user device 10 and the distribution user device 20a. The server device 60 receives comments from the viewing user device 10, the distribution user device 20a, and other user devices, and displays the comments in the comment display area 35 within the image 30. In the comment display area 35, comments posted by each user are displayed, for example, in chronological order. The comment display area 35 occupies a part of the image 30. There is an upper limit to the number of comments that can be displayed in the comment display area 35. In the illustrated example, up to three comments can be displayed in the comment display area 35. When a comment exceeding the upper limit set in the comment display area 35 is posted, the comments are deleted from the comment display area 35 in the order of posting time. Therefore, the display time of each comment in the comment area 35 becomes shorter as the frequency of received comments increases. In one embodiment, a scroll bar is provided on the image 30, and comments deleted from the comment display area 35 can be viewed by operating the scroll bar to scroll the comments.
図7bに示されているように、配信ユーザ装置20bのディスプレイには、サーバ装置60から配信された動画の画像40bが表示される。この配信ユーザ装置20bに表示される画像40bには、配信ユーザUbに対応するキャラクタ31と、視聴ユーザによって表示要求がなされた装着ギフトを表示するための表示指示ボタン42a~42cと、コメント表示領域35と、が含まれている。配信ユーザ装置20bに表示される画像40bには、画像30及び画像40aと同じ背景画像、キャラクタ画像、及びコメントが含まれている。他方、画像40bは、ギフトボタン32、評価ボタン33、コメントボタン34、及び共演申請ボタン36を含んでおらず、表示指示ボタン42a~42cを含んでいる点で画像30及び画像40aと異なっている。 As shown in FIG. 7b, the video image 40b distributed from the server device 60 is displayed on the display of the distribution user device 20b. The image 40b displayed on the distribution user device 20b includes a character 31 corresponding to the distribution user Ub, display instruction buttons 42a to 42c for displaying the equipped gift requested to be displayed by the viewing user, and a comment display area. 35 is included. The image 40b displayed on the distribution user device 20b includes the same background image, character image, and comment as the images 30 and 40a. On the other hand, image 40b differs from images 30 and 40a in that it does not include gift button 32, evaluation button 33, comment button 34, and co-starring request button 36, but includes display instruction buttons 42a to 42c. .
表示指示ボタン42a~42cは、視聴ユーザから後述する装着ギフトを表示するための表示要求を受け付けたことに応じて表示画面40に表示される。図示の実施形態においては、画像40bに3つの表示指示ボタン42a~42cが表示されている。表示指示ボタン42a~42cの各々は、配信ユーザによって選択可能に表示画面40に表示される。表示指示ボタン42a~42cのいずれかが例えばタップ操作により選択されると、この選択された表示指示ボタンに対応する装着ギフトを表示するための操作が行われる。このように、表示指示ボタン42a~42cは、装着ギフトを配信中の動画に表示させる指示を行うための表示指示オブジェクトである。このため、本明細書においては、表示指示ボタン42a~42cを表示指示オブジェクト42a~42cと呼ぶことがある。また、表示指示オブジェクト42a~42cを互いに区別する必要がない場合には、単に表示指示オブジェクト42と呼ぶことがある。装着ギフトの表示の具体例については後述する。画像40bは、上記のサポーターコンピュータに表示されてもよい。表示指示オブジェクト42a~42cは、サポーターによる当該サポーターコンピュータの操作に応じて選択されてもよい。 The display instruction buttons 42a to 42c are displayed on the display screen 40 in response to receiving a display request from a viewing user to display a wearable gift, which will be described later. In the illustrated embodiment, three display instruction buttons 42a to 42c are displayed on image 40b. Each of the display instruction buttons 42a to 42c is displayed on the display screen 40 so as to be selectable by the distribution user. When one of the display instruction buttons 42a to 42c is selected, for example, by a tap operation, an operation is performed to display the fitted gift corresponding to the selected display instruction button. In this way, the display instruction buttons 42a to 42c are display instruction objects for instructing to display the wearing gift in the video being distributed. Therefore, in this specification, the display instruction buttons 42a to 42c are sometimes referred to as display instruction objects 42a to 42c. Furthermore, when there is no need to distinguish the display instruction objects 42a to 42c from each other, they may be simply referred to as display instruction objects 42. A specific example of the display of the fitted gift will be described later. Image 40b may be displayed on the supporter computer described above. The display instruction objects 42a to 42c may be selected according to the supporter's operation of the supporter computer.
装着ギフトの表示を要求する表示要求が受け付けられるたびに、当該表示要求に対応する表示指示オブジェクト42が画像40bに追加される。画像40bに表示可能な表示指示オブジェクト42の数には上限がある。図示の実施形態では、画像40bに表示可能な表示指示オブジェクト42の上限数は3である。この場合、画像40bには、表示指示オブジェクトを3つ表示できる表示領域を有している。装着ギフトの表示要求を4以上受け付けた場合には、4番目以降の表示要求に対応する表示指示オブジェクト42は画像40bには表示されない。4番目に受け付けられた装着ギフトの表示要求に対応する表示指示オブジェクト42は、既に表示されている3つの表示指示オブジェクト42のうちのいずれかが選択されて、表示領域に空きができた場合に画像40bに表示される。 Each time a display request for displaying an attached gift is received, a display instruction object 42 corresponding to that display request is added to the image 40b. There is an upper limit to the number of display instruction objects 42 that can be displayed on the image 40b. In the illustrated embodiment, the upper limit number of display instruction objects 42 that can be displayed on the image 40b is three. In this case, the image 40b has a display area that can display three display instruction objects. If four or more display requests for attached gifts are received, the display instruction objects 42 corresponding to the fourth and subsequent display requests are not displayed on the image 40b. The display instruction object 42 corresponding to the fourth-received display request for an attached gift is displayed on the image 40b when one of the three display instruction objects 42 already displayed is selected and a space is created in the display area.
ギフト要求処理部61dは、視聴ユーザからギフトの表示要求を受け付け、当該表示要求に応じたギフトオブジェクトを表示するための処理を行う。各視聴ユーザは、自らの視聴ユーザ装置を操作することにより、ギフトの表示要求をサーバ装置60に送信することができる。ギフトの表示要求には、視聴ユーザのユーザIDと、表示を要求するギフトを特定するギフト識別情報(ギフトID)及び/又は表示を要求するギフトに対応するギフトオブジェクトを特定するオブジェクト識別情報(オブジェクトID)と、が含まれてもよい。 The gift request processing unit 61d receives a gift display request from a viewing user, and performs processing for displaying a gift object according to the display request. Each viewing user can transmit a gift display request to the server device 60 by operating his or her own viewing user device. A gift display request includes the user ID of the viewing user, gift identification information (gift ID) that specifies the gift that is requested to be displayed, and/or object identification information (object ID) that specifies the gift object that corresponds to the gift that is requested to be displayed. ID) and may be included.
上述のように、ギフトを示すギフトオブジェクトには、エフェクトギフトに対応するエフェクトオブジェクトと、通常ギフトに対応する通常オブジェクトと、装着ギフトに対応する装着オブジェクトと、が含まれ得る。 As described above, gift objects representing gifts may include an effect object corresponding to an effect gift, a normal object corresponding to a normal gift, and a fitted object corresponding to a fitted gift.
一態様において、ギフト要求処理部61dは、視聴ユーザから特定の通常ギフトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常ギフトを示す通常オブジェクトを動画に表示させるための処理を行う。例えば、バッグを示す通常ギフトの表示要求がなされた場合には、図8に示すように、ギフト要求処理部61dにより当該表示要求に基づいてバッグを示す通常オブジェクト37aが画像30に表示される。同様に、熊のぬいぐるみを示す通常ギフトの表示要求がなされた場合には、図8に示すように、ギフト要求処理部61dにより当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト37bが画像30に表示される。図示を省略しているが、配信ユーザ装置20aにおける画像40a及び配信ユーザ装置20bにおける画像40bにも、画像30と同様に、通常オブジェクト37a,37bが表示される。 In one aspect, upon receiving a display request for a specific normal gift from a viewing user, the gift request processing unit 61d executes a process for displaying a normal object indicating the requested normal gift in a video based on the display request. Perform processing. For example, when a request is made to display a regular gift representing a bag, the gift request processing unit 61d displays a regular object 37a representing a bag on the image 30 based on the display request, as shown in FIG. Similarly, when a request to display a normal gift representing a stuffed bear is made, the gift request processing unit 61d displays a normal object 37b representing a stuffed bear in the image 30 based on the display request, as shown in FIG. will be displayed. Although not shown, normal objects 37a and 37b are also displayed on the image 40a on the distribution user device 20a and the image 40b on the distribution user device 20b, similar to the image 30.
一態様において、ギフト要求処理部61dは、視聴ユーザから特定のエフェクトギフトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトギフトに対応するエフェクトオブジェクトを動画の表示画像に表示させるための処理を行う。例えば、紙吹雪や花火を示すエフェクトギフトの表示要求がなされた場合には、ギフト要求処理部61dは、図当該表示要求に基づいて紙吹雪や花火を示すエフェクトギフトに対応するエフェクトオブジェクト(不図示)が画像30、画像40a、及び画像40bに表示される。 In one embodiment, upon receiving a request to display a specific effect gift from a viewing user, the gift request processing unit 61d converts an effect object corresponding to the effect gift requested to be displayed into a display image of a video based on the display request. Perform processing for display. For example, when a request is made to display an effect gift showing confetti or fireworks, the gift request processing unit 61d generates an effect object (not shown) corresponding to the effect gift showing confetti or fireworks based on the display request. ) are displayed in images 30, 40a, and 40b.
通常ギフトの表示要求には、当該通常ギフトを示す通常オブジェクトの表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、ギフト要求処理部61dは、表示位置指定パラメータによって指定された位置に通常オブジェクトを表示することができる。キャラクタ31の表示位置及び表示範囲が定められている場合には、表示位置指定パラメータによって、当該キャラクタ31に対する相対的な位置が通常オブジェクトの表示位置として指定され得る。 The display request for a normal gift may include a display position designation parameter that designates the display position of a normal object representing the normal gift. In this case, the gift request processing unit 61d can display the normal object at the position designated by the display position designation parameter. When the display position and display range of the character 31 are determined, the display position designation parameter can designate a position relative to the character 31 as the display position of the normal object.
一態様において、通常オブジェクトは、動画の画像30内で移動するように表示されてもよい。例えば、通常オブジェクト37a,37bは、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト37a,37bは、落下開始から画像30の下端まで落下する間当該画像30内に表示され、画像30の下端に落下した後に当該画像30から消滅してもよい。通常オブジェクト37a,37bの画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト37a,37bは、画像30において、左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動してもよい。通常オブジェクト37a,37bは、様々な軌道上を移動することができる。例えば、通常オブジェクト37a,37bは、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト37a,37bの移動方向を指定する移動方向パラメータ及び通常オブジェクト37a,37bが移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいものは、キャラクタ31に、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、画像30における大きさが基準となる大きさより大きいものは、キャラクタ31と重複しない位置に表示される。別の一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいものは、キャラクタ31の後ろに表示されてもよい。通常オブジェクト37a,37bは、画像40a及び画像40bにおいても上記のように移動するように表示されてもよい。 In one aspect, the normal object may be displayed as moving within the video image 30. For example, the normal objects 37a and 37b may be displayed so as to fall from the top to the bottom of the screen. In this case, the normal objects 37a and 37b may be displayed in the image 30 from the start of the fall until they fall to the bottom edge of the image 30, and may disappear from the image 30 after falling to the bottom edge of the image 30. The moving direction of the normal objects 37a and 37b within the screen can be set arbitrarily. For example, the normal objects 37a and 37b may move in the image 30 from left to right, from right to left, from upper left to lower left, or in any other direction. Normal objects 37a and 37b can move on various trajectories. For example, the normal objects 37a and 37b can move on a linear trajectory, a circular trajectory, an elliptical trajectory, a spiral trajectory, or other trajectory. In response to a normal object display request, in addition to or in place of the display position specification parameter, the viewing user requests a movement direction parameter that specifies the moving direction of the normal objects 37a, 37b, and the movement of the normal objects 37a, 37b. At least one of the trajectory parameters specifying the trajectory can be included. In one embodiment, among the effect objects and normal objects, those whose size in the virtual space is smaller than the reference size may be displayed on the character 31 so as to partially or entirely overlap. In one embodiment, among effect objects and normal objects, objects whose size in the image 30 is larger than a reference size are displayed at positions that do not overlap with the character 31. In another embodiment, among the effect objects and normal objects, those whose size in the virtual space is larger than a reference size may be displayed behind the character 31. The normal objects 37a and 37b may also be displayed moving in the image 40a and the image 40b as described above.
一態様において、ギフト要求処理部61dは、視聴ユーザから特定の装着オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、図7bに示すように、配信ユーザ装置20における画像40bに表示指示オブジェクト42a~42cを表示する。この表示指示オブジェクト42a~42cの各々は、表示要求がなされた装着ギフトと対応付けられている。表示指示オブジェクト42a~42cのいずれかが選択されると、その選択された表示指示オブジェクトに対応付けられている装着ギフトが配信中の動画に表示される。例えば、表示指示オブジェクト42bに猫耳を模したカチューシャが対応付けられている場合に、表示指示オブジェクト42bが選択されると、ギフト要求処理部61dは、選択された表示指示オブジェクト42bに対応するカチューシャを示す装着オブジェクト38を配信中の動画に表示させる。カチューシャを示す装着オブジェクト38を含む動画の表示例が図9及び図10a~図10bに示されている。また、図10bに示されているように、選択された表示指示オブジェクト42bは、画像40bから削除される。 In one aspect, when the gift request processing unit 61d receives a request to display a specific wearable object from a viewing user, the gift request processing unit 61d displays a display instruction object on the image 40b on the distribution user device 20 based on the display request, as shown in FIG. 7b. 42a to 42c are displayed. Each of the display instruction objects 42a to 42c is associated with a fitted gift for which a display request has been made. When one of the display instruction objects 42a to 42c is selected, the wearing gift associated with the selected display instruction object is displayed in the video being distributed. For example, when the display instruction object 42b is associated with a headband imitating cat ears, when the display instruction object 42b is selected, the gift request processing unit 61d sends a headband that corresponds to the selected display instruction object 42b. A mounted object 38 indicating the following is displayed on the video being distributed. A display example of a moving image including a wearable object 38 representing a headband is shown in FIGS. 9 and 10a-10b. Also, as shown in FIG. 10b, the selected display instruction object 42b is deleted from the image 40b.
装着オブジェクトは、キャラクタの特定の部位(装着部位)と関連付けて動画内に表示される。例えば、装着オブジェクトは、キャラクタの当該装着部位に接するように動画内に表示されてもよい。装着オブジェクト38は、キャラクタの当該装着部位に装着されるように動画内に表示されてもよい。一実施形態において、カチューシャを示す装着オブジェクト38は、キャラクタの頭部と対応付けられている。このため、図9及び図10a~図10bに示されている表示例では、装着オブジェクト38がキャラクタ31の頭部に装着されている。装着オブジェクトは、キャラクタの当該装着部位の動きに付随して動くように動画の表示画面内に表示されてもよい。例えば、カチューシャを示す装着オブジェクト38を装着したキャラクタ31の頭部が動くと、あたかもカチューシャがキャラクタ31の頭部に装着されているかのごとく、カチューシャを示す装着オブジェクト38もキャラクタ31の頭部に付随して動く。 The attachment object is displayed in the video in association with a specific part (attachment part) of the character. For example, the wearing object may be displayed in the video so as to be in contact with the wearing part of the character. The attachment object 38 may be displayed in the video so as to be attached to the corresponding attachment site of the character. In one embodiment, a wearable object 38 representing a headband is associated with the character's head. Therefore, in the display examples shown in FIGS. 9 and 10a to 10b, the mounting object 38 is mounted on the character 31's head. The wearing object may be displayed on the video display screen so as to move along with the movement of the wearing part of the character. For example, when the head of the character 31 wearing the wearing object 38 representing a headband moves, the wearing object 38 representing the headband also attaches to the head of the character 31, as if the headband is attached to the head of the character 31. and move.
上述したように、ギフトオブジェクト情報63cは、装着オブジェクトがキャラクタのどの部位に関連付けられるかを示す装着部位情報を含んでもよい。一態様において、ギフト要求処理部61dは、キャラクタに装着オブジェクトが装着されている場合には、当該装着オブジェクトの表示時間が経過するまでは、当該装着オブジェクトの装着部位情報が示す部位と同じ又は重複する部位に装着される他の装着オブジェクトの表示を禁止する。例えば、「頭部後方左側」及び「頭部後方右側」の両方に関連付けられたカチューシャと、「頭部後方左側」に関連付けられたヘアアクセサリとは、「頭部後方左側」が重複しているため、カチューシャが表示されている場合には、装着部位情報として「頭部後方左側」が設定されているヘアアクセサリの表示は禁止される。一方、「頭部後方左側」及び「頭部後方右側」に関連付けられたカチューシャと、「(頭部のうち)左耳」及び「(頭部のうち)右耳」に関連付けられたイヤリングは、キャラクタにおける装着部位が重複していないため、同時に装着することができる。 As described above, the gift object information 63c may include attachment part information indicating which part of the character the attachment object is associated with. In one aspect, when a wearable object is attached to the character, the gift request processing unit 61d is configured to display a part that is the same as or overlaps the part indicated by the wearing part information of the wearable object until the display time of the wearable object has elapsed. Prohibits display of other attached objects attached to the body part. For example, a headband that is associated with both "back left side of the head" and "back right side of the head" and a hair accessory associated with "back left side of the head" overlaps with "back left side of the head". Therefore, when a headband is displayed, display of a hair accessory whose wearing location information is set to "back left side of the head" is prohibited. On the other hand, headbands associated with the "back left side of the head" and "back right side of the head" and earrings associated with the "left ear (of the head)" and "right ear (of the head)" are Since the attachment parts on the character do not overlap, they can be attached at the same time.
一実施形態においては、装着部位が同じ又は重複する複数の装着オブジェクトの表示を禁止するために、表示が禁止される装着オブジェクトを表示するための表示指示オブジェクト42がディアクティベートされてもよい。図7bに示されている実施形態において、表示指示オブジェクト42aは、装着部位情報として「頭部後方左側」が設定されたヘアアクセサリの表示を指示するためのオブジェクト(ボタン)であると想定する。この場合、このヘアアクセサリを示す装着オブジェクトは、キャラクタ31がカチューシャを示す装着オブジェクト38を装着中であるため、装着オブジェクト38がキャラクタ31に装着されている間は、動画への表示が禁止される。一実施形態においては、このヘアアクセサリを示す装着オブジェクトの動画への表示を禁止するために、当該ヘアアクセサリを示す装着オブジェクトに対応付けられている表示指示オブジェクト42aがディアクティベートされる。例えば、表示指示オブジェクト42aは、装着オブジェクト38がキャラクタ31に装着されている間、操作されても選択不能とされる。別の実施形態において、装着オブジェクト38がキャラクタ31に装着されている間、表示指示オブジェクト42aは、画像40bから消去される。ディアクティベートされた表示指示オブジェクト42aは、カチューシャの表示時間が経過したことに応じて、再びアクティベートされる。表示指示オブジェクト42aを再びアクティベートするために、例えば、選択不能とされていた表示指示オブジェクト42aが再び選択可能とされてもよいし、非表示となっていた表示指示オブジェクト42aを再び画像40bに表示させてもよい。 In one embodiment, in order to prohibit the display of multiple wearing objects with the same or overlapping wearing parts, the display instruction object 42 for displaying the wearing object that is prohibited from being displayed may be deactivated. In the embodiment shown in FIG. 7b, it is assumed that the display instruction object 42a is an object (button) for instructing the display of a hair accessory with "left rear of head" set as the wearing part information. In this case, since the character 31 is wearing the wearing object 38 representing a headband, the wearing object representing this hair accessory is prohibited from being displayed in the video while the wearing object 38 is worn by the character 31. In one embodiment, in order to prohibit the wearing object representing this hair accessory from being displayed in the video, the display instruction object 42a associated with the wearing object representing the hair accessory is deactivated. For example, the display instruction object 42a is made unselectable even if it is operated while the wearing object 38 is worn by the character 31. In another embodiment, the display instruction object 42a is erased from the image 40b while the wearing object 38 is worn by the character 31. The deactivated display instruction object 42a is activated again when the display time of the headband has elapsed. To reactivate the display instruction object 42a, for example, the display instruction object 42a that was made unselectable may be made selectable again, or the display instruction object 42a that was hidden may be displayed again in the image 40b.
ギフト要求処理部61dは、視聴ユーザからギフトの表示要求に応じたギフトオブジェクトを表示するための処理とともに、オブジェクト表示情報63eを更新する処理を行う。例えば、配信ユーザUbが配信している動画に装着オブジェクト38が表示されている場合には、オブジェクト表示情報63eにおいて配信ユーザUbを識別するユーザIDと対応付けて装着オブジェクト38aを識別するオブジェクトIDが記憶される。他の装着オブジェクトが表示された場合にも同様に、その表示された装着オブジェクトを識別するオブジェクトIDが配信ユーザUbのユーザIDと対応付けて記憶される。ギフト要求処理部61dは、動画に表示された装着オブジェクトが画面から消えた場合(当該装着オブジェクトが装着されなくなった場合)には、画面から消えた装着オブジェクトを識別するオブジェクトIDをオブジェクト表示情報63eから削除しても良い。 The gift request processing unit 61d performs processing for displaying a gift object in response to a gift display request from a viewing user, as well as processing for updating object display information 63e. For example, when the wearable object 38 is displayed in the video being distributed by the distribution user Ub, the object ID that identifies the attachment object 38a is associated with the user ID that identifies the distribution user Ub in the object display information 63e. be remembered. Similarly, when another wearable object is displayed, the object ID for identifying the displayed wearable object is stored in association with the user ID of the distribution user Ub. When the wearable object displayed in the video disappears from the screen (when the wearable object is no longer worn), the gift request processing unit 61d sends an object ID that identifies the wearable object that has disappeared from the screen to the object display information 63e. You can delete it from
一態様において、ギフト購入処理部61eは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザの視聴ユーザ装置(例えば、視聴ユーザ装置10及び配信ユーザ装置20a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装着オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、視聴ユーザ装置10又は配信ユーザ装置20aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、視聴ユーザ装置10又は配信ユーザ装置20aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置60に送信される。ギフト購入処理部61eは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。ストレージ23に、ギフトを購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトのギフトID(又は当該ギフトを示すギフトオブジェクトのギフトオブジェクトID)が記憶されてもよい。ギフトオブジェクトの購入は、くじ、ルートボックス、又はルーレットを利用して行われてもよい。つまり、視聴ユーザは、購入対象のギフトオブジェクトを特定せずに、くじ、ルートボックス、又はルーレットの購入を通じてギフトアイテムを取得しても良い。本明細書においては、購入対象のギフトオブジェクトを特定せずにギフトアイテムを得ることもギフトアイテムの「購入」に含められても良い。 In one embodiment, the gift purchase processing unit 61e, in response to a request from a video viewing user, transmits purchase information for each of a plurality of gift objects that can be purchased in relation to the video to the viewing user device of the viewing user (e.g. , to the viewing user device 10 and the distribution user device 20a). The purchase information for each gift object includes the type of gift object (effect object, normal object, or attached object), the image of the gift object, the price of the gift object, and information necessary for purchasing other gift objects. may be included. The viewing user can select a gift object to purchase based on the gift object purchase information displayed on the viewing user device 10 or the distribution user device 20a. The selection of the gift object to be purchased may be performed by operating the viewing user device 10 or the distribution user device 20a. When a gift object to be purchased is selected by the viewing user, a purchase request for the gift object is transmitted to the server device 60. The gift purchase processing unit 61e performs payment processing based on the purchase request. When this payment process is completed, the purchased gift object is held by the viewing user. The gift ID of the purchased gift (or the gift object ID of the gift object indicating the gift) may be stored in the storage 23 in association with the user ID of the viewing user who purchased the gift. Purchasing gift objects may be performed using a lottery, a loot box, or a roulette wheel. That is, the viewing user may acquire a gift item through lottery, loot box, or roulette purchase without specifying the gift object to be purchased. In this specification, "purchasing" a gift item may also include obtaining a gift item without specifying the gift object to be purchased.
購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。 Purchasable gift objects may be different for each video. A purchasable gift object may be purchasable in multiple videos. That is, the purchasable gift objects may include a unique gift object unique to each video and a common gift object purchasable for multiple videos. For example, an effect object representing confetti may be a common gift object that can be purchased in multiple videos.
一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。 In one aspect, when an effect object is purchased while viewing a predetermined video, the effect object to be purchased is changed to the video being viewed in response to completion of payment processing for purchasing the effect object. It may be displayed automatically. If you purchase a normal object while watching a certain video, the normal gift object for the purchase will be transferred to the video being viewed in the same manner as above, upon completion of the payment process for purchasing the normal object. may be displayed automatically.
他の態様においては、購入対象のエフェクトオブジェクトについてギフト購入処理部61eにおける決済処理が完了したことに応じて、決済完了通知が視聴ユーザ装置10に送信され、当該視聴ユーザ装置10において、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置からギフト要求処理部61dに送信され、ギフト要求処理部61dにおいて、当該購入対象のエフェクトオブジェクトを動画70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が視聴ユーザ装置10に表示されてもよい。 In another aspect, in response to completion of payment processing in the gift purchase processing unit 61e for the effect object to be purchased, a payment completion notification is sent to the viewing user device 10, and the purchase is completed in the viewing user device 10. A confirmation screen may be displayed to ask the viewing user whether or not to request the display of the effect object. When the viewing user selects to make a display request for the purchased effect object, a display request requesting the display of the purchased effect object is sent from the client device of the viewing user to the gift request processing unit 61d. The gift request processing unit 61d may perform a process of displaying the effect object to be purchased on the video 70. Even when the purchase target is a normal object, a confirmation screen may be displayed on the viewing user device 10 to ask the viewing user whether or not to make a display request for the purchased regular object, in the same manner as described above.
共演申請処理部61fは、一の配信ユーザに対して他の配信ユーザから共演申請があった場合に、当該共演申請に基づいて、当該一の配信ユーザと当該他の配信ユーザとが仮想的に共演する共演動画を生成する。以下では、配信ユーザUbのキャラクタ31を含む動画を視聴している配信ユーザUaから配信ユーザUbとの共演申請がなされるケースを想定して説明を行う。共演申請処理部61fは、配信ユーザUaからの共演申請だけでなく、様々な配信ユーザからの共演申請に基づいて共演動画を生成することができる。 When there is a co-starring request from another distribution user to one distribution user, the co-starring request processing unit 61f allows the one distribution user and the other distribution user to virtually collaborate based on the co-starring request. Generate a co-starring video. In the following, a case will be described assuming that a distribution user Ua who is viewing a video including a character 31 of distribution user Ub requests to co-star with distribution user Ub. The co-starring application processing unit 61f can generate a co-starring video based not only on the co-starring request from the distribution user Ua but also on the co-starring requests from various distribution users.
一実施形態において、共演申請処理部61fは、配信ユーザUaからの共演申請を受け付け、当該共演申請に応じて共演動画を生成する。配信ユーザUaは、配信ユーザ装置20aを操作することにより、共演申請をサーバ装置60に送信することができる。具体的には、配信ユーザ装置20aに表示されている共演申請ボタン36が選択されると、配信ユーザ装置20aからサーバ装置60に対して共演申請が送信される。共演申請ボタン36は、例えば、配信ユーザ装置20aのタッチパネルのうち共演申請ボタン36が表示されている領域へのタップ操作により選択され得る。共演申請ボタン36が選択されたことに応じて、配信ユーザ装置20aにおいて配信プログラムを含むアプリケーションソフトウェアが起動されてもよい。配信ユーザ装置20aから送信される共演申請には、配信ユーザUaを識別するユーザIDが含まれてもよい。共演申請ボタン36は、動画の配信時から表示されていてもよいし、配信ユーザUbが配信ユーザUaを招待したことに応じて表示されてもよい。配信ユーザUbは、サーバ装置60を介して又はサーバ装置60を介さずに、配信ユーザUaを共演に誘うためのインビテーションを配信ユーザ装置20bから配信ユーザ装置20aに対して送付しても良い。 In one embodiment, the co-starring application processing unit 61f receives a co-starring request from the distribution user Ua, and generates a co-starring video according to the co-starring request. Distribution user Ua can transmit a co-starring request to server device 60 by operating distribution user device 20a. Specifically, when the co-starring request button 36 displayed on the distribution user device 20a is selected, a co-starring request is transmitted from the distribution user device 20a to the server device 60. The co-starring request button 36 can be selected, for example, by tapping an area of the touch panel of the distribution user device 20a in which the co-starring request button 36 is displayed. In response to selection of the co-starring request button 36, application software including a distribution program may be activated on the distribution user device 20a. The co-starring request transmitted from the distribution user device 20a may include a user ID that identifies the distribution user Ua. The co-starring request button 36 may be displayed from the time the video is distributed, or may be displayed in response to distribution user Ub inviting distribution user Ua. Distribution user Ub may send an invitation from distribution user device 20b to distribution user device 20a to invite distribution user Ua to perform together, either through server device 60 or not through server device 60.
共演申請処理部61fは、配信ユーザ装置20aから共演申請を受け付けたことに応じて、当該共演申請を許可するか否かを決定してもよい。共演申請処理部61fは、共演申請を行った配信ユーザUaに関する様々な情報に基づいて共演可否を決定することができる。例えば、配信ユーザUaに対する他のユーザからの評価が所定の基準より高い場合に配信ユーザUaからの共演申請を許可することができ、逆に、配信ユーザUaに対する他のユーザからの評価が所定の基準よりも低い場合には配信ユーザUaからの共演申請を拒否することができる。また、配信ユーザUaからの共演申請を許可するか否かを配信ユーザUbに問い合わせ、その回答に応じて共演の可否を決定してもよい。 The co-starring application processing unit 61f may determine whether to permit the co-starring application in response to receiving the co-starring application from the distribution user device 20a. The co-starring application processing unit 61f can determine whether co-starring is possible based on various information regarding the distribution user Ua who has applied for co-starring. For example, if the evaluation of distribution user Ua from other users is higher than a predetermined standard, a request for co-starring from distribution user Ua can be permitted; conversely, if the evaluation of distribution user Ua from other users is higher than a predetermined standard If it is lower than the standard, the co-starring request from distribution user Ua can be rejected. Alternatively, the distribution user Ub may be inquired as to whether or not to permit a co-starring request from the distribution user Ua, and it may be determined whether co-starring is possible or not based on the answer.
一実施形態において、配信ユーザUaからの共演申請が許可された場合には、共演申請処理部61fは、配信ユーザUaと配信ユーザUbとが共演する共演動画を生成する。共演動画の生成のために、共演申請処理部61fは、配信ユーザUaから、当該配信ユーザUaのフェイスモーションデータ及び音声データを取得する。配信ユーザUaのフェイスモーションデータは、共演申請とともに配信ユーザ装置20aからサーバ装置60に送信されてもよいし、共演申請が許可された後にサーバ装置60からの要求に応じて配信ユーザ装置20aからサーバ装置60に送信されてもよい。配信ユーザUaの体の動きもアニメーションとして表現される場合には、配信ユーザUaのフェイスモーションデータとともにボディモーションデータがサーバ装置60に提供されてもよい。共演申請処理部61fは、配信ユーザUaからフェイスモーションデータが取得できない場合には、配信ユーザUaから音声データのみを取得してもよい。例えば、配信ユーザUaが使用する配信ユーザ装置20aがフェイスモーションデータ生成部21a1の機能またはこれ以外の動画配信のための機能を備えていない場合、当該機能がディスエーブルされている場合、及びこれら以外の場合には、共演申請処理部61fは、配信ユーザUaからフェイスモーションデータ(及びボディモーションデータ)を取得せず音声データを取得してもよい。 In one embodiment, when a co-starring request from the distribution user Ua is permitted, the co-starring application processing unit 61f generates a co-starring video in which the distribution user Ua and the distribution user Ub co-star. In order to generate a co-starring video, the co-starring application processing unit 61f acquires face motion data and audio data of the distribution user Ua from the distribution user Ua. The face motion data of the distribution user Ua may be transmitted from the distribution user device 20a to the server device 60 together with the co-starring request, or may be sent from the distribution user device 20a to the server device 60 in response to a request from the server device 60 after the co-starring request is approved. The information may be sent to device 60. If distribution user Ua's body movements are also expressed as animation, body motion data may be provided to server device 60 along with distribution user Ua's face motion data. If face motion data cannot be acquired from distribution user Ua, co-starring application processing unit 61f may acquire only audio data from distribution user Ua. For example, if the distribution user device 20a used by the distribution user Ua does not have the function of the face motion data generation unit 21a1 or any other function for video distribution, if the function is disabled, or if In this case, the co-starring application processing unit 61f may obtain voice data without obtaining face motion data (and body motion data) from distribution user Ua.
一実施形態において、共演申請処理部61fは、配信ユーザUaのフェイスモーションデータに基づいて、配信ユーザUbのキャラクタ31を含む動画に、配信ユーザUaのキャラクタのアニメーションを追加することで、共演画像を生成する。配信ユーザUaのキャラクタのアニメーションは、アニメーション生成部61aにおいて、配信ユーザUaのフェイスモーションデータに基づいて生成されてもよい。配信ユーザUaのキャラクタのアニメーションは、配信ユーザUaのフェイスモーションデータをモデルデータ63aに含まれている配信ユーザUa用のモデルデータに適用することにより生成されてもよい。例えば、共演申請処理部61fは、配信ユーザUaのキャラクタのアニメーションを含むレイヤーを生成し、このレイヤーを配信ユーザUbのキャラクタ31を含む動画に重畳することで、配信ユーザUaのキャラクタ及び配信ユーザUbのキャラクタ31を含む共演動画を生成することができる。共演申請処理部61fは、配信ユーザUaからフェイスモーションデータ(及びボディモーションデータ)を取得せず音声データを取得した場合には、配信ユーザUbのキャラクタ31を含む動画に、配信ユーザUaから取得した音声データに基づいて生成される音声を重畳することで、配信ユーザUbのキャラクタ31と配信ユーザUaの音声とを含む共演動画を生成することができる。共演申請処理部61fは、モデルデータ63aとして配信ユーザUa用のモデルデータが設定されていない場合にも、配信ユーザUbのキャラクタ31を含む動画に、配信ユーザUaから取得した音声データに基づいて生成される音声を重畳することで、配信ユーザUbのキャラクタ31と配信ユーザUaの音声とを含む共演動画を生成することができる。このように、配信ユーザUaは、自らの音声により配信ユーザUbと共演することができる。 In one embodiment, the co-starring application processing unit 61f generates a co-starring image by adding animation of the character of broadcast user Ua to a video including character 31 of broadcast user Ub based on the facial motion data of broadcast user Ua. The animation of the character of broadcast user Ua may be generated by animation generation unit 61a based on the facial motion data of broadcast user Ua. The animation of the character of broadcast user Ua may be generated by applying the facial motion data of broadcast user Ua to model data for broadcast user Ua included in model data 63a. For example, the co-starring application processing unit 61f can generate a co-starring video including the character of broadcast user Ua and character 31 of broadcast user Ub by generating a layer including animation of the character of broadcast user Ua and superimposing this layer on a video including character 31 of broadcast user Ub. When the co-starring application processing unit 61f acquires voice data but not face motion data (and body motion data) from the broadcast user Ua, it can generate a co-starring video including the character 31 of the broadcast user Ub and the voice of the broadcast user Ua by superimposing a voice generated based on the voice data acquired from the broadcast user Ua onto a video including the character 31 of the broadcast user Ub. Even when model data for the broadcast user Ua is not set as the model data 63a, the co-starring application processing unit 61f can generate a co-starring video including the character 31 of the broadcast user Ub and the voice of the broadcast user Ua by superimposing a voice generated based on the voice data acquired from the broadcast user Ua onto a video including the character 31 of the broadcast user Ub. In this way, the broadcast user Ua can co-star with the broadcast user Ub using his or her own voice.
共演申請処理部61fは、配信ユーザUaからフェイスモーションデータを取得できない場合に配信ユーザUaの音声と配信ユーザUbのキャラクタ31を含む共演動画を配信し、その後配信ユーザUaからフェイスモーションデータを取得したタイミングで、配信ユーザUaのフェイスモーションデータに基づいて配信ユーザUaのキャラクタを生成することで、配信ユーザUaのキャラクタ及び配信ユーザUbのキャラクタ31を含む共演動画を生成することができる。このように、共演申請処理部61fは、配信ユーザUaの音声と配信ユーザUbのキャラクタ31を含む共演動画を、配信ユーザUaのキャラクタ及び配信ユーザUbのキャラクタ31を含む共演動画に切り替えることができる。これとは逆に、共演申請処理部61fは、配信ユーザUaのキャラクタ及び配信ユーザUbのキャラクタ31を含む共演動画を、配信ユーザUaの音声と配信ユーザUbのキャラクタ31を含む共演動画に切り替えることができる。このように、音声による共演が行われている共演動画(「音声共演動画」と呼ぶことがある。)とキャラクタによる共演が行われている共演動画(「キャラクタ共演動画」と呼ぶことがある。)とは、交互に切り替え可能とされてもよい。 When the face motion data cannot be acquired from the distribution user Ua, the co-starring application processing unit 61f distributes the co-starring video including the voice of the distribution user Ua and the character 31 of the distribution user Ub, and then acquires the face motion data from the distribution user Ua. By generating the character of the distribution user Ua based on the face motion data of the distribution user Ua at the appropriate timing, it is possible to generate a co-starring video including the character of the distribution user Ua and the character 31 of the distribution user Ub. In this way, the co-starring application processing unit 61f can switch the co-starring video including the voice of the distribution user Ua and the character 31 of the distribution user Ub to the co-starring video including the character of the distribution user Ua and the character 31 of the distribution user Ub. . On the contrary, the co-starring application processing unit 61f switches the co-starring video including the character of the distribution user Ua and the character 31 of the distribution user Ub to the co-starring video including the voice of the distribution user Ua and the character 31 of the distribution user Ub. I can do it. In this way, co-starring videos in which co-starring voices are performed (sometimes referred to as "audio co-starring videos") and co-starring videos in which co-starring characters are performed (sometimes referred to as "character co-starring videos"). ) may be alternately switchable.
生成された共演動画は、動画配信部61cにより配信される。共演動画は、配信ユーザ装置20a又は配信ユーザ装置20bで作成されてもよい。共演動画が配信ユーザ装置20aで生成される場合には、当該共演動画が配信ユーザ装置20aからサーバ装置60に送信され、サーバ装置60の動画配信部61cにより配信される。共演動画が配信ユーザ装置20bで生成される場合には、当該共演動画が配信ユーザ装置20bからサーバ装置60に送信され、サーバ装置60の動画配信部61cにより配信される。 The generated co-starring video is distributed by the video distribution unit 61c. The co-starring video may be created by the distribution user device 20a or the distribution user device 20b. When the co-starring video is generated by the distribution user device 20a, the co-starring video is transmitted from the distribution user device 20a to the server device 60, and distributed by the video distribution unit 61c of the server device 60. When the co-starring video is generated by the distribution user device 20b, the co-starring video is transmitted from the distribution user device 20b to the server device 60, and distributed by the video distribution unit 61c of the server device 60.
動画配信部61cから配信された共演動画の表示例を図11及び図12a~図12bに示す。これらの図では、配信ユーザUbが配信している動画に対して配信ユーザUaが共演申請をして、その結果、配信ユーザUaのキャラクタ及び配信ユーザのキャラクタを含む共演動画が配信されており、配信ユーザUaは、図10aに示されている画像を視聴中に共演申請ボタン36を選択したと想定されている。 Display examples of co-starring videos distributed from the video distribution unit 61c are shown in FIGS. 11 and 12a to 12b. In these figures, distribution user Ua requests co-starring for a video distributed by distribution user Ub, and as a result, a co-starring video including the distribution user Ua's character and the distribution user's character is distributed. It is assumed that the distribution user Ua selected the co-starring request button 36 while viewing the image shown in FIG. 10a.
図11に示されているように、視聴ユーザ装置10のディスプレイには、サーバ装置60から配信された共演動画の画像130が表示される。この視聴ユーザ装置10に表示されている共演動画の画像130には、配信ユーザUbのキャラクタ31に加えて、配信ユーザUaのキャラクタ131が含まれている。配信ユーザUaのキャラクタ131は、上記のように、アニメーション生成部61a又は共演申請処理部61fにおいて生成される。共演動画の画像130は、図6に示されている元の配信画像と同様に、ギフトボタン32と、評価ボタン33と、コメントボタン34と、コメント表示領域35と、を含んでいる。 As shown in FIG. 11, an image 130 of the co-starring video distributed from the server device 60 is displayed on the display of the viewing user device 10. The image 130 of the co-starring video displayed on the viewing user device 10 includes a character 131 of the distribution user Ua in addition to the character 31 of the distribution user Ub. As described above, the character 131 of the distribution user Ua is generated by the animation generation unit 61a or the co-starring application processing unit 61f. The co-starring video image 130 includes a gift button 32, an evaluation button 33, a comment button 34, and a comment display area 35, similar to the original distribution image shown in FIG.
共演動画の画像130は、図示のとおり、横長に表示される。共演申請処理部61f又は動画配信部61cは、共演画像を配信する場合、横長の画像として配信する。これにより、視聴ユーザ装置10には、共演動画が横長の画像130として表示される。一実施形態においては、図6に示されているように、元の動画(画像)が縦長だとしても、共演画像は横長に変換されて配信される。共演画像は、二人の配信ユーザのキャラクタを含むため、横長の画像とすることにより、二人分のキャラクタを重複なく表示しやすくなる。例えば、共演画像においては、視聴ユーザの視点で向かって左半分を元の配信ユーザ(ホストユーザ)のキャラクタに割り当てられる領域とし、右半分を共演申請を行った配信ユーザ(ゲストユーザ)のキャラクタに割り当てられる領域としてもよい。各配信ユーザへの領域の割り当ては、キャラクタ同士が重複しないように任意に定められてもよい。 The co-starring video image 130 is displayed in a horizontally long manner as shown. When the co-starring image is distributed, the co-starring application processing unit 61f or the video distribution unit 61c distributes the co-starring image as a horizontally long image. Thereby, the co-starring video is displayed as a horizontally long image 130 on the viewing user device 10. In one embodiment, as shown in FIG. 6, even if the original video (image) is vertically oriented, the co-starring image is converted into horizontally oriented image and distributed. Since the co-starring image includes the characters of two distribution users, by making the image horizontally long, it becomes easier to display the characters of the two users without overlapping. For example, in a co-starring image, the left half from the viewing user's perspective is allocated to the character of the original distribution user (host user), and the right half is allocated to the character of the distribution user (guest user) who requested co-starring. It may also be an allocated area. The allocation of areas to each distribution user may be arbitrarily determined so that characters do not overlap.
図12a及び図12bに示されているように、配信ユーザ装置20aにはサーバ装置60から配信された共演動画の画像140aが表示され、配信ユーザ装置20bのディスプレイには当該共演動画の画像140bが表示される。この画像140a及び画像140bには、画像130と同じ背景画像、キャラクタ画像、及びコメントが含まれている。他方、画像140a及び画像140bは、ギフトボタン32、評価ボタン33、及びコメントボタン34を含んでおらず、表示指示ボタン42a,42c,42dを含んでいる点で画像130と異なっている。配信ユーザUa及び配信ユーザUbは、同じ共演画像において共演しているため、配信ユーザUaの配信ユーザ装置20aに表示されている画像140aと配信ユーザUbの配信ユーザ装置20bに表示されている画像140bとは同じであってもよい。画像140a及び画像140bも画像130と同様に、複数のキャラクタを重複なく配置するという観点から横長に表示されている。図11及び図12a~図12bに示されている例では、図11に示されている共演画像を視聴している視聴ユーザからイヤリングを示す装着ギフトの表示要求がなされ、その結果、当該表示要求に応じて配信ユーザ装置20a及び配信ユーザ装置20bの表示画像には、表示指示オブジェクト42dが追加されていると想定する。表示指示オブジェクト42dは、装着部位情報として「耳」が設定されたイヤリングの表示を指示するためのオブジェクト(ボタン)である。 12a and 12b, image 140a of the co-starring video distributed from the server device 60 is displayed on the broadcast user device 20a, and image 140b of the co-starring video is displayed on the display of the broadcast user device 20b. These images 140a and 140b contain the same background image, character image, and comment as image 130. On the other hand, images 140a and 140b differ from image 130 in that they do not contain the gift button 32, the rating button 33, and the comment button 34, but contain the display instruction buttons 42a, 42c, and 42d. Since broadcast user Ua and broadcast user Ub appear together in the same co-starring image, image 140a displayed on broadcast user device 20a of broadcast user Ua and image 140b displayed on broadcast user device 20b of broadcast user Ub may be the same. Images 140a and 140b are also displayed horizontally in the same way as image 130, from the viewpoint of arranging multiple characters without overlapping. In the example shown in FIG. 11 and FIG. 12a-FIG. 12b, it is assumed that a viewing user viewing the co-starring image shown in FIG. 11 makes a display request for a wearing gift showing earrings, and as a result, a display instruction object 42d is added to the display image of the broadcast user device 20a and the broadcast user device 20b in response to the display request. The display instruction object 42d is an object (button) for instructing the display of earrings with "ear" set as the wearing body part information.
判定部61gは、共演動画においてホストユーザ及びゲストユーザの一方のキャラクタと対応付けてオブジェクトが表示されているときに、他方のキャラクタと対応付けて当該オブジェクトと同一のオブジェクトが表示されているかを判定する。よって、判定部61gは、ホストユーザ及びゲストユーザの一方のキャラクタが装着オブジェクトを装着しているときには、他方のキャラクタが同一の装着オブジェクトを装着しているか否かを判定することができる。判定部61gによる判定は、オブジェクト表示情報63eを参照して行われても良い。オブジェクト表示情報63eにおいては、上記のとおり、配信ユーザのアカウント情報と対応づけて動画において当該配信ユーザのキャラクタと対応付けて表示されている装着オブジェクトを特定するオブジェクトIDが記憶されている。したがって、オブジェクト表示情報63eに基づいて、ホストユーザのキャラクタ31に装着されている装着オブジェクト及びゲストユーザのキャラクタ131に装着されている装着オブジェクトを特定することができる。判定部61gは、オブジェクト表示情報63eに基づいて、ホストユーザとゲストユーザとが同じ装着オブジェクトを装着しているか否かを判定することができる。 The determination unit 61g determines, when an object is displayed in association with one of the characters of the host user and the guest user in the co-starring video, whether the same object is displayed in association with the other character. do. Therefore, when one of the characters of the host user and the guest user is wearing a wearable object, the determination unit 61g can determine whether the other character is wearing the same wearable object. The determination by the determination unit 61g may be performed with reference to the object display information 63e. As described above, in the object display information 63e, an object ID is stored that specifies the attached object that is displayed in association with the distribution user's character in the video in association with the distribution user's account information. Therefore, based on the object display information 63e, it is possible to specify the mounted object mounted on the host user's character 31 and the mounted object mounted on the guest user's character 131. The determining unit 61g can determine whether the host user and the guest user are wearing the same wearing object based on the object display information 63e.
図11に表示されている共演動画を例に、判定部61gにおける判定の具体例について説明する。図11に示されている共演動画の画像130においては、ホストユーザのキャラクタ31に対応付けて装着オブジェクト38が表示されている一方でゲストユーザのキャラクタ131に対応付けて表示されている装着オブジェクトは存在しない。したがって、判定部61gは、オブジェクト表示情報63eに基づいて、ホストユーザのキャラクタ31に対応づけて表示されている装着オブジェクト38がゲストユーザのキャラクタ131に対応付けて表示されていない(キャラクタ131には装着オブジェクト38が装着されていない)と判定する。判定部61gは、ホストユーザのキャラクタ31及びゲストユーザのキャラクタ131の少なくとも一方が複数の装着オブジェクトを装着している場合には、その複数の装着オブジェクトの各々について上記の判定を行うことができる。 A specific example of the determination by the determination unit 61g will be described using the co-starring video displayed in FIG. 11 as an example. In the image 130 of the co-starring video shown in FIG. 11, the wearable object 38 is displayed in association with the host user's character 31, while the wearable object displayed in association with the guest user's character 131 is not exist. Therefore, based on the object display information 63e, the determination unit 61g determines that the mounted object 38 displayed in association with the host user's character 31 is not displayed in association with the guest user's character 131 (the character 131 is not displayed in association with the guest user's character 131). It is determined that the attached object 38 is not attached. If at least one of the host user's character 31 and the guest user's character 131 is wearing a plurality of wearable objects, the determination unit 61g can make the above determination for each of the plurality of wearable objects.
マッチング処理部61hは、判定部61gにおける判定結果に応じて、共演動画にマッチングオブジェクトを表示する。具体的には、判定部61gにおいてホストユーザ及びゲストユーザの一方のキャラクタが装着オブジェクトが表示されているときに他方のキャラクタに対応付けて当該装着オブジェクトと同一のオブジェクトが表示されていないと判定されたときに、当該他方のキャラクタに対応付けて当該一方のキャラクタに対応付けて表示されているオブジェクトと同一のマッチングオブジェクトを表示する処理を行う。 The matching processing unit 61h displays a matching object in the co-starring video according to the determination result of the determination unit 61g. Specifically, the determination unit 61g determines that when a wearable object is displayed for one of the characters of the host user and the guest user, an object identical to the wearable object is not displayed in association with the other character. When a matching object is displayed in association with the other character, a matching object that is the same as the object displayed in association with the one character is displayed.
図11及び図13を参照して、マッチング処理部61hにおける処理の具体例について説明する。図11に例示されている共演動画が配信されている場合、判定部61gにおいては、配信ユーザUb(ホストユーザ)のキャラクタ31に対応づけて表示されている装着オブジェクト38が配信ユーザUa(ゲストユーザ)のキャラクタ131に対応付けて表示されていないと判定される。この判定部61gにおける判定に基づいて、マッチング処理部61hは、装着オブジェクト38を装着していないゲストユーザのキャラクタ131に対応付けてマッチングオブジェクト138を表示させる。言い換えると、キャラクタ131にマッチングオブジェクト138を装着させる。マッチングオブジェクト138は、装着オブジェクト38と同一のオブジェクトである。図示の例では、装着オブジェクト38及びマッチングオブジェクト138はいずれも猫耳を模したカチューシャを示すオブジェクトである。装着オブジェクト38とマッチングオブジェクト138とは同じ装着オブジェクトであるから、同一のオブジェクトIDによって識別されてもよい。 A specific example of processing in the matching processing section 61h will be described with reference to FIGS. 11 and 13. When the co-starring video illustrated in FIG. 11 is distributed, the determination unit 61g determines that the wearable object 38 displayed in association with the character 31 of the distribution user Ub (host user) is ) is not displayed in association with the character 131. Based on the determination by the determining unit 61g, the matching processing unit 61h displays the matching object 138 in association with the guest user's character 131 who is not wearing the wearing object 38. In other words, the matching object 138 is attached to the character 131. Matching object 138 is the same object as attachment object 38. In the illustrated example, the wearing object 38 and the matching object 138 are both objects representing headbands imitating cat ears. Since the attached object 38 and the matching object 138 are the same attached object, they may be identified by the same object ID.
マッチング処理部61hは、マッチングオブジェクトの表示を要求する表示要求に基づいてマッチングオブジェクトを表示する処理を行っても良い。一実施形態において、マッチング処理部61hは、共演動画においてホストユーザのキャラクタ31に対応づけて表示されている装着オブジェクト38がゲストユーザのキャラクタ131に対応付けて表示されていないと判定された場合に、当該共演動画の視聴ユーザに対してマッチングオブジェクトの表示要求の送信を促す処理を行うことができる。例えば、共演動画を再生している視聴ユーザ装置10の画像130においてギフトボタン32を強調表示することができる。ギフトボタン32の強調表示は、例えば、ギフトボタン32の点滅、ギフトボタン32の色の変更、ギフトボタン32の大きさの変更、及び前記以外の態様でなされ得る。視聴ユーザに対してマッチングオブジェクトの表示要求を促す処理には様々な態様が考えられる。視聴ユーザに対してマッチングオブジェクトの表示要求を促す処理には、例えば、画像130においてキャラクタ31に装着されている装着オブジェクト38を強調表示する処理、画像130において装着オブジェクト38が一方のキャラクタのみに装着されていることを示すメッセージを表示する処理、これ以外のマッチングオブジェクトの表示要求を行うことを促すメッセージを表示する処理、及び前記以外の処理が含まれ得る。 The matching processing unit 61h may perform a process of displaying the matching object based on a display request requesting display of the matching object. In one embodiment, the matching processing unit 61h determines that the wearable object 38 that is displayed in association with the host user's character 31 in the co-starring video is not displayed in association with the guest user's character 131. , processing can be performed to prompt the viewing user of the co-starring video to send a request to display a matching object. For example, the gift button 32 may be highlighted in the image 130 of the viewing user device 10 that is playing the co-starring video. The gift button 32 can be highlighted, for example, by blinking the gift button 32, changing the color of the gift button 32, changing the size of the gift button 32, or in other ways than described above. Various aspects can be considered for the process of prompting the viewing user to request display of the matching object. The process of prompting the viewing user to request the display of matching objects includes, for example, a process of highlighting the wearable object 38 attached to the character 31 in the image 130, a process of highlighting the wearable object 38 attached to the character 31 in the image 130, a process of displaying the attachable object 38 attached to only one character in the image 130, etc. This may include a process of displaying a message indicating that the matching object has been matched, a process of displaying a message prompting to request display of another matching object, and other processes other than the above.
視聴ユーザは、視聴ユーザに対してマッチングオブジェクトの表示要求を促す処理がなされた場合に、視聴ユーザ装置10を操作してマッチングオブジェクトの表示要求をサーバ装置60に送信することができる。例えば、視聴ユーザは、ギフトボタン32を操作することにより装着オブジェクト38と同一のオブジェクトをギフティング対象のオブジェクトとして選択し、この選択したオブジェクト(マッチングオブジェクト)の表示要求をサーバ装置60に送信することができる。マッチングオブジェクトの表示要求には、表示対象のマッチングオブジェクトを識別するオブジェクトIDが含まれても良い。サーバ装置60において視聴ユーザ装置10からマッチングオブジェクトの表示要求が受け付けられると、ギフト要求処理部61dは、当該表示要求に基づいてマッチングオブジェクト138をキャラクタ131に対応付けて表示する。マッチングオブジェクト138は装着オブジェクトの一種であるから、マッチングオブジェクトの表示要求がなされたときに配信ユーザ装置20aに表示される画像140a及び配信ユーザ装置20bに表示される画像140bの少なくとも一方に当該マッチングオブジェクト138に対応付けられた表示指示オブジェクトが表示されてもよい。この場合、マッチングオブジェクト138に対応付けられた表示指示オブジェクトが選択されたことに応じて、マッチングオブジェクト138が共演動画に表示されてもよい。マッチングオブジェクト138は、表示指示オブジェクトの選択とは無関係に、マッチングオブジェクト138の表示要求がサーバ装置60において受け付けられたことに応じて共演動画に表示されてもよい。 The viewing user can operate the viewing user device 10 to transmit a matching object display request to the server device 60 when the viewing user is prompted to request the display of the matching object. For example, the viewing user may select the same object as the attached object 38 as the object to be gifted by operating the gift button 32, and may transmit a request to display the selected object (matching object) to the server device 60. I can do it. The matching object display request may include an object ID that identifies the matching object to be displayed. When the server device 60 receives a matching object display request from the viewing user device 10, the gift request processing unit 61d displays the matching object 138 in association with the character 131 based on the display request. Since the matching object 138 is a type of attached object, the matching object is included in at least one of the image 140a displayed on the distribution user device 20a and the image 140b displayed on the distribution user device 20b when a request to display the matching object is made. A display instruction object associated with 138 may be displayed. In this case, the matching object 138 may be displayed in the co-starring video in response to the selection of the display instruction object associated with the matching object 138. The matching object 138 may be displayed in the co-starring video in response to a request to display the matching object 138 being accepted by the server device 60, regardless of the selection of the display instruction object.
マッチングオブジェクト138の表示例が図13に示されている。図13は、キャラクタ131に対応付けてマッチングオブジェクト138が表示されている共演動画の画像の表示例を示す。図13に示されているように、視聴ユーザ装置10において表示される共演動画130において、キャラクタ131に対応付けてマッチングオブジェクト138が表示される。配信ユーザ装置20aにおいて表示される画像140a及び配信ユーザ装置20bにおいて表示される画像140bにおいても同様にキャラクタ131に対応付けてマッチングオブジェクト138が表示される。図示のように、装着オブジェクト38及びマッチングオブジェクト138は、キャラクタ31及びキャラクタ131の同一の装着部位に装着される。具体的には、装着オブジェクト38及びマッチングオブジェクト138はそれぞれキャラクタ31の頭部及びキャラクタ131の頭部に対応付けて表示されている。 A display example of the matching object 138 is shown in FIG. FIG. 13 shows a display example of an image of a co-starring video in which a matching object 138 is displayed in association with a character 131. As shown in FIG. 13, in the co-starring video 130 displayed on the viewing user device 10, a matching object 138 is displayed in association with the character 131. A matching object 138 is similarly displayed in association with the character 131 in an image 140a displayed on the distribution user device 20a and an image 140b displayed on the distribution user device 20b. As illustrated, the attachment object 38 and the matching object 138 are attached to the same attachment site of the character 31 and the character 131. Specifically, the mounting object 38 and the matching object 138 are displayed in association with the head of the character 31 and the head of the character 131, respectively.
他の実施形態において、マッチング処理部61hは、共演動画においてホストユーザのキャラクタ31に対応づけて表示されている装着オブジェクト38がゲストユーザのキャラクタ131に対応付けて表示されていないと判定された場合に、装着オブジェクト38を装着していないキャラクタ131のユーザ(配信ユーザUa)に対して、マッチングオブジェクトの表示要求の送信を行うことを促す処理を行うことができる。装着オブジェクト38を装着していないキャラクタ131のユーザである配信ユーザUaに対してマッチングオブジェクトの表示要求を促す処理には様々な態様が考えられる。配信ユーザUaに対してマッチングオブジェクトの表示要求を促す処理には、例えば、画像140aにおいてキャラクタ31に装着されている装着オブジェクト38を強調表示する処理、画像140aにおいて装着オブジェクト38が一方のキャラクタのみに装着されていることを示すメッセージを表示する処理、これ以外のマッチングオブジェクトの表示要求を行うことを促すメッセージを表示する処理、及び前記以外の処理が含まれ得る。配信ユーザUaは、配信ユーザUaに対してマッチングオブジェクトの表示要求を促す処理がなされた場合に、配信ユーザ装置20aを操作してマッチングオブジェクトの表示要求をサーバ装置60に送信することができる。動画生成部61bは、当該表示要求に基づいてマッチングオブジェクト138をキャラクタ131に対応付けて表示する。 In another embodiment, the matching processing unit 61h determines that the wearable object 38 displayed in association with the host user's character 31 in the co-starring video is not displayed in association with the guest user's character 131. Additionally, processing can be performed to prompt the user (distribution user Ua) of the character 131 who is not wearing the wearing object 38 to send a request to display the matching object. Various aspects can be considered for the process of prompting the distribution user Ua, who is the user of the character 131 who is not wearing the wearing object 38, to request the display of the matching object. The process of prompting the distribution user Ua to request the display of matching objects includes, for example, a process of highlighting the wearable object 38 worn by the character 31 in the image 140a, a process of highlighting the wearable object 38 worn by the character 31 in the image 140a, and a process of highlighting the wearable object 38 worn by only one character in the image 140a. This may include a process of displaying a message indicating that the object is attached, a process of displaying a message prompting a request to display a matching object other than this, and other processes other than the above. When the process of prompting the distribution user Ua to request the display of a matching object is performed, the distribution user Ua can operate the distribution user device 20a to transmit a request to display the matching object to the server device 60. The video generation unit 61b displays the matching object 138 in association with the character 131 based on the display request.
他の実施形態において、マッチング処理部61hは、共演動画においてホストユーザのキャラクタ31に対応づけて表示されている装着オブジェクト38がゲストユーザのキャラクタ131に対応付けて表示されていないと判定された場合に、装着オブジェクト38を装着しているキャラクタ31のユーザ(配信ユーザUb)に対して、マッチングオブジェクトの表示要求の送信を促す処理を行うことができる。装着オブジェクト38を装着しているキャラクタ31のユーザである配信ユーザUbに対してマッチングオブジェクトの表示要求を促す処理には様々な態様が考えられる。配信ユーザUbに対してマッチングオブジェクトの表示要求を促す処理には、例えば、画像140bにおいてキャラクタ31に装着されている装着オブジェクト38を強調表示する処理、画像140bにおいて装着オブジェクト38が一方のキャラクタのみに装着されていることを示すメッセージを表示する処理、これ以外のマッチングオブジェクトの表示要求を行うことを促すメッセージを表示する処理、及び前記以外の処理が含まれ得る。配信ユーザUbは、配信ユーザUbに対してマッチングオブジェクトの表示要求を促す処理がなされた場合に、配信ユーザ装置20bを操作してマッチングオブジェクトの表示要求をサーバ装置60に送信することができる。動画生成部61bは、当該表示要求に基づいてマッチングオブジェクト138をキャラクタ131に対応付けて表示する。 In another embodiment, the matching processing unit 61h determines that the wearable object 38 displayed in association with the host user's character 31 in the co-starring video is not displayed in association with the guest user's character 131. In addition, processing can be performed to prompt the user (distribution user Ub) of the character 31 wearing the wearing object 38 to send a request to display the matching object. Various aspects can be considered for the process of prompting the distribution user Ub, who is the user of the character 31 wearing the wearing object 38, to request the display of the matching object. The process of prompting the distribution user Ub to request the display of matching objects includes, for example, a process of highlighting the wearable object 38 attached to the character 31 in the image 140b, a process of highlighting the wearable object 38 attached to the character 31 in the image 140b, and a process of highlighting the attached object 38 attached to the character 31 in the image 140b. This may include a process of displaying a message indicating that the object is attached, a process of displaying a message prompting a request to display a matching object other than this, and other processes other than the above. When the process of prompting the distribution user Ub to request the display of a matching object is performed, the distribution user Ub can operate the distribution user device 20b to transmit a request to display the matching object to the server device 60. The video generation unit 61b displays the matching object 138 in association with the character 131 based on the display request.
共演動画においてマッチングオブジェクト138が表示されることにより、キャラクタ31及びキャラクタ131の両方が同じ装着オブジェクトを装着することになる。これにより共演動画の統一性が向上する。より具体的には、共演動画において、ホストユーザのキャラクタとゲストユーザのキャラクタとの外見の統一性が向上する。 By displaying the matching object 138 in the co-starring video, both the character 31 and the character 131 wear the same wearing object. This improves the consistency of co-starring videos. More specifically, in the co-starring video, the consistency of appearance between the host user's character and the guest user's character is improved.
マッチングオブジェクト138は、視聴ユーザによる当該マッチングオブジェクト138の表示要求、配信ユーザUaによる表示要求、又は配信ユーザUbによる表示要求に基づいて共演動画において表示される。マッチングオブジェクト138は、当該共演動画のみにおいてキャラクタ131に装着可能とされてもよい。言い換えると、視聴ユーザによる当該マッチングオブジェクト138の表示要求、配信ユーザUaによる表示要求、又は配信ユーザUbによる表示要求に基づいて特定の共演動画において表示されたマッチングオブジェクト(例えば、マッチングオブジェクト138)は、他の動画によって利用することができない。 The matching object 138 is displayed in the co-starring video based on a request to display the matching object 138 by the viewing user, a display request by the distribution user Ua, or a display request by the distribution user Ub. The matching object 138 may be attached to the character 131 only in the co-starring video. In other words, a matching object (e.g., matching object 138) displayed in a specific co-starring video based on a display request for the matching object 138 by the viewing user, a display request by the distribution user Ua, or a display request by the distribution user Ub, Cannot be used by other videos.
特典付与部61iは、共演動画で共演しているユーザの一方のキャラクタと対応付けてマッチングオブジェクトが表示された場合に、その他方のユーザに対して特典を付与する。例えば、特典付与部61iは、図11及び図13に示されている例において、マッチングオブジェクト138がキャラクタ131に対応付けて表示された場合に、キャラクタ31のユーザである配信ユーザUbに対して特典を付与する。特典付与部61iは、マッチングオブジェクト138がキャラクタ131に対応付けて表示された場合に、キャラクタ131のユーザである配信ユーザUaに対して特典を付与してもよい。特典付与部61iは、マッチングオブジェクト138がキャラクタ131に対応付けて表示された場合に、及び共演動画を視聴している視聴ユーザに対して特典を付与しても良い。特典付与部61iは、共演動画を視聴している視聴ユーザの全てに対して特典を付与しても良いし、共演動画を視聴している視聴ユーザの一部に対してのみ特典を付与しても良い。特典付与部61iは、配信ユーザUa、配信ユーザUb、及び視聴ユーザのそれぞれに対して特典を付与しても良い。特典付与部61iは、共演動画を視聴している視聴ユーザのうち、マッチングオブジェクト138のギフティングを行った視聴ユーザに対してのみ特典を付与しても良い。特典付与部61iによって与えられる特典には、動画配信システム1によって提供される動画配信サービスにおいて使用可能なポイント、動画配信システム1以外の特定のプラットフォームで利用可能なポイント、ビットコイン等の暗号資産、他の配信ユーザ(例えば、配信ユーザUb)にギフティングするためのギフト、配信される動画に表示することが可能なオブジェクト、及びこれら以外の様々な特典を含み得る。 When a matching object is displayed in association with the character of one of the users co-starring in the co-starring video, the privilege granting unit 61i provides a privilege to the other user. For example, in the examples shown in FIGS. 11 and 13, when the matching object 138 is displayed in association with the character 131, the privilege granting unit 61i provides a privilege to the distribution user Ub who is the user of the character 31. Grant. The benefit granting unit 61i may grant a benefit to the distribution user Ua who is the user of the character 131 when the matching object 138 is displayed in association with the character 131. The benefit granting unit 61i may grant a benefit when the matching object 138 is displayed in association with the character 131 and to the viewing user who is viewing the co-starring video. The benefit granting unit 61i may grant benefits to all of the viewing users who are viewing the co-starring video, or may grant benefits to only some of the viewing users who are viewing the co-starring video. Also good. The benefit granting unit 61i may grant a benefit to each of the distribution user Ua, the distribution user Ub, and the viewing user. The benefit granting unit 61i may grant a benefit only to the viewing users who have gifted the matching object 138 among the viewing users who are viewing the co-starring video. The benefits given by the benefit granting unit 61i include points that can be used in the video distribution service provided by the video distribution system 1, points that can be used on a specific platform other than the video distribution system 1, crypto assets such as Bitcoin, It may include gifts to be given to other distribution users (for example, distribution user Ub), objects that can be displayed in distributed videos, and various other benefits.
次に、図14~図16を参照して、一態様による動画配信処理について説明する。図14は、一実施形態における動画配信処理の流れを示すフロー図であり、図15は、一実施形態において共演動画を配信する処理の流れを示すフロー図であり、図16は、一実施形態においてマッチングオブジェクトを表示する処理の流れを示すフロー図である。これらの図を参照して説明される動画配信処理においては、配信ユーザUbが配信ユーザ装置20bを用いて取得したフェイスモーションデータに基づいて生成された動画が配信されており、この動画を視聴している配信ユーザUaから共演申請がなされることが想定されている。 Next, a video distribution process according to one aspect will be described with reference to FIGS. 14 to 16. FIG. 14 is a flowchart showing the flow of video distribution processing in one embodiment, FIG. 15 is a flowchart showing the flow of processing for distributing co-starring videos in one embodiment, and FIG. FIG. 3 is a flowchart showing the flow of processing for displaying matching objects in FIG. In the video distribution process described with reference to these figures, a video generated based on face motion data obtained by a distribution user Ub using the distribution user device 20b is distributed, and the video is viewed and viewed by the distribution user Ub. It is assumed that a request for co-starring will be made from distribution user Ua.
まず、ステップS11では、配信ユーザUbの顔の動き(表情)のデジタル表現であるフェイスモーションデータが生成される。フェイスモーションデータの生成は、例えば、配信ユーザ装置20bのフェイスモーションデータ生成部121bで行われる。配信ユーザ装置20bにおいては、配信ユーザUa,Ubからの音声入力に基づいて音声データが生成されてもよい。生成されたフェイスモーションデータ及び音声データは、サーバ装置60に送信される。 First, in step S11, face motion data that is a digital representation of facial movements (expressions) of distribution user Ub is generated. Generation of the face motion data is performed, for example, by the face motion data generation unit 121b of the distribution user device 20b. In the distribution user device 20b, audio data may be generated based on voice input from distribution users Ua and Ub. The generated face motion data and audio data are transmitted to the server device 60.
次に、ステップS12において、配信ユーザ装置20bからのフェイスモーションデータが配信ユーザUb用のモデルデータに適用されることにより、配信ユーザUbの表情の動きに同期して動くキャラクタオブジェクト31のアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部61aで行われる。 Next, in step S12, the face motion data from the distribution user device 20b is applied to the model data for the distribution user Ub, thereby generating an animation of the character object 31 that moves in synchronization with the facial movements of the distribution user Ub. be done. This animation is generated, for example, by the animation generation section 61a described above.
次に、ステップS13において、配信ユーザUbのキャラクタオブジェクト31のアニメーションを含む動画が生成される。この動画には、配信ユーザUbの音声が合成されてもよい。キャラクタオブジェクト31のアニメーションは、背景画像に重畳して表示される。この動画の生成は、例えば、上記の動画生成部61bで行われる。 Next, in step S13, a video including the animation of the character object 31 of the distribution user Ub is generated. The voice of distribution user Ub may be synthesized with this video. The animation of the character object 31 is displayed superimposed on the background image. The generation of this moving image is performed, for example, by the above-mentioned moving image generation unit 61b.
次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介して視聴ユーザ装置10及びこれら以外の視聴ユーザ装置並びに配信ユーザ装置に配信される。配信された動画が視聴ユーザ装置10において再生される場合には、例えば、図5に示すような動画の画像が視聴ユーザ装置10に表示される。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。この動画の配信は、例えば、上記の動画配信部61cで行われる。 Next, the process moves to step S14, and the video generated in step S13 is distributed. This moving image is distributed via the network 50 to the viewing user device 10, other viewing user devices, and distribution user devices. When the distributed video is played back on the viewing user device 10, an image of the video as shown in FIG. 5, for example, is displayed on the viewing user device 10. The video is continuously distributed over a predetermined distribution period. The video distribution period can be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, or any other time. Distribution of this moving image is performed, for example, by the above-mentioned moving image distribution unit 61c.
次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、配信ユーザUbが配信ユーザ装置20bにおいて配信を終了するための操作を行ったこと、またはこれら以外の条件である。終了条件が成就していなければステップS11~S14の処理が繰り返し実行され、配信ユーザUbの動きに同期したアニメーションを含む動画、又は、配信ユーザUaとの共演が継続している場合には共演動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。 Next, the process advances to step S15, and it is determined whether the termination condition for terminating the distribution of the moving image is fulfilled. The termination condition is, for example, that the distribution termination time has been reached, that distribution user Ub has performed an operation to terminate distribution on distribution user device 20b, or other conditions. If the termination condition is not met, the processes of steps S11 to S14 are repeatedly executed, and a video containing animation synchronized with the movements of the distribution user Ub, or a co-starring video if the co-starring with the distribution user Ua continues. distribution will continue. If it is determined that the termination condition is fulfilled for the video, the distribution process for the video is ended.
次に、図15を参照して、一実施形態における共演動画の配信処理について説明する。図15は、一実施形態において共演動画を配信する処理の流れを示すフロー図である。図15を参照して説明される共演動画の配信処理においては、配信ユーザUbのキャラクタオブジェクトを含む動画を視聴している配信ユーザUaから配信ユーザUbに対して共演申請がなされることが想定されている。共演動画の配信処理は、図14に示されている動画の配信処理と並行して行われる。 Next, with reference to FIG. 15, a co-star video distribution process in one embodiment will be described. FIG. 15 is a flow diagram showing the flow of processing for distributing a co-starring video in one embodiment. In the co-starring video distribution process described with reference to FIG. 15, it is assumed that a co-starring request is made to the distribution user Ub from the distribution user Ua who is viewing a video including the character object of the distribution user Ub. ing. The co-star video distribution process is performed in parallel with the video distribution process shown in FIG. 14.
まず、配信ユーザUbのキャラクタオブジェクトを含む動画の配信中に、ステップS21において、配信ユーザUb以外のユーザから共演申請がなされたか否かが判定される。共演申請は、例えば、配信ユーザUaからなされる。配信ユーザUaによって共演申請がなされた場合には、処理はステップS22に進む。 First, during distribution of a video including a character object of distribution user Ub, in step S21, it is determined whether a co-starring request has been made by a user other than distribution user Ub. A co-starring request is made by distribution user Ua, for example. If the request for co-starring is made by distribution user Ua, the process proceeds to step S22.
ステップS22では、共演を申請した配信ユーザUa及びそれ以外のユーザの中から一又は複数のゲストユーザが選定される。本実施形態では、配信ユーザUaがゲストユーザとして選定されたと想定する。この共演申請を許可するか否かの判定は、例えば、共演申請処理部61fにより行われる。 In step S22, one or more guest users are selected from the distribution user Ua who has applied for co-starring and other users. In this embodiment, it is assumed that distribution user Ua is selected as a guest user. The determination as to whether or not to permit this co-starring request is made, for example, by the co-starring application processing unit 61f.
ステップS22において、配信ユーザUaの共演申請が許可された場合には、処理はステップS23に進む。ステップS23では、配信ユーザUaのフェイスモーションデータに基づいて、配信ユーザUaのキャラクタオブジェクト131のアニメーションが生成される。そして、配信中の動画(配信ユーザUbのキャラクタオブジェクト31を含む動画)に、配信ユーザUaのキャラクタオブジェクト131のアニメーションを追加することで共演動画を生成する。ステップS22における処理は、例えば、上記の共演申請処理部61fで行われる。 If the co-starring request from broadcast user Ua is approved in step S22, processing proceeds to step S23. In step S23, animation of broadcast user Ua's character object 131 is generated based on the face motion data of broadcast user Ua. Then, a co-starring video is generated by adding animation of broadcast user Ua's character object 131 to the video being distributed (video including broadcast user Ub's character object 31). The processing in step S22 is performed, for example, by the co-starring request processing unit 61f described above.
次に、処理は、ステップS24に移行する。ステップS24では、ステップS23にて生成された共演動画が配信される。この共演動画は、ネットワーク50を介して視聴ユーザ装置10及びこれら以外の視聴ユーザ装置並びに配信ユーザ装置に配信される。共演動画には、例えば、図11及び図12a~図12bに示されているように、配信ユーザUaのキャラクタオブジェクト131のアニメーション及び配信ユーザUbのキャラクタオブジェクト31のアニメーションが含まれる。 Next, the process moves to step S24. In step S24, the co-starring video generated in step S23 is distributed. This co-starring video is distributed to the viewing user device 10, other viewing user devices, and distribution user devices via the network 50. The co-starring video includes, for example, the animation of the character object 131 of the distribution user Ua and the animation of the character object 31 of the distribution user Ub, as shown in FIGS. 11 and 12a to 12b.
次に、処理は、ステップS25に移行する。ステップS25では、共演終了条件が満たされたか否かが判定される。例えば、ゲストユーザである配信ユーザUaのキャラクタオブジェクト131がノンアクティブ状態にある場合、共演ユーザ評価ポイントが所定の閾値以下になった場合、ホストユーザである配信ユーザUbから共演終了指示を受け付けた場合、又は共演動画の配信開始から所定時間以上が経過したことのいずれかの条件が満たされた場合に、共演終了条件が満たされたと判定される。共演終了条件が満たされた場合には、処理はステップS26に進む。 Next, the process moves to step S25. In step S25, it is determined whether the co-starring end condition is satisfied. For example, when the character object 131 of distribution user Ua who is a guest user is in a non-active state, when the co-starring user evaluation point falls below a predetermined threshold, or when an instruction to end co-starring is received from distribution user Ub who is a host user. , or that a predetermined time or more has elapsed since the start of distribution of the co-starring video, it is determined that the co-starring end condition is satisfied. If the co-starring end condition is satisfied, the process proceeds to step S26.
ステップS26では、共演動画の配信を終了させるための処理が行われる。例えば、共演動画から、ゲストユーザである配信ユーザUaのキャラクタオブジェクト131が排除されることで、配信ユーザUaと配信ユーザUbとの共演を終了させる。共演が終了した場合でも、動画は継続して配信されてもよい。共演が終了した後に配信される動画には、配信ユーザUaのキャラクタオブジェクト131が含まれない。 In step S26, processing is performed to end the distribution of the co-starring video. For example, the character object 131 of distribution user Ua, who is a guest user, is removed from the co-starring video, thereby ending the co-starring performance between distribution user Ua and distribution user Ub. Even if the co-starring ends, the video may continue to be distributed. The video distributed after the co-starring ends does not include the character object 131 of the distribution user Ua.
次に、図16をさらに参照して、一実施系チアにおいてマッチングオブジェクトを表示する処理の流れを説明する。図16を参照して説明されるマッチングオブジェクトの表示処理においては、図11に示されているように、配信ユーザUbのキャラクタ31と配信ユーザUaのキャラクタ131とが共演している共演動画が配信されており、キャラクタ131は、キャラクタ31が装着している装着オブジェクト38を装着していないと想定されている。マッチングオブジェクトの表示処理は、図15に示されている共演動画の配信処理と並行して行われてもよい。 Next, with further reference to FIG. 16, the flow of processing for displaying a matching object in one embodiment will be described. In the display processing for a matching object described with reference to FIG. 16, as shown in FIG. 11, a co-starring video is distributed in which a character 31 of a broadcast user Ub and a character 131 of a broadcast user Ua appear together, and it is assumed that the character 131 is not wearing the wearing object 38 that the character 31 is wearing. The display processing for a matching object may be performed in parallel with the distribution processing for the co-starring video shown in FIG. 15.
まず、ステップS31において、配信ユーザUbのキャラクタ31と配信ユーザUaのキャラクタ131とが共演している共演動画が配信される。共演動画の生成及び配信は、例えば、上記の共演申請処理部61f及び動画配信部61cにより行われる。 First, in step S31, a co-starring video in which the character 31 of the distribution user Ub and the character 131 of the distribution user Ua co-star is distributed. The co-starring video is generated and distributed by, for example, the co-starring application processing section 61f and the video distribution section 61c.
次に、ステップS32において、共演動画で共演しているキャラクタ同士が同一の装着オブジェクトを装着しているか否かが判定される。ステップS32における判定処理は、例えば、上記の判定部61gによって行われる。共演動画においては、共演しているキャラクタの一方であるキャラクタ31が装着オブジェクト38を装着しているので、共演しているキャラクタの他方であるキャラクタ131が装着オブジェクト38を装着しているか否かが判定される。キャラクタ131が装着オブジェクト38と同一のオブジェクトを装着していれば、マッチングオブジェクトの表示処理は終了する。図11に示されている例のようにキャラクタ131が装着オブジェクト38と同一のオブジェクトを装着していなければ、処理はステップS33に進む。 Next, in step S32, it is determined whether the characters co-starring in the co-starring video are wearing the same wearing object. The determination process in step S32 is performed by, for example, the determination unit 61g described above. In the co-starring video, one of the co-starring characters, the character 31, is wearing the wearable object 38, so it is difficult to determine whether the other co-starring character, the character 131, is wearing the wearable object 38. It will be judged. If the character 131 is wearing the same object as the wearing object 38, the matching object display process ends. If the character 131 is not wearing the same object as the wearing object 38 as in the example shown in FIG. 11, the process proceeds to step S33.
ステップS33では、マッチングオブジェクトの表示要求が行われたか否かが判定される。マッチングオブジェクトの表示要求は、例えば、共演動画の視聴ユーザ、配信ユーザUa、又は配信ユーザUbによって行われる。ステップS33では、共演動画の視聴ユーザ、配信ユーザUa、及び配信ユーザUbのうちの少なくとも一人に対してマッチングオブジェクトの表示要求の送信を促す処理が行われてもよい。共演動画の視聴ユーザ、配信ユーザUa、又は配信ユーザUbは、このマッチングオブジェクトの表示要求の送信を促す処理に応じて、視聴ユーザ装置10、配信ユーザ装置20a、又は配信ユーザ装置20bを操作してマッチングオブジェクトの表示要求をサーバ装置60に送信することができる。マッチングオブジェクトの表示要求が行われたか否かの判定は、例えば、上記のマッチング処理部61hにおいて行われる。マッチングオブジェクトの表示要求がなされた場合には、処理はステップS34に進む。 In step S33, it is determined whether a request to display a matching object has been made. A request to display a matching object is made by, for example, a co-starring video viewing user, a distribution user Ua, or a distribution user Ub. In step S33, a process may be performed to prompt at least one of the viewing user of the co-starring video, the distribution user Ua, and the distribution user Ub to transmit a matching object display request. The viewing user of the co-starring video, the distribution user Ua, or the distribution user Ub operates the viewing user device 10, the distribution user device 20a, or the distribution user device 20b in response to the process of prompting the transmission of the matching object display request. A matching object display request can be sent to the server device 60. A determination as to whether a request to display a matching object has been made is made, for example, in the matching processing unit 61h. If a request to display a matching object is made, the process advances to step S34.
ステップS34では、マッチングオブジェクトを表示する表示処理が行われる。例えば、共演動画においてキャラクタ131と対応付けてマッチングオブジェクト138が表示される。以上により、共演動画において配信ユーザUbのキャラクタ31と配信ユーザUaのキャラクタ131とが同じ装着オブジェクトを装着することができる。 In step S34, display processing for displaying matching objects is performed. For example, a matching object 138 is displayed in association with a character 131 in a co-starring video. As described above, the character 31 of the distribution user Ub and the character 131 of the distribution user Ua can wear the same attachment object in the co-starring video.
図16に示されているマッチングオブジェクトの表示処理は、共演動画の配信中に繰り返し行われても良い。マッチングオブジェクトの表示処理においては、共演しているキャラクタ同士が同じ装着オブジェクトを装着していないと判定されたことに応じて自動的にマッチングオブジェクトを表示しても良い。このため、ステップS33は省略可能である。 The matching object display process shown in FIG. 16 may be repeatedly performed during distribution of the co-starring video. In the matching object display process, the matching object may be automatically displayed in response to a determination that the characters co-starring are not wearing the same wearing object. Therefore, step S33 can be omitted.
続いて、上記の実施形態が奏する作用効果の例について説明する。上記の一実施形態によれば、共演動画で共演しているキャラクタの各々に同一の装着オブジェクトを装着させることができる。例えば、共演動画においてキャラクタ31が装着オブジェクト38を装着しているときにキャラクタ131に装着オブジェクトと同一のマッチングオブジェクト138を装着させることができる。これにより、共演動画の統一性を向上させることができる。 Next, examples of the effects of the above embodiment will be described. According to the above embodiment, it is possible to attach the same attachment object to each of the characters co-starring in the co-starring video. For example, when the character 31 is wearing the wearing object 38 in the co-starring video, it is possible to make the character 131 wear the same matching object 138 as the wearing object. Thereby, the uniformity of co-starring videos can be improved.
上記の一実施形態によれば、マッチングオブジェクトは、そのマッチングオブジェクトが表示された共演動画内でのみ利用可能とされる。一実施形態において、配信ユーザは、動画においてキャラクタと対応付けて表示されるオブジェクト(例えば、装着オブジェクト)を購入した上で動画に表示する。このため、自らが有償で購入したオブジェクトが共演相手となる他のユーザに対して無償で自由に利用可能な態様で与えられると、ユーザ間の公平性に欠けることになる。上記の一実施形態においては、共演動画において表示されるマッチングオブジェクトは、当該共演動画内でのみ利用可能であり、他の動画では利用できない。このように、マッチングオブジェクトの利用範囲を限定することで、共演動画における統一性を向上させつつ、動画配信システムのユーザ間における公平性も維持できる。 According to the above embodiment, the matching object is made available only in the co-starring video in which the matching object is displayed. In one embodiment, a distribution user purchases an object (for example, a wearable object) that is displayed in association with a character in a video, and displays the object in the video. For this reason, if an object that the user has purchased for a fee is given to another user as a co-acting partner in a manner that allows the user to freely use it free of charge, there will be a lack of fairness between the users. In the above embodiment, the matching object displayed in the co-starring video is available only in the co-starring video and cannot be used in other videos. In this way, by limiting the scope of use of matching objects, it is possible to improve the uniformity of co-starring videos and maintain fairness among users of the video distribution system.
上記の一実施形態によれば、視聴ユーザからの表示要求に基づいて、共演動画においてマッチングオブジェクトを表示することができる。よって、上記の一実施形態によれば、視聴ユーザによるマッチングオブジェクトのギフティングを促進することができる。視聴ユーザがマッチングオブジェクトを保有していない場合には、視聴ユーザはマッチングオブジェクトを購入した上でギフティングしてもよい。この場合、マッチングオブジェクトの購入も促進される。 According to the above embodiment, a matching object can be displayed in a co-starring video based on a display request from a viewing user. Therefore, according to the above embodiment, it is possible to encourage gifting of matching objects by viewing users. If the viewing user does not own the matching object, the viewing user may purchase the matching object and then gift it. In this case, the purchase of matching objects is also promoted.
上記の一実施形態によれば、装着オブジェクトを装着しているキャラクタのユーザ(例えば、配信ユーザUb)からの表示要求に基づいて、共演動画においてマッチングオブジェクトを表示することができる。よって、上記の実施形態によれば、装着オブジェクトを保有していない又は装着オブジェクトの保有数が少ないユーザに、共演動画に出演するインセンティブを与えることができる。 According to the above embodiment, a matching object can be displayed in a co-starring video based on a display request from a user of a character wearing the attachment object (e.g., broadcast user Ub). Therefore, according to the above embodiment, a user who does not own an attachment object or owns a small number of attachment objects can be given an incentive to appear in a co-starring video.
上記の一実施形態によれば、装着オブジェクトを装着していないキャラクタのユーザ(例えば、配信ユーザUa)からの表示要求に基づいて、共演動画においてマッチングオブジェクトを表示することができる。装着オブジェクトを装着していないキャラクタのユーザは、マッチングオブジェクトの表示要求を行うことを促された時点で当該マッチングオブジェクトを保有していない場合には、当該マッチングオブジェクトを購入した上で表示要求を行う。よって、上記の実施形態によれば、装着オブジェクトを装着していないキャラクタのユーザによるマッチングオブジェクトの購入を促進することができる。 According to the above embodiment, a matching object can be displayed in a co-starring video based on a display request from a user of a character who is not wearing an attachment object (for example, distribution user Ua). If the user of the character who does not have the matching object equipped does not have the matching object at the time he or she is prompted to request the display of the matching object, the user purchases the matching object and then requests the display. . Therefore, according to the embodiment described above, it is possible to promote the purchase of a matching object by a user whose character is not wearing an attachment object.
上記の一実施形態によれば、共演動画で共演している配信ユーザUa(ゲストユーザ)及び配信ユーザUb(ホストユーザ)のうちの配信ユーザUaのキャラクタと対応付けてマッチングオブジェクト138が表示された場合に、ホストユーザである配信ユーザUbに対して特典が付与される。よって、共演動画の配信を行う際に、装着オブジェクトを装着していることにより特典を得る機会が得られる。よって、共演動画への参加者(ホストユーザ及びゲストユーザ)に対して多くの装着オブジェクトを装着するインセンティブを与えることができる。これにより、装着オブジェクトの入手及び購入が促進される。 According to the above embodiment, the matching object 138 is displayed in association with the character of distribution user Ua among distribution user Ua (guest user) and distribution user Ub (host user) co-starring in the co-starring video. In this case, a privilege is given to the distribution user Ub who is the host user. Therefore, when distributing co-starring videos, wearing the wearable object provides an opportunity to receive benefits. Therefore, it is possible to provide incentives for participants (host users and guest users) to wear as many wearable objects as possible in the co-starring video. This facilitates the acquisition and purchase of wearable objects.
上記の一実施形態によれば、共演動画で共演している配信ユーザUa及び配信ユーザUbのうちの配信ユーザUaのキャラクタと対応付けてマッチングオブジェクト138が表示された場合に、ゲストユーザである配信ユーザUaに対して特典が付与される。よって、共演動画においてゲストユーザとなることにより特典を得ることができるため、視聴ユーザに対して共演申請を行うことを促すことができる。 According to the above embodiment, when the matching object 138 is displayed in association with the character of the distribution user Ua among the distribution users Ua and distribution users Ub who co-star in the co-starring video, the distribution user Ua who is the guest user A privilege is granted to user Ua. Therefore, by becoming a guest user in a co-starring video, benefits can be obtained, and viewing users can be encouraged to apply for co-starring.
上記の一実施形態によれば、共演動画を視聴している視聴ユーザのうち、マッチングオブジェクト138のギフティングを行った視聴ユーザに対して特典が付与される。これにより、視聴ユーザに対してマッチングオブジェクト138のギフティングを行うインセンティブを付与することができる。 According to the above-mentioned embodiment, a privilege is given to the viewing user who has gifted the matching object 138 among the viewing users who are viewing the co-starring video. Thereby, it is possible to provide an incentive for gifting the matching object 138 to the viewing user.
上記の一実施形態によれば、共演動画で共演している配信ユーザUa及び配信ユーザUbのうちの配信ユーザUaのキャラクタと対応付けてマッチングオブジェクト138が表示された場合に、配信ユーザUa、配信ユーザUb、及び視聴ユーザのそれぞれに対して特典を付与しても良い。これにより、共演動画に関与している全てのユーザに対して特典が付与されることになるから、特典付与後におけるギフティングやメッセージの送信が活発になり、共演動画における盛り上がりを演出することができる。 According to the above embodiment, when the matching object 138 is displayed in association with the character of the distribution user Ua among the distribution users Ua and distribution users Ub who co-star in the co-starring video, the distribution user Ua, the distribution Benefits may be provided to each of the user Ub and the viewing user. As a result, benefits will be given to all users who are involved in the co-starring video, so gifting and message sending will become more active after the benefits are given, and it will be possible to create excitement in the co-starring video. can.
上記の一実施形態によれば、マッチングオブジェクトは、共演相手が装着している当該マッチングオブジェクトと同一のオブジェクトと同じ装着部位に装着される。例えば、マッチングオブジェクト138は、装着オブジェクト38と同じ装着部位(すなわち、頭部)に装着される。これにより、共演動画における統一感をより向上させることができる。 According to the above embodiment, the matching object is attached to the same attachment site as the matching object worn by the co-starring partner. For example, the matching object 138 is attached to the same attachment site (ie, the head) as the attachment object 38. This can further improve the sense of unity in co-starring videos.
上記実施形態による動画配信システム1においては、配信ユーザUa,Ubは、スマートフォンなどのカメラを備えた配信ユーザ装置20により自らの表情に応じて動くキャラクタを含む動画を配信することができる。このように、動画配信システム1においては、配信ユーザUa,Ubが動画を配信するための設備が簡略化されているので、配信ユーザUa,Ubが参加しやすいプラットフォームが実現されている。 In the video distribution system 1 according to the embodiment described above, distribution users Ua and Ub can distribute videos including characters that move according to their facial expressions using distribution user devices 20 equipped with cameras such as smartphones. In this way, in the video distribution system 1, the equipment for distribution users Ua and Ub to distribute videos is simplified, so a platform in which distribution users Ua and Ub can easily participate is realized.
本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedures described in this specification, particularly those explained using flowcharts, some of the steps constituting the processing procedure may be omitted, and some of the steps constituting the processing procedure may be omitted. It is possible to add steps that are not specified and/or change the order of the steps, and such omissions, additions, or changes in the order of processing procedures are also included in the present invention as long as they do not depart from the spirit of the present invention. within the scope of the invention.
コンピュータプロセッサ61により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ61以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ61により実現される機能の少なくとも一部は、例えば、配信ユーザ装置20のコンピュータプロセッサ21により実現されてもよく、視聴ユーザ装置10のコンピュータプロセッサにより実現されてもよい。具体的には、アニメーション生成部61a及び動画生成部61bの機能の一部又は全部は、配信ユーザ装置20において実行されてもよい。例えば、配信ユーザ装置20において生成された動画がサーバ装置60に送信され、サーバ装置60から視聴ユーザ装置10に配信されてもよい。 At least some of the functions realized by the computer processor 61 may be realized by a computer processor other than the computer processor 61 of the video distribution system 1. At least part of the functions realized by the computer processor 61 may be realized by the computer processor 21 of the distribution user device 20 or the computer processor of the viewing user device 10, for example. Specifically, part or all of the functions of the animation generation unit 61a and the video generation unit 61b may be executed in the distribution user device 20. For example, a video generated by the distribution user device 20 may be transmitted to the server device 60 and distributed from the server device 60 to the viewing user device 10.
配信ユーザUbのキャラクタ31を含む動画を視聴している配信ユーザUaから配信ユーザUbとの共演申請がなされる場合には、共演申請を行った配信ユーザUaのキャラクタ131のアニメーションは、サーバ装置60、配信ユーザUaの配信ユーザ装置20a、配信ユーザUbの配信ユーザ装置20b、視聴ユーザ装置10、又はこれら以外の装置で生成されてもよい。一つの例において、配信ユーザUaのキャラクタ131のアニメーションが配信ユーザUbの配信ユーザ装置20bで生成される場合には、配信ユーザUaの配信ユーザ装置20aから配信ユーザUbの配信ユーザ装置20bに対して、配信ユーザUaのフェイスモーションデータ及び音声データが送信される。配信ユーザ装置20bでは、配信ユーザ装置20aから受信した配信ユーザUaのフェイスモーションデータ及び音声データを配信ユーザUa用のモデルデータに適用することでキャラクタ131のアニメーションが生成される。この配信ユーザUa用のモデルデータは、サーバ装置60から配信ユーザ装置20aへ送信されてもよい。他の例において、配信ユーザUaのキャラクタ131のアニメーションが視聴ユーザ装置10で生成される場合には、配信ユーザUaの配信ユーザ装置20aから視聴ユーザ装置10に対して配信ユーザUaのフェイスモーションデータ及び音声データが送信され、配信ユーザUbの配信ユーザ装置20bから視聴ユーザ装置10に対して配信ユーザUbのフェイスモーションデータ及び音声データが送信される。視聴ユーザ装置10では、配信ユーザ装置20aから受信した配信ユーザUaのフェイスモーションデータ及び音声データを配信ユーザUa用のモデルデータに適用することでキャラクタ131のアニメーションが生成され、配信ユーザ装置20bから受信した配信ユーザUbのフェイスモーションデータ及び音声データを配信ユーザUb用のモデルデータに適用することでキャラクタ31のアニメーションが生成されてもよい。この配信ユーザUa用のモデルデータ及び配信ユーザUb用のモデルデータは、サーバ装置60から視聴ユーザ装置10へ送信されてもよい。このように、配信ユーザのキャラクタのアニメーション及び/又はキャラクタオブジェクトのアニメーションを含む共演動画は、動画配信システム1に含まれる任意の装置で生成され得る。キャラクタのアニメーションは、図1に明示的に示されていない装置で生成されてもよい。キャラクタのアニメーションを生成する装置には、配信ユーザUaの配信ユーザ装置20aから配信ユーザUaのフェイスモーションデータ及び音声データが送信され、配信ユーザUbの配信ユーザ装置20bから配信ユーザUbのフェイスモーションデータ及び音声データが送信される。フェイスモーションに加えてボディモーションが送信されてもよい。 When a distribution user Ua who is viewing a video including the character 31 of the distribution user Ub requests to co-star with the distribution user Ub, the animation of the character 131 of the distribution user Ua who has made the co-starring request is transferred to the server device 60. , the distribution user device 20a of the distribution user Ua, the distribution user device 20b of the distribution user Ub, the viewing user device 10, or a device other than these. In one example, when the animation of the character 131 of the distribution user Ua is generated by the distribution user device 20b of the distribution user Ub, the animation of the distribution user Ua's character 131 is generated from the distribution user device 20a of the distribution user Ua to the distribution user device 20b of the distribution user Ub. , face motion data and audio data of distribution user Ua are transmitted. The distribution user device 20b generates the animation of the character 131 by applying the face motion data and audio data of the distribution user Ua received from the distribution user device 20a to the model data for the distribution user Ua. This model data for distribution user Ua may be transmitted from server device 60 to distribution user device 20a. In another example, when the animation of the character 131 of the distribution user Ua is generated by the viewing user device 10, the distribution user Ua's face motion data and The audio data is transmitted, and the distribution user Ub's face motion data and audio data are transmitted from the distribution user device 20b of the distribution user Ub to the viewing user device 10. In the viewing user device 10, the animation of the character 131 is generated by applying the face motion data and audio data of the distribution user Ua received from the distribution user device 20a to the model data for the distribution user Ua, and the animation of the character 131 is generated by applying the face motion data and audio data of the distribution user Ua received from the distribution user device 20a. The animation of the character 31 may be generated by applying the face motion data and voice data of the distribution user Ub to the model data for the distribution user Ub. The model data for the distribution user Ua and the model data for the distribution user Ub may be transmitted from the server device 60 to the viewing user device 10. In this way, the co-star video including the animation of the distribution user's character and/or the animation of the character object can be generated by any device included in the video distribution system 1. Animation of the character may be generated with equipment not explicitly shown in FIG. The distribution user Ua's face motion data and audio data are transmitted from the distribution user device 20a of the distribution user Ua to the device that generates character animation, and the distribution user Ub's face motion data and voice data are transmitted from the distribution user device 20b of the distribution user Ub. Audio data is transmitted. Body motions may be transmitted in addition to face motions.
また、生成された配信ユーザUaのキャラクタ131と配信ユーザUbの配信動画とキャラクタ31とを含む共演動画の生成は、サーバ装置60、配信ユーザUaの配信ユーザ装置20a、配信ユーザUbの配信ユーザ装置20b、又は視聴ユーザ装置10のいずれで行われてもよい。共演動画は、サーバ装置60、配信ユーザ装置20a、配信ユーザ装置20b、視聴ユーザ装置10、及びこれら以外の装置により分担して生成されてもよい。共演動画にギフトオブジェクトが含められる場合には、共演動画を生成する装置に対してサーバ装置60又はそれ以外の装置から当該ギフトオブジェクトを表示するためのデータが送信されてもよい。 Further, generation of a co-starring video including the generated character 131 of the distribution user Ua, the distribution video of the distribution user Ub, and the character 31 is performed by the server device 60, the distribution user device 20a of the distribution user Ua, and the distribution user device of the distribution user Ub. 20b or the viewing user device 10. The co-starring video may be generated in a shared manner by the server device 60, the distribution user device 20a, the distribution user device 20b, the viewing user device 10, and devices other than these. When a gift object is included in the co-starring video, data for displaying the gift object may be transmitted from the server device 60 or another device to the device that generates the co-starring video.
共演動画は、三人以上の配信ユーザのキャラクタを含んでもよい。つまり、三人以上の配信ユーザが、各々のキャラクタを利用して動画内で仮想的に共演してもよい。 The co-starring video may include characters of three or more distribution users. That is, three or more distribution users may virtually co-star in a video using their respective characters.
以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
第1ユーザの動きに基づいて生成される第1キャラクタ及び第2ユーザの動きに基づいて生成される第2キャラクタを含む共演動画を配信し、
前記第1キャラクタと対応付けて表示されている第1オブジェクトと同一であり前記共演動画においてのみ利用可能なマッチングオブジェクトを、前記共演動画において前記第2キャラクタに対応付けて表示させる、
動画配信システム。
[2]
前記マッチングオブジェクトは、前記第1ユーザによって購入されたオブジェクトである、
[1]に記載の動画配信システム。
[3]
前記第2キャラクタと対応付けて前記第1オブジェクトと同一のマッチングオブジェクトが表示されているか判定し、
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合に、前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促し、
前記表示要求に基づいて前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる、
[1]又は[2]に記載の動画配信システム。
[4]
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記共演動画を視聴している一又は複数の視聴ユーザに対して前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促す、
[3]に記載の動画配信システム。
[5]
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記第1ユーザに対して前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促す、
[3]又は[4]に記載の動画配信システム。
[6]
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記第2ユーザに対して前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求を行うことを促す、
[3]から[5]のいずれか1項に記載の動画配信システム。
[7]
前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に、前記第1ユーザに対して特典を与える、
[1]から[6]のいずれか1項に記載の動画配信システム。
[8]
前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に前記第2ユーザに対して特典を与える、
[1]から[6]のいずれか1項に記載の動画配信システム。
[9]
前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に前記共演動画を視聴している一又は複数の視聴ユーザに対して特典を与える、
[1]から[6]のいずれか1項に記載の動画配信システム。
[10]
前記共演動画を視聴している一又は複数の視聴ユーザのうちの第1視聴ユーザから前記第2キャラクタに対応付けて前記マッチングオブジェクトを表示させる表示要求がなされたことに応じて前記マッチングオブジェクトが表示された場合に前記第1視聴ユーザに対して特典を与える、
[1]から[6]のいずれか1項に記載の動画配信システム。
[11]
前記共演動画において前記第2キャラクタに対応付けて前記マッチングオブジェクトが表示された場合に、前記第1ユーザ、前記第2ユーザ、及び前記共演動画を視聴している一又は複数の視聴ユーザのそれぞれに対して特典を与える、
[1]から[6]のいずれか1項に記載の動画配信システム。
[12]
前記共演動画は、前記第2ユーザから前記第1ユーザとの共演を申請する共演申請を受け付けたことに応じて生成される、
[1]から[11]のいずれか1項に記載の動画配信システム。
[13]
前記第1オブジェクトは、前記第1キャラクタの装着部位に対応付けて表示され、
前記マッチングオブジェクトは、前記第2キャラクタの前記装着部位に対応付けて表示される、
[1]から[12]のいずれか1項に記載の動画配信システム。
[14]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び前記第1キャラクタと対応付けて表示される第1オブジェクトを含む共演動画を配信する工程と、
前記第1オブジェクトと同一であり前記共演動画においてのみ利用可能なマッチングオブジェクトを、前記共演動画において前記第2キャラクタに対応付けて表示させる工程と、
を備える動画配信方法。
[15]
一又は複数のコンピュータプロセッサに、
第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び前記第1キャラクタと対応付けて表示される第1オブジェクトを含む共演動画を配信する工程と、
前記第1オブジェクトと同一であり前記共演動画においてのみ利用可能なマッチングオブジェクトを、前記共演動画において前記第2キャラクタに対応付けて表示させる工程と、
を実行させる動画配信プログラム。
Below, the invention described in the claims of the original application of this application at the time of filing will be added.
[1]
comprising one or more computer processors;
The one or more computer processors may execute computer readable instructions to:
Distributing a co-starring video including a first character generated based on the movement of the first user and a second character generated based on the movement of the second user,
displaying a matching object that is the same as a first object displayed in association with the first character and that can only be used in the co-starring video in association with the second character in the co-star video;
Video distribution system.
[2]
the matching object is an object purchased by the first user;
The video distribution system described in [1].
[3]
determining whether a matching object identical to the first object is displayed in association with the second character;
If it is determined that the matching object is not displayed in association with the second character, prompting to make a display request to display the matching object in association with the second character;
displaying the matching object in association with the second character in the co-starring video based on the display request;
The video distribution system according to [1] or [2].
[4]
If it is determined that the matching object is not displayed in association with the second character, the matching object is displayed in association with the second character for one or more viewing users who are viewing the co-starring video. prompting you to make a display request to display the
The video distribution system described in [3].
[5]
If it is determined that the matching object is not displayed in association with the second character, prompting the first user to make a display request to display the matching object in association with the second character. ,
The video distribution system described in [3] or [4].
[6]
If it is determined that the matching object is not displayed in association with the second character, prompting the second user to make a display request to display the matching object in association with the second character. ,
The video distribution system according to any one of [3] to [5].
[7]
giving a benefit to the first user when the matching object is displayed in association with the second character in the co-starring video;
The video distribution system according to any one of [1] to [6].
[8]
giving a benefit to the second user when the matching object is displayed in association with the second character in the co-starring video;
The video distribution system according to any one of [1] to [6].
[9]
When the matching object is displayed in association with the second character in the co-starring video, a benefit is given to one or more viewing users who are viewing the co-starring video.
The video distribution system according to any one of [1] to [6].
[10]
The matching object is displayed in response to a display request made by a first viewing user among one or more viewing users viewing the co-starring video to display the matching object in association with the second character. giving a benefit to the first viewing user if
The video distribution system according to any one of [1] to [6].
[11]
When the matching object is displayed in association with the second character in the co-starring video, each of the first user, the second user, and one or more viewing users viewing the co-starring video give benefits to
The video distribution system according to any one of [1] to [6].
[12]
The co-starring video is generated in response to receiving a co-starring request from the second user for co-starring with the first user.
The video distribution system according to any one of [1] to [11].
[13]
The first object is displayed in association with the attachment part of the first character,
The matching object is displayed in association with the attachment part of the second character.
The video distribution system according to any one of [1] to [12].
[14]
A video distribution method performed by one or more computer processors executing computer-readable instructions, the method comprising:
A co-starring video including a first character generated based on a first user's movement, a second character generated based on a second user's movement, and a first object displayed in association with the first character. The process of distributing
displaying a matching object that is the same as the first object and can only be used in the co-starring video in association with the second character in the co-starring video;
A video distribution method that includes
[15]
one or more computer processors;
A co-starring video including a first character generated based on a first user's movement, a second character generated based on a second user's movement, and a first object displayed in association with the first character. The process of distributing
displaying a matching object that is the same as the first object and can only be used in the co-starring video in association with the second character in the co-starring video;
A video distribution program that runs
1 動画配信システム
10 視聴ユーザ装置
20a、20b 配信ユーザ装置
61a アニメーション生成部
61b 動画生成部
61c 動画配信部
61d ギフト要求処理部
61e ギフト購入処理部
61f 共演申請処理部
61g 判定部
61h マッチング処理部
61i 特典付与部
1 Video distribution system 10 Viewing user device 20a, 20b Distribution user device 61a Animation generation section 61b Video generation section 61c Video distribution section 61d Gift request processing section 61e Gift purchase processing section 61f Co-starring application processing section 61g Judgment section 61h Matching processing section 61i Benefits Granting part
Claims (17)
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び第1表示要求に基づいて前記第1キャラクタと対応付けて表示されている第1オブジェクトを含む共演動画を配信し、
前記共演動画において、第2表示要求に基づいて前記第1オブジェクトと同一のマッチングオブジェクトを前記第2キャラクタに対応付けて表示させる、
動画配信システム。 comprising one or more computer processors;
The one or more computer processors may execute computer readable instructions to:
A first character generated based on a first user's movement, a second character generated based on a second user's movement, and a second character generated based on a first display request are displayed in association with the first character. Deliver a co-starring video including the first object,
In the co-starring video, displaying a matching object that is the same as the first object in association with the second character based on a second display request;
Video distribution system.
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記共演動画を視聴している一又は複数の視聴ユーザに対して前記第2表示要求を行うことを促す、
請求項1に記載の動画配信システム。 determining whether a matching object identical to the first object is displayed in association with the second character;
If it is determined that the matching object is not displayed in association with the second character, prompting one or more viewing users who are viewing the co-starring video to make the second display request;
The video distribution system according to claim 1.
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記第1ユーザに対して前記第2表示要求を行うことを促す、
請求項1に記載の動画配信システム。 determining whether a matching object identical to the first object is displayed in association with the second character;
If it is determined that the matching object is not displayed in association with the second character, prompting the first user to make the second display request;
The video distribution system according to claim 1.
前記第2キャラクタと対応付けて前記マッチングオブジェクトが表示されていないと判定された場合、前記第2ユーザに対して前記第2表示要求を行うことを促す、
請求項1に記載の動画配信システム。 determining whether a matching object identical to the first object is displayed in association with the second character;
If it is determined that the matching object is not displayed in association with the second character, prompting the second user to make the second display request;
The video distribution system according to claim 1.
請求項1から請求項4のいずれか1項に記載の動画配信システム。 the matching object is an object purchased by the first user;
The video distribution system according to any one of claims 1 to 4.
請求項1から請求項4のいずれか1項に記載の動画配信システム。 the matching object is an object purchased by the second user;
The video distribution system according to any one of claims 1 to 4.
請求項2に記載の動画配信システム。 The matching object is an object purchased by the one or more viewing users,
The video distribution system according to claim 2.
請求項1~7に記載の動画配信システム。 The second display request is different from the first display request,
The video distribution system according to claims 1 to 7.
請求項1から請求項8のいずれか1項に記載の動画配信システム。 giving a benefit to the first user when the matching object is displayed in association with the second character in the co-starring video;
The video distribution system according to any one of claims 1 to 8.
請求項1から請求項8のいずれか1項に記載の動画配信システム。 giving a benefit to the second user when the matching object is displayed in association with the second character in the co-starring video;
The video distribution system according to any one of claims 1 to 8.
請求項1から請求項7のいずれか1項に記載の動画配信システム。 When the matching object is displayed in association with the second character in the co-starring video, a benefit is given to one or more viewing users who are viewing the co-starring video.
The video distribution system according to any one of claims 1 to 7.
請求項1から請求項8のいずれか1項に記載の動画配信システム。 The matching object is displayed in response to a display request made by a first viewing user among one or more viewing users viewing the co-starring video to display the matching object in association with the second character. giving a benefit to the first viewing user if
The video distribution system according to any one of claims 1 to 8.
請求項1から請求項8のいずれか1項に記載の動画配信システム。 When the matching object is displayed in association with the second character in the co-starring video, each of the first user, the second user, and one or more viewing users viewing the co-starring video give benefits to
The video distribution system according to any one of claims 1 to 8.
請求項1から請求項13のいずれか1項に記載の動画配信システム。 The co-starring video is generated in response to receiving a co-starring request from the second user for co-starring with the first user.
The video distribution system according to any one of claims 1 to 13.
前記マッチングオブジェクトは、前記第2キャラクタの前記装着部位に対応付けて表示される、
請求項1から請求項14のいずれか1項に記載の動画配信システム。 The first object is displayed in association with the attachment part of the first character,
The matching object is displayed in association with the attachment part of the second character.
The video distribution system according to any one of claims 1 to 14.
第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び第1表示要求に基づいて前記第1キャラクタと対応付けて表示される第1オブジェクトを含む共演動画を配信する工程と、
前記共演動画において、第2表示要求に基づいて前記第1オブジェクトと同一のマッチングオブジェクトを前記第2キャラクタに対応付けて表示させる工程と、
を備える、動画配信方法。 1. A method for streaming video that is executed by one or more computer processors executing computer readable instructions, comprising:
a step of distributing a co-starring video including a first character generated based on a movement of a first user, a second character generated based on a movement of a second user, and a first object displayed in association with the first character based on a first display request;
displaying a matching object identical to the first object in the co-starring video in association with the second character based on a second display request;
A video distribution method comprising:
第1ユーザの動きに基づいて生成される第1キャラクタ、第2ユーザの動きに基づいて生成される第2キャラクタ、及び第1表示要求に基づいて前記第1キャラクタと対応付けて表示される第1オブジェクトを含む共演動画を配信する工程と、
前記共演動画において、第2表示要求に基づいて前記第1オブジェクトと同一のマッチングオブジェクトを、前記共演動画において前記第2キャラクタに対応付けて表示させる工程と、
を実行させる、動画配信プログラム。 one or more computer processors;
A first character generated based on the movement of the first user, a second character generated based on the movement of the second user, and a second character displayed in association with the first character based on the first display request. A step of distributing a co-starring video including one object;
In the co-starring video, displaying a matching object that is the same as the first object in association with the second character in the co-starring video based on a second display request;
A video distribution program that runs
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023203854A JP2024041749A (en) | 2019-08-29 | 2023-12-01 | Moving image distribution system, moving image distribution method, and moving image distribution program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019157401A JP6828106B1 (en) | 2019-08-29 | 2019-08-29 | Video distribution system, video distribution method and video distribution program |
JP2021007165A JP7397816B2 (en) | 2019-08-29 | 2021-01-20 | Video distribution system, video distribution method, and video distribution program |
JP2023203854A JP2024041749A (en) | 2019-08-29 | 2023-12-01 | Moving image distribution system, moving image distribution method, and moving image distribution program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007165A Division JP7397816B2 (en) | 2019-08-29 | 2021-01-20 | Video distribution system, video distribution method, and video distribution program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024041749A true JP2024041749A (en) | 2024-03-27 |
Family
ID=89117067
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007165A Active JP7397816B2 (en) | 2019-08-29 | 2021-01-20 | Video distribution system, video distribution method, and video distribution program |
JP2023203854A Pending JP2024041749A (en) | 2019-08-29 | 2023-12-01 | Moving image distribution system, moving image distribution method, and moving image distribution program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007165A Active JP7397816B2 (en) | 2019-08-29 | 2021-01-20 | Video distribution system, video distribution method, and video distribution program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7397816B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7062248B1 (en) | 2021-12-17 | 2022-05-06 | 17Live株式会社 | Computer programs, terminals and methods |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6982971B2 (en) | 2017-03-31 | 2021-12-17 | 株式会社バンダイナムコエンターテインメント | Computer system and game system |
JP6543403B1 (en) | 2018-12-12 | 2019-07-10 | グリー株式会社 | Video distribution system, video distribution method and video distribution program |
-
2021
- 2021-01-20 JP JP2021007165A patent/JP7397816B2/en active Active
-
2023
- 2023-12-01 JP JP2023203854A patent/JP2024041749A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021077388A (en) | 2021-05-20 |
JP7397816B2 (en) | 2023-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6543403B1 (en) | Video distribution system, video distribution method and video distribution program | |
JP6491388B1 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user | |
JP6382468B1 (en) | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor | |
JP7389855B2 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users | |
JP6420930B1 (en) | Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor | |
JP6550549B1 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user | |
JP7191883B2 (en) | Video distribution system, video distribution method and video distribution program | |
WO2019216146A1 (en) | Moving picture delivery system for delivering moving picture including animation of character object generated based on motions of actor, moving picture delivery method, and moving picture delivery program | |
JP6550546B1 (en) | Video distribution system, video distribution method and video distribution program | |
JP7134298B2 (en) | Video distribution system, video distribution method and video distribution program | |
JP6671528B1 (en) | Video distribution system, video distribution method, and video distribution program | |
JP2024041749A (en) | Moving image distribution system, moving image distribution method, and moving image distribution program | |
WO2020121909A1 (en) | Video distribution system, video distribution method, and video distribution program | |
JP6523586B1 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of a video including animation of a character object generated based on the movement of a distribution user | |
KR102490402B1 (en) | A moving image distribution system, a moving image distribution method, and a moving image distribution program for live distribution of a moving image including animation of a character object generated based on a distribution user's movement. | |
JP6828106B1 (en) | Video distribution system, video distribution method and video distribution program | |
JP6713080B2 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of videos including animation of character objects generated based on movements of distribution users | |
JP7104097B2 (en) | Distribution A video distribution system, video distribution method, and video distribution program that delivers live videos including animations of character objects generated based on user movements. | |
JP7563704B2 (en) | Video distribution system, video distribution method, and video distribution program for live-distributing video including animation of character object generated based on the movement of a broadcasting user | |
JP7284329B2 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of video containing animation of character object generated based on movement of distribution user | |
JP6937803B2 (en) | Distribution A video distribution system, video distribution method, and video distribution program that delivers live video including animation of character objects generated based on the movement of the user. | |
JP2019198057A (en) | Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231201 |