JP2022078994A - Program, information processing method, and information processing device - Google Patents

Program, information processing method, and information processing device Download PDF

Info

Publication number
JP2022078994A
JP2022078994A JP2022022581A JP2022022581A JP2022078994A JP 2022078994 A JP2022078994 A JP 2022078994A JP 2022022581 A JP2022022581 A JP 2022022581A JP 2022022581 A JP2022022581 A JP 2022022581A JP 2022078994 A JP2022078994 A JP 2022078994A
Authority
JP
Japan
Prior art keywords
user
gift
distribution
display
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022022581A
Other languages
Japanese (ja)
Other versions
JP7333528B2 (en
Inventor
椋 矢部
Ryo Yabe
佑史 高木
Yuji Takagi
義礎 工藤
Yoshiki Kudo
彩 倉淵
Aya Kurabuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021209726A external-priority patent/JP7223834B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022022581A priority Critical patent/JP7333528B2/en
Publication of JP2022078994A publication Critical patent/JP2022078994A/en
Priority to JP2023125953A priority patent/JP2023143963A/en
Application granted granted Critical
Publication of JP7333528B2 publication Critical patent/JP7333528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To distribute a video which avoids boring a viewer user, by properly setting opportunities to display objects provided to a distribution user.
SOLUTION: A control unit 20 of a user device 12 which displays a video on a display displays in the video a first avatar object, which reflects motion of a first user, and a second avatar object, which reflects motion of a second user; and, when a distribution situation of the video satisfies a display condition of a provision object, displays a second gift object associated with the first avatar object and displays a second gift object associated with the second avatar object. When a third avatar object corresponding to a third user is newly added to the video, the control unit 20 adds a second gift object associated with the third avatar object.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

特許法第30条第2項適用申請有り 公開日 令和2年7月11日 ウェブサイトにて公開 https://reality.app/Patent Law Article 30, Paragraph 2 Application Applicable Publication Date Reiwa July 11, 2 Published on the website https: // reality. app /

特許法第30条第2項適用申請有り 公開日 令和2年7月10日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/e64ZnDwfZMhZPatent Law Article 30, Paragraph 2 Application Applicable Publication Date Reiwa July 10, 2 Published on the website https: // reality. wishflyer. net / notebook / page / e64ZnDwfZMhZ

特許法第30条第2項適用申請有り 公開日 令和2年8月2日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/wtwSw4m4ZDwtPatent Law Article 30, Paragraph 2 Application Applicable Publication Date Reiwa August 2, 2 Published on the website https: // reality. wishflyer. net / notebook / page / wtwSw4m4ZDwt

特許法第30条第2項適用申請有り 公開日 令和2年8月17日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/mn7wfjVmNdffPatent Law Article 30, Paragraph 2 Application Applicable Publication Date Reiwa August 17, 2 Published on the website https: // reality. wishflyer. net / notebook / page / mn7wfjVmNdf

特許法第30条第2項適用申請有り 公開日 令和2年8月21日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/d7PNDZFh4ManPatent Law Article 30, Paragraph 2 Application Applicable Publication Date Reiwa August 21, 2 Published on the website https: // reality. wishflyer. net / notebook / page / d7PNDZFh4Man

特許法第30条第2項適用申請有り 公開日 令和2年8月28日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/fZnnfNfSHtw4Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa August 28, 2 Published on the website https: // reality. wishflyer. net / notebook / page / fZnnfNfSHtw4

特許法第30条第2項適用申請有り 公開日 令和2年9月4日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/4dDHj4eNgjwfPatent Law Article 30, Paragraph 2 Application Applicable Publication Date September 4, 2nd Reiwa Published on the website https: // reality. wishflyer. net / notebook / page / 4dDHj4eNgjwf

特許法第30条第2項適用申請有り 公開日 令和2年9月14日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/Pgawwadf6MffPatent Law Article 30, Paragraph 2 Application Applicable Publication Date September 14, 2nd Reiwa Published on the website https: // reality. wishflyer. net / notebook / page / Pgawawadf6Mff

特許法第30条第2項適用申請有り 公開日 令和2年9月25日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/3ezeHZSm6eafPatent Law Article 30, Paragraph 2 Application Applicable Publication Date September 25, 2nd Reiwa Published on the website https: // reality. wishflyer. net / notebook / page / 3izeHZSm6eaf

特許法第30条第2項適用申請有り 公開日 令和2年10月5日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/gVhPwPtwntFzPatent Law Article 30, Paragraph 2 Application Applicable Publication Date October 5, 2nd Reiwa Published on the website https: // reality. wishflyer. net / notebook / page / gVhPwPtwntFz

特許法第30条第2項適用申請有り 公開日 令和2年10月19日 ウェブサイトにて公開 https://reality.app/notice/page/e7nfaNSm4tzfPatent Law Article 30, Paragraph 2 Application Applicable Publication Date October 19, 2nd Reiwa Published on the website https: // reality. app / notebook / page / e7nfaNSm4tzf

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://reality.app/notice/page/SjefMV3wzDaDPatent Law Article 30, Paragraph 2 Application Applicable Publication Date October 22, 2nd Reiwa Published on the website https: // reality. app / notebook / page / SjefMV3wzDaD

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/WFLE_REALITY/Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / WFLE_REALITY /

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1281513493917601795Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 12815131493917601795

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1290595837928591364Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 129059558337928591364

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1289867532355026945Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1289867532355026945

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1296012780450066432Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1296012784050066432

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1295308137461714944Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1295308137461714944

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1298210287699390465Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 129821028769390465

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1296764735535210498Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 12967647535535210498

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1300750248311103488Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 13007502483111034888

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1299308245966663680Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1299030824596666680

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1301844963056025606?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 130184494630560252606? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1303286967791046658?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 13032869677910466558? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1305427315036434432Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 13054227315036434232

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1305826193338318851?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 130582626193338318851? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1309417366209482241?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 130494173666209482241? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1311591683549609984?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1311591683594960984? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1310507791531028480?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 13150577915310298480? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1313434074086699009?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 131343407408669909? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1313072692652732417?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 131307269265272432417? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1318144868896677890?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1318814868896677890? s = 20

特許法第30条第2項適用申請有り 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1319218992523866112?s=20Patent Law Article 30, Paragraph 2 Application Applicable Publication date Reiwa October 22, 2 Published on the website https: // twitter. com / REALITY_app / status / 1319218992523866112? s = 20

本発明は、動画を配信又は視聴するプログラム、情報処理方法及び情報処理装置に関する。 The present invention relates to a program for distributing or viewing a moving image, an information processing method, and an information processing apparatus.

従来から、配信ユーザの動きに基づくアバターオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている(例えば、特許文献1参照)。この種の動画配信システムにおいて、動画を視聴する視聴ユーザが用いる端末から送信される表示要求に応じて、任意のオブジェクトを動画に表示させる機能が提案されている。 Conventionally, a video distribution system that distributes a video including an animation of an avatar object based on the movement of a distribution user has been known (see, for example, Patent Document 1). In this type of video distribution system, a function has been proposed in which an arbitrary object is displayed on a moving image in response to a display request transmitted from a terminal used by a viewing user who views the moving image.

特開2015-184689号公報JP-A-2015-184689

上記の動画配信システムにおいては、ギフトオブジェクトに配信ユーザが反応することを通じて配信ユーザ及び視聴ユーザのコミュニケーションが活発化され、視聴ユーザの動画への満足度が高まる。また、ギフトオブジェクトの表示要求に誘発されて、他の視聴ユーザもギフトオブジェクトの表示要求を行うという利点もある。よって、このようにギフトオブジェクトの表示の機会が増えると、動画の視聴ユーザの数や、視聴ユーザ一人あたりの視聴時間又は全ての視聴ユーザの視聴時間を累積した累積視聴時間の増大が期待される。 In the above-mentioned video distribution system, communication between the distribution user and the viewing user is activated by the distribution user reacting to the gift object, and the satisfaction level of the viewing user with the video is increased. There is also an advantage that other viewing users also request the display of the gift object, triggered by the display request of the gift object. Therefore, when the opportunity to display the gift object increases in this way, it is expected that the number of viewing users of the video, the viewing time per viewing user, or the cumulative viewing time accumulated by all the viewing users will increase. ..

ところで動画配信システムにおいては、人気のある配信ユーザが配信する動画中では多くのギフトオブジェクトが表示される傾向がある。一方、視聴ユーザの数が少ない配信ユーザによって配信される動画ではギフトオブジェクトの数が少ない傾向がある。特に、動画の配信を始めてからの期間が短い初心者ユーザはその傾向が顕著である。 By the way, in a video distribution system, many gift objects tend to be displayed in a video distributed by a popular distribution user. On the other hand, videos distributed by distribution users with a small number of viewing users tend to have a small number of gift objects. This tendency is particularly noticeable for beginner users who have a short period of time since the start of video distribution.

これに対し、視聴ユーザの表示要求によらず、ギフトオブジェクトを動画内に自動的に表示させることが考えられる。しかし、単に表示要求に因らないギフトオブジェクトの機会を多くするのみでは、ギフトオブジェクトの価値が低下してしまう。ギフトオブジェクトの価値が低下すると、ギフトオブジェクトの表示の機会が増えても、視聴ユーザがギフトオブジェクトの表示に興味を抱かなくなり、視聴ユーザの数、視聴時間及び累積視聴時間を増大させる効果が低下する。このため、ギフトオブジェクトの表示の機会を適切に設けることが望まれている。 On the other hand, it is conceivable to automatically display the gift object in the moving image regardless of the display request of the viewing user. However, simply increasing the opportunities for gift objects that do not depend on display requests will reduce the value of the gift objects. When the value of a gift object decreases, even if the opportunity to display the gift object increases, the viewing user becomes less interested in displaying the gift object, and the effect of increasing the number of viewing users, viewing time, and cumulative viewing time decreases. .. Therefore, it is desired to appropriately provide an opportunity to display the gift object.

上記課題を解決するプログラムは、動画をディスプレイに表示するコンピュータを、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理部として機能させる。 A program that solves the above problems displays a computer that displays a moving image on a video, a first avatar object that reflects the movement of the first user, and a second avatar object that reflects the movement of the second user. It functions as a first image processing unit.

また、上記プログラムは、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、前記第2画像処理部は、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する。 Further, the above program is not based on the first gift object display processing unit that displays the first gift object triggered by the transmission of the display request by the viewing user who watches the moving image, and the display request transmitted by the viewing user. When the display condition of the second gift object displayed in is satisfied, the second gift object associated with the first avatar object is displayed, and the second gift object associated with the second avatar object is displayed. The second image processing unit is made to function as a second image processing unit, and the second image processing unit displays the second gift object according to a scenario, and the first user performs the moving image from the middle of the scenario within a predetermined period. When the distribution of the moving object is started, the display of the second gift object is started from the scene corresponding to the distribution start time of the moving image.

上記課題を解決する情報処理方法は、動画をディスプレイに表示するコンピュータが、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理ステップと、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1表示処理ステップと、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理ステップとを実行し、前記第2画像処理ステップでは、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する。 As an information processing method for solving the above problem, a computer displaying a moving image on a display makes a moving image of a first avatar object that reflects the movement of the first user and a second avatar object that reflects the movement of the second user. The first image processing step to be displayed on the screen, the first display processing step to display the first gift object triggered by the transmission of the display request by the viewing user viewing the moving image, and the display request transmitted by the viewing user. When the display condition of the second gift object displayed without being based is satisfied, the second gift object associated with the first avatar object is displayed, and the second gift object associated with the second avatar object is displayed. The second image processing step to be displayed is executed, and in the second image processing step, the second gift object is displayed according to the scenario, and the first user is displayed from the middle of the scenario within a predetermined period. Starts the display of the second gift object from the scene corresponding to the time when the moving image is started to be distributed.

上記課題を解決する情報処理装置は、動画をユーザ装置のディスプレイに表示する情報処理装置であって、第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する。 The information processing device that solves the above problems is an information processing device that displays a moving image on the display of the user device, and includes data for drawing a first avatar object that reflects the movement of the first user and a second user. The first gift is triggered by the drawing data transmission step of transmitting the data for drawing the second avatar object that reflects the movement of the moving object to the user device, and the transmission of the display request by the viewing user who watches the moving image. The first display processing step of transmitting a request for displaying an object to the user apparatus and the display condition of a second gift object displayed without being based on the display request transmitted by the viewing user are satisfied. 1 The display request transmission step of transmitting the display request of the second gift object associated with the second avatar object to the user device together with the display request of the second gift object associated with the avatar object is executed, and the display is performed. In the request transmission step, a display request for the second gift object is transmitted to the user device according to the scenario, and the first user starts distribution of the moving image from the middle of the scenario within a predetermined period. In this case, the display request of the second gift object corresponding to the scene corresponding to the scene corresponding to the distribution start time of the moving image is transmitted to the user device.

上記課題を解決する情報処理装置の情報処理方法は、動画をユーザ装置のディスプレイに表示する情報処理装置が実行する情報処理方法であって、前記情報処置装置が、第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する。 The information processing method of the information processing device that solves the above problems is an information processing method executed by the information processing device that displays a moving image on the display of the user device, and the information processing device reflects the movement of the first user. The drawing data transmission step of transmitting the data for drawing the first avatar object and the data for drawing the second avatar object reflecting the movement of the second user to the user device, and viewing the moving image. The first display processing step of transmitting a request for displaying the first gift object to the user device triggered by the transmission of the display request by the viewing user, and the display without being based on the display request transmitted by the viewing user. When the display condition of the second gift object is satisfied, the display request of the second gift object associated with the first avatar object and the display request of the second gift object associated with the second avatar object are requested. The display request transmission step to be transmitted to the user device is executed, and in the display request transmission step, the display request of the second gift object is transmitted to the user device according to the scenario, and the display request is transmitted to the user device within a predetermined period. When the first user starts the distribution of the moving image from the middle of the scenario, the display request of the second gift object corresponding to the scene corresponding to the time when the distribution of the moving image is started is transmitted to the user device.

本発明によれば、配信ユーザに提供されるオブジェクトの表示の機会を適切に設けることによって、視聴ユーザを飽きさせない動画を配信することができる。 According to the present invention, by appropriately providing an opportunity to display an object provided to a distribution user, it is possible to distribute a moving image that does not make the viewing user bored.

一実施形態における動画配信システムの一実施形態を示す模式図。The schematic diagram which shows one Embodiment of the moving image distribution system in one Embodiment. 同実施形態のユーザ管理情報の一部のデータ構造を示す図。The figure which shows the data structure of a part of the user management information of the same embodiment. 同実施形態における現実世界での配信ユーザとユーザ装置との位置関係を示す図。The figure which shows the positional relationship between the delivery user and the user apparatus in the real world in the same embodiment. 同実施形態におけるアバターオブジェクトの動作方向を示す図。The figure which shows the operation direction of the avatar object in the same embodiment. 同実施形態のギフトオブジェクトの表示方法を示す図。The figure which shows the display method of the gift object of the same embodiment. 同実施形態のゲストアバターオブジェクトの表示方法を示す図。The figure which shows the display method of the guest avatar object of the same embodiment. 同実施形態のゲストアバターオブジェクトの表示方法を示す図。The figure which shows the display method of the guest avatar object of the same embodiment. 同実施形態のユーザ装置に表示される配信画面を示す図。The figure which shows the distribution screen displayed on the user apparatus of the same embodiment. 同実施形態のユーザ装置に表示されるコラボレーション配信の承認画面を示す図。The figure which shows the approval screen of the collaboration delivery displayed on the user apparatus of the same embodiment. 同実施形態のユーザ装置に表示されるコラボレーション配信時の配信画面を示す図。The figure which shows the distribution screen at the time of collaboration distribution displayed on the user apparatus of the same embodiment. 同実施形態のユーザ装置に表示されるギフトオブジェクトを含む配信画面を示す図。The figure which shows the delivery screen which includes the gift object displayed on the user apparatus of the same embodiment. 同実施形態のユーザ装置に表示されるコラボレーション配信時の画面であって、エモート機能が発現された画面を示す図。The figure which is the screen at the time of collaboration delivery displayed on the user apparatus of the same embodiment, and shows the screen which expressed the emote function. 同実施形態のユーザ装置に表示されるコラボレーション配信時の画面であって、一つのエモート機能が発現された画面を示す図。The figure which is the screen at the time of collaboration delivery displayed on the user apparatus of the same embodiment, and shows the screen which expressed one emote function. 同実施形態のユーザ装置に表示されるコラボレーション配信時の画面であって、他のエモート機能が発現された画面を示す図。The figure which is the screen at the time of collaboration delivery displayed on the user apparatus of the same embodiment, and shows the screen which expressed the other emote function. 同実施形態のユーザ装置に表示されるギフトオブジェクトを含む配信画面を示す図。The figure which shows the delivery screen which includes the gift object displayed on the user apparatus of the same embodiment. 同実施形態におけるギフトオブジェクトの表示のタイミングを示すチャート。The chart which shows the display timing of the gift object in the same embodiment. 同実施形態におけるコラボレーション配信及びギフトオブジェクトの表示の手順のシーケンスチャート。A sequence chart of the procedure for collaborative delivery and display of gift objects in the same embodiment. 同実施形態におけるギフトオブジェクトの表示の手順のフローチャート。The flowchart of the procedure of displaying a gift object in the same embodiment. 変形例のコラボレーション配信及びギフトオブジェクトの表示の手順のシーケンスチャート。A sequence chart of the procedure for collaborative delivery of variants and display of gift objects. 変形例の動画配信システムの模式図。Schematic diagram of the video distribution system of the modified example.

以下、図面を参照して動画配信システムの一実施形態について説明する。本実施形態の動画配信システムは、ユーザの動きに応じて動くアバターオブジェクトを三次元仮想空間に表示した動画を配信するものである。 Hereinafter, an embodiment of the moving image distribution system will be described with reference to the drawings. The video distribution system of the present embodiment distributes a video in which an avatar object that moves according to the movement of a user is displayed in a three-dimensional virtual space.

<動画配信システム>
図1に示すように、動画配信システム11は、ユーザ装置12とサーバ13とを備える。動画配信システム11は、複数のユーザ装置12とサーバ13との間でネットワーク14を介してデータを送受信することによりユーザ装置12に動画を表示するシステムである。ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされている。以下、動画を配信するユーザを「配信ユーザ」、配信ユーザによって配信された動画を視聴するユーザを「視聴ユーザ」という。ユーザは、動画を視聴資する場合は視聴ユーザであり、動画を配信する場合は配信ユーザである。また、「配信ユーザ」及び「視聴ユーザ」を区別しない場合には、単に「ユーザ」という。
<Video distribution system>
As shown in FIG. 1, the moving image distribution system 11 includes a user device 12 and a server 13. The moving image distribution system 11 is a system that displays moving images on the user device 12 by transmitting and receiving data between the plurality of user devices 12 and the server 13 via the network 14. A moving image application program for viewing and distributing a moving image is installed in the user device 12. Hereinafter, a user who distributes a video is referred to as a "distribution user", and a user who views a video distributed by the distribution user is referred to as a "viewing user". The user is a viewing user when viewing a video, and a distribution user when distributing a video. Further, when no distinction is made between "delivery user" and "viewing user", it is simply referred to as "user".

ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ、眼鏡型のウェアラブル端末等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置である。ユーザ装置12は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。 The user device 12 is a wearable computer such as a smartphone (multifunctional telephone terminal), a tablet terminal, a personal computer, a console game machine, a head mount display, a glasses-type wearable terminal, and information processing capable of reproducing moving images other than these devices. It is a device. The user device 12 may be a stand-alone device that operates independently, or may be composed of a plurality of devices that are connected to each other so as to be able to transmit and receive various data.

ユーザ装置12は、制御部20、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。制御部20は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)等の1乃至複数の演算回路を備える。また、制御部20は、演算回路が読み出し及び書き込みが可能な主記憶装置(記録媒体)であるメモリを備える。メモリは、半導体メモリ等から構成される。制御部20は、ストレージ22又は外部ストレージからオペレーティングシステムやその他のプログラムをメモリに読み込み、メモリから取り出した命令を実行する。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信することができる。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。 The user device 12 includes a control unit 20, a storage 22 (storage medium), and a communication interface (I / F) 23. The control unit 20 includes one or a plurality of arithmetic circuits such as a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), and an NPU (Neural network Processing Unit). Further, the control unit 20 includes a memory which is a main storage device (recording medium) on which the arithmetic circuit can read and write. The memory is composed of a semiconductor memory or the like. The control unit 20 reads the operating system and other programs from the storage 22 or the external storage into the memory, and executes the instruction fetched from the memory. The communication I / F 23 can send and receive data to and from the server 13 and other user devices 12 via the network 14. The network 14 includes various networks such as a local area network and the Internet.

ストレージ22は、補助記憶装置(記録媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。ストレージ22には、動画アプリケーションプログラム220、アバターオブジェクトを描画するためのアバターデータ221、オブジェクトデータ222、及びユーザ管理情報223が格納されている。 The storage 22 is an auxiliary storage device (recording medium), and is, for example, a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory. The storage 22 can also be used in combination with a plurality of storages. The storage 22 stores a moving image application program 220, avatar data 221 for drawing an avatar object, object data 222, and user management information 223.

制御部20は、動画アプリケーションプログラム220を実行することにより、サーバ13から各種のデータを適宜取得する。また、制御部20は、動画アプリケーションプログラム220を実行することにより、ユーザの指示を受け付けてユーザ自身が動画を配信する配信モードと、他の配信ユーザが配信する動画を視聴する視聴モードとを切り替える。 The control unit 20 appropriately acquires various data from the server 13 by executing the moving image application program 220. Further, the control unit 20 switches between a distribution mode in which the user receives an instruction from the user and distributes the video by himself / herself and a viewing mode in which the video distributed by another distribution user is viewed by executing the video application program 220. ..

アバターデータ221は、アバターオブジェクトを描画するための3次元モデルデータである。ユーザ装置12は、アバターデータ221を更新するデータを、動画アプリケーションプログラム220を起動した場合等、サーバ13から所定のタイミングで取得する。アバターデータは、アバターオブジェクト本体を描画するためのデータ、アバターオブジェクト本体に適用されるテクスチャデータ等を含んでいる。アバターオブジェクト本体を描画するためのデータには、ポリゴンデータ、アバターオブジェクトの動作を表現するための骨格データ(ボーン)等が含まれる。アバターデータ221は、複数体のアバターオブジェクト本体を描画するためのデータを含んでいてもよい。テクスチャデータには、アバターオブジェクトに対して適用可能な複数のパーツデータが含まれている。例えば「目」、「眉」、「耳」、「服」等のカテゴリ毎に複数のパーツデータが準備されている。ユーザは、パーツデータを選択し、アバターオブジェクト本体に適用して、アバターオブジェクトを作成する。ユーザによって選択されたアバターオブジェクト本体とパーツデータとの組み合わせは、ストレージ22に記録される。 The avatar data 221 is three-dimensional model data for drawing an avatar object. The user device 12 acquires the data for updating the avatar data 221 from the server 13 at a predetermined timing, such as when the moving image application program 220 is started. The avatar data includes data for drawing the avatar object body, texture data applied to the avatar object body, and the like. The data for drawing the avatar object body includes polygon data, skeleton data (bone) for expressing the operation of the avatar object, and the like. The avatar data 221 may include data for drawing a plurality of avatar object bodies. The texture data contains a plurality of part data applicable to the avatar object. For example, a plurality of parts data are prepared for each category such as "eyes", "eyebrows", "ears", and "clothes". The user selects the part data and applies it to the avatar object body to create the avatar object. The combination of the avatar object body and the part data selected by the user is recorded in the storage 22.

オブジェクトデータ222は、所定のタイミングでサーバ13からダウンロードされるデータである。オブジェクトデータ222は、アバターオブジェクト以外のオブジェクトに関する情報である。アバターオブジェクト以外のオブジェクトには、配信ユーザが表示させることのできるオブジェクト、視聴ユーザから配信ユーザに提供されるギフトオブジェクトが含まれる。ギフトオブジェクトの種類の一つとして、アバターオブジェクトの特定の部位と関連付けて表示画面に表示される装着オブジェクトがある。装着オブジェクトは、例えば、装着オブジェクトに装着されるアクセサリー(帽子、めがね等)、衣服(Tシャツ等)、及びこれら以外のアバターオブジェクトに装着可能なオブジェクトである。その他のオブジェクトとして、例えば、花火や炎等の2次元の画像や2次元のパーティクルからなるものや、ぬいぐるみや花束を模した3次元座標を有するオブジェクトが挙げられる。 The object data 222 is data downloaded from the server 13 at a predetermined timing. The object data 222 is information about an object other than the avatar object. Objects other than the avatar object include an object that can be displayed by the distribution user and a gift object provided by the viewing user to the distribution user. As one of the types of gift objects, there is a wearing object that is displayed on the display screen in association with a specific part of the avatar object. The attached object is, for example, an object that can be attached to an accessory (hat, glasses, etc.), clothes (T-shirt, etc.) attached to the attached object, and an avatar object other than these. Examples of other objects include objects consisting of two-dimensional images such as fireworks and flames and two-dimensional particles, and objects having three-dimensional coordinates imitating stuffed animals and bouquets.

また、オブジェクトは、物理的挙動を行うオブジェクトであってもよい。具体的には、オブジェクトは、重力による落下、力の付与による運動等といった物理的挙動をシミュレーションするものであってもよい。物理挙動オブジェクトには、物理的挙動をシミュレーションするためのコンポーネント(プログラム)が、実行可能に関連付けられている。 Further, the object may be an object that performs physical behavior. Specifically, the object may simulate physical behavior such as falling due to gravity, motion due to application of force, and the like. A component (program) for simulating physical behavior is executably associated with a physical behavior object.

ユーザ管理情報223は、ユーザの識別情報(ユーザID)、初期設定されているアバターオブジェクトの情報等を含む。なお、ユーザ管理情報223は、ユーザの識別情報(ユーザID)、コイン等の購入媒体、ポイント、配信状況等を含んでいてもよい。 The user management information 223 includes user identification information (user ID), default avatar object information, and the like. The user management information 223 may include user identification information (user ID), purchase media such as coins, points, distribution status, and the like.

また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、ディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、制御部20と同じ装置として設けられていてもよく、制御部20を備える装置に接続する態様で設けられていてもよい。 Further, the user device 12 includes a sensor unit 24, a speaker 25, a microphone 26, an operation unit 27, and a display 28. At least one of the sensor unit 24, the speaker 25, the microphone 26, the operation unit 27, and the display 28 may be provided as the same device as the control unit 20, and may be provided in a manner of connecting to the device including the control unit 20. You may.

センサユニット24は、ユーザの表情の変化を示すフェイスモーション、及びセンサユニット24に対するユーザの身体の相対位置の変化を示すボディモーションを検出する1乃至複数のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニット24は、公知の物を使用することができる。センサユニット24の一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニット24は、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDAR」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニット24の演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。 The sensor unit 24 is one or a plurality of sensors that detect a face motion indicating a change in the facial expression of the user and a body motion indicating a change in the relative position of the user's body with respect to the sensor unit 24. Face motion includes movements such as blinking and opening and closing of the mouth. A known sensor unit 24 can be used. An example of the sensor unit 24 is a ToF sensor that measures and detects the time of flight (Time of Flight) until the light emitted toward the user is reflected on the user's face and returned, and a camera that captures the user's face. It also includes an image processing unit that processes data captured by the camera. Further, the sensor unit 24 may include an RGB camera that captures visible light and a near-infrared camera that captures near-infrared rays. For the RGB camera and the near-infrared camera, for example, True Depth of "iphoneX (registered trademark)", "LIDAR" of "iPad Pro (registered trademark)", and other ToF sensors mounted on smartphones are used. It is possible. Specifically, this camera projects tens of thousands of invisible dots (points) on the user's face or the like by a dot projector. Then, the reflected light of the dot pattern is detected and analyzed to form a depth map of the face, and an infrared image of the face or the like is captured to capture accurate face data. The arithmetic processing unit of the sensor unit 24 generates various information based on the depth map and the infrared image, compares the information with the registered reference data, and compares the information with the depth of each point of the face (each point and the near-infrared camera). Calculate the deviation of the position other than the distance) and depth.

また、センサユニット24は、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニット24は、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサをさらに含むものであってもよい。センサユニット24は、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニット24の画像処理部は、制御部20が備えていてもよい。 Further, the sensor unit 24 may have a function of tracking not only the user's face but also the hand (hand tracking). The sensor unit 24 may further include a sensor other than the above-mentioned sensors such as an acceleration sensor and a gyro sensor. Even if the sensor unit 24 has a spatial mapping function of recognizing an object in the real space in which the user exists based on the detection results of the ToF sensor and other known sensors, and mapping the recognized object to the spatial map. good. Hereinafter, when the face motion detection data and the body motion detection data are described without particular distinction, they are simply referred to as “tracking data”. The image processing unit of the sensor unit 24 may be provided by the control unit 20.

スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザが発話した音声を入力し、音声データに変換する。ディスプレイ28は、制御部20の出力指示に応じて、各種画像を出力する。操作部27は、ユーザ装置12の種類に応じたものを用いることができる。操作部27の一例は、ディスプレイ28と一体化されたタッチパネルや、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部27の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行したりすることができる。なお、センサユニット24がハンドトラック機能等の入力インターフェース機能も有する場合には、操作部27は省略可能である。 The speaker 25 converts voice data into voice and outputs it. The microphone 26 inputs the voice spoken by the user and converts it into voice data. The display 28 outputs various images in response to the output instruction of the control unit 20. As the operation unit 27, one corresponding to the type of the user device 12 can be used. An example of the operation unit 27 is a touch panel integrated with the display 28, an operation button provided in a housing of the user device 12, a keyboard, a mouse, a controller operated by the user, and the like. The controller may incorporate various known sensors such as an acceleration sensor and an inertial measurement unit (IMU) such as a gyro. Further, another example of the operation unit 27 may be a tracking device that specifies the movement of the user's hand, the movement of the eyes, the movement of the head, the direction of the line of sight, and the like. In this aspect, for example, a user's instruction is determined based on the movement of the user's hand to start or end the distribution of a video, an evaluation of a message or a video, and a display of a predetermined object (for example, a gift described later). Various operations such as requests can be executed. If the sensor unit 24 also has an input interface function such as a hand truck function, the operation unit 27 can be omitted.

制御部20は、ストレージ22に記憶された動画アプリケーションプログラム220を実行することにより、アプリケーション管理部201、表示制御部202として機能する。アプリケーション管理部201は、動画アプリケーションプログラムの主な制御を司る。アプリケーション管理部201は、操作部27を通じて入力されたユーザの要求又はサーバ13からの要求等を取得し、それらの要求の内容に応じて表示制御部202へ要求を出力する。また、アプリケーション管理部201は、表示制御部202からの要求や各種データをサーバ13へ送信したり、センサユニット24から取得したトラッキングデータをサーバ13に送信したりする。また、アプリケーション管理部201は、サーバ13から受信した各種データをストレージ22に記録する。 The control unit 20 functions as the application management unit 201 and the display control unit 202 by executing the moving image application program 220 stored in the storage 22. The application management unit 201 controls the main control of the video application program. The application management unit 201 acquires the user's request input through the operation unit 27, the request from the server 13, and the like, and outputs the request to the display control unit 202 according to the content of the request. Further, the application management unit 201 transmits a request from the display control unit 202 and various data to the server 13, and transmits tracking data acquired from the sensor unit 24 to the server 13. Further, the application management unit 201 records various data received from the server 13 in the storage 22.

表示制御部202は、配信モードにおいて、アバターデータ221に、センサユニット24から取得したトラッキングデータを適用してアニメーションを生成する。また、表示制御部202は、アバターオブジェクト、アバターオブジェクト以外のオブジェクトを含めてレンダリングを行う。ここでいうレンダリングは、仮想カメラの位置の取得、透視投影、隠面消去(ラスタ化)等が含まれる描画処理をいう。レンダリングは、これらのうち少なくとも一つの処理であってもよいし、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。また、表示制御部202は、レンダリングされた画像を用いてアニメーションを生成する。さらに表示制御部202は、アニメーションと、視聴ユーザのユーザ装置12から送信された投稿メッセージ、又はサーバ13から送信された通知等とを合成した動画データをディスプレイ28に出力する。 The display control unit 202 applies the tracking data acquired from the sensor unit 24 to the avatar data 221 in the distribution mode to generate an animation. Further, the display control unit 202 renders the avatar object and objects other than the avatar object. Rendering here refers to drawing processing including acquisition of the position of a virtual camera, perspective projection, hidden surface erasure (rasterization), and the like. Rendering may be at least one of these processes, or may include processes such as shading and texture mapping. Further, the display control unit 202 generates an animation using the rendered image. Further, the display control unit 202 outputs to the display 28 moving image data in which the animation is combined with the posted message transmitted from the user device 12 of the viewing user, the notification transmitted from the server 13, and the like.

表示制御部202は、配信モードにおいて、マイク26から入力した音声データと動画データとを同期させて、ディスプレイ28に出力する。さらに、表示制御部202は、動画データ及び音声データをエンコードする。アプリケーション管理部201は、エンコードしたデータをサーバ13に送信する。 The display control unit 202 synchronizes the audio data input from the microphone 26 with the moving image data in the distribution mode, and outputs the audio data to the display 28. Further, the display control unit 202 encodes the moving image data and the audio data. The application management unit 201 transmits the encoded data to the server 13.

また、表示制御部202は、視聴モードにおいて、サーバ13から受信した配信ユーザのトラッキングデータをアバターデータ221に適用してアニメーションを生成する。また、サーバ13から受信したアバターオブジェクト以外のオブジェクト、投稿メッセージ等を合わせてディスプレイ28に出力する。さらに、表示制御部202は、サーバ13から受信した音声データを動画と同期させてスピーカ25から出力する。 Further, the display control unit 202 applies the tracking data of the distribution user received from the server 13 to the avatar data 221 in the viewing mode to generate an animation. In addition, objects other than the avatar object received from the server 13, posted messages, and the like are combined and output to the display 28. Further, the display control unit 202 synchronizes the audio data received from the server 13 with the moving image and outputs the audio data from the speaker 25.

次にサーバ13について説明する。サーバ13は、動画を配信するためのサービスを提供するサービス提供者等が用いるものである。サーバ13は、制御部30と、通信I/F34と、ストレージ35とを備えている。制御部30は、ユーザ装置12の制御部20と同様な構成である。制御部30は、複数の演算回路を組み合わせて構成されていてもよい。また、通信I/F34及びストレージ35は、ユーザ装置12と同様な構成である。サーバ13は1つの装置から構成されていてもよく、複数の装置から構成されていてもよい。サーバ13が複数の装置から構成される場合、それらの装置は、制御部30の機能、ストレージ35に格納された各種のデータを分散して備える。 Next, the server 13 will be described. The server 13 is used by a service provider or the like that provides a service for distributing a moving image. The server 13 includes a control unit 30, a communication I / F 34, and a storage 35. The control unit 30 has the same configuration as the control unit 20 of the user device 12. The control unit 30 may be configured by combining a plurality of arithmetic circuits. Further, the communication I / F 34 and the storage 35 have the same configuration as the user device 12. The server 13 may be composed of one device or may be composed of a plurality of devices. When the server 13 is composed of a plurality of devices, those devices are provided with the functions of the control unit 30 and various data stored in the storage 35 in a distributed manner.

ストレージ35には、配信プログラム353が格納されている。制御部30は、配信プログラム353を実行することにより、配信管理部301、購入処理部302として機能する。 The distribution program 353 is stored in the storage 35. The control unit 30 functions as a distribution management unit 301 and a purchase processing unit 302 by executing the distribution program 353.

配信管理部301は、ユーザ装置12から受信した各種データをストレージ35に記憶するとともに、ユーザ装置12から受信した購入要求等に基づき、購入処理部302に要求を出力する。さらに、配信管理部301は、ユーザ装置12から要求されたデータをストレージ35等から取得してユーザ装置12に送信する。具体的には、配信管理部301は、視聴ユーザが用いるユーザ装置12からの要求に応じて、配信中の動画のリストを送信する。配信管理部301は、リストの中から選択された動画の識別情報をユーザ装置12から受信する。また、配信管理部301は、選択された動画の配信ユーザが用いるユーザ装置12から取得したトラッキングデータ等をユーザ装置12に送信する。また、配信管理部301は、配信中の動画に対して視聴ユーザから投稿された投稿メッセージ等を受信する。さらに配信管理部301は、受信した投稿メッセージを、配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。投稿メッセージには、メッセージの内容の他、視聴ユーザの識別情報(ユーザのアカウント名等)、投稿日時等が含まれる。また、動画に表示されるメッセージには「ユーザAさん入室しました」の通知メッセージも含まれる。 The distribution management unit 301 stores various data received from the user device 12 in the storage 35, and outputs the request to the purchase processing unit 302 based on the purchase request received from the user device 12. Further, the distribution management unit 301 acquires the data requested from the user device 12 from the storage 35 or the like and transmits the data to the user device 12. Specifically, the distribution management unit 301 transmits a list of moving images being distributed in response to a request from the user device 12 used by the viewing user. The distribution management unit 301 receives the identification information of the moving image selected from the list from the user device 12. Further, the distribution management unit 301 transmits the tracking data or the like acquired from the user device 12 used by the distribution user of the selected moving image to the user device 12. In addition, the distribution management unit 301 receives a posted message or the like posted by the viewing user for the video being distributed. Further, the distribution management unit 301 transmits the received posted message to the user device 12 of the distribution user and the user device 12 of the viewing user. The posted message includes the content of the message, identification information of the viewing user (user's account name, etc.), posting date and time, and the like. In addition, the message displayed in the video includes a notification message of "User A has entered the room".

配信管理部301は、視聴ユーザが用いるユーザ装置12から、視聴中の動画へのオブジェクトの表示要求を受信する。表示要求が行われるオブジェクトは仮想空間内に表示されるオブジェクトであって、視聴ユーザから、動画を配信する配信ユーザに提供されるギフトオブジェクト、動画を好評価する評価オブジェクト等を含む。ギフトオブジェクトは、対価を支払わずに表示要求を行うことのできるものであってもよく、対価を払うことによって表示要求を行うものであってもよい。又は、ギフトオブジェクトは、表示要求に応じて表示がなされた場合に対価を支払うものであってもよい。配信管理部301は、ギフトオブジェクトの表示要求を、ギフトオブジェクトの識別情報とともに配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。サーバ13は、ギフトオブジェクトの表示要求がサーバ13によって受け付けられたとき、又は表示要求に対する配信ユーザによる所定の操作がなされたとき等、所定のタイミングで、「ユーザBさんが花火を贈りました」等の通知メッセージを配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。 The distribution management unit 301 receives a request for displaying an object on the moving image being viewed from the user device 12 used by the viewing user. The object for which the display request is made is an object displayed in the virtual space, and includes a gift object provided by the viewing user to the distribution user who distributes the video, an evaluation object that favorably evaluates the video, and the like. The gift object may be one that can make a display request without paying a consideration, or may make a display request by paying a consideration. Alternatively, the gift object may be one that pays a consideration when the display is made in response to the display request. The distribution management unit 301 transmits a display request for the gift object together with the identification information of the gift object to the user device 12 of the distribution user and the user device 12 of the viewing user. The server 13 said, "User B presented fireworks" at a predetermined timing, such as when the display request for the gift object was received by the server 13, or when a predetermined operation was performed by the distribution user for the display request. Etc. are transmitted to the user device 12 of the distribution user and the user device 12 of the viewing user.

購入処理部302は、ユーザの操作に従って、オブジェクトの購入処理を行う。購入処理には、動画アプリケーションプログラム内で利用可能なコイン、ポイント、チケット等の対価(媒体)を支払う処理が含まれる。また、購入処理には、オブジェクトの交換、売却、譲渡の処理を含めてもよい。また、購入処理部302は、対価が支払われることにより、複数のオブジェクトの中から所定数のオブジェクトが選択される抽選(ガチャ)を実行するようにしてもよい。購入処理部302は、購入されたオブジェクトを、ユーザに関連付けてユーザ装置12及びサーバ13の少なくとも一方に記録する。配信モード(又は配信を開始する前のクローゼットモード)においてユーザがオブジェクトを購入したとき、購入処理部302は、購入したオブジェクトの識別情報を購入したユーザに関連付けてストレージ35に記憶してもよい。また、視聴モードにおいてユーザがオブジェクトを購入すると、購入処理部302は、購入したオブジェクトの識別情報を、動画を配信する配信ユーザに関連付けてストレージ35に記憶してもよい。購入可能なオブジェクトの売上は、例えば配信ユーザ及びサービス提供者に分配される。 The purchase processing unit 302 performs the purchase processing of the object according to the operation of the user. The purchase process includes a process of paying the consideration (medium) for coins, points, tickets, etc. that can be used in the video application program. In addition, the purchase process may include the process of exchanging, selling, or transferring the object. Further, the purchase processing unit 302 may execute a lottery (gacha) in which a predetermined number of objects are selected from a plurality of objects by paying the consideration. The purchase processing unit 302 records the purchased object in at least one of the user device 12 and the server 13 in association with the user. When a user purchases an object in the distribution mode (or the closet mode before starting distribution), the purchase processing unit 302 may store the identification information of the purchased object in the storage 35 in association with the purchasing user. Further, when the user purchases an object in the viewing mode, the purchase processing unit 302 may store the identification information of the purchased object in the storage 35 in association with the distribution user who distributes the moving image. Sales of purchaseable objects are distributed, for example, to distribution users and service providers.

次に、サーバ13のストレージ35に格納された各種のデータについて説明する。ストレージ35には、配信プログラム353のほか、ユーザ管理データ350、アバターデータ351、オブジェクトデータ352が格納されている。 Next, various data stored in the storage 35 of the server 13 will be described. In addition to the distribution program 353, the storage 35 stores user management data 350, avatar data 351 and object data 352.

ユーザ管理データ350は、動画アプリケーションプログラムを用いるユーザに関する情報である。アバターデータ351は、アバターオブジェクトを描画するためのマスターとなるデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。 The user management data 350 is information about a user who uses the moving image application program. The avatar data 351 is data that serves as a master for drawing an avatar object, and is transmitted to the user device 12 in response to a request from the user device 12.

オブジェクトデータ352は、ギフトオブジェクトを描画するためのマスターとなるデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。オブジェクトデータ352には、ポリゴンデータ等のギフトオブジェクトを描画するためのデータの他、ギフトオブジェクトの属性情報が含まれる。 The object data 352 is data that serves as a master for drawing the gift object, and is transmitted to the user device 12 in response to a request from the user device 12. The object data 352 includes data for drawing a gift object such as polygon data, as well as attribute information of the gift object.

次に図2を参照して、ユーザ管理データ350について説明する。ユーザ管理データ350は、ユーザ毎に記憶されている。ユーザ管理データ350は、ユーザの識別情報(ユーザID)、コイン等の購入媒体、ポイント、配信状況等を含む。コインは、ユーザによって購入されたものである。ポイントは、配信を行ったとき、イベントに参加したとき、又はオブジェクト等を売却したとき等、所定のタイミングでユーザに付与される。配信状況は、ユーザが動画を配信している間に受け付けたギフトオブジェクトの識別情報、メッセージに関する情報等を含む。なお、ユーザ管理データ350には、コイン及びポイントのいずれかのみが格納されていてもよい。 Next, the user management data 350 will be described with reference to FIG. The user management data 350 is stored for each user. The user management data 350 includes user identification information (user ID), purchase media such as coins, points, distribution status, and the like. The coin was purchased by the user. Points are given to users at predetermined timings such as when distribution is performed, when an event is participated, or when an object or the like is sold. The delivery status includes identification information of the gift object received by the user while delivering the video, information on the message, and the like. In addition, only one of coins and points may be stored in the user management data 350.

<ギフトオブジェクト>
次に、ギフトオブジェクトについて説明する。本実施形態では、ギフトオブジェクトには、視聴ユーザが用いるユーザ装置12による表示要求の送信を契機として表示される第1ギフトオブジェクトと、視聴ユーザが送信した表示要求を契機とせずに表示される第2ギフトオブジェクトとが含まれる。第2ギフトオブジェクトは、動画の配信状況が第2ギフトオブジェクトの表示条件を満たした場合に、サーバ13が配信プログラム353を実行することにより動画に表示される。なお、第1ギフトオブジェクト及び第2ギフトオブジェクトを区別しないで説明する場合には、単にギフトオブジェクトとして説明する。
<Gift object>
Next, the gift object will be described. In the present embodiment, the gift object is displayed as a first gift object that is displayed as a trigger for transmission of a display request by the user device 12 used by the viewing user, and a first gift object that is displayed without being triggered by the display request transmitted by the viewing user. 2 Gift objects and are included. The second gift object is displayed on the moving image by the server 13 executing the distribution program 353 when the distribution status of the moving image satisfies the display condition of the second gift object. When the first gift object and the second gift object are described without distinction, they are simply described as gift objects.

第2ギフトオブジェクトの表示条件の一例は、予め定めた期間内に動画の配信が開始されたことである。例えば「19:00~20:00」等の予め定めた期間内に動画が配信された場合、動画配信時点から所定時間経過後に提供オブジェクトが動画に表示される。又は、予め定めた期間内に動画が配信されたことを条件に、配信ユーザが、第2ギフトオブジェクトの表示のタイミングを決定するようにしてもよい。この場合、例えば第2ギフトオブジェクトの表示を実行するための操作部を画面に表示し、配信ユーザによる操作部の操作を受け付けた場合に第2ギフトオブジェクトを表示してもよい。 An example of the display condition of the second gift object is that the distribution of the moving image is started within a predetermined period. For example, when the moving image is delivered within a predetermined period such as "19:00 to 20:00", the provided object is displayed on the moving object after a predetermined time has elapsed from the time of the moving image distribution. Alternatively, the distribution user may determine the display timing of the second gift object on the condition that the moving image is distributed within a predetermined period. In this case, for example, an operation unit for executing the display of the second gift object may be displayed on the screen, and the second gift object may be displayed when the operation of the operation unit by the distribution user is accepted.

第2ギフトオブジェクトの表示条件は、動画の配信に関する条件であればよい。例えば表示条件の他の一例は、配信回数、複数回の動画の配信時間を累積した累積配信時間が所定値を満たしたことであってもよい。また、第2ギフトオブジェクトの表示条件の他の一例は、予め定めたアバターオブジェクトやその他のオブジェクトを用いて動画を配信することであってもよい。 The display condition of the second gift object may be any condition related to the distribution of the moving image. For example, another example of the display condition may be that the cumulative delivery time obtained by accumulating the number of deliveries and the delivery times of a plurality of moving images satisfies a predetermined value. Further, another example of the display condition of the second gift object may be to deliver the moving image using a predetermined avatar object or other object.

なお、配信状況が第2ギフトオブジェクトの表示条件を満たしたことに代えて若しくは加えて、視聴状況が第2ギフトオブジェクトの表示条件が満たした場合に、第2ギフトオブジェクトを表示するようにしてもよい。視聴状況とは、例えば視聴者数、ユーザ一人当たりの視聴時間、動画を視聴する視聴ユーザの視聴時間を累積した累積視聴時間等である。これらが所定値以上である場合に第2ギフトオブジェクトを表示してもよいし、これらが所定値未満である場合に第2ギフトオブジェクトを表示するようにしてもよい。 In addition, instead of or in addition to satisfying the display condition of the second gift object in the distribution status, the second gift object may be displayed when the display condition of the second gift object is satisfied in the viewing status. good. The viewing status is, for example, the number of viewers, the viewing time per user, the cumulative viewing time obtained by accumulating the viewing times of the viewing users who view the moving image, and the like. The second gift object may be displayed when these are equal to or more than a predetermined value, or the second gift object may be displayed when these are less than a predetermined value.

<動画配信方法>
動画の配信方式としては、配信ユーザが用いるユーザ装置12が動画データを生成しエンコードして視聴ユーザが用いるユーザ装置12に送信する映像配信方式と、配信ユーザが用いるユーザ装置12に加え視聴ユーザが用いるユーザ装置12が動画の生成に必要なデータを取得して動画を生成するクライアントレンダリング方式がある。本実施形態では、クライアントレンダリング方式でユーザ装置12に動画を表示させる方法について説明する。なお、配信ユーザが用いるユーザ装置12が生成した動画データを用いて、視聴ユーザが用いるユーザ装置12がオブジェクト等のレンダリングやそのほかの画像処理を行うハイブリッド方式であってもよく、またはサーバ13で動画を生成する方式であってもよく、その他の動画の配信方式であってもよい。
<Video distribution method>
The video distribution method includes a video distribution method in which the user device 12 used by the distribution user generates and encodes video data and transmits the video data to the user device 12 used by the viewing user, and a viewing user in addition to the user device 12 used by the distribution user. There is a client rendering method in which the user device 12 to be used acquires data necessary for generating a moving image and generates a moving image. In this embodiment, a method of displaying a moving image on the user device 12 by a client rendering method will be described. It should be noted that the user device 12 used by the viewing user may be a hybrid method in which the user device 12 used by the viewing user renders an object or the like and performs other image processing using the moving image data generated by the user device 12 used by the distribution user, or the moving image on the server 13. It may be a method of generating a video, or another method of distributing a moving image.

<オブジェクトの描画>
次に図3~図8を参照して、動画におけるアバターオブジェクト及びその他のオブジェクトの描画方法について説明する。
<Drawing an object>
Next, a method of drawing the avatar object and other objects in the moving image will be described with reference to FIGS. 3 to 8.

図3は、配信ユーザ100と配信ユーザ100が用いるユーザ装置12を示す。ここでは、ユーザ装置12はスマートフォンである。なお、配信モードに設定されたユーザ装置12を、説明の便宜上「配信ユーザ装置12A」という。配信ユーザ100は、アプリケーションプログラムを配信モードにする。また、配信ユーザ100は、少なくとも自身の顔がセンサユニット24の検出範囲101に含まれるように配信ユーザ装置12Aと対峙して、アプリケーションプログラムを実行する。なお、図3に示す検出範囲101は一例であって、図示する範囲に限定されるものではない。 FIG. 3 shows a distribution user 100 and a user device 12 used by the distribution user 100. Here, the user device 12 is a smartphone. The user device 12 set in the distribution mode is referred to as "distribution user device 12A" for convenience of explanation. The distribution user 100 puts the application program into the distribution mode. Further, the distribution user 100 confronts the distribution user device 12A so that at least his / her face is included in the detection range 101 of the sensor unit 24, and executes the application program. The detection range 101 shown in FIG. 3 is an example and is not limited to the range shown in the figure.

配信ユーザ装置12Aは、センサユニット24から出力されたトラッキングデータをアバターデータ221に適用して、アニメーションを生成する。ユーザ装置12のディスプレイ28には、アバターオブジェクトを含む仮想空間の動画が表示される。仮想空間内の仮想カメラとアバターオブジェクトの相対距離は、配信ユーザ100とセンサユニット24との相対距離に応じて変化する。つまり、現実世界での相対距離が短くなるほど、仮想カメラとアバターオブジェクトの相対距離も短くなる。 The distribution user device 12A applies the tracking data output from the sensor unit 24 to the avatar data 221 to generate an animation. A moving image of a virtual space including an avatar object is displayed on the display 28 of the user device 12. The relative distance between the virtual camera and the avatar object in the virtual space changes according to the relative distance between the distribution user 100 and the sensor unit 24. In other words, the shorter the relative distance in the real world, the shorter the relative distance between the virtual camera and the avatar object.

図4は、仮想空間102に配置されたアバターオブジェクト105と、アバターオブジェクト105に設定されたローカル座標系106を示す。ローカル座標系106は、3次元座標を有する個々のオブジェクトに設定された座標系である。仮想空間102の全体には、ワールド座標系103が設定されている。アバターオブジェクト105は、配信ユーザ100の操作部27の操作に基づき、ローカル座標系106を基準に動作する。 FIG. 4 shows an avatar object 105 arranged in the virtual space 102 and a local coordinate system 106 set in the avatar object 105. The local coordinate system 106 is a coordinate system set for each object having three-dimensional coordinates. The world coordinate system 103 is set in the entire virtual space 102. The avatar object 105 operates with reference to the local coordinate system 106 based on the operation of the operation unit 27 of the distribution user 100.

アバターオブジェクトの動作を制御する方法は特に限定されないが、例えば図4中の操作方向107の各々のうち、ユーザがユーザ装置12の操作部27であるタッチパネルを右方向にスワイプすると、アバターオブジェクト105は、ローカル座標系のZ軸を中心としたZ軸回転方向108に回転する。つまり、アバターオブジェクト105は、立ち位置を変更することなく、ローカル座標系106のZ軸を中心に自身からみて左に向かって回転する。このときアバターオブジェクト105は、スワイプ操作の長さに応じた回転量だけ回転する。同様に、配信ユーザ100が配信ユーザ装置12Aの操作部27を左方向にスワイプすると、アバターオブジェクト105は、ローカル座標系106のZ軸を中心としたZ軸回転方向108と反対方向に回転する。 The method of controlling the operation of the avatar object is not particularly limited. For example, when the user swipes the touch panel which is the operation unit 27 of the user device 12 to the right in each of the operation directions 107 in FIG. 4, the avatar object 105 , Rotates in the Z-axis rotation direction 108 about the Z-axis of the local coordinate system. That is, the avatar object 105 rotates to the left with respect to the Z axis of the local coordinate system 106 without changing the standing position. At this time, the avatar object 105 rotates by the amount of rotation according to the length of the swipe operation. Similarly, when the distribution user 100 swipes the operation unit 27 of the distribution user device 12A to the left, the avatar object 105 rotates in the direction opposite to the Z-axis rotation direction 108 about the Z-axis of the local coordinate system 106.

また、配信ユーザ100が配信ユーザ装置12Aの操作部27を上方向にスワイプすると、アバターオブジェクト105は、ローカル座標系106のX軸を中心としたX軸回転方向109に回転する。つまり、アバターオブジェクト105は、ワールド座標系103のZ方向であって、三次元仮想空間の上方を仰ぎ見る。同様に配信ユーザ100が配信ユーザ装置12Aの操作部27を下方向にスワイプすると、アバターオブジェクト105は、ローカル座標系のX軸を中心としたX軸回転方向109と反対方向に回転する。つまり、アバターオブジェクト105は、ワールド座標系103のZ方向と逆方向であって、仮想空間の下方を見る。 Further, when the distribution user 100 swipes the operation unit 27 of the distribution user device 12A upward, the avatar object 105 rotates in the X-axis rotation direction 109 about the X-axis of the local coordinate system 106. That is, the avatar object 105 looks up in the three-dimensional virtual space in the Z direction of the world coordinate system 103. Similarly, when the distribution user 100 swipes the operation unit 27 of the distribution user device 12A downward, the avatar object 105 rotates in the direction opposite to the X-axis rotation direction 109 about the X axis of the local coordinate system. That is, the avatar object 105 looks below the virtual space in the direction opposite to the Z direction of the world coordinate system 103.

また、アバターオブジェクト105には、エモート機能(表現機能)が適用可能である。エモート機能とは、動画アプリケーションプログラム220が発現可能な機能の一つであり、アバターオブジェクトの動作や表情を発動する機能であって、アバターオブジェクト105の手、腕、頭部等の部位の各階層に関連付けられたコンポーネントである。アバターオブジェクト105には、例えば「拍手」、「手を振る」、「手を合わせる」、「ピース」等の所定数の基本的なエモート機能が適用可能となっている。例えば「手を振る」には、アバターオブジェクト105の「右手」の階層に、手を振るアニメーションが関連付けられている。配信ユーザ100は、操作部27に対し所定の操作を行って、それらのエモート機能のうち一つを選択する。配信ユーザ装置12Aは、選択されたエモート機能をアバターオブジェクト105に適用し、アバターオブジェクト105を動作させる。 Further, the emote function (expression function) can be applied to the avatar object 105. The emote function is one of the functions that can be expressed by the video application program 220, and is a function that activates the movements and facial expressions of the avatar object, and each layer of the parts such as the hands, arms, and head of the avatar object 105. The component associated with. A predetermined number of basic emote functions such as "applause", "waving", "joining hands", and "piece" can be applied to the avatar object 105. For example, in "waving", an animation of waving is associated with the hierarchy of "right hand" of the avatar object 105. The distribution user 100 performs a predetermined operation on the operation unit 27 and selects one of those emote functions. The distribution user device 12A applies the selected emote function to the avatar object 105 and operates the avatar object 105.

次に図5を参照して、ギフトオブジェクトの描画について説明する。ギフトオブジェクトの各々は、仮想空間102における表示領域又は表示位置が関連付けられている。表示領域又は表示位置は仮想空間102の座標で表されている。ギフトオブジェクトの表示位置は、オブジェクトの種類によって異なる。例えばユーザ装置12は、「ぬいぐるみ」等のギフトオブジェクト111をアバターオブジェクト105の前方領域110の何れかの位置に表示する。ユーザ装置12又はサーバ13は、アバターオブジェクト105の前方領域110のうち、表示位置をランダムに選択する。このとき、ユーザ装置12は、ギフトオブジェクト111を仮想空間の上方から下方に向かって移動させてもよい。また、ギフトオブジェクト111は前方領域110に出現した後、前方領域110内で移動してもよい。 Next, drawing of the gift object will be described with reference to FIG. Each of the gift objects is associated with a display area or display position in the virtual space 102. The display area or display position is represented by the coordinates of the virtual space 102. The display position of the gift object depends on the type of object. For example, the user device 12 displays a gift object 111 such as a "stuffed animal" at any position in the front area 110 of the avatar object 105. The user device 12 or the server 13 randomly selects a display position from the front area 110 of the avatar object 105. At this time, the user device 12 may move the gift object 111 from the upper side to the lower side of the virtual space. Further, the gift object 111 may move in the front area 110 after appearing in the front area 110.

また、ユーザ装置12は、例えば「掛け軸」等のギフトオブジェクト113を、アバターオブジェクト105の後方領域の予め指定された複数の表示位置112のいずれかに表示する。表示位置112には、順番が割り振られている。ユーザ装置12は、この表示位置112が関連付けられたギフトオブジェクト113を、順番に従って複数の表示位置112のうち選択された一の表示位置112に配置する。 Further, the user device 12 displays the gift object 113 such as a “hanging scroll” at any of a plurality of predetermined display positions 112 in the rear region of the avatar object 105. An order is assigned to the display positions 112. The user device 12 arranges the gift object 113 associated with the display position 112 at the display position 112 selected from the plurality of display positions 112 in order.

サーバ13が、視聴ユーザが用いるユーザ装置12から、表示位置112に関連付けられたオブジェクトであって、表示位置112の数を超えるギフトオブジェクト113の表示要求を受信した場合について説明する。表示位置112にギフトオブジェクトが表示されていない状態で、サーバ13が「オブジェクト1」で示されるギフトオブジェクト113、「オブジェクト2」で示されるギフトオブジェクト113を受信した場合には、ユーザ装置12はサーバ13から送信された指示に従って表示位置112の各々に、順番に従ってギフトオブジェクト113を表示する。 The case where the server 13 receives the display request of the gift object 113 which is the object associated with the display position 112 and exceeds the number of the display positions 112 from the user device 12 used by the viewing user will be described. If the server 13 receives the gift object 113 represented by "object 1" and the gift object 113 represented by "object 2" while the gift object is not displayed at the display position 112, the user device 12 is the server. The gift object 113 is displayed in order at each of the display positions 112 according to the instruction transmitted from 13.

そして、表示位置112に空きが無い状態において、サーバ13が新たに「オブジェクト3」で示すギフトオブジェクト113、「オブジェクト4」で示すギフトオブジェクト113の表示要求を視聴ユーザのユーザ装置から受信すると、サーバ13は、それらのギフトオブジェクト113の識別情報を待機列114に追加する。なお、説明の便宜上、図5に待機列114を模式的に表示しているが、待機列114に追加されたギフトオブジェクト113は画面に表示されない。 Then, when the server 13 newly receives a display request for the gift object 113 indicated by "object 3" and the gift object 113 indicated by "object 4" from the user device of the viewing user in a state where there is no space in the display position 112, the server 13 adds the identification information of those gift objects 113 to the waiting line 114. For convenience of explanation, the waiting column 114 is schematically displayed in FIG. 5, but the gift object 113 added to the waiting column 114 is not displayed on the screen.

待機列114に追加されたギフトオブジェクト113は、表示位置112に表示される順番を待機する。ユーザ装置12は、既に表示されたギフトオブジェクト113について、非表示条件が満たされると非表示とする。非表示条件は、ギフトオブジェクト113の表示時間が所定時間に達すること、動画の配信終了時刻又は配信終了時刻よりも所定時間前に達すること、配信ユーザ又は視聴ユーザがギフトオブジェクトを非表示とする操作を行ったこと等である。例えば「オブジェクト1」のギフトオブジェクト113の非表示条件が満たされるとユーザ装置12はギフトオブジェクト113を非表示とする。その結果、ギフトオブジェクト113が表示されていた表示位置112が空く。次いで、ユーザ装置12は、サーバ13からの要求に基づき、待機列114の先頭のギフトオブジェクト113を、図5中の矢印115に示すように、空いた表示位置112に表示する。また、サーバ13は、待機列114で待機するギフトオブジェクト113が残っている場合には、図5中の矢印116に示すように待機の順番を繰り上げる。 The gift object 113 added to the waiting column 114 waits for the order in which it is displayed at the display position 112. The user device 12 hides the already displayed gift object 113 when the non-display condition is satisfied. The non-display condition is that the display time of the gift object 113 reaches a predetermined time, the delivery end time of the video or the predetermined time before the delivery end time is reached, and the delivery user or the viewing user hides the gift object. And so on. For example, when the condition for hiding the gift object 113 of "object 1" is satisfied, the user device 12 hides the gift object 113. As a result, the display position 112 where the gift object 113 was displayed becomes empty. Next, based on the request from the server 13, the user apparatus 12 displays the gift object 113 at the head of the waiting row 114 at the vacant display position 112 as shown by the arrow 115 in FIG. Further, when the gift object 113 waiting in the waiting row 114 remains, the server 13 advances the waiting order as shown by the arrow 116 in FIG.

待機列114に追加されるギフトオブジェクト113は、第1ギフトオブジェクトのみであってもよいし、第1ギフトオブジェクト及び第2ギフトオブジェクトが混じっていてもよい。第1ギフトオブジェクト及び第2ギフトオブジェクトが同じ表示位置112に関連付けられている場合、サーバ13は、表示要求を受信した又は第2ギフトオブジェクトを表示すると判定したタイミングで、それらのギフトオブジェクトの識別情報を待機列114に追加する。 The gift object 113 added to the waiting line 114 may be only the first gift object, or may be a mixture of the first gift object and the second gift object. When the first gift object and the second gift object are associated with the same display position 112, the identification information of the gift objects is determined by the server 13 at the timing when the display request is received or the second gift object is determined to be displayed. Is added to the waiting column 114.

他の態様として、第1ギフトオブジェクト及び第2ギフトオブジェクトが同じ表示位置112に関連付けられており、同じ期間内に、サーバ13が第1ギフトオブジェクトの表示要求をユーザ装置12から受信し、サーバ13が配信プログラム353に従って第2ギフトオブジェクトを表示すると判定した場合、第1ギフトオブジェクト及び第2ギフトオブジェクトのいずれかを優先させてもよい。例えば、サーバ13は、第1ギフトオブジェクトの表示を優先させてもよい。この場合、待機列114に第2ギフトオブジェクトの識別情報が含まれていても、その第2ギフトオブジェクトよりも前の順番に、第1オブジェクトの識別情報を割り当てて、第2ギフトオブジェクトよりも先に表示してもよい。同様に、サーバ13は、第2ギフトオブジェクトの表示を優先させてもよい。この場合、待機列114に第1ギフトオブジェクトの識別情報が含まれていても、第1ギフトオブジェクトよりも先に表示してもよい。 In another embodiment, the first gift object and the second gift object are associated with the same display position 112, and within the same period, the server 13 receives a display request for the first gift object from the user device 12, and the server 13 receives a display request for the first gift object. If it is determined that the second gift object is displayed according to the distribution program 353, either the first gift object or the second gift object may be prioritized. For example, the server 13 may prioritize the display of the first gift object. In this case, even if the waiting column 114 contains the identification information of the second gift object, the identification information of the first object is assigned in the order before the second gift object, and the identification information of the first object is assigned before the second gift object. It may be displayed in. Similarly, the server 13 may prioritize the display of the second gift object. In this case, even if the waiting column 114 contains the identification information of the first gift object, it may be displayed before the first gift object.

他の態様として、待機列114に第2ギフトオブジェクトを追加せず、待機列114に含まれる全ての第1ギフトオブジェクトの表示が完了するのを待って、第2ギフトオブジェクトを表示するようにしてもよい。具体的には、サーバ13は、第2ギフトオブジェクトを表示すると判定すると、第1ギフトオブジェクトの表示要求の受信を停止する。このとき、ユーザ装置12にギフトオブジェクトの一覧を表示させないようにしてもよいし、ギフトオブジェクトの一覧を表示するがギフトオブジェクトを選択不可能としてもよい。 As another embodiment, the second gift object is not added to the waiting column 114, and the second gift object is displayed after waiting for the display of all the first gift objects contained in the waiting column 114 to be completed. May be good. Specifically, when the server 13 determines that the second gift object is to be displayed, the server 13 stops receiving the display request for the first gift object. At this time, the user device 12 may not display the list of gift objects, or the list of gift objects may be displayed but the gift object may not be selectable.

他の態様として、イベントに参加する場合等、動画の配信開始時点において第2ギフトオブジェクトを表示することが決定している場合には、サーバ13は、動画の配信開始時点から少なくとも第2ギフトオブジェクトの表示終了時点まで第1ギフトオブジェクトの表示要求を受け付けなくてもよい。 As another aspect, when it is determined to display the second gift object at the start of video distribution, such as when participating in an event, the server 13 shall be at least the second gift object from the start of video distribution. It is not necessary to accept the display request of the first gift object until the end of the display of.

また、第2ギフトオブジェクトが表示されている期間においては、全ての第1ギフトオブジェクトを表示しないようにしてもよい。これは、例えば、第2ギフトオブジェクトは背景を含む規模の大きいものである場合があり、表示要求が行われた第1ギフトオブジェクトが第2ギフトオブジェクトの世界観に合わなかったり、第1ギフトオブジェクトがアバターオブジェクト105や他のオブジェクトと意図しない干渉を生じるおそれがあったりするためである。この態様において、第2ギフトオブジェクトが表示されている期間等の所定期間中に、サーバ13が、第1ギフトオブジェクトの表示要求を受け付けないようにしてもよい。又は、サーバ13は、第2ギフトオブジェクトが表示されている期間中に第1ギフトオブジェクトの表示要求を受け付け可能とし、第2ギフトオブジェクトの表示が終了した場合に、第1ギフトオブジェクトを表示するようにしてもよい。 Further, during the period when the second gift object is displayed, all the first gift objects may not be displayed. This is because, for example, the second gift object may be a large one including the background, and the first gift object for which the display request is made does not match the world view of the second gift object, or the first gift object. This is because there is a risk of unintended interference with the avatar object 105 and other objects. In this embodiment, the server 13 may not accept the display request of the first gift object during a predetermined period such as the period during which the second gift object is displayed. Alternatively, the server 13 can accept the display request of the first gift object during the period when the second gift object is displayed, and displays the first gift object when the display of the second gift object is completed. You may do it.

次に図6及び図7を参照して、コラボレーション配信(共演機能)について説明する。コラボレーション配信では、複数の配信ユーザが自身のアバターオブジェクトを一つの動画に表示させることができる。本実施形態では、配信ユーザがコラボレーション配信を許可又は禁止する設定を行い、視聴ユーザが、コラボレーション配信が許可された配信中の動画に自身に対応するアバターオブジェクトを表示させる。コラボレーション配信に参加するにあたり、視聴ユーザが用いるユーザ装置12は、サーバ13を介して、配信ユーザ100が用いるユーザ装置12に参加要請を送信する。配信ユーザが参加要請を承認すると、配信ユーザ100がホストユーザ、参加要請を行った視聴ユーザがゲストユーザとなる。 Next, the collaboration distribution (co-starring function) will be described with reference to FIGS. 6 and 7. In collaborative distribution, multiple distribution users can display their avatar objects in one video. In the present embodiment, the distribution user is set to allow or prohibit the collaboration distribution, and the viewing user displays the avatar object corresponding to himself / herself on the video being distributed for which the collaboration distribution is permitted. In participating in the collaboration distribution, the user device 12 used by the viewing user transmits a participation request to the user device 12 used by the distribution user 100 via the server 13. When the distribution user approves the participation request, the distribution user 100 becomes the host user, and the viewing user who made the participation request becomes the guest user.

図6は、ホストユーザに対応するアバターオブジェクト(以下、ホストアバターオブジェクト105A)とゲストユーザに対応するアバターオブジェクト(以下、ゲストアバターオブジェクト120)とを模式的に示している。なお、ホストアバターオブジェクト105Aは第1アバターオブジェクト、ゲストアバターオブジェクト120は第2アバターオブジェクトにそれぞれ対応する。 FIG. 6 schematically shows an avatar object (hereinafter, host avatar object 105A) corresponding to a host user and an avatar object (hereinafter, guest avatar object 120) corresponding to a guest user. The host avatar object 105A corresponds to the first avatar object, and the guest avatar object 120 corresponds to the second avatar object.

ホストアバターオブジェクト105Aとともに共演が可能なゲストアバターオブジェクト120の数(以下、共演可能数)は予め決められている。サーバ13が、ユーザ装置12から、同じ期間に共演可能数以上の表示要求を受信した場合、表示要求の受け付けの順番に従ってゲストアバターオブジェクト120を表示する。まず最も先に表示要求が受け付けられたゲストアバターオブジェクト120を、ホストアバターオブジェクト105Aの隣等の表示位置121に表示する。そして、2番目以降に表示要求が受け付けられたゲストアバターオブジェクト120の識別情報を共演待機列122に追加する。図6では「ゲスト2」で示すゲストアバターオブジェクト120の識別情報、「ゲスト3」で示すゲストアバターオブジェクト120の識別情報が順に追加される。なお、説明の便宜上、図6に共演待機列122を模式的に表示しているが、共演待機列122に追加されたゲストアバターオブジェクト120は画面に表示されない。 The number of guest avatar objects 120 that can co-star with the host avatar object 105A (hereinafter referred to as the number of co-stars) is predetermined. When the server 13 receives from the user device 12 more display requests than can be co-starred in the same period, the guest avatar object 120 is displayed in the order of accepting the display requests. First, the guest avatar object 120 for which the display request is received first is displayed at the display position 121 such as next to the host avatar object 105A. Then, the identification information of the guest avatar object 120 for which the display request has been received is added to the co-star waiting column 122. In FIG. 6, the identification information of the guest avatar object 120 indicated by “guest 2” and the identification information of the guest avatar object 120 indicated by “guest 3” are added in order. For convenience of explanation, the co-star waiting row 122 is schematically displayed in FIG. 6, but the guest avatar object 120 added to the co-star waiting row 122 is not displayed on the screen.

また、コラボレーション配信を行う場合、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に関連付けて第2ギフトオブジェクト125を表示することができる。例えば、第2ギフトオブジェクト125は、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に装着される装着ギフトオブジェクトであってもよい。また、第2ギフトオブジェクト125は、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に適用されるエモート機能、又はエモート機能及びオブジェクトであってもよい。なお、第2ギフトオブジェクトとして提供されるエモート機能は、上述した基本機能以外のエモート機能である。 Further, in the case of collaborative distribution, the second gift object 125 can be displayed in association with the host avatar object 105A and the guest avatar object 120. For example, the second gift object 125 may be a wearing gift object attached to the host avatar object 105A and the guest avatar object 120. Further, the second gift object 125 may be an emote function or an emote function and an object applied to the host avatar object 105A and the guest avatar object 120. The emotes function provided as the second gift object is an emotes function other than the above-mentioned basic functions.

例えば、第2ギフトオブジェクトとしてのエモート機能は、同じく第2ギフトオブジェクトであるエモートオブジェクト125Aを持ち上げたり、振ったり、操作したりする機能であってもよい。具体的には、アバターオブジェクトの手や腕等の階層に、エモートオブジェクト125Aを関連付けるとともに、部位のアニメーションが関連付けられる。例えばアバターオブジェクトの「ジョッキ」であるエモートオブジェクト125Aを持ち上げる、「旗」を振る、「銃」を撃つ等である。基本機能以外のエモート機能は、サービス提供者等が新たに作成するのに比較的多くの工数が必要となるものであるため、「めがね」等の他のギフトオブジェクトに比べアプリケーション内での付加価値が高い。例えば、第1ギフトオブジェクトとしてエモート機能を提供する場合には、エモート機能以外の第1ギフトオブジェクトよりもコイン等の対価が高くなっている。特に初心者ユーザにとってはエモート機能を第1ギフトオブジェクトとして提供されることは稀である。しかし第2ギフトオブジェクトとして配信ユーザ100に提供することで、配信ユーザ100は、人気の有無、視聴ユーザ数に関係なく、基本機能以外のエモート機能を体験することができる。なお、第2ギフトオブジェクト125としてのエモート機能は、エモート機能が発現される前からアバターオブジェクト105に関連付けられていてもよい。エモート機能が提供された場合、ユーザ装置12は、サーバ13から、エモート機能を指定する識別情報と、そのエモート機能を発現するための指令とを受信する。そして、ユーザ装置12は、受信したエモート機能の識別情報及び指令に基づき、エモート機能を所定のタイミングで発現可能な状態とする。このように、ユーザ装置12が、各種のエモート機能のコンポーネントを予めダウンロードしておくことによって、動画配信中にエモート機能を第2ギフトオブジェクト125として提供された場合の通信量が少なくなる。よって、第2ギフトオブジェクト125としてエモート機能が提供された直後に、エモート機能を発現することも可能である。 For example, the emote function as the second gift object may be a function of lifting, shaking, and manipulating the emote object 125A, which is also the second gift object. Specifically, the emote object 125A is associated with the hierarchy of the hands, arms, etc. of the avatar object, and the animation of the part is associated with it. For example, lifting the emote object 125A, which is the "mug" of the avatar object, waving the "flag", shooting the "gun", and the like. Since the emote function other than the basic function requires a relatively large amount of man-hours to be newly created by the service provider, etc., it has added value in the application compared to other gift objects such as "glasses". Is high. For example, when the emote function is provided as the first gift object, the consideration for coins and the like is higher than that of the first gift object other than the emote function. Especially for novice users, it is rare that the emote function is provided as the first gift object. However, by providing the distribution user 100 as the second gift object, the distribution user 100 can experience the emote function other than the basic function regardless of the popularity or the number of viewing users. The emote function as the second gift object 125 may be associated with the avatar object 105 even before the emote function is manifested. When the emote function is provided, the user apparatus 12 receives from the server 13 the identification information designating the emote function and the command for expressing the emote function. Then, the user apparatus 12 sets the emote function into a state in which it can be expressed at a predetermined timing based on the received identification information and the command of the emote function. As described above, by downloading the components of various emote functions in advance, the user device 12 reduces the amount of communication when the emote function is provided as the second gift object 125 during the moving image distribution. Therefore, it is also possible to express the emote function immediately after the emote function is provided as the second gift object 125.

また、エモート機能は、適用対象のアバターオブジェクト105が設定されている。例えば、エモート機能は、同じ「ジョッキを持ち上げる」という動作であっても、その適用対象として、アバターオブジェクト105に設定された性別(女性、男性)が設定されていてもよい。又は、エモート機能は、適用対象として、アバターオブジェクト105の年齢(子供、大人)、身長、人種、種別(人間、動物)が設定されていてもよい。ゲストアバターオブジェクト120は、退出条件が満たされると画面から退出し非表示となる。退出条件は、ホストアバターオブジェクト105Aが共演を開始した時点から経過した表示時間が所定時間に達すること、配信ユーザ又は視聴ユーザがゲストアバターオブジェクト120を退出させる操作を行ったこと等である。 Further, in the emote function, the avatar object 105 to be applied is set. For example, even if the emote function has the same "lifting mug" operation, the gender (female, male) set in the avatar object 105 may be set as the application target. Alternatively, the emote function may be applied to the age (children, adults), height, race, and type (humans, animals) of the avatar object 105. The guest avatar object 120 exits from the screen and is hidden when the exit condition is satisfied. The exit conditions are that the display time elapsed from the time when the host avatar object 105A starts co-starring reaches a predetermined time, the distribution user or the viewing user performs an operation to exit the guest avatar object 120, and the like.

図7に示すように、ゲストアバターオブジェクト120の退出条件が満たされると、ユーザ装置12は、矢印126に示すようにゲストアバターオブジェクト120を表示位置121から退出させる。これにより、ゲストアバターオブジェクト120が表示されていた表示位置121が空く。ユーザ装置12は、矢印127に示すように、その空いた表示位置121に、共演待機列122の先頭のゲストアバターオブジェクト120を表示させる。なお、退出したゲストアバターオブジェクト120に代わって表示されるゲストアバターオブジェクト120は第3アバターオブジェクトに対応する。図6及び図7に示す例では「ゲスト2」のゲストアバターオブジェクト120を表示位置121に表示させる。また、サーバ13は、矢印128に示すように、共演待機列122で待機するギフトオブジェクトがある場合には、その順番を繰り上げる。図6及び図7に示す例では「ゲスト3」のゲストアバターオブジェクト120の順番を繰り上げる。 As shown in FIG. 7, when the exit condition of the guest avatar object 120 is satisfied, the user device 12 causes the guest avatar object 120 to exit from the display position 121 as shown by the arrow 126. As a result, the display position 121 where the guest avatar object 120 was displayed becomes empty. As shown by the arrow 127, the user device 12 causes the guest avatar object 120 at the head of the co-star waiting row 122 to be displayed at the vacant display position 121. The guest avatar object 120 displayed in place of the exited guest avatar object 120 corresponds to the third avatar object. In the example shown in FIGS. 6 and 7, the guest avatar object 120 of "guest 2" is displayed at the display position 121. Further, as shown by the arrow 128, the server 13 advances the order of the gift objects waiting in the co-star waiting line 122, if any. In the examples shown in FIGS. 6 and 7, the order of the guest avatar objects 120 of "guest 3" is advanced.

ゲストアバターオブジェクト120に第2ギフトオブジェクト125が関連付けられて表示されている場合、ユーザ装置12は、ゲストアバターオブジェクト120が退出すると同時に第2ギフトオブジェクト125も非表示とする。第2ギフトオブジェクト125は、ゲストアバターオブジェクト120とともに画面外へ移動させてもよいし、退出条件が満たされた直後に消滅させて非表示としてもよい。 When the guest avatar object 120 is displayed in association with the second gift object 125, the user device 12 hides the second gift object 125 at the same time as the guest avatar object 120 leaves. The second gift object 125 may be moved off the screen together with the guest avatar object 120, or may be extinguished and hidden immediately after the exit condition is satisfied.

そして、ユーザ装置12は、新たなゲストアバターオブジェクト120を表示すると、そのゲストアバターオブジェクト120に関連付けて新たな第2ギフトオブジェクト125を新たに表示する。例えば第2ギフトオブジェクトがエモート機能であった場合、新たなゲストアバターオブジェクト120にエモート機能を関連付ける。このとき、ユーザ装置12は、ゲストアバターオブジェクト120の各々に同じ第2ギフトオブジェクト125を関連付ける。なお、提供されたエモート機能が、オブジェクトの表示を伴わなくてもよい。この場合、エモート機能は演出ギフトである。 Then, when the new guest avatar object 120 is displayed, the user device 12 newly displays the new second gift object 125 in association with the guest avatar object 120. For example, if the second gift object has an emote function, the emote function is associated with the new guest avatar object 120. At this time, the user device 12 associates the same second gift object 125 with each of the guest avatar objects 120. It should be noted that the provided emote function does not have to be accompanied by the display of the object. In this case, the emote function is a staging gift.

他の態様として、ユーザ装置12は、サーバ13の要求に基づいて、ゲストアバターオブジェクト120毎に第2ギフトオブジェクト125を変更してもよい。このとき、サーバ13は、複数の異なる第2ギフトオブジェクト125を含むオブジェクト群から一つ又は複数の第2ギフトオブジェクト125を選択し、選択した第2ギフトオブジェクト125をゲストアバターオブジェクト120に関連付けて表示してもよい。この態様において、サーバ13は、ゲストアバターオブジェクト120と第2ギフトオブジェクト125とを予め関連付けたデータを用いて、ゲストアバターオブジェクト120を表示した際に、そのゲストアバターオブジェクト120に関連付けられた第2ギフトオブジェクト125を表示するようにしてもよい。又はゲストアバターオブジェクト120の属性情報に基づいて第2ギフトオブジェクト125を表示するようにしてもよい。属性情報は、特に限定されないが、ゲストアバターオブジェクトが属するグループ、希少度、身長や性別や設定年齢等であってもよい。例えば女性のゲストアバターオブジェクト120には、女性用の装着オブジェクトである第2ギフトオブジェクト125を表示してもよい。また、サーバ13は、乱数を用いた方法等、所定の抽選方法を用いて第2ギフトオブジェクト125を選択するようにしてもよい。 As another aspect, the user apparatus 12 may change the second gift object 125 for each guest avatar object 120 based on the request of the server 13. At this time, the server 13 selects one or a plurality of second gift objects 125 from the object group including a plurality of different second gift objects 125, and displays the selected second gift object 125 in association with the guest avatar object 120. You may. In this embodiment, when the server 13 displays the guest avatar object 120 by using the data in which the guest avatar object 120 and the second gift object 125 are previously associated with each other, the server 13 displays the second gift associated with the guest avatar object 120. The object 125 may be displayed. Alternatively, the second gift object 125 may be displayed based on the attribute information of the guest avatar object 120. The attribute information is not particularly limited, but may be the group to which the guest avatar object belongs, the rarity, the height, the gender, the set age, and the like. For example, the female guest avatar object 120 may display the second gift object 125, which is a female wearing object. Further, the server 13 may select the second gift object 125 by using a predetermined lottery method such as a method using a random number.

又は、ユーザ装置12は、特定のホストアバターオブジェクト105Aを用いて動画が配信された場合のみ、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120の少なくとも一方に第2ギフトオブジェクト125を関連付けて表示するようにしてもよい。また、ユーザ装置12は、特定のゲストアバターオブジェクト120が共演した場合のみ第2ギフトオブジェクト125を関連付けて表示するようにしてもよい。つまり、特定のゲストアバターオブジェクト120以外のゲストアバターオブジェクト120が共演した場合には、第2ギフトオブジェクト125を表示せず、特定のゲストアバターオブジェクト120が共演した場合には、そのゲストアバターオブジェクト120に第2ギフトオブジェクト125を関連付けて表示する。第2ギフトオブジェクト125が関連付けて表示されるゲストアバターオブジェクト120は、例えばアプリケーションプログラムのお知らせ画面やホーム画面でイベントの一つとして掲示するようにしてもよい。又は、第2ギフトオブジェクト125が関連付けて表示されるゲストアバターオブジェクト120は、予め通知されず、ホストアバターオブジェクト105Aと共演するまで、そのゲストアバターオブジェクト120に対し第2ギフトオブジェクト125が付与されるか否かがわからないようにしてもよい。 Alternatively, the user device 12 displays the second gift object 125 in association with at least one of the host avatar object 105A and the guest avatar object 120 only when the moving image is delivered using the specific host avatar object 105A. May be good. Further, the user device 12 may display the second gift object 125 in association with the second gift object 125 only when the specific guest avatar object 120 co-stars. That is, when the guest avatar object 120 other than the specific guest avatar object 120 co-stars, the second gift object 125 is not displayed, and when the specific guest avatar object 120 co-stars, the guest avatar object 120 is displayed. The second gift object 125 is associated and displayed. The guest avatar object 120 associated with the second gift object 125 may be posted as one of the events on, for example, the notification screen or the home screen of the application program. Alternatively, is the guest avatar object 120 associated with and displayed with the second gift object 125 not notified in advance, and is the second gift object 125 given to the guest avatar object 120 until it co-stars with the host avatar object 105A? You may not know whether or not.

他の態様として、ホストアバターオブジェクト105Aに関連付けられて表示された第2ギフトオブジェクト125の一部又は全部は、そのホストアバターオブジェクト105Aに対応するホストユーザに付与されてよい。また、ゲストアバターオブジェクト120に関連付けられて表示された第2ギフトオブジェクト125の一部又は全部は、そのゲストアバターオブジェクト120に対応するゲストユーザに付与されてよい。この態様において、サーバ13は、第2ギフトオブジェクト125の一部又は全部を使用可能な状態として、ユーザに対応するユーザ管理情報223及びユーザ管理データ350を更新する。プレゼントとしてのオブジェクトや動作を付与されたユーザのユーザ装置12は、ユーザによる入力操作を受け付けて、オブジェクトを仮想空間102に表示したり、アバターオブジェクト105に動作を適用したりすることができる。 As another aspect, a part or all of the second gift object 125 associated with and displayed with the host avatar object 105A may be given to the host user corresponding to the host avatar object 105A. Further, a part or all of the second gift object 125 displayed in association with the guest avatar object 120 may be given to the guest user corresponding to the guest avatar object 120. In this embodiment, the server 13 updates the user management information 223 and the user management data 350 corresponding to the user with a part or all of the second gift object 125 available. The user device 12 of the user to which the object as a gift or the action is given can accept the input operation by the user, display the object in the virtual space 102, or apply the action to the avatar object 105.

<画面構成>
次に図8~図15を参照してユーザ装置12に表示される配信画面について説明する。
図8は、配信ユーザ装置12Aに表示される配信画面150である。なお、視聴ユーザのユーザ装置12のディスプレイ28には、操作ボタン等は異なるが、同様のアニメーションが表示される。
<Screen configuration>
Next, the distribution screen displayed on the user device 12 will be described with reference to FIGS. 8 to 15.
FIG. 8 is a distribution screen 150 displayed on the distribution user device 12A. The display 28 of the user device 12 of the viewing user displays the same animation, although the operation buttons and the like are different.

アバターオブジェクト105の顔は、配信ユーザの表情の変化に伴い変化し、アバターオブジェクト105の頭部は、配信ユーザの頭部の動きに伴い動く。また、上述したように、アバターオブジェクト105の位置は、配信ユーザ100とセンサユニット24との相対距離の変化に応じて変化する。配信画面150には、メッセージ151が所定期間表示される。メッセージ151は、視聴ユーザのユーザ装置12から送信されたメッセージ、サーバ13が自動的に送信したメッセージを含む。また、配信画面150には、各種の操作部が表示されている。例えば、配信画面150には、コメントボタン152、音声切替ボタン153、ゲームボタン154、外部動画表示ボタン155が表示されていてもよい。コメントボタン152を選択すると、配信ユーザがコメントを入力することができる。入力されたコメントは、動画に表示される。音声切替ボタン153が選択されると、音声の入力を切り替えることができる。ゲームボタン154を選択すると、動画内でゲームを開始することができる。外部動画表示ボタン155が選択されると、外部のサーバ又はサーバ13から、動画を取得する操作を開始することができる。コラボレーション設定ボタン156を選択すると、コラボレーション配信に関する設定を行う画面を表示することができる。また、配信画面150には、配信ユーザのオブジェクトデータ352に基づいて、動画内に表示可能なオブジェクトを選択するためのボタンを表示してもよい。さらに、配信ユーザは、コラボレーション配信中に視聴ユーザからギフトが贈られた場合に、ギフトを付与する対象として、動画に表示された複数のアバターオブジェクト105又はアバターオブジェクト105に対応する配信ユーザを選択できるようにしてもよい。なお、視聴ユーザのユーザ装置12に表示される視聴画面には、メッセージの入力欄、ギフトオブジェクトの表示要求を行うための表示要求送信ボタン、共演を要請するためのボタンが含まれる。 The face of the avatar object 105 changes with the change of the facial expression of the distribution user, and the head of the avatar object 105 moves with the movement of the head of the distribution user. Further, as described above, the position of the avatar object 105 changes according to the change in the relative distance between the distribution user 100 and the sensor unit 24. The message 151 is displayed on the delivery screen 150 for a predetermined period. The message 151 includes a message transmitted from the user device 12 of the viewing user and a message automatically transmitted by the server 13. Further, various operation units are displayed on the distribution screen 150. For example, the comment button 152, the voice switching button 153, the game button 154, and the external moving image display button 155 may be displayed on the distribution screen 150. When the comment button 152 is selected, the distribution user can enter a comment. The entered comment is displayed in the video. When the voice switching button 153 is selected, the voice input can be switched. If you select the game button 154, you can start the game in the video. When the external moving image display button 155 is selected, the operation of acquiring the moving image can be started from the external server or the server 13. When the collaboration setting button 156 is selected, a screen for setting the collaboration distribution can be displayed. Further, the distribution screen 150 may display a button for selecting an object that can be displayed in the moving image based on the object data 352 of the distribution user. Further, the distribution user can select the distribution user corresponding to the plurality of avatar objects 105 or the avatar object 105 displayed in the video as the target for giving the gift when the gift is given by the viewing user during the collaboration distribution. You may do so. The viewing screen displayed on the user device 12 of the viewing user includes a message input field, a display request transmission button for requesting the display of the gift object, and a button for requesting co-starring.

図9は、配信ユーザ装置12Aに表示される配信画面160である。視聴ユーザがユーザ装置12を用いて参加要請を送信するための操作を行うと、配信画面160には承認要請ウィンドウ162が表示される。承認要請ウィンドウ162には、承認を待機(否認)する待機ボタン163、及び承認を行う承認ボタン164が表示されている。承認ボタン164が選択されると、サーバ13は、コラボレーション配信の共演待機列122に、参加要請を行ったユーザに対応するアバターオブジェクトの識別情報を追加して、コラボレーション配信の参加リストを作成する。 FIG. 9 is a distribution screen 160 displayed on the distribution user device 12A. When the viewing user performs an operation for transmitting the participation request using the user device 12, the approval request window 162 is displayed on the distribution screen 160. In the approval request window 162, a wait button 163 for waiting (denying) approval and an approval button 164 for approving are displayed. When the approval button 164 is selected, the server 13 adds the identification information of the avatar object corresponding to the user who requested the participation to the co-star waiting column 122 of the collaboration distribution, and creates a participation list of the collaboration distribution.

図10は、配信ユーザ装置12Aに表示されるコラボレーション配信画面170の一例を示す。なお、視聴ユーザのユーザ装置12のディスプレイ28にも同様の画面が表示される。コラボレーション配信画面170では、ホストユーザのホストアバターオブジェクト105Aと、ゲストユーザのゲストアバターオブジェクト120とが表示されている。ゲストアバターオブジェクト120は、ホストアバターオブジェクト105Aの隣の表示位置121に表示される。 FIG. 10 shows an example of the collaboration distribution screen 170 displayed on the distribution user device 12A. A similar screen is displayed on the display 28 of the user device 12 of the viewing user. On the collaboration distribution screen 170, the host avatar object 105A of the host user and the guest avatar object 120 of the guest user are displayed. The guest avatar object 120 is displayed at the display position 121 next to the host avatar object 105A.

次に図11~図15を参照して第2ギフトオブジェクト125が表示される例について説明する。第2ギフトオブジェクト125は、動画の配信開始時点から表示されていてもよいし、動画の配信開始時点では表示されず、動画の途中で表示するようにしてもよい。動画の途中で第2ギフトオブジェクト125を表示するにあたり、第2ギフトオブジェクト125の表示前と表示後との間に大きな差があり、急に表示すると不自然な場合には、第2ギフトオブジェクト125の表示前と表示後との間に待機画面を表示するようにしてもよい。 Next, an example in which the second gift object 125 is displayed will be described with reference to FIGS. 11 to 15. The second gift object 125 may be displayed from the start of distribution of the moving image, or may not be displayed at the start of distribution of the moving image, and may be displayed in the middle of the moving image. When displaying the second gift object 125 in the middle of the video, if there is a big difference between before and after displaying the second gift object 125 and it is unnatural to display it suddenly, the second gift object 125 The standby screen may be displayed between before and after the display of.

図11は、配信ユーザ装置12Aに表示される第2ギフトオブジェクトが表示された配信画面180を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様の画面が表示される。ここでの第2ギフトオブジェクト125は、「夜空」の背景125B、花火オブジェクト125Cのアニメーションを含む。なお、第1ギフトオブジェクトでは、背景125Bと背景125Bに合わせた花火オブジェクト125Cとを提供することはできない。例えば配信ユーザ100は、第2ギフトオブジェクト125の表示に合わせて、操作部27であるタッチパネルをスワイプし、アバターオブジェクト105を、アバターオブジェクト105からみて左方向に回転させるとともに、頭部を上方向に回転させて花火オブジェクト125Cを見上げるような姿勢にすることができる。 FIG. 11 shows a distribution screen 180 on which a second gift object displayed on the distribution user device 12A is displayed. A similar screen is displayed on the display 28 of the user device 12 of the viewing user. The second gift object 125 here includes an animation of the background 125B of the "night sky" and the fireworks object 125C. It should be noted that the first gift object cannot provide the background 125B and the fireworks object 125C that matches the background 125B. For example, the distribution user 100 swipes the touch panel, which is the operation unit 27, in accordance with the display of the second gift object 125, rotates the avatar object 105 to the left when viewed from the avatar object 105, and moves the head upward. It can be rotated to look up at the fireworks object 125C.

この花火オブジェクト125Cを含む第2ギフトオブジェクト125は、例えばその表示条件を、配信ユーザ100のイベントへの参加としている。配信ユーザは、イベントが開催される所定の期間内に動画の配信を開始することでイベントに参加することができる。また、イベントは、現実世界の花火大会の開催期間と同期させてもよい。 The second gift object 125 including the fireworks object 125C has, for example, its display condition set to participate in the event of the distribution user 100. The distribution user can participate in the event by starting the distribution of the video within a predetermined period in which the event is held. The event may also be synchronized with the duration of the real-world fireworks display.

図12及び図13は、コラボレーション配信において、第2ギフトオブジェクト125としてエモート機能が提供された配信画面190を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様の画面が表示される。図12に示すように、配信画面190は、第2ギフトオブジェクト125として「キャンプ」の背景191を含む。背景191は、二次元画像であってもよいし、複数の三次元オブジェクトから構成されていてもよい。また、配信画面190は、ホストアバターオブジェクト105A、及びゲストアバターオブジェクト120の他、第2ギフトオブジェクト125としてホストアバターオブジェクト105Aに関連付けられたエモートオブジェクト125A及びゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aを含む。また、配信画面190は、第2ギフトオブジェクト125として、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に装着され且つ背景191に応じた装着オブジェクト193を含んでいてもよい。例えば、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に「キャンプ」に関連する服装を装着オブジェクトとして提供してもよい。この装着オブジェクトは、ホストユーザ及びゲストユーザが、その装着オブジェクトを所持していなくても表示される。 12 and 13 show a distribution screen 190 in which the emote function is provided as the second gift object 125 in the collaboration distribution. A similar screen is displayed on the display 28 of the user device 12 of the viewing user. As shown in FIG. 12, the distribution screen 190 includes a background 191 of the "camp" as the second gift object 125. The background 191 may be a two-dimensional image or may be composed of a plurality of three-dimensional objects. In addition to the host avatar object 105A and the guest avatar object 120, the distribution screen 190 also displays the emote object 125A associated with the host avatar object 105A and the emote object 125A associated with the guest avatar object 120 as the second gift object 125. include. Further, the distribution screen 190 may include, as the second gift object 125, a wearing object 193 mounted on the host avatar object 105A and the guest avatar object 120 and corresponding to the background 191. For example, the host avatar object 105A and the guest avatar object 120 may be provided with clothing related to "camping" as wearing objects. This wearing object is displayed even if the host user and the guest user do not have the wearing object.

配信画面190の場面におけるエモート機能は、エモートオブジェクト125Aである「ジョッキ」を持ち上げて「乾杯」の動作を行うこと、「ジョッキ」を持ったまま腕を下げること、「ジョッキ」で飲み物を飲む動作を行うこと、「ジョッキ」をテーブル等に置くことである。ホストユーザ又はゲストユーザが、配信画面190を長押しする等の所定の入力操作を行うと、エモート機能選択部192が表示される。エモート機能選択部192は、エモート機能の各々を選択可能になっている。例えばホストユーザが、ユーザ装置12の操作部27を操作してエモート機能を選択すると、ホストアバターオブジェクト105Aにエモート機能が適用される。ゲストユーザが、ユーザ装置12の操作部27を操作してエモート機能を選択すると、ゲストアバターオブジェクト120にエモート機能が適用される。なお、エモート機能選択部192は、選択操作部に対応する。 The emote function in the scene of the distribution screen 190 is to lift the "mug", which is the emote object 125A, to perform a "toast" operation, to lower the arm while holding the "mug", and to drink a drink with the "mug". To do, put a "mug" on a table or the like. When the host user or the guest user performs a predetermined input operation such as pressing and holding the distribution screen 190, the emote function selection unit 192 is displayed. The emote function selection unit 192 can select each of the emote functions. For example, when the host user operates the operation unit 27 of the user device 12 to select the emote function, the emote function is applied to the host avatar object 105A. When the guest user operates the operation unit 27 of the user device 12 to select the emote function, the emote function is applied to the guest avatar object 120. The emote function selection unit 192 corresponds to the selection operation unit.

また、エモート機能が提供するアバターオブジェクト105の動作は、アバターオブジェクト105の位置を基準として定められる動作可能範囲内で行われるようにしてもよい。動作可能範囲は、例えば円筒状、球状、半球状等、仮想空間において3次元の座標を有する範囲として設定される。複数のアバターオブジェクト105がコラボレーション配信する場合には、アバターオブジェクト105の動作可能範囲の各々を互いに重ならないように設定してもよい。又は、アバターオブジェクト105の動作可能範囲の各々が重複する場合、一方のアバターオブジェクト105に属する部位が重複範囲に入ったとき、他方のアバターオブジェクト105に属する部位が重複範囲に入らないように制御してもよい。具体的には、ユーザ装置12が、アバターオブジェクト105の部位が重複範囲に含まれるか否かを判定し、部位が重複範囲に含まれる場合に他方のアバターオブジェクトの部位の重複範囲への進入を禁止する。また、アバターオブジェクト105の身長によって、動作方向を設定してもよい。例えば身長の高いアバターオブジェクト105が水平方向に「乾杯」の動作を行う際、身長の低いアバターオブジェクト105に干渉する可能性がある場合には、前者のアバターオブジェクト105の上方向又は正面の方向に動作させてもよい。これらの態様によれば、アバターオブジェクト105同士の干渉を抑制することができる。また、重複範囲を設ける場合には、アバターオブジェクト105を接近させた場合であっても干渉を抑制できる。 Further, the operation of the avatar object 105 provided by the emote function may be performed within the operable range determined with respect to the position of the avatar object 105. The operable range is set as a range having three-dimensional coordinates in a virtual space such as a cylinder, a sphere, and a hemisphere. When a plurality of avatar objects 105 collaborate and deliver, each of the operable ranges of the avatar objects 105 may be set so as not to overlap each other. Alternatively, when each of the operable ranges of the avatar object 105 overlaps, when the part belonging to one avatar object 105 enters the overlapping range, the part belonging to the other avatar object 105 is controlled so as not to fall within the overlapping range. You may. Specifically, the user device 12 determines whether or not the part of the avatar object 105 is included in the overlapping range, and if the part is included in the overlapping range, the user device 12 enters the overlapping range of the part of the other avatar object. restrict. Further, the movement direction may be set according to the height of the avatar object 105. For example, when the tall avatar object 105 makes a horizontal "cheers" operation, if there is a possibility of interfering with the short avatar object 105, the former avatar object 105 may be moved upward or in front of the object 105. It may be operated. According to these aspects, interference between the avatar objects 105 can be suppressed. Further, when the overlapping range is provided, interference can be suppressed even when the avatar object 105 is brought close to the object.

また、エモートオブジェクト125Aは、表示態様変化条件が満たされると、表示態様が変化する。表示態様変化条件は、例えばエモートオブジェクト125Aの表示が開始されてから所定時間経過したこと、例えば「飲む」等の所定のエモート機能の発現回数が所定回数に達したこと等である。初期状態のエモートオブジェクト125Aは、「飲み物が満杯」の状態であるが、所定時間経過すると「空」である遷移状態となる。 Further, the display mode of the emote object 125A changes when the display mode change condition is satisfied. The display mode change condition is, for example, that a predetermined time has elapsed from the start of the display of the emote object 125A, for example, that the number of times of expression of a predetermined emote function such as "drinking" has reached a predetermined number of times. The emote object 125A in the initial state is in the state of "full of drinks", but after a lapse of a predetermined time, it is in the transition state of being "empty".

ゲストアバターオブジェクト120が退出すると、ゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aも非表示となる。このとき、ゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aを非表示とするとタイミングと同時に、ホストアバターオブジェクト105Aのエモートオブジェクト125Aを非表示としてもよい。 When the guest avatar object 120 leaves, the emote object 125A associated with the guest avatar object 120 is also hidden. At this time, if the emote object 125A associated with the guest avatar object 120 is hidden, the emote object 125A of the host avatar object 105A may be hidden at the same time as the timing.

図13は、ゲストアバターオブジェクト120が退出し、新たなゲストアバターオブジェクト120が追加された配信画面190を示す。サーバ13は、新たなゲストアバターオブジェクト120を追加すると、ゲストアバターオブジェクト120に関連付けたエモートオブジェクト125Aも追加する。このとき、ゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aを表示とするとタイミングと同時に、ホストアバターオブジェクト105Aに新たにエモートオブジェクト125Aを関連付けてもよい。これにより、「満杯」等の初期状態から「空」等の遷移状態になった「ジョッキ」のエモートオブジェクト125Aは、初期状態の「ジョッキ」のエモートオブジェクト125Aとなる。 FIG. 13 shows a distribution screen 190 in which the guest avatar object 120 has left and a new guest avatar object 120 has been added. When the server 13 adds a new guest avatar object 120, the server 13 also adds the emote object 125A associated with the guest avatar object 120. At this time, if the emote object 125A associated with the guest avatar object 120 is displayed, the emote object 125A may be newly associated with the host avatar object 105A at the same time as the timing. As a result, the emote object 125A of the "mug" that has changed from the initial state such as "full" to the transition state such as "empty" becomes the emote object 125A of the "mug" in the initial state.

図14は、コラボレーション配信において、第2ギフトオブジェクト125としてエモート機能が提供された配信画面200を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様のアニメーションが表示される。配信画面200は、第2ギフトオブジェクト125として「プール」の背景125Dを含む。また、配信画面200は、ホストアバターオブジェクト105A、及びゲストアバターオブジェクト120の他、第2ギフトオブジェクト125としてホストアバターオブジェクト105A及びゲストアバターオブジェクト120に関連付けられた「水鉄砲」のエモートオブジェクト125Aを含む。また、配信画面200は、第2ギフトオブジェクト125として、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に装着され且つ背景125Dに応じた装着オブジェクト203を含む。図示しないエモート機能選択部が操作されることによって、水鉄砲のエモートオブジェクト125Aから水が放射される。エモートオブジェクト125Aから水が放射される方向は一定であるが、ユーザの操作によってホストアバターオブジェクト105A及びゲストアバターオブジェクト120の向きを変更することにより、水の放射の向きを変更することができる。 FIG. 14 shows a distribution screen 200 in which the emote function is provided as the second gift object 125 in the collaboration distribution. A similar animation is displayed on the display 28 of the user device 12 of the viewing user. The distribution screen 200 includes a background 125D of the "pool" as the second gift object 125. Further, the distribution screen 200 includes the host avatar object 105A and the guest avatar object 120, as well as the emote object 125A of the "water gun" associated with the host avatar object 105A and the guest avatar object 120 as the second gift object 125. Further, the distribution screen 200 includes, as the second gift object 125, a wearing object 203 mounted on the host avatar object 105A and the guest avatar object 120 and corresponding to the background 125D. Water is radiated from the emote object 125A of the water gun by operating the emote function selection unit (not shown). Although the direction in which water is radiated from the emote object 125A is constant, the direction in which water is radiated can be changed by changing the directions of the host avatar object 105A and the guest avatar object 120 by the user's operation.

図15は、現実世界の状況を示す情報に基づき第2ギフトオブジェクト125が提供された配信画面210を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様のアニメーションが表示される。配信画面210は、アバターオブジェクト105と、第2ギフトオブジェクト125として「飴」のギフトオブジェクト125Eと、「傘」のギフトオブジェクト125Fとを含む。ユーザ装置12は、現実世界で雨天となったときにこれらの第2ギフトオブジェクト125を表示する。この態様において、サーバ13は、配信ユーザ装置12Aの現在位置を取得する。また、サーバ13は、図示しない外部サーバから、取得した現在位置の天候情報を取得する。そしてサーバ13は、配信ユーザ装置12Aが存在する地域が雨天であると判定すると、上記のギフトオブジェクト125E,125Fの識別情報を表示の要求とともにユーザ装置12に送信する。ユーザ装置12は、ギフトオブジェクト125E,125Fの識別情報及び表示の要求を受信すると、ギフトオブジェクト125E,125Fの画像をストレージ22から読み出して表示する。なお、配信ユーザ装置12Aが、自身の現在位置から天候情報を取得し、サーバ13に送信するようにしてもよい。又は配信ユーザ装置12Aが、自身の現在位置から天候情報を取得し、取得した天候情報からギフトオブジェクト125E,125Fを表示するか否かを判断してもよい。また、現実世界の状況を示す情報は特に限定されないが、天候や配信ユーザ装置12Aが存在する地域(市街地、山間地等)等の環境情報、時刻情報、日にち情報、配信時の時期(季節等)といった情報がある。 FIG. 15 shows a delivery screen 210 to which the second gift object 125 is provided based on information indicating a real world situation. A similar animation is displayed on the display 28 of the user device 12 of the viewing user. The distribution screen 210 includes an avatar object 105, a gift object 125E of "candy" as a second gift object 125, and a gift object 125F of "umbrella". The user device 12 displays these second gift objects 125 when it rains in the real world. In this embodiment, the server 13 acquires the current position of the distribution user device 12A. Further, the server 13 acquires the acquired weather information of the current position from an external server (not shown). Then, when the server 13 determines that the area where the distribution user device 12A exists is rainy, the server 13 transmits the identification information of the gift objects 125E and 125F to the user device 12 together with a display request. Upon receiving the identification information of the gift objects 125E and 125F and the request for display, the user device 12 reads out the images of the gift objects 125E and 125F from the storage 22 and displays them. The distribution user device 12A may acquire the weather information from its own current position and transmit it to the server 13. Alternatively, the distribution user device 12A may acquire the weather information from its own current position and determine whether or not to display the gift objects 125E and 125F from the acquired weather information. In addition, although the information indicating the situation in the real world is not particularly limited, environmental information such as the weather and the area where the distribution user device 12A exists (urban area, mountainous area, etc.), time information, date information, time of distribution (season, etc.) ).

現実世界の状況を示す情報に基づく第2ギフトオブジェクト125の表示条件は、例えば現実世界の状況を示す情報が変化したこと等である。
(動作)
次に、図16及び図17を参照して、ホストユーザと複数のゲストユーザとが共演する場合の処理手順について説明する。
The display condition of the second gift object 125 based on the information indicating the situation in the real world is, for example, that the information indicating the situation in the real world has changed.
(motion)
Next, with reference to FIGS. 16 and 17, a processing procedure when a host user and a plurality of guest users co-star will be described.

図16は、第2ギフトオブジェクト125が表示されるイベントに配信ユーザ100が参加した場合のタイミングチャートである。イベントは、例えば「19:00~20:00」といった予め設定された期間内に開催される。第2ギフトオブジェクト125の表示条件は、この期間内に動画の配信を開始することである。図16に示すイベントのシナリオは「花火大会」のイベントのシナリオであって、「第1部」、「第2部」、「第3部」から構成され、各部においてそれぞれ異なる第2ギフトオブジェクト125が表示される。イベントの開始時点からイベントに参加した「配信ユーザA」が配信する動画では、サーバ13からの要求に基づき、各部の第2ギフトオブジェクト125が表示される。一方、「第2部」からイベントに参加した「配信ユーザB」が配信する動画では、サーバ13からの要求に基づき、「第2部」及び「第3部」で表示される第2ギフトオブジェクト125が表示され、「第1部」で表示される第2ギフトオブジェクト125は表示されない。また、各部の途中からイベントに参加した配信ユーザが配信する動画では、動画の配信開始時点に対応する時点からのアニメーションが表示されてもよい。このように途中からイベントに参加した配信ユーザ100の動画では、シナリオに沿って途中から第2ギフトオブジェクト125が表示されるため、第2ギフトオブジェクト125の表示を限定的なものにすることができる。よって、第2ギフトオブジェクト125がむやみに表示されないため、ギフトオブジェクトの価値の低下を抑制することができる。 FIG. 16 is a timing chart when the distribution user 100 participates in the event in which the second gift object 125 is displayed. The event is held within a preset period such as "19:00 to 20:00". The display condition of the second gift object 125 is to start the distribution of the moving image within this period. The event scenario shown in FIG. 16 is the event scenario of the "fireworks display", and is composed of "Part 1", "Part 2", and "Part 3", and the second gift object 125 is different in each part. Is displayed. In the video delivered by the "delivery user A" who has participated in the event from the start of the event, the second gift object 125 of each part is displayed based on the request from the server 13. On the other hand, in the video distributed by "Distribution User B" who participated in the event from "Part 2", the second gift object displayed in "Part 2" and "Part 3" based on the request from the server 13. 125 is displayed, and the second gift object 125 displayed in "Part 1" is not displayed. Further, in the video distributed by the distribution user who participated in the event from the middle of each part, the animation from the time corresponding to the distribution start time of the video may be displayed. In the video of the distribution user 100 who participated in the event from the middle in this way, the second gift object 125 is displayed from the middle according to the scenario, so that the display of the second gift object 125 can be limited. .. Therefore, since the second gift object 125 is not displayed unnecessarily, it is possible to suppress a decrease in the value of the gift object.

図17は、コラボレーション配信において第2ギフトオブジェクトが表示される場合のホストユーザが用いる配信ユーザ装置12A、サーバ13、ゲストユーザである配信ユーザが用いる配信ユーザ装置12A、共演要請を行わない視聴ユーザが用いる視聴ユーザ装置12Bの処理手順を示す。前提として、配信ユーザ100は、コラボレーション配信を許可する設定を行っている。サーバ13は、視聴ユーザ装置12Bから参加要請を受信する。サーバ13は、参加要請を配信ユーザ装置12Aに送信し、配信ユーザ100は参加要請を許可する。このとき配信ユーザ装置12Aは参加要請の許可をサーバ13に送信する。サーバ13は、視聴ユーザをコラボレーション配信の参加リストに追加し、参加リストを配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。こうして、配信ユーザ100に対応するホストアバターオブジェクト105A及び共演が許可された視聴ユーザに対応するゲストアバターオブジェクト120が一つの画面に表示される。コラボレーション配信に参加した視聴ユーザは、ゲストユーザとしての配信ユーザとなる。 FIG. 17 shows a distribution user device 12A and a server 13 used by a host user when a second gift object is displayed in collaboration distribution, a distribution user device 12A used by a distribution user who is a guest user, and a viewing user who does not request co-starring. The processing procedure of the viewing user apparatus 12B to be used is shown. As a premise, the distribution user 100 is set to allow collaboration distribution. The server 13 receives the participation request from the viewing user device 12B. The server 13 transmits the participation request to the distribution user device 12A, and the distribution user 100 permits the participation request. At this time, the distribution user device 12A transmits the permission of the participation request to the server 13. The server 13 adds the viewing user to the participation list of the collaboration distribution, and transmits the participation list to the distribution user device 12A and the viewing user device 12B. In this way, the host avatar object 105A corresponding to the distribution user 100 and the guest avatar object 120 corresponding to the viewing user who is permitted to co-star are displayed on one screen. The viewing user who participated in the collaboration distribution becomes a distribution user as a guest user.

図17に示す例では、ゲストアバターオブジェクト120の表示と同時に第2ギフトオブジェクト125を表示することを想定している。コラボレーション配信を開始すると、配信ユーザ装置12Aは、動画の生成に用いられる動画構成データをサーバ13に送信する(ステップS11)。動画構成データは、少なくとも配信ユーザ100の動作をトラッキングしたトラッキングデータを含む。また、動画構成データは、音声データを含む。ホストアバターオブジェクト105Aの識別情報は、動画構成データに含まれていてもよく、動画構成データとは別に送信されてもよい。 In the example shown in FIG. 17, it is assumed that the second gift object 125 is displayed at the same time as the guest avatar object 120 is displayed. When the collaboration distribution is started, the distribution user device 12A transmits the moving image configuration data used for generating the moving image to the server 13 (step S11). The moving image configuration data includes at least tracking data that tracks the operation of the distribution user 100. Further, the moving image configuration data includes audio data. The identification information of the host avatar object 105A may be included in the moving image configuration data, or may be transmitted separately from the moving image composition data.

サーバ13は、第2ギフトオブジェクト125の表示条件に基づき、第2ギフトオブジェクトを表示するか否かを判定する。第2ギフトオブジェクト125の表示条件は、上記したように配信ユーザ100がイベントに参加していること、配信ユーザ100のアバターオブジェクト105が所定のアバターオブジェクトであること、動画の配信開始時が所定の日にちや期間に含まれること等である。 The server 13 determines whether or not to display the second gift object based on the display condition of the second gift object 125. The display conditions of the second gift object 125 are that the distribution user 100 participates in the event as described above, that the avatar object 105 of the distribution user 100 is a predetermined avatar object, and that the video distribution is started. It is included in the date and period.

サーバ13は、第2ギフトオブジェクトを表示すると判定すると、配信ユーザ装置12Aから受信した動画構成データとともに、ホストアバターオブジェクト105Aに関連付ける第2ギフトオブジェクトの識別情報(ID)をゲストユーザの配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する(ステップS12)。また、サーバ13は、第2ギフトオブジェクト125の識別情報(ID)を配信ユーザ装置12Aにも送信する(ステップS13)。なお、アバターオブジェクトやギフトオブジェクトを描画するための各種のデータは、配信ユーザ装置12A及び視聴ユーザ装置12Bが予め取得している。 When the server 13 determines that the second gift object is to be displayed, the server 13 transmits the identification information (ID) of the second gift object associated with the host avatar object 105A together with the video configuration data received from the distribution user device 12A to the guest user's distribution user device 12A. And transmission to the viewing user device 12B (step S12). The server 13 also transmits the identification information (ID) of the second gift object 125 to the distribution user device 12A (step S13). The distribution user device 12A and the viewing user device 12B have acquired various data for drawing the avatar object and the gift object in advance.

同様に、ゲストユーザが用いる配信ユーザ装置12Aは、動画構成データをサーバ13に送信する(ステップS14)。サーバ13は、配信ユーザ装置12Aから受信した動画構成データとともに、ゲストアバターオブジェクト120に関連付ける第2ギフトオブジェクトの識別情報(ID)を視聴ユーザ装置12Bに送信する(ステップS15)。また、サーバ13は、同様に動画構成データ及び第2ギフトオブジェクトの識別情報(ID)を配信ユーザ装置12Aに送信する(ステップS16)。さらに、サーバ13は、ゲストアバターオブジェクト120に関連付ける第2ギフトオブジェクトの識別情報(ID)を、ゲストユーザの配信ユーザ装置12Aに送信する(ステップS17)。 Similarly, the distribution user device 12A used by the guest user transmits the moving image configuration data to the server 13 (step S14). The server 13 transmits the identification information (ID) of the second gift object associated with the guest avatar object 120 to the viewing user device 12B together with the moving image configuration data received from the distribution user device 12A (step S15). Further, the server 13 similarly transmits the video configuration data and the identification information (ID) of the second gift object to the distribution user device 12A (step S16). Further, the server 13 transmits the identification information (ID) of the second gift object associated with the guest avatar object 120 to the distribution user device 12A of the guest user (step S17).

配信ユーザ装置12A及び視聴ユーザ装置12Bは、受信した動画構成データ及び第2ギフトオブジェクトの識別情報に基づき、ホストアバターオブジェクト105A、ゲストアバターオブジェクト120、第2ギフトオブジェクト125等を含むアニメーションを生成してディスプレイ28に表示する(ステップS17~ステップS19)。なお、ステップS11~ステップS17は適宜変更可能である。ステップS11~ステップS17の順序は変更されてもよいし、1つのステップが複数に分割されてもよいし、複数のステップが1つのステップにまとめられても良い。要は、ホストユーザの配信ユーザ装置12A及びゲストユーザの配信ユーザ装置12Aが動画構成データを送信し、サーバ13がギフトオブジェクトの識別情報を送信し、配信ユーザ装置12A及び視聴ユーザ装置12Bが、他の装置から送られた動画構成データ及びギフトオブジェクトの識別情報に基づいて動画を表示できればよい。 The distribution user device 12A and the viewing user device 12B generate an animation including the host avatar object 105A, the guest avatar object 120, the second gift object 125, etc., based on the received video configuration data and the identification information of the second gift object. It is displayed on the display 28 (steps S17 to S19). It should be noted that steps S11 to S17 can be changed as appropriate. The order of steps S11 to S17 may be changed, one step may be divided into a plurality of steps, or a plurality of steps may be combined into one step. In short, the distribution user device 12A of the host user and the distribution user device 12A of the guest user transmit the video configuration data, the server 13 transmits the identification information of the gift object, and the distribution user device 12A and the viewing user device 12B are others. It suffices if the video can be displayed based on the video configuration data sent from the device and the identification information of the gift object.

ゲストユーザのゲストアバターオブジェクト120が動画から退出すると、退出したゲストユーザは視聴ユーザとなる。そして、新たなゲストアバターオブジェクト120が動画に追加されると、配信ユーザ装置12A、サーバ13及び視聴ユーザ装置12Bは上記したステップS11~ステップS20を繰り返す。つまり、ホストアバターオブジェクト105Aに第2ギフトオブジェクト125を関連付けて表示し、新たなゲストアバターオブジェクト120に第2ギフトオブジェクト125を関連付けて表示する。なお、ホストアバターオブジェクト105Aは退出しないため、ホストアバターオブジェクト105Aに関連付けられた第2ギフトオブジェクト125はその表示を変更しなくてもよい。また、ゲストアバターオブジェクト120に関連付けて表示される第2ギフトオブジェクト125が、ゲストアバターオブジェクト120によって変化しない場合には、サーバ13は、配信ユーザ装置12A、視聴ユーザ装置12Bに対し、第2ギフトオブジェクト125の識別情報を1度だけ送信するようにしてもよい。この場合、配信ユーザ装置12A及び視聴ユーザ装置12Bは、ゲストアバターオブジェクト120を変更するたびに、サーバ13から受信した第2ギフトオブジェクト125の識別情報に基づき第2ギフトオブジェクト125を表示する。 When the guest avatar object 120 of the guest user exits from the moving image, the exiting guest user becomes a viewing user. Then, when a new guest avatar object 120 is added to the moving image, the distribution user device 12A, the server 13, and the viewing user device 12B repeat the above steps S11 to S20. That is, the host avatar object 105A is associated with the second gift object 125 and displayed, and the new guest avatar object 120 is associated with the second gift object 125 and displayed. Since the host avatar object 105A does not leave, the display of the second gift object 125 associated with the host avatar object 105A does not have to be changed. If the second gift object 125 displayed in association with the guest avatar object 120 is not changed by the guest avatar object 120, the server 13 will refer to the distribution user device 12A and the viewing user device 12B as the second gift object. The identification information of 125 may be transmitted only once. In this case, each time the distribution user device 12A and the viewing user device 12B change the guest avatar object 120, the distribution user device 12A and the viewing user device 12B display the second gift object 125 based on the identification information of the second gift object 125 received from the server 13.

このようにコラボレーション配信において第2ギフトオブジェクトの表示条件が満たされた場合に、ゲストアバターオブジェクト120が追加されるたびに第2ギフトオブジェクト125を表示する。このため、ゲストユーザのコラボレーション配信に対する満足度を高めることができる。また、コラボレーション配信に参加すれば第2ギフトオブジェクトが表示されることが予め通知されている場合には、視聴ユーザのコラボレーション配信に対する参加意欲を高めることができる。 In this way, when the display condition of the second gift object is satisfied in the collaboration distribution, the second gift object 125 is displayed every time the guest avatar object 120 is added. Therefore, it is possible to increase the satisfaction level of the guest user with the collaboration delivery. Further, when it is notified in advance that the second gift object will be displayed if the user participates in the collaboration distribution, it is possible to increase the motivation of the viewing user to participate in the collaboration distribution.

図18は、第2ギフトオブジェクト125の表示条件を、視聴ユーザからのアクションの有無としてもよい。この場合、サーバ13は、ユーザ管理データ350を参照して、視聴ユーザからのアクションが所定時間以上無いか否かを判断する(ステップS21)。具体的には、配信中の動画に第1ギフトオブジェクトの表示要求を視聴ユーザ装置12Bから受信したか否かを判断する。このとき第1ギフトオブジェクトの表示要求に加え、メッセージの投稿がなされたか否かを判定してもよい。 In FIG. 18, the display condition of the second gift object 125 may be the presence or absence of an action from the viewing user. In this case, the server 13 refers to the user management data 350 and determines whether or not there is an action from the viewing user for a predetermined time or more (step S21). Specifically, it is determined whether or not the display request of the first gift object is received from the viewing user device 12B in the moving image being distributed. At this time, in addition to the display request of the first gift object, it may be determined whether or not a message has been posted.

サーバ13は、視聴ユーザからのアクションが所定時間内に行われたと判定すると(ステップS21:有り)、第2ギフトオブジェクト125を表示しない。一方、視聴ユーザからのアクションが所定時間内に行われていないと判定すると(ステップS21:無し)、第2ギフトオブジェクト125の識別情報を、配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。第2ギフトオブジェクト125の識別情報を受信した配信ユーザ装置12A及び視聴ユーザ装置12Bは、識別情報に対応する第2ギフトオブジェクト125を表示するためのデータを読み出して、ディスプレイ28に表示する(ステップS22)。このようにすると、第1ギフトオブジェクトの表示要求が少ない配信ユーザ100であっても、動画を盛り上げることができる。また、配信ユーザ100は動画の配信を継続する意欲が高められる。 When the server 13 determines that the action from the viewing user has been performed within the predetermined time (step S21: Yes), the server 13 does not display the second gift object 125. On the other hand, if it is determined that the action from the viewing user has not been performed within the predetermined time (step S21: none), the identification information of the second gift object 125 is transmitted to the distribution user device 12A and the viewing user device 12B. The distribution user device 12A and the viewing user device 12B that have received the identification information of the second gift object 125 read out the data for displaying the second gift object 125 corresponding to the identification information and display it on the display 28 (step S22). ). By doing so, even the distribution user 100 who has few requests for displaying the first gift object can liven up the moving image. In addition, the distribution user 100 is motivated to continue distribution of the moving image.

次に、本実施形態の効果について説明する。
(1)ホストアバターオブジェクト105A及びゲストアバターオブジェクト120を動画に表示させるコラボレーション配信において、配信状況が第2ギフトオブジェクト125の表示条件を満たす場合のみ、第2ギフトオブジェクト125が表示される。このため、ギフトオブジェクトの付加価値の低下を抑制することができる。また、ゲストユーザに対応するゲストアバターオブジェクト120が新たに追加された場合に、ゲストアバターオブジェクト120に関連付けて第2ギフトオブジェクト125が表示される。このため、ホストユーザだけでなく、コラボレーション配信に参加する全てのゲストユーザの満足度を高めることができる。
Next, the effect of this embodiment will be described.
(1) In the collaboration distribution in which the host avatar object 105A and the guest avatar object 120 are displayed in the moving image, the second gift object 125 is displayed only when the distribution status satisfies the display condition of the second gift object 125. Therefore, it is possible to suppress the decrease in the added value of the gift object. Further, when the guest avatar object 120 corresponding to the guest user is newly added, the second gift object 125 is displayed in association with the guest avatar object 120. Therefore, not only the host user but also all the guest users who participate in the collaboration distribution can be satisfied.

(2)ユーザ装置12は、予め定めた期間内に動画を配信した場合に第2ギフトオブジェクト125が動画に表示される。また、シナリオの途中から動画の配信を開始した場合に、動画の配信開始時点に対応する場面から第2ギフトオブジェクト125の表示を開始する。このため、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。また、アプリケーション内でのユーザ共通のイベントとする場合には、複数の動画の間において第2ギフトオブジェクト125の表示を同期させることができるため、あたかも現実世界で生じているイベントのような動画を配信することができる。 (2) When the user device 12 distributes the moving image within a predetermined period, the second gift object 125 is displayed on the moving image. Further, when the distribution of the moving image is started from the middle of the scenario, the display of the second gift object 125 is started from the scene corresponding to the time when the distribution of the moving image is started. Therefore, since the opportunity to display the second gift object 125 is limited, it is possible to suppress the decrease in the added value of the second gift object 125. In addition, when the event is common to all users in the application, the display of the second gift object 125 can be synchronized between a plurality of videos, so that the video looks like an event occurring in the real world. Can be delivered.

(3)予め定めた期間内に動画の配信を開始した配信開始時点から所定時間経過後に第2ギフトオブジェクト125を表示する。よって、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。 (3) The second gift object 125 is displayed after a predetermined time has elapsed from the start of distribution of the moving image within a predetermined period. Therefore, since the opportunity to display the second gift object 125 is limited, it is possible to suppress the decrease in the added value of the second gift object 125.

(4)第1ギフトオブジェクトの表示要求等、視聴ユーザのアクティビティが無い状態が所定時間継続した場合に第2ギフトオブジェクト125を表示する。このため、第2ギフトオブジェクト125の表示を契機として、配信ユーザの表現の幅を拡大することができる。また、配信ユーザと視聴ユーザとのコミュニケーションを活発化させることができる。 (4) The second gift object 125 is displayed when there is no activity of the viewing user such as a display request of the first gift object for a predetermined time. Therefore, the display of the second gift object 125 can be used as an opportunity to expand the range of expressions of the distribution user. In addition, communication between the distribution user and the viewing user can be activated.

(5)エモート機能選択部192が操作された場合に、第2ギフトオブジェクト125が動画に表示される。このため、ユーザが要望するタイミングで第2ギフトオブジェクト125を表示することができる。 (5) When the emote function selection unit 192 is operated, the second gift object 125 is displayed in the moving image. Therefore, the second gift object 125 can be displayed at the timing requested by the user.

(6)特定のアバターオブジェクトが動画に表示されている場合に第2ギフトオブジェクト125を表示するようにした。よって、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。また、特定のアバターオブジェクトが配信ユーザ100に使用される機会を増やすことができる。 (6) The second gift object 125 is displayed when a specific avatar object is displayed in the video. Therefore, since the opportunity to display the second gift object 125 is limited, it is possible to suppress the decrease in the added value of the second gift object 125. It can also increase the chances that a particular avatar object will be used by the distribution user 100.

(7)現実世界の天候等の外部状況が表示条件を満たす場合に第2ギフトオブジェクト125を表示する。よって、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。また、第2ギフトオブジェクト125の表示が外部状況と同期するため、動画を配信する季節や時間帯に応じて、変化に富んだ動画を表示することができる。 (7) The second gift object 125 is displayed when the external conditions such as the weather in the real world satisfy the display conditions. Therefore, since the opportunity to display the second gift object 125 is limited, it is possible to suppress the decrease in the added value of the second gift object 125. Further, since the display of the second gift object 125 is synchronized with the external situation, it is possible to display a video rich in variety according to the season and time zone in which the video is delivered.

(8)アバターオブジェクト105のエモート機能が第2ギフトオブジェクト125として表示される。エモート機能の一部であるエモートオブジェクト125Aは、アバターオブジェクト105の各々を構成する部位に関連付けて表示される。エモート機能は他のギフトオブジェクトに比べ価値が高いため、エモート機能をギフトとして提供される機会が少ないユーザも、基本的なエモート機能以外のエモート機能を利用することができる。このため、ユーザの満足度を高めることができる。 (8) The emote function of the avatar object 105 is displayed as the second gift object 125. The emotes object 125A, which is a part of the emotes function, is displayed in association with the parts constituting each of the avatar objects 105. Since the emote function is more valuable than other gift objects, even users who have few opportunities to provide the emote function as a gift can use the emote function other than the basic emote function. Therefore, the user's satisfaction can be enhanced.

(9)アバターオブジェクト105の背景を含む第2ギフトオブジェクト125が表示される。背景は他のギフトオブジェクトに比べ価値が高い。このため、第1ギフトオブジェクトとして背景が提供できない場合や、背景をギフトとして提供される機会が少ないユーザも、背景を利用する機会を得ることができる。このため、ユーザの満足度を高めることができる。 (9) The second gift object 125 including the background of the avatar object 105 is displayed. The background is more valuable than other gift objects. Therefore, even a user who cannot provide the background as the first gift object or who has few opportunities to provide the background as a gift can have an opportunity to use the background. Therefore, the user's satisfaction can be enhanced.

(10)アバターオブジェクト105の装着オブジェクトを含む第2ギフトオブジェクト125が表示されるため、ユーザの満足度を高めることができる。
(11)視聴ユーザが表示要求を行った第1ギフトオブジェクトが優先して表示されるため、第1ギフトオブジェクトの表示要求を送信した視聴ユーザの満足度を高めることができる。
(10) Since the second gift object 125 including the wearing object of the avatar object 105 is displayed, the user's satisfaction can be enhanced.
(11) Since the first gift object for which the viewing user has requested the display is preferentially displayed, the satisfaction of the viewing user who has sent the display request for the first gift object can be enhanced.

(12)第2ギフトオブジェクトが優先して表示されるため、シナリオに沿った動画の進行が可能となる。
上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
(12) Since the second gift object is displayed with priority, it is possible to proceed with the moving image according to the scenario.
The above embodiment can be modified and implemented as follows. The above embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.

・上記実施形態では、ホストユーザが配信する動画に対し、共演要請をしてゲストユーザのアバターオブジェクトを動画に追加するようにした。これに代えて、ホストユーザ、ゲストユーザを決めず、予め定めたユーザに対応するアバターオブジェクトを共演させた動画を配信してもよい。 -In the above embodiment, the guest user's avatar object is added to the video by requesting co-starring with the video distributed by the host user. Instead of this, a moving image in which an avatar object corresponding to a predetermined user is co-starred may be distributed without determining a host user and a guest user.

・上記実施形態では、エモート機能は、アバターオブジェクトの手や腕等の部位を動作させるものやアバターオブジェクトの表情に例示して説明したが、これに限定されない。エモート機能は、アバターオブジェクトの立ち位置を変更させたり、アバターオブジェクトを歩かせたり、踊らせたりするものであってもよい。 -In the above embodiment, the emote function has been described by way of exemplifying a device that moves a part such as a hand or an arm of the avatar object or a facial expression of the avatar object, but the present invention is not limited to this. The emote function may change the standing position of the avatar object, make the avatar object walk, or make the avatar object dance.

・上記実施形態では、サーバ13が、ユーザ装置12からのギフトオブジェクトの表示要求を受信して、ギフトオブジェクトの識別情報を待機列114に追加するようにした。これに代えて、配信ユーザのユーザ装置12が、サーバ13からギフトオブジェクトの表示要求を受信して、待機列114を管理するようにしてもよい。 -In the above embodiment, the server 13 receives the gift object display request from the user device 12 and adds the gift object identification information to the waiting column 114. Instead of this, the user apparatus 12 of the distribution user may receive a display request for the gift object from the server 13 and manage the waiting column 114.

・上記実施形態では、ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされているものとした。これに代えて、動画を視聴するためのアプリケーションプログラムと、動画を配信するためのアプリケーションプログラムとを別のアプリケーションプログラムとを分けてもよい。配信を行う場合には配信アプリケーションプログラムを用いて動画を配信する。視聴を行う場合には視聴アプリケーションプログラムを用いて動画を視聴する。ギフトオブジェクトの表示要求は、視聴アプリケーションプログラムを用いて行う。 -In the above embodiment, it is assumed that the video application program for viewing and distributing the video is installed in the user device 12. Instead of this, the application program for viewing the video and the application program for distributing the video may be separated into different application programs. When distributing, the video is distributed using the distribution application program. When viewing, watch the video using the viewing application program. The display request of the gift object is made by using the viewing application program.

・上記実施形態では、配信ユーザ装置12A及び視聴ユーザ装置12Bが動画構成データ等を受信して動画を生成するクライアントレンダリング方式を用いた。これに代えて若しくは加えて、配信ユーザ装置12Aが動画データをエンコードする映像配信方式を用いてもよい。図19に示すように、サーバ13が、ギフトオブジェクトの識別情報を配信ユーザ装置12Aに送信する(ステップS30)。配信ユーザ装置12Aは、受信したギフトオブジェクトの識別情報とトラッキングデータ等を用いてアニメーションを生成し、エンコードする(ステップS31)。このとき、視聴ユーザからのメッセージや音声データを、アニメーションと一緒にエンコードしてもよい。また、配信ユーザ装置12Aは、エンコードしたデータをサーバ13に送信する(ステップS32)。サーバ13は、エンコードしたデータを視聴ユーザ装置12Bに送信する(ステップS33)。また、配信ユーザ装置12Aは、トラッキングデータ及びギフトオブジェクトの識別情報を用いてアニメーションを表示する(ステップS34)。視聴ユーザ装置12Bは、エンコードされたデータをデコードして、アニメーションを表示する(ステップS35)。なお、コラボレーション配信を行う場合には、ゲストユーザとしての配信ユーザの配信ユーザ装置12Aは、動画構成データ等を受信して、動画構成データに基づいて動画を生成してもよい。又はゲストユーザとしての配信ユーザの配信ユーザ装置12Aは、ホストユーザである配信ユーザの配信ユーザ装置12Aから、エンコードされた映像データを受信するようにしてもよい。 -In the above embodiment, a client rendering method is used in which the distribution user device 12A and the viewing user device 12B receive the moving image configuration data and the like to generate a moving image. Alternatively or additionally, a video distribution method in which the distribution user device 12A encodes moving image data may be used. As shown in FIG. 19, the server 13 transmits the identification information of the gift object to the distribution user device 12A (step S30). The distribution user device 12A generates and encodes an animation using the received identification information of the gift object, tracking data, and the like (step S31). At this time, the message or voice data from the viewing user may be encoded together with the animation. Further, the distribution user device 12A transmits the encoded data to the server 13 (step S32). The server 13 transmits the encoded data to the viewing user device 12B (step S33). Further, the distribution user device 12A displays the animation using the tracking data and the identification information of the gift object (step S34). The viewing user device 12B decodes the encoded data and displays the animation (step S35). In the case of collaborative distribution, the distribution user device 12A of the distribution user as a guest user may receive the moving image configuration data or the like and generate a moving image based on the moving image composition data. Alternatively, the distribution user device 12A of the distribution user as a guest user may receive the encoded video data from the distribution user device 12A of the distribution user who is the host user.

・センサユニット24は、ユーザの表情の変化、頭部の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得するとしたが、このうち少なくとも一つであってもよい。また、センサユニット24は、ユーザの表情の変化、頭部の動き及びユーザの相対位置の少なくとも一つに加えて、若しくは代えて、頭部の動作以外の動きを検出した検出データ等のその他の検出データを取得してもよい。 -The sensor unit 24 is supposed to acquire the detection data that detects the change in the user's facial expression, the movement of the head, and the relative position of the user with respect to the sensor unit 24, but at least one of them may be used. In addition, the sensor unit 24 has, in addition to, or instead of at least one of the changes in the user's facial expression, the movement of the head, and the relative position of the user, other other information such as detection data that detects movements other than the movement of the head. The detection data may be acquired.

・動画に表示される仮想空間は、拡張現実(AR;Augmented Reality)の空間であってもよい。例えば、ユーザ装置12のカメラが撮影した現実世界の画像に、アバターオブジェクト及びギフトオブジェクト等のアニメーションを重ねて表示してもよい。また、ユーザ装置12のカメラが撮影した、ユーザを含む現実世界の画像に、ギフトオブジェクト等のアニメーションを重ねて表示してもよい。 -The virtual space displayed in the moving image may be an augmented reality (AR) space. For example, animations such as an avatar object and a gift object may be superimposed and displayed on a real-world image taken by the camera of the user device 12. Further, the animation of the gift object or the like may be superimposed and displayed on the image of the real world including the user taken by the camera of the user device 12.

・上記実施形態では、ユーザ装置12は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、動画配信用のスタジオに設けられたシステムであって、制御部20等を備える情報処理装置、配信ユーザの身体に装着されるセンサユニット24、センサユニット24の位置を検出するトラッキングシステム、操作部27、スピーカ25、ディスプレイ28を備えたシステムを、動画を配信するシステムとして用いてもよい。トラッキングシステムは、同期用のパルスレーザ光を出射する多軸レーザエミッターを備えていてもよい。センサユニット24は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。センサユニット24は、例えば、HTC Corporation(登録商標)から提供されているVive Tracker(登録商標)及びVive Base Stationを用いることができる。 -In the above embodiment, the user device 12 is an information processing device such as a smartphone, a mobile phone, a tablet terminal, a personal computer, a console game machine, a wearable computer such as a head-mounted display, and the like. Instead of this, it is a system provided in a studio for video distribution, and is an information processing device provided with a control unit 20 and the like, a sensor unit 24 mounted on the body of a distribution user, and tracking for detecting the position of the sensor unit 24. A system including a system, an operation unit 27, a speaker 25, and a display 28 may be used as a system for distributing a moving image. The tracking system may include a multi-axis laser emitter that emits pulsed laser light for synchronization. The sensor unit 24 includes a sensor that detects a laser beam, and detects its own position and orientation while synchronizing with a synchronization pulse. As the sensor unit 24, for example, Vive Tracker (registered trademark) and Vive Base Station provided by HTC Corporation (registered trademark) can be used.

・上記実施形態では、センサユニット24をユーザ装置12側に設けたが、この態様に限定されない。例えばセンサユニット24の少なくとも一部を、配信ユーザの身体に装着したり、配信ユーザの近傍に設けたりしてもよい。図20は、動画配信スタジオに設置された動画配信システムであって、カメラ229、マイク230、コントローラ226、及び配信サーバ228等を備える。また、動画配信システムは、配信ユーザ100に手足に装着された装着センサ227、装着センサ227の位置を特定するための位置検出部225等を含むトラッキングシステムを備える。カメラ229は、配信ユーザ100の顔を撮影する。配信サーバ228は、トラッングシステムから取得したトラッキングデータ、カメラ229から取得した表情データをアバターオブジェクトに適用したアニメーションを生成する。また、仮想空間の背景とアバターオブジェクトとをレンダリングしたアニメーションを音声とともに動画データとして視聴ユーザ装置12Bに配信する。また、例えば、トラッキングシステムは、配信ユーザの身体に装着されたマーカーを検出するカメラ等から構成してもよい。
次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
[1]
動画をディスプレイに表示するコンピュータを、
第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理部と、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、
前記第2画像処理部は、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する、プログラム。
[2]
前記第2ギフトオブジェクトの前記表示条件は、一定の時間に実行されるイベントに前記第1ユーザが参加することであり、
前記期間は、順番に実行される複数のイベント期間から構成され、前記各イベント期間には前記第2ギフトオブジェクトがそれぞれ関連付けられ、
前記第2画像処理部は、2番目以降の前記イベント期間から前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する前記イベント期間に関連付けられた前記第2ギフトオブジェクトを表示し、前記配信開始時点前の前記イベント期間に関連付けられた前記第2ギフトオブジェクトを表示しない、[1]に記載のプログラム。
[3]
前記第2画像処理部は、前記第2アバターオブジェクトを前記動画から非表示とする場合に前記第2アバターオブジェクトに関連付けられた前記第2ギフトオブジェクトを非表示とし、第3ユーザに対応する第3アバターオブジェクトを新たに前記動画に表示した場合に前記第3アバターオブジェクトに関連付けられた前記第2ギフトオブジェクトを前記動画に表示する[1]又は[2]に記載のプログラム。
[4]
前記第2画像処理部は、アバターオブジェクトの各々を構成する部位に関連付けて前記第2ギフトオブジェクトを表示する[1]~[3]のいずれか1項に記載のプログラム。
[5]
前記第2画像処理部は、前記動画の配信開始時点から所定時間経過後に、前記第2ギフトオブジェクトを表示する[1]~[4]のいずれか1項に記載のプログラム。
[6]
前記第2画像処理部は、前記視聴ユーザによる前記動画に対するアクティビティが無い状態が所定時間継続したとの前記表示条件を満たす場合に前記第2ギフトオブジェクトを表示する[1]に記載のプログラム。
[7]
前記第2画像処理部は、表示条件が満たされた場合に前記第2ギフトオブジェクトを前記動画に表示させるための選択操作部を前記動画に表示し、前記選択操作部が操作された場合に前記第2ギフトオブジェクトを前記動画に表示する[1]~[6]のいずれか1項に記載のプログラム。
[8]
前記第2画像処理部は、前記第2ギフトオブジェクトとしてのアバターオブジェクトの表現機能を発動するための表現機能選択部を表示し、前記アバターオブジェクトに対応するユーザの前記表現機能選択部の操作に基づいて前記表現機能を発現する[1]~[7]のいずれか1項に記載のプログラム。
[9]
前記第2画像処理部は、アバターオブジェクトの背景を含む前記第2ギフトオブジェクトを表示する[1]~[8]のいずれか1項に記載のプログラム。
[10]
前記第2画像処理部は、アバターオブジェクトの部位に装着される装着オブジェクトを含む前記第2ギフトオブジェクトを表示する[1]~[9]のいずれか1項に記載のプログラム。
[11]
動画をディスプレイに表示するコンピュータが、
第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理ステップとを実行し、
前記第2画像処理ステップでは、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する、情報処理方法。
[12]
動画をユーザ装置のディスプレイに表示する情報処理装置であって、
第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、
前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理装置。
[13]
動画をユーザ装置のディスプレイに表示する情報処理装置が実行する情報処理方法であって、
前記情報処理装置が、
第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、
前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理方法。
-In the above embodiment, the sensor unit 24 is provided on the user device 12 side, but the present invention is not limited to this embodiment. For example, at least a part of the sensor unit 24 may be attached to the body of the distribution user or may be provided in the vicinity of the distribution user. FIG. 20 is a video distribution system installed in a video distribution studio, which includes a camera 229, a microphone 230, a controller 226, a distribution server 228, and the like. Further, the moving image distribution system includes a tracking system including a mounting sensor 227 mounted on the limbs of the distribution user 100, a position detection unit 225 for specifying the position of the mounting sensor 227, and the like. The camera 229 captures the face of the distribution user 100. The distribution server 228 generates an animation in which the tracking data acquired from the trung system and the facial expression data acquired from the camera 229 are applied to the avatar object. Further, the animation obtained by rendering the background of the virtual space and the avatar object is delivered to the viewing user device 12B as moving image data together with the sound. Further, for example, the tracking system may be composed of a camera or the like that detects a marker attached to the body of the distribution user.
Next, the technical ideas that can be grasped from the above-described embodiment and other examples will be added below together with their effects.
[1]
A computer that displays videos on the display,
A first image processing unit that displays a first avatar object that reflects the movement of the first user and a second avatar object that reflects the movement of the second user in a moving image.
A first gift object display processing unit that displays a first gift object triggered by transmission of a display request by a viewing user who watches the video, and a first gift object display processing unit.
When the display condition of the second gift object displayed without being based on the display request sent by the viewing user is satisfied, the second gift object associated with the first avatar object is displayed and the second avatar object is displayed. To function as a second image processing unit that displays the second gift object associated with
The second image processing unit displays the second gift object according to the scenario, and when the first user starts distribution of the moving image from the middle of the scenario within a predetermined period, the said second image processing unit. A program that starts displaying the second gift object from the scene corresponding to the time when the video is distributed.
[2]
The display condition of the second gift object is that the first user participates in an event executed at a fixed time.
The period is composed of a plurality of event periods executed in order, and each event period is associated with the second gift object.
When the distribution of the moving image is started from the second and subsequent event periods, the second image processing unit displays the second gift object associated with the event period corresponding to the distribution start time of the moving image. , The program according to [1], which does not display the second gift object associated with the event period before the delivery start time.
[3]
When the second avatar object is hidden from the moving image, the second image processing unit hides the second gift object associated with the second avatar object, and the third user corresponds to the third user. The program according to [1] or [2], which displays the second gift object associated with the third avatar object in the moving image when the avatar object is newly displayed in the moving image.
[4]
The program according to any one of [1] to [3], wherein the second image processing unit displays the second gift object in association with a portion constituting each of the avatar objects.
[5]
The program according to any one of [1] to [4], wherein the second image processing unit displays the second gift object after a predetermined time has elapsed from the start of distribution of the moving image.
[6]
The program according to [1], wherein the second image processing unit displays the second gift object when the display condition that the viewing user has no activity for the moving image continues for a predetermined time.
[7]
The second image processing unit displays a selection operation unit for displaying the second gift object in the moving image when the display condition is satisfied, and the selection operation unit is operated when the selection operation unit is operated. The program according to any one of [1] to [6] for displaying the second gift object in the moving image.
[8]
The second image processing unit displays an expression function selection unit for activating the expression function of the avatar object as the second gift object, and is based on the operation of the expression function selection unit of the user corresponding to the avatar object. The program according to any one of [1] to [7], which expresses the expression function.
[9]
The program according to any one of [1] to [8], wherein the second image processing unit displays the second gift object including the background of the avatar object.
[10]
The program according to any one of [1] to [9], wherein the second image processing unit displays the second gift object including the wearing object mounted on the part of the avatar object.
[11]
The computer that displays the video on the display
A first image processing step of displaying a first avatar object that reflects the movement of the first user and a second avatar object that reflects the movement of the second user in a moving image.
The first display processing step of displaying the first gift object triggered by the transmission of the display request by the viewing user who views the video, and
When the display condition of the second gift object displayed without being based on the display request sent by the viewing user is satisfied, the second gift object associated with the first avatar object is displayed and the second avatar object is displayed. A second image processing step to display the second gift object associated with
In the second image processing step, the second gift object is displayed according to the scenario, and when the first user starts distribution of the moving image from the middle of the scenario within a predetermined period, the said second image processing step. An information processing method that starts displaying the second gift object from a scene corresponding to the time when the video is distributed.
[12]
An information processing device that displays moving images on the display of a user device.
Drawing data for transmitting data for drawing a first avatar object that reflects the movement of the first user and data for drawing a second avatar object that reflects the movement of the second user to the user device. Send step and
The first display processing step of transmitting a request for displaying the first gift object to the user device triggered by the transmission of the display request by the viewing user who watches the moving image, and the first display processing step.
When the display condition of the second gift object displayed without being based on the display request sent by the viewing user is satisfied, the display request of the second gift object associated with the first avatar object and the display request of the second avatar object are combined with the second avatar object. The display request transmission step of transmitting the display request of the second gift object associated with the user device to the user device is executed.
In the display request transmission step, a display request for the second gift object is transmitted to the user device according to the scenario, and the first user distributes the moving image from the middle of the scenario within a predetermined period. An information processing device that, when started, sends a display request for the second gift object corresponding to a scene corresponding to a scene corresponding to the start time of distribution of the moving image to the user device.
[13]
It is an information processing method executed by an information processing device that displays a moving image on the display of a user device.
The information processing device
Drawing data for transmitting data for drawing a first avatar object that reflects the movement of the first user and data for drawing a second avatar object that reflects the movement of the second user to the user device. Send step and
The first display processing step of transmitting a request for displaying the first gift object to the user device triggered by the transmission of the display request by the viewing user who watches the moving image, and the first display processing step.
When the display condition of the second gift object displayed without being based on the display request sent by the viewing user is satisfied, the display request of the second gift object associated with the first avatar object and the display request of the second avatar object are combined with the second avatar object. The display request transmission step of transmitting the display request of the second gift object associated with the user device to the user device is executed.
In the display request transmission step, a display request for the second gift object is transmitted to the user device according to the scenario, and the first user distributes the moving image from the middle of the scenario within a predetermined period. An information processing method for transmitting a display request for the second gift object corresponding to a scene corresponding to a scene corresponding to the start time of distribution of the moving image to the user device when the video is started.

11…動画配信システム、
12,12A,12B…ユーザ装置
13…サーバ
11 ... Video distribution system,
12, 12A, 12B ... User device 13 ... Server

Claims (1)

動画をディスプレイに表示するコンピュータを、
第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理部と、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、
前記第2画像処理部は、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する
プログラム。
A computer that displays videos on the display,
A first image processing unit that displays a first avatar object that reflects the movement of the first user and a second avatar object that reflects the movement of the second user in a moving image.
A first gift object display processing unit that displays a first gift object triggered by transmission of a display request by a viewing user who watches the video, and a first gift object display processing unit.
When the display condition of the second gift object displayed without being based on the display request sent by the viewing user is satisfied, the second gift object associated with the first avatar object is displayed and the second avatar object is displayed. To function as a second image processing unit that displays the second gift object associated with
The second image processing unit displays the second gift object according to the scenario, and when the first user starts distribution of the moving image from the middle of the scenario within a predetermined period, the said second image processing unit. A program that starts displaying the second gift object from the scene corresponding to the start of video distribution.
JP2022022581A 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus Active JP7333528B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022022581A JP7333528B2 (en) 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus
JP2023125953A JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021209726A JP7223834B2 (en) 2020-11-13 2021-12-23 Program, information processing method and information processing apparatus
JP2022022581A JP7333528B2 (en) 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021209726A Division JP7223834B2 (en) 2020-11-13 2021-12-23 Program, information processing method and information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023125953A Division JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Publications (2)

Publication Number Publication Date
JP2022078994A true JP2022078994A (en) 2022-05-25
JP7333528B2 JP7333528B2 (en) 2023-08-25

Family

ID=87654351

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022022581A Active JP7333528B2 (en) 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus
JP2023125953A Pending JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023125953A Pending JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Country Status (1)

Country Link
JP (2) JP7333528B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445272B1 (en) 2023-03-31 2024-03-07 グリー株式会社 Video processing method, video processing system, and video processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018174456A (en) * 2017-03-31 2018-11-08 株式会社ドワンゴ Virtual processing server, control method for virtual processing server, content distribution system, and application program for terminal
JP6543403B1 (en) * 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program
JP2019204244A (en) * 2018-05-22 2019-11-28 株式会社 ディー・エヌ・エー System for animated cartoon distribution, method, and program
JP2020017243A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2020036134A (en) * 2018-08-28 2020-03-05 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018174456A (en) * 2017-03-31 2018-11-08 株式会社ドワンゴ Virtual processing server, control method for virtual processing server, content distribution system, and application program for terminal
JP2019204244A (en) * 2018-05-22 2019-11-28 株式会社 ディー・エヌ・エー System for animated cartoon distribution, method, and program
JP2020017243A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2020036134A (en) * 2018-08-28 2020-03-05 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user
JP6543403B1 (en) * 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445272B1 (en) 2023-03-31 2024-03-07 グリー株式会社 Video processing method, video processing system, and video processing program

Also Published As

Publication number Publication date
JP7333528B2 (en) 2023-08-25
JP2023143963A (en) 2023-10-06

Similar Documents

Publication Publication Date Title
JP7098676B2 (en) Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
US11074737B2 (en) Information processing apparatus and method
JP2019192173A (en) Program, information processing device, and method
JP7388665B2 (en) Information processing system, information processing method, information processing program
JP2021158558A (en) Moving image application program, object drawing method of moving image, moving image management program, moving image management method, server and moving image distribution system
JP2023143963A (en) Program, information processing method, and information processing device
JP6580748B1 (en) Program, information processing apparatus, and method
JP7001796B1 (en) Information processing program, information processing method and information processing system
JP2024036381A (en) Programs, information processing methods, servers and server information processing methods
JP2019192174A (en) Program, information processing device, and method
US20230252706A1 (en) Information processing system, information processing method, and computer program
US20230201716A1 (en) Information processing device, information processing method, and program
JP7029379B2 (en) Programs, information processing equipment, and methods
US20230138046A1 (en) Information processing system, information processing method, and computer program
JP7245890B1 (en) Information processing system, information processing method, information processing program
JP7223834B2 (en) Program, information processing method and information processing apparatus
JP2022075669A (en) Program, information processing device, and method
JP2023075879A (en) Information processing system, information processing method and information processing program
JP7357865B1 (en) Program, information processing method, and information processing device
US20240007700A1 (en) Program, information processing method, and information processing device
US11704854B2 (en) Information processing system, information processing method, and computer program
JP2019192175A (en) Program, information processing device, and method
JP2019192176A (en) Program, information processing device, and method
JP7333564B2 (en) Information processing system, information processing method and computer program
JP7253025B1 (en) Information processing system, information processing method and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7333528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150