JP7333528B2 - Program, information processing method and information processing apparatus - Google Patents

Program, information processing method and information processing apparatus Download PDF

Info

Publication number
JP7333528B2
JP7333528B2 JP2022022581A JP2022022581A JP7333528B2 JP 7333528 B2 JP7333528 B2 JP 7333528B2 JP 2022022581 A JP2022022581 A JP 2022022581A JP 2022022581 A JP2022022581 A JP 2022022581A JP 7333528 B2 JP7333528 B2 JP 7333528B2
Authority
JP
Japan
Prior art keywords
user
display
gift
moving image
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022022581A
Other languages
Japanese (ja)
Other versions
JP2022078994A (en
Inventor
椋 矢部
佑史 高木
義礎 工藤
彩 倉淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021209726A external-priority patent/JP7223834B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022022581A priority Critical patent/JP7333528B2/en
Publication of JP2022078994A publication Critical patent/JP2022078994A/en
Priority to JP2023125953A priority patent/JP2023143963A/en
Application granted granted Critical
Publication of JP7333528B2 publication Critical patent/JP7333528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

特許法第30条第2項適用 公開日 令和2年7月11日 ウェブサイトにて公開 https://reality.app/Application of Article 30, Paragraph 2 of the Patent Act Publication date July 11, 2020 Published on the website https://reality. app/

特許法第30条第2項適用 公開日 令和2年7月10日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/e64ZnDwfZMhZApplication of Article 30, Paragraph 2 of the Patent Act Publication date July 10, 2020 Published on the website https://reality. wrightflyer. net/notice/page/e64ZnDwfZMhZ

特許法第30条第2項適用 公開日 令和2年8月2日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/wtwSw4m4ZDwtArticle 30, Paragraph 2 of the Patent Law applies Publication date August 2, 2020 Published on the website https://reality. wrightflyer. net/notice/page/wtwSw4m4ZDwt

特許法第30条第2項適用 公開日 令和2年8月17日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/mn7wfjVmNdffArticle 30, Paragraph 2 of the Patent Law applies Publication date August 17, 2020 Published on the website https://reality. wrightflyer. net/notice/page/mn7wfjVmNdff

特許法第30条第2項適用 公開日 令和2年8月21日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/d7PNDZFh4ManArticle 30, Paragraph 2 of the Patent Law applies Publication date August 21, 2020 Published on the website https://reality. wrightflyer. net/notice/page/d7PNDZFh4Man

特許法第30条第2項適用 公開日 令和2年8月28日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/fZnnfNfSHtw4Article 30, Paragraph 2 of the Patent Law applies Publication date August 28, 2020 Published on the website https://reality. wrightflyer. net/notice/page/fZnfNfSHtw4

特許法第30条第2項適用 公開日 令和2年9月4日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/4dDHj4eNgjwfApplication of Article 30, Paragraph 2 of the Patent Act Publication date September 4, 2020 Published on the website https://reality. wrightflyer. net/notice/page/4dDHj4eNgjwf

特許法第30条第2項適用 公開日 令和2年9月14日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/Pgawwadf6MffArticle 30, Paragraph 2 of the Patent Law applies Publication date September 14, 2020 Published on the website https://reality. wrightflyer. net/notice/page/Pgawwadf6Mff

特許法第30条第2項適用 公開日 令和2年9月25日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/3ezeHZSm6eafArticle 30, Paragraph 2 of the Patent Law applies Publication date September 25, 2020 Published on the website https://reality. wrightflyer. net/notice/page/3ezeHZSm6eaf

特許法第30条第2項適用 公開日 令和2年10月5日 ウェブサイトにて公開 https://reality.wrightflyer.net/notice/page/gVhPwPtwntFzApplication of Article 30, Paragraph 2 of the Patent Act Publication date October 5, 2020 Published on the website https://reality. wrightflyer. net/notice/page/gVhPwPtwntFz

特許法第30条第2項適用 公開日 令和2年10月19日 ウェブサイトにて公開 https://reality.app/notice/page/e7nfaNSm4tzfArticle 30, Paragraph 2 of the Patent Law applies Publication date October 19, 2020 Published on the website https://reality. app/notice/page/e7nfaNSm4tzf

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://reality.app/notice/page/SjefMV3wzDaDApplication of Article 30, Paragraph 2 of the Patent Act Publication date October 22, 2020 Published on the website https://reality. app/notice/page/SjefMV3wzDaD

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/WFLE_REALITY/Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/WFLE_REALITY/

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1281513493917601795Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1281513493917601795

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1290595837928591364Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1290595837928591364

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1289867532355026945Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1289867532355026945

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1296012780450066432Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1296012780450066432

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1295308137461714944Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1295308137461714944

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1298210287699390465Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1298210287699390465

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1296764735535210498Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1296764735535210498

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1300750248311103488Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1300750248311103488

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1299308245966663680Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1299308245966663680

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1301844963056025606?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1301844963056025606? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1303286967791046658?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1303286967791046658? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1305427315036434432Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1305427315036434432

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1305826193338318851?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1305826193338318851? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1309417366209482241?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1309417366209482241? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1311591683549609984?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1311591683549609984? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1310507791531028480?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1310507791531028480? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1313434074086699009?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1313434074086699009? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1313072692652732417?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1313072692652732417? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1318144868896677890?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1318144868896677890? s=20

特許法第30条第2項適用 公開日 令和2年10月22日 ウェブサイトにて公開 https://twitter.com/REALITY_app/status/1319218992523866112?s=20Article 30, Paragraph 2 of the Patent Law applies Publication date October 22, 2020 Published on the website https://twitter. com/REALITY_app/status/1319218992523866112? s=20

本発明は、動画を配信又は視聴するプログラム、情報処理方法及び情報処理装置に関する。 The present invention relates to a program, an information processing method, and an information processing apparatus for distributing or viewing moving images.

従来から、配信ユーザの動きに基づくアバターオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている(例えば、特許文献1参照)。この種の動画配信システムにおいて、動画を視聴する視聴ユーザが用いる端末から送信される表示要求に応じて、任意のオブジェクトを動画に表示させる機能が提案されている。 2. Description of the Related Art Conventionally, there has been known a moving image distribution system that distributes moving images including animations of avatar objects based on movements of distribution users (see Patent Document 1, for example). In this type of moving image distribution system, a function has been proposed for displaying an arbitrary object in a moving image in response to a display request transmitted from a terminal used by a viewing user viewing the moving image.

特開2015-184689号公報JP 2015-184689 A

上記の動画配信システムにおいては、ギフトオブジェクトに配信ユーザが反応することを通じて配信ユーザ及び視聴ユーザのコミュニケーションが活発化され、視聴ユーザの動画への満足度が高まる。また、ギフトオブジェクトの表示要求に誘発されて、他の視聴ユーザもギフトオブジェクトの表示要求を行うという利点もある。よって、このようにギフトオブジェクトの表示の機会が増えると、動画の視聴ユーザの数や、視聴ユーザ一人あたりの視聴時間又は全ての視聴ユーザの視聴時間を累積した累積視聴時間の増大が期待される。 In the moving image distribution system described above, communication between the distributing user and the viewing user is activated through the reaction of the distributing user to the gift object, and the viewing user's satisfaction with the moving image increases. In addition, there is also the advantage that other viewing users are also prompted by the display request of the gift object to request the display of the gift object. Therefore, if the opportunities for displaying gift objects increase in this way, it is expected that the number of video viewing users, the viewing time per viewing user, or the cumulative viewing time that is the accumulated viewing time of all viewing users will increase. .

ところで動画配信システムにおいては、人気のある配信ユーザが配信する動画中では多くのギフトオブジェクトが表示される傾向がある。一方、視聴ユーザの数が少ない配信ユーザによって配信される動画ではギフトオブジェクトの数が少ない傾向がある。特に、動画の配信を始めてからの期間が短い初心者ユーザはその傾向が顕著である。 By the way, in moving image distribution systems, many gift objects tend to be displayed in moving images distributed by popular distribution users. On the other hand, videos distributed by distribution users with a small number of viewing users tend to have a small number of gift objects. In particular, this tendency is remarkable for novice users who have been distributing moving images for a short period of time.

これに対し、視聴ユーザの表示要求によらず、ギフトオブジェクトを動画内に自動的に表示させることが考えられる。しかし、単に表示要求に因らないギフトオブジェクトの機会を多くするのみでは、ギフトオブジェクトの価値が低下してしまう。ギフトオブジェクトの価値が低下すると、ギフトオブジェクトの表示の機会が増えても、視聴ユーザがギフトオブジェクトの表示に興味を抱かなくなり、視聴ユーザの数、視聴時間及び累積視聴時間を増大させる効果が低下する。このため、ギフトオブジェクトの表示の機会を適切に設けることが望まれている。 On the other hand, it is conceivable to automatically display the gift object in the moving image regardless of the viewing user's display request. However, simply increasing opportunities for gift objects that are not related to display requests will reduce the value of gift objects. If the value of the gift object decreases, the viewing users will lose interest in displaying the gift object even if the opportunity to display the gift object increases, and the effect of increasing the number of viewing users, the viewing time, and the cumulative viewing time will decrease. . Therefore, it is desired to appropriately provide an opportunity for displaying the gift object.

上記課題を解決するプログラムは、動画をディスプレイに表示するコンピュータを、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理部として機能させる。 A program for solving the above problem is a computer that displays a moving image on a display, and displays a first avatar object reflecting the movement of the first user and a second avatar object reflecting the movement of the second user on the moving image. function as a first image processing unit.

また、上記プログラムは、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、前記第2画像処理部は、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する。 Further, the program includes a first gift object display processing unit for displaying a first gift object when a display request is sent by a viewing user who watches the moving image as a trigger for display, and a display request not based on the display request sent by the viewing user. display the second gift object associated with the first avatar object and display the second gift object associated with the second avatar object when the display condition of the second gift object to be displayed is satisfied. The second image processing unit is caused to function as a second image processing unit, and the second image processing unit displays the second gift object according to a scenario, and the first user displays the moving image from the middle of the scenario within a predetermined period. is started, the display of the second gift object is started from the scene corresponding to the distribution start point of the moving image.

上記課題を解決する情報処理方法は、動画をディスプレイに表示するコンピュータが、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理ステップと、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1表示処理ステップと、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理ステップとを実行し、前記第2画像処理ステップでは、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する。 In the information processing method for solving the above problems, a computer that displays a moving image on a display generates a moving image of a first avatar object that reflects the movement of the first user and a second avatar object that reflects the movement of the second user. a first display processing step of displaying the first gift object in response to the transmission of a display request by the viewing user viewing the moving image as a trigger for display; and a display request transmitted by the viewing user display the second gift object associated with the first avatar object and display the second gift object associated with the second avatar object when the display condition of the second gift object displayed without the base is satisfied; and a second image processing step of displaying, in the second image processing step, displaying the second gift object according to a scenario, and displaying the second gift object from the middle of the scenario within a predetermined period of time. starts distributing the moving image, the display of the second gift object is started from the scene corresponding to the start point of distribution of the moving image.

上記課題を解決する情報処理装置は、動画をユーザ装置のディスプレイに表示する情報処理装置であって、第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する。 An information processing device that solves the above problem is an information processing device that displays a moving image on a display of a user device, and includes data for drawing a first avatar object that reflects the movement of a first user; a drawing data transmitting step of transmitting data for drawing a second avatar object reflecting the movement of the moving image to the user device; a first display processing step of transmitting a request for displaying an object to the user device; a display request transmitting step of transmitting to the user device a display request for the second gift object associated with one avatar object and a display request for the second gift object associated with the second avatar object; In the request transmission step, a request for displaying the second gift object is transmitted to the user device according to a scenario, and the first user starts distribution of the moving image from the middle of the scenario within a predetermined period. case, a request to display the second gift object corresponding to the scene corresponding to the distribution start time of the moving image is transmitted to the user device.

上記課題を解決する情報処理装置の情報処理方法は、動画をユーザ装置のディスプレイに表示する情報処理装置が実行する情報処理方法であって、前記情報処置装置が、第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する。 An information processing method for an information processing device that solves the above problems is an information processing method executed by an information processing device that displays a moving image on a display of a user device, wherein the information processing device reflects movement of a first user. a drawing data transmission step of transmitting to the user device data for drawing a first avatar object that reflects the movement of the second user and data for drawing a second avatar object that reflects the movement of the second user; a first display processing step of transmitting a request for displaying the first gift object to the user device using transmission of a display request by the viewing user as a trigger for display; display request for the second gift object associated with the second avatar object together with the display request for the second gift object associated with the first avatar object when the display condition for the second gift object associated with the second gift object is satisfied. a display request transmission step of transmitting the display request to the user device, and in the display request transmission step, a display request of the second gift object is transmitted to the user device according to a scenario; When the first user starts distribution of the moving image in the middle of the scenario, a request to display the second gift object corresponding to the scene corresponding to the start of distribution of the moving image is transmitted to the user device.

本発明によれば、配信ユーザに提供されるオブジェクトの表示の機会を適切に設けることによって、視聴ユーザを飽きさせない動画を配信することができる。 According to the present invention, by appropriately providing opportunities for displaying objects provided to distribution users, it is possible to distribute moving images that do not bore viewing users.

一実施形態における動画配信システムの一実施形態を示す模式図。1 is a schematic diagram showing one embodiment of a video distribution system according to one embodiment; FIG. 同実施形態のユーザ管理情報の一部のデータ構造を示す図。The figure which shows the data structure of some user management information of the same embodiment. 同実施形態における現実世界での配信ユーザとユーザ装置との位置関係を示す図。The figure which shows the positional relationship of the delivery user and user device in the real world in the same embodiment. 同実施形態におけるアバターオブジェクトの動作方向を示す図。The figure which shows the action direction of the avatar object in the same embodiment. 同実施形態のギフトオブジェクトの表示方法を示す図。The figure which shows the display method of the gift object of the same embodiment. 同実施形態のゲストアバターオブジェクトの表示方法を示す図。The figure which shows the display method of the guest avatar object of the same embodiment. 同実施形態のゲストアバターオブジェクトの表示方法を示す図。The figure which shows the display method of the guest avatar object of the same embodiment. 同実施形態のユーザ装置に表示される配信画面を示す図。The figure which shows the delivery screen displayed on the user device of the same embodiment. 同実施形態のユーザ装置に表示されるコラボレーション配信の承認画面を示す図。The figure which shows the approval screen of collaboration delivery displayed on the user device of the same embodiment. 同実施形態のユーザ装置に表示されるコラボレーション配信時の配信画面を示す図。The figure which shows the delivery screen at the time of collaboration delivery displayed on the user device of the same embodiment. 同実施形態のユーザ装置に表示されるギフトオブジェクトを含む配信画面を示す図。The figure which shows the delivery screen containing a gift object displayed on the user device of the same embodiment. 同実施形態のユーザ装置に表示されるコラボレーション配信時の画面であって、エモート機能が発現された画面を示す図。FIG. 11 is a view showing a screen displayed on the user device of the embodiment at the time of collaboration distribution, and showing a screen in which an emote function is exhibited; 同実施形態のユーザ装置に表示されるコラボレーション配信時の画面であって、一つのエモート機能が発現された画面を示す図。FIG. 10 is a screen displayed on the user device of the embodiment at the time of collaboration distribution, and is a diagram showing a screen in which one emote function is exhibited; 同実施形態のユーザ装置に表示されるコラボレーション配信時の画面であって、他のエモート機能が発現された画面を示す図。FIG. 11 is a screen displayed on the user device of the embodiment at the time of collaboration distribution, and is a diagram showing a screen in which another emote function is exhibited; 同実施形態のユーザ装置に表示されるギフトオブジェクトを含む配信画面を示す図。The figure which shows the delivery screen containing a gift object displayed on the user device of the same embodiment. 同実施形態におけるギフトオブジェクトの表示のタイミングを示すチャート。4 is a chart showing the timing of displaying gift objects in the same embodiment. 同実施形態におけるコラボレーション配信及びギフトオブジェクトの表示の手順のシーケンスチャート。4 is a sequence chart of procedures for collaboration distribution and display of gift objects in the same embodiment. 同実施形態におけるギフトオブジェクトの表示の手順のフローチャート。4 is a flow chart of the procedure for displaying a gift object in the same embodiment; 変形例のコラボレーション配信及びギフトオブジェクトの表示の手順のシーケンスチャート。FIG. 11 is a sequence chart of procedures for collaboration distribution and gift object display according to a modification; FIG. 変形例の動画配信システムの模式図。The schematic diagram of the moving image delivery system of a modification.

以下、図面を参照して動画配信システムの一実施形態について説明する。本実施形態の動画配信システムは、ユーザの動きに応じて動くアバターオブジェクトを三次元仮想空間に表示した動画を配信するものである。 An embodiment of a video distribution system will be described below with reference to the drawings. The moving picture distribution system of this embodiment distributes a moving picture in which an avatar object that moves according to a user's movement is displayed in a three-dimensional virtual space.

<動画配信システム>
図1に示すように、動画配信システム11は、ユーザ装置12とサーバ13とを備える。動画配信システム11は、複数のユーザ装置12とサーバ13との間でネットワーク14を介してデータを送受信することによりユーザ装置12に動画を表示するシステムである。ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされている。以下、動画を配信するユーザを「配信ユーザ」、配信ユーザによって配信された動画を視聴するユーザを「視聴ユーザ」という。ユーザは、動画を視聴資する場合は視聴ユーザであり、動画を配信する場合は配信ユーザである。また、「配信ユーザ」及び「視聴ユーザ」を区別しない場合には、単に「ユーザ」という。
<Video distribution system>
As shown in FIG. 1 , the moving image distribution system 11 includes a user device 12 and a server 13 . The moving image distribution system 11 is a system that displays moving images on the user devices 12 by transmitting and receiving data between the plurality of user devices 12 and the server 13 via the network 14 . A moving image application program for viewing and distributing moving images is installed in the user device 12 . Hereinafter, a user who distributes a video is called a "distribution user", and a user who views a video distributed by the distribution user is called a "viewing user". A user is a viewing user when viewing a moving image, and a distribution user when distributing a moving image. Also, when the "distribution user" and the "viewing user" are not distinguished from each other, they are simply referred to as "users."

ユーザ装置12は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ、眼鏡型のウェアラブル端末等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置である。ユーザ装置12は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。 The user device 12 is a wearable computer such as a smart phone (multi-function phone terminal), a tablet terminal, a personal computer, a console game machine, a head-mounted display, an eyeglass-type wearable terminal, and information processing capable of reproducing moving images other than these devices. It is a device. The user device 12 may be a stand-alone device that operates independently, or may be composed of a plurality of devices connected to each other so as to be able to transmit and receive various data.

ユーザ装置12は、制御部20、ストレージ22(記憶媒体)、通信インターフェース(I/F)23を備える。制御部20は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、NPU(Neural network Processing Unit)等の1乃至複数の演算回路を備える。また、制御部20は、演算回路が読み出し及び書き込みが可能な主記憶装置(記録媒体)であるメモリを備える。メモリは、半導体メモリ等から構成される。制御部20は、ストレージ22又は外部ストレージからオペレーティングシステムやその他のプログラムをメモリに読み込み、メモリから取り出した命令を実行する。通信I/F23は、ネットワーク14を介して、サーバ13及び他のユーザ装置12とデータを送受信することができる。ネットワーク14は、ローカルエリアネットワーク、インターネット等、各種のネットワークを含む。 The user device 12 includes a control unit 20 , a storage 22 (storage medium), and a communication interface (I/F) 23 . The control unit 20 includes one or more arithmetic circuits such as a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), and an NPU (Neural network Processing Unit). The control unit 20 also includes a memory that is a main storage device (recording medium) that can be read from and written to by the arithmetic circuit. The memory is composed of a semiconductor memory or the like. The control unit 20 loads an operating system and other programs from the storage 22 or external storage into memory and executes commands retrieved from the memory. The communication I/F 23 can transmit and receive data to and from the server 13 and other user devices 12 via the network 14 . The network 14 includes various networks such as a local area network and the Internet.

ストレージ22は、補助記憶装置(記録媒体)であり、例えば、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体である。ストレージ22は、複数のストレージを組み合わせて用いることもできる。ストレージ22には、動画アプリケーションプログラム220、アバターオブジェクトを描画するためのアバターデータ221、オブジェクトデータ222、及びユーザ管理情報223が格納されている。 The storage 22 is an auxiliary storage device (recording medium), such as a magnetic disk, an optical disk, or a semiconductor memory. The storage 22 can also be used by combining multiple storages. The storage 22 stores a video application program 220 , avatar data 221 for drawing avatar objects, object data 222 , and user management information 223 .

制御部20は、動画アプリケーションプログラム220を実行することにより、サーバ13から各種のデータを適宜取得する。また、制御部20は、動画アプリケーションプログラム220を実行することにより、ユーザの指示を受け付けてユーザ自身が動画を配信する配信モードと、他の配信ユーザが配信する動画を視聴する視聴モードとを切り替える。 The control unit 20 appropriately acquires various data from the server 13 by executing the video application program 220 . In addition, by executing the video application program 220, the control unit 20 switches between a distribution mode in which the user himself/herself distributes videos in response to user instructions and a viewing mode in which videos distributed by other distribution users are viewed. .

アバターデータ221は、アバターオブジェクトを描画するための3次元モデルデータである。ユーザ装置12は、アバターデータ221を更新するデータを、動画アプリケーションプログラム220を起動した場合等、サーバ13から所定のタイミングで取得する。アバターデータは、アバターオブジェクト本体を描画するためのデータ、アバターオブジェクト本体に適用されるテクスチャデータ等を含んでいる。アバターオブジェクト本体を描画するためのデータには、ポリゴンデータ、アバターオブジェクトの動作を表現するための骨格データ(ボーン)等が含まれる。アバターデータ221は、複数体のアバターオブジェクト本体を描画するためのデータを含んでいてもよい。テクスチャデータには、アバターオブジェクトに対して適用可能な複数のパーツデータが含まれている。例えば「目」、「眉」、「耳」、「服」等のカテゴリ毎に複数のパーツデータが準備されている。ユーザは、パーツデータを選択し、アバターオブジェクト本体に適用して、アバターオブジェクトを作成する。ユーザによって選択されたアバターオブジェクト本体とパーツデータとの組み合わせは、ストレージ22に記録される。 Avatar data 221 is three-dimensional model data for drawing an avatar object. The user device 12 acquires data for updating the avatar data 221 from the server 13 at a predetermined timing, such as when the video application program 220 is activated. The avatar data includes data for drawing the avatar object body, texture data applied to the avatar object body, and the like. The data for drawing the main body of the avatar object includes polygon data, skeleton data (bone) for expressing the motion of the avatar object, and the like. The avatar data 221 may include data for drawing multiple avatar object bodies. The texture data includes multiple parts data applicable to the avatar object. For example, a plurality of parts data are prepared for each category such as "eyes", "eyebrows", "ears", and "clothes". The user selects part data and applies it to the avatar object body to create an avatar object. A combination of the avatar object main body and parts data selected by the user is recorded in the storage 22 .

オブジェクトデータ222は、所定のタイミングでサーバ13からダウンロードされるデータである。オブジェクトデータ222は、アバターオブジェクト以外のオブジェクトに関する情報である。アバターオブジェクト以外のオブジェクトには、配信ユーザが表示させることのできるオブジェクト、視聴ユーザから配信ユーザに提供されるギフトオブジェクトが含まれる。ギフトオブジェクトの種類の一つとして、アバターオブジェクトの特定の部位と関連付けて表示画面に表示される装着オブジェクトがある。装着オブジェクトは、例えば、装着オブジェクトに装着されるアクセサリー(帽子、めがね等)、衣服(Tシャツ等)、及びこれら以外のアバターオブジェクトに装着可能なオブジェクトである。その他のオブジェクトとして、例えば、花火や炎等の2次元の画像や2次元のパーティクルからなるものや、ぬいぐるみや花束を模した3次元座標を有するオブジェクトが挙げられる。 The object data 222 is data downloaded from the server 13 at a predetermined timing. Object data 222 is information about objects other than avatar objects. Objects other than avatar objects include objects that broadcast users can display and gift objects provided to broadcast users by viewing users. One type of gift object is a wearable object that is displayed on the display screen in association with a specific part of the avatar object. The wearable objects are, for example, accessories (hats, glasses, etc.) and clothes (T-shirts, etc.) to be worn by the wearable objects, and other objects that can be worn by the avatar object. Other objects include, for example, two-dimensional images such as fireworks and flames, two-dimensional particles, and objects with three-dimensional coordinates that imitate stuffed animals and bouquets.

また、オブジェクトは、物理的挙動を行うオブジェクトであってもよい。具体的には、オブジェクトは、重力による落下、力の付与による運動等といった物理的挙動をシミュレーションするものであってもよい。物理挙動オブジェクトには、物理的挙動をシミュレーションするためのコンポーネント(プログラム)が、実行可能に関連付けられている。 The object may also be an object that performs physical behavior. Specifically, the object may simulate physical behavior such as falling due to gravity, motion due to application of force, and the like. A component (program) for simulating physical behavior is executable associated with the physical behavior object.

ユーザ管理情報223は、ユーザの識別情報(ユーザID)、初期設定されているアバターオブジェクトの情報等を含む。なお、ユーザ管理情報223は、ユーザの識別情報(ユーザID)、コイン等の購入媒体、ポイント、配信状況等を含んでいてもよい。 The user management information 223 includes user identification information (user ID), information on initially set avatar objects, and the like. The user management information 223 may include user identification information (user ID), purchase media such as coins, points, distribution status, and the like.

また、ユーザ装置12は、センサユニット24、スピーカ25、マイク26、操作部27、ディスプレイ28を備える。センサユニット24、スピーカ25、マイク26、操作部27及びディスプレイ28の少なくとも一つは、制御部20と同じ装置として設けられていてもよく、制御部20を備える装置に接続する態様で設けられていてもよい。 The user device 12 also includes a sensor unit 24 , a speaker 25 , a microphone 26 , an operation section 27 and a display 28 . At least one of the sensor unit 24, the speaker 25, the microphone 26, the operation unit 27, and the display 28 may be provided as the same device as the control unit 20, and is provided in a manner connected to a device including the control unit 20. may

センサユニット24は、ユーザの表情の変化を示すフェイスモーション、及びセンサユニット24に対するユーザの身体の相対位置の変化を示すボディモーションを検出する1乃至複数のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニット24は、公知の物を使用することができる。センサユニット24の一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニット24は、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDAR」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニット24の演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。 The sensor unit 24 is one or more sensors that detect face motion, which indicates changes in the user's facial expression, and body motion, which indicates changes in the relative position of the user's body with respect to the sensor unit 24 . Face motion includes movements such as blinking and opening and closing the mouth. A well-known thing can be used for the sensor unit 24 . An example of the sensor unit 24 is a ToF sensor that measures and detects the time of flight until light emitted toward the user is reflected by the user's face and the like, and a camera that captures the user's face. and an image processing unit for image processing data captured by the camera. Moreover, the sensor unit 24 may include an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light. RGB cameras and near-infrared cameras use, for example, the True Depth of "iphoneX (registered trademark)", or "LIDAR" of "iPad Pro (registered trademark)", and other ToF sensors installed in smartphones. Is possible. Specifically, this camera projects tens of thousands of invisible dots onto the user's face or the like using a dot projector. The reflected light of the dot pattern is then detected and analyzed to form a depth map of the face, and an infrared image of the face or the like is captured to capture accurate face data. The arithmetic processing unit of the sensor unit 24 generates various information based on the depth map and the infrared image, compares the information with registered reference data, and determines the depth of each point on the face (each point and the near-infrared camera , and the positional deviation other than the depth is calculated.

また、センサユニット24は、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニット24は、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサをさらに含むものであってもよい。センサユニット24は、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニット24の画像処理部は、制御部20が備えていてもよい。 Also, the sensor unit 24 may have a function of tracking not only the face of the user but also the hand (hand tracking). The sensor unit 24 may further include sensors other than the above sensors, such as an acceleration sensor and a gyro sensor. The sensor unit 24 has a spatial mapping function of recognizing an object in the real space where the user exists based on the detection results of the ToF sensor and other known sensors and mapping the recognized object on a spatial map. good. In the following description, face motion detection data and body motion detection data will simply be referred to as "tracking data" when they are not distinguished from each other. Note that the image processing section of the sensor unit 24 may be included in the control section 20 .

スピーカ25は、音声データを音声に変換して出力する。マイク26は、ユーザが発話した音声を入力し、音声データに変換する。ディスプレイ28は、制御部20の出力指示に応じて、各種画像を出力する。操作部27は、ユーザ装置12の種類に応じたものを用いることができる。操作部27の一例は、ディスプレイ28と一体化されたタッチパネルや、ユーザ装置12の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部27の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行したりすることができる。なお、センサユニット24がハンドトラック機能等の入力インターフェース機能も有する場合には、操作部27は省略可能である。 The speaker 25 converts the audio data into audio and outputs it. The microphone 26 receives voice uttered by the user and converts it into voice data. The display 28 outputs various images according to output instructions from the control unit 20 . The operation unit 27 can be used according to the type of the user device 12 . Examples of the operation unit 27 include a touch panel integrated with the display 28, operation buttons provided on the housing of the user device 12, a keyboard, a mouse, a controller manually operated by the user, and the like. The controller may incorporate various known sensors such as an acceleration sensor and an inertial measurement sensor (IMU: Inertial Measurement Unit) such as a gyro. Another example of the operation unit 27 may be a tracking device that identifies the user's hand movement, eye movement, head movement, line-of-sight direction, and the like. In this aspect, for example, based on the movement of the user's hand, the user's instruction is determined, the distribution of the video is started or ended, the message or video is evaluated, and a predetermined object (for example, a gift described later) is displayed. Various operations such as requests can be executed. It should be noted that if the sensor unit 24 also has an input interface function such as a hand track function, the operating section 27 can be omitted.

制御部20は、ストレージ22に記憶された動画アプリケーションプログラム220を実行することにより、アプリケーション管理部201、表示制御部202として機能する。アプリケーション管理部201は、動画アプリケーションプログラムの主な制御を司る。アプリケーション管理部201は、操作部27を通じて入力されたユーザの要求又はサーバ13からの要求等を取得し、それらの要求の内容に応じて表示制御部202へ要求を出力する。また、アプリケーション管理部201は、表示制御部202からの要求や各種データをサーバ13へ送信したり、センサユニット24から取得したトラッキングデータをサーバ13に送信したりする。また、アプリケーション管理部201は、サーバ13から受信した各種データをストレージ22に記録する。 The control unit 20 functions as an application management unit 201 and a display control unit 202 by executing a video application program 220 stored in the storage 22 . The application management unit 201 is in charge of main control of the moving image application program. The application management unit 201 acquires requests from the user input through the operation unit 27 or requests from the server 13, and outputs requests to the display control unit 202 according to the content of those requests. The application management unit 201 also transmits requests and various data from the display control unit 202 to the server 13 and transmits tracking data acquired from the sensor unit 24 to the server 13 . The application management unit 201 also records various data received from the server 13 in the storage 22 .

表示制御部202は、配信モードにおいて、アバターデータ221に、センサユニット24から取得したトラッキングデータを適用してアニメーションを生成する。また、表示制御部202は、アバターオブジェクト、アバターオブジェクト以外のオブジェクトを含めてレンダリングを行う。ここでいうレンダリングは、仮想カメラの位置の取得、透視投影、隠面消去(ラスタ化)等が含まれる描画処理をいう。レンダリングは、これらのうち少なくとも一つの処理であってもよいし、シェーディング、テクスチャマッピング等の処理を含んでいてもよい。また、表示制御部202は、レンダリングされた画像を用いてアニメーションを生成する。さらに表示制御部202は、アニメーションと、視聴ユーザのユーザ装置12から送信された投稿メッセージ、又はサーバ13から送信された通知等とを合成した動画データをディスプレイ28に出力する。 In the distribution mode, the display control unit 202 applies the tracking data obtained from the sensor unit 24 to the avatar data 221 to generate animation. In addition, the display control unit 202 performs rendering including avatar objects and objects other than avatar objects. Rendering here refers to drawing processing including acquisition of the position of the virtual camera, perspective projection, hidden surface removal (rasterization), and the like. Rendering may be at least one of these processes, or may include processes such as shading and texture mapping. Also, the display control unit 202 generates an animation using the rendered image. Furthermore, the display control unit 202 outputs to the display 28 moving image data obtained by synthesizing the animation and the posted message transmitted from the user device 12 of the viewing user or the notification transmitted from the server 13 .

表示制御部202は、配信モードにおいて、マイク26から入力した音声データと動画データとを同期させて、ディスプレイ28に出力する。さらに、表示制御部202は、動画データ及び音声データをエンコードする。アプリケーション管理部201は、エンコードしたデータをサーバ13に送信する。 In the distribution mode, the display control unit 202 synchronizes the audio data and moving image data input from the microphone 26 and outputs them to the display 28 . Further, the display control unit 202 encodes moving image data and audio data. The application management unit 201 transmits the encoded data to the server 13 .

また、表示制御部202は、視聴モードにおいて、サーバ13から受信した配信ユーザのトラッキングデータをアバターデータ221に適用してアニメーションを生成する。また、サーバ13から受信したアバターオブジェクト以外のオブジェクト、投稿メッセージ等を合わせてディスプレイ28に出力する。さらに、表示制御部202は、サーバ13から受信した音声データを動画と同期させてスピーカ25から出力する。 Also, in the viewing mode, the display control unit 202 applies the distribution user tracking data received from the server 13 to the avatar data 221 to generate animation. Also, objects other than the avatar object received from the server 13, posted messages, etc. are output to the display 28 together. Furthermore, the display control unit 202 synchronizes the audio data received from the server 13 with the moving image and outputs it from the speaker 25 .

次にサーバ13について説明する。サーバ13は、動画を配信するためのサービスを提供するサービス提供者等が用いるものである。サーバ13は、制御部30と、通信I/F34と、ストレージ35とを備えている。制御部30は、ユーザ装置12の制御部20と同様な構成である。制御部30は、複数の演算回路を組み合わせて構成されていてもよい。また、通信I/F34及びストレージ35は、ユーザ装置12と同様な構成である。サーバ13は1つの装置から構成されていてもよく、複数の装置から構成されていてもよい。サーバ13が複数の装置から構成される場合、それらの装置は、制御部30の機能、ストレージ35に格納された各種のデータを分散して備える。 Next, the server 13 will be explained. The server 13 is used by a service provider or the like who provides services for distributing moving images. The server 13 has a control unit 30 , a communication I/F 34 and a storage 35 . The control unit 30 has the same configuration as the control unit 20 of the user device 12 . The control unit 30 may be configured by combining a plurality of arithmetic circuits. Also, the communication I/F 34 and the storage 35 have the same configuration as the user device 12 . The server 13 may consist of one device, or may consist of a plurality of devices. When the server 13 is composed of a plurality of devices, these devices have the functions of the control unit 30 and various data stored in the storage 35 in a distributed manner.

ストレージ35には、配信プログラム353が格納されている。制御部30は、配信プログラム353を実行することにより、配信管理部301、購入処理部302として機能する。 A distribution program 353 is stored in the storage 35 . The control unit 30 functions as a distribution management unit 301 and a purchase processing unit 302 by executing the distribution program 353 .

配信管理部301は、ユーザ装置12から受信した各種データをストレージ35に記憶するとともに、ユーザ装置12から受信した購入要求等に基づき、購入処理部302に要求を出力する。さらに、配信管理部301は、ユーザ装置12から要求されたデータをストレージ35等から取得してユーザ装置12に送信する。具体的には、配信管理部301は、視聴ユーザが用いるユーザ装置12からの要求に応じて、配信中の動画のリストを送信する。配信管理部301は、リストの中から選択された動画の識別情報をユーザ装置12から受信する。また、配信管理部301は、選択された動画の配信ユーザが用いるユーザ装置12から取得したトラッキングデータ等をユーザ装置12に送信する。また、配信管理部301は、配信中の動画に対して視聴ユーザから投稿された投稿メッセージ等を受信する。さらに配信管理部301は、受信した投稿メッセージを、配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。投稿メッセージには、メッセージの内容の他、視聴ユーザの識別情報(ユーザのアカウント名等)、投稿日時等が含まれる。また、動画に表示されるメッセージには「ユーザAさん入室しました」の通知メッセージも含まれる。 The distribution management unit 301 stores various data received from the user device 12 in the storage 35 , and outputs a request to the purchase processing unit 302 based on the purchase request received from the user device 12 . Furthermore, the distribution management unit 301 acquires data requested by the user device 12 from the storage 35 or the like and transmits the data to the user device 12 . Specifically, the distribution management unit 301 transmits a list of videos being distributed in response to a request from the user device 12 used by the viewing user. The distribution management unit 301 receives the identification information of the moving image selected from the list from the user device 12 . In addition, the distribution management unit 301 transmits the tracking data and the like acquired from the user device 12 used by the distribution user of the selected moving image to the user device 12 . In addition, the distribution management unit 301 receives a posted message or the like posted by the viewing user for the video being distributed. Furthermore, the distribution management unit 301 transmits the received posted message to the user device 12 of the distribution user and the user device 12 of the viewing user. The posted message includes, in addition to the content of the message, identification information of the viewing user (user account name, etc.), posted date and time, and the like. In addition, the message displayed in the moving image also includes a notification message "Mr. A has entered the room".

配信管理部301は、視聴ユーザが用いるユーザ装置12から、視聴中の動画へのオブジェクトの表示要求を受信する。表示要求が行われるオブジェクトは仮想空間内に表示されるオブジェクトであって、視聴ユーザから、動画を配信する配信ユーザに提供されるギフトオブジェクト、動画を好評価する評価オブジェクト等を含む。ギフトオブジェクトは、対価を支払わずに表示要求を行うことのできるものであってもよく、対価を払うことによって表示要求を行うものであってもよい。又は、ギフトオブジェクトは、表示要求に応じて表示がなされた場合に対価を支払うものであってもよい。配信管理部301は、ギフトオブジェクトの表示要求を、ギフトオブジェクトの識別情報とともに配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。サーバ13は、ギフトオブジェクトの表示要求がサーバ13によって受け付けられたとき、又は表示要求に対する配信ユーザによる所定の操作がなされたとき等、所定のタイミングで、「ユーザBさんが花火を贈りました」等の通知メッセージを配信ユーザのユーザ装置12及び視聴ユーザのユーザ装置12に送信する。 The distribution management unit 301 receives a request to display an object in the moving image being viewed from the user device 12 used by the viewing user. Objects for which a display request is made are objects displayed in the virtual space, and include gift objects provided by viewing users to distribution users who distribute moving images, evaluation objects that evaluate moving images favorably, and the like. A gift object may be an object that can be requested to be displayed without paying a price, or a gift object that can be requested to be displayed by paying a price. Alternatively, the gift object may be paid for when it is displayed in response to a display request. The distribution management unit 301 transmits a gift object display request to the user device 12 of the distribution user and the user device 12 of the viewing user together with the identification information of the gift object. When the server 13 receives the display request of the gift object, or when the distribution user performs a predetermined operation in response to the display request, the server 13 sends "User B gave fireworks" at a predetermined timing. and other notification messages to the user devices 12 of the broadcasting users and the user devices 12 of the viewing users.

購入処理部302は、ユーザの操作に従って、オブジェクトの購入処理を行う。購入処理には、動画アプリケーションプログラム内で利用可能なコイン、ポイント、チケット等の対価(媒体)を支払う処理が含まれる。また、購入処理には、オブジェクトの交換、売却、譲渡の処理を含めてもよい。また、購入処理部302は、対価が支払われることにより、複数のオブジェクトの中から所定数のオブジェクトが選択される抽選(ガチャ)を実行するようにしてもよい。購入処理部302は、購入されたオブジェクトを、ユーザに関連付けてユーザ装置12及びサーバ13の少なくとも一方に記録する。配信モード(又は配信を開始する前のクローゼットモード)においてユーザがオブジェクトを購入したとき、購入処理部302は、購入したオブジェクトの識別情報を購入したユーザに関連付けてストレージ35に記憶してもよい。また、視聴モードにおいてユーザがオブジェクトを購入すると、購入処理部302は、購入したオブジェクトの識別情報を、動画を配信する配信ユーザに関連付けてストレージ35に記憶してもよい。購入可能なオブジェクトの売上は、例えば配信ユーザ及びサービス提供者に分配される。 The purchase processing unit 302 performs object purchase processing according to the user's operation. The purchase process includes a process of paying consideration (medium) such as coins, points, and tickets that can be used within the video application program. Also, the purchase process may include the process of exchanging, selling, or transferring an object. Also, the purchase processing unit 302 may execute a lottery (gacha) in which a predetermined number of objects are selected from among a plurality of objects by paying a price. The purchase processing unit 302 records the purchased object in at least one of the user device 12 and the server 13 in association with the user. When a user purchases an object in the distribution mode (or the closet mode before starting distribution), the purchase processing unit 302 may store the identification information of the purchased object in the storage 35 in association with the user who purchased the object. Also, when the user purchases an object in the viewing mode, the purchase processing unit 302 may store the identification information of the purchased object in the storage 35 in association with the distribution user who distributes the moving image. Sales of purchasable objects are distributed, for example, to broadcast users and service providers.

次に、サーバ13のストレージ35に格納された各種のデータについて説明する。ストレージ35には、配信プログラム353のほか、ユーザ管理データ350、アバターデータ351、オブジェクトデータ352が格納されている。 Next, various data stored in the storage 35 of the server 13 will be described. The storage 35 stores user management data 350 , avatar data 351 , and object data 352 in addition to a distribution program 353 .

ユーザ管理データ350は、動画アプリケーションプログラムを用いるユーザに関する情報である。アバターデータ351は、アバターオブジェクトを描画するためのマスターとなるデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。 The user management data 350 is information on users who use the moving image application program. Avatar data 351 is master data for drawing an avatar object, and is transmitted to user device 12 in response to a request from user device 12 .

オブジェクトデータ352は、ギフトオブジェクトを描画するためのマスターとなるデータであって、ユーザ装置12の要求に応じて、ユーザ装置12に送信される。オブジェクトデータ352には、ポリゴンデータ等のギフトオブジェクトを描画するためのデータの他、ギフトオブジェクトの属性情報が含まれる。 The object data 352 is master data for drawing a gift object, and is transmitted to the user device 12 in response to a request from the user device 12 . The object data 352 includes data for drawing the gift object such as polygon data, as well as attribute information of the gift object.

次に図2を参照して、ユーザ管理データ350について説明する。ユーザ管理データ350は、ユーザ毎に記憶されている。ユーザ管理データ350は、ユーザの識別情報(ユーザID)、コイン等の購入媒体、ポイント、配信状況等を含む。コインは、ユーザによって購入されたものである。ポイントは、配信を行ったとき、イベントに参加したとき、又はオブジェクト等を売却したとき等、所定のタイミングでユーザに付与される。配信状況は、ユーザが動画を配信している間に受け付けたギフトオブジェクトの識別情報、メッセージに関する情報等を含む。なお、ユーザ管理データ350には、コイン及びポイントのいずれかのみが格納されていてもよい。 Next, referring to FIG. 2, the user management data 350 will be described. User management data 350 is stored for each user. The user management data 350 includes user identification information (user ID), purchase media such as coins, points, delivery status, and the like. Coins are purchased by users. Points are given to the user at a predetermined timing such as when distribution is performed, when participating in an event, or when an object or the like is sold. The delivery status includes identification information of gift objects received by the user while the video is being delivered, information on messages, and the like. Note that the user management data 350 may store only either coins or points.

<ギフトオブジェクト>
次に、ギフトオブジェクトについて説明する。本実施形態では、ギフトオブジェクトには、視聴ユーザが用いるユーザ装置12による表示要求の送信を契機として表示される第1ギフトオブジェクトと、視聴ユーザが送信した表示要求を契機とせずに表示される第2ギフトオブジェクトとが含まれる。第2ギフトオブジェクトは、動画の配信状況が第2ギフトオブジェクトの表示条件を満たした場合に、サーバ13が配信プログラム353を実行することにより動画に表示される。なお、第1ギフトオブジェクト及び第2ギフトオブジェクトを区別しないで説明する場合には、単にギフトオブジェクトとして説明する。
<Gift Object>
Next, the gift object will be explained. In the present embodiment, the gift objects include the first gift object that is displayed when the user device 12 used by the viewing user transmits a display request, and the second gift object that is displayed without being triggered by the display request transmitted by the viewing user. 2 gift objects. The second gift object is displayed in the moving image by the server 13 executing the distribution program 353 when the distribution status of the moving image satisfies the display conditions for the second gift object. In addition, when explaining without distinguishing a 1st gift object and a 2nd gift object, it demonstrates simply as a gift object.

第2ギフトオブジェクトの表示条件の一例は、予め定めた期間内に動画の配信が開始されたことである。例えば「19:00~20:00」等の予め定めた期間内に動画が配信された場合、動画配信時点から所定時間経過後に提供オブジェクトが動画に表示される。又は、予め定めた期間内に動画が配信されたことを条件に、配信ユーザが、第2ギフトオブジェクトの表示のタイミングを決定するようにしてもよい。この場合、例えば第2ギフトオブジェクトの表示を実行するための操作部を画面に表示し、配信ユーザによる操作部の操作を受け付けた場合に第2ギフトオブジェクトを表示してもよい。 An example of the condition for displaying the second gift object is that the distribution of the moving image has started within a predetermined period. For example, when a moving image is distributed within a predetermined period such as "19:00 to 20:00", the provided object is displayed in the moving image after a predetermined period of time has passed since the distribution of the moving image. Alternatively, the distribution user may determine the timing of displaying the second gift object on the condition that the moving image is distributed within a predetermined period. In this case, for example, an operation unit for executing display of the second gift object may be displayed on the screen, and the second gift object may be displayed when an operation of the operation unit by the distribution user is received.

第2ギフトオブジェクトの表示条件は、動画の配信に関する条件であればよい。例えば表示条件の他の一例は、配信回数、複数回の動画の配信時間を累積した累積配信時間が所定値を満たしたことであってもよい。また、第2ギフトオブジェクトの表示条件の他の一例は、予め定めたアバターオブジェクトやその他のオブジェクトを用いて動画を配信することであってもよい。 The display condition of the second gift object may be a condition related to distribution of moving images. For example, another example of the display condition may be that the number of times of distribution and the cumulative distribution time obtained by accumulating the distribution times of a plurality of moving images satisfy a predetermined value. Another example of the display condition of the second gift object may be distributing a moving image using a predetermined avatar object or other objects.

なお、配信状況が第2ギフトオブジェクトの表示条件を満たしたことに代えて若しくは加えて、視聴状況が第2ギフトオブジェクトの表示条件が満たした場合に、第2ギフトオブジェクトを表示するようにしてもよい。視聴状況とは、例えば視聴者数、ユーザ一人当たりの視聴時間、動画を視聴する視聴ユーザの視聴時間を累積した累積視聴時間等である。これらが所定値以上である場合に第2ギフトオブジェクトを表示してもよいし、これらが所定値未満である場合に第2ギフトオブジェクトを表示するようにしてもよい。 Note that the second gift object may be displayed when the viewing status satisfies the display condition of the second gift object instead of or in addition to the distribution status satisfying the display condition of the second gift object. good. The viewing status is, for example, the number of viewers, the viewing time per user, the accumulated viewing time obtained by accumulating the viewing time of the viewing user who views the moving image, and the like. The second gift object may be displayed when these are equal to or greater than a predetermined value, and the second gift object may be displayed when these are less than the predetermined value.

<動画配信方法>
動画の配信方式としては、配信ユーザが用いるユーザ装置12が動画データを生成しエンコードして視聴ユーザが用いるユーザ装置12に送信する映像配信方式と、配信ユーザが用いるユーザ装置12に加え視聴ユーザが用いるユーザ装置12が動画の生成に必要なデータを取得して動画を生成するクライアントレンダリング方式がある。本実施形態では、クライアントレンダリング方式でユーザ装置12に動画を表示させる方法について説明する。なお、配信ユーザが用いるユーザ装置12が生成した動画データを用いて、視聴ユーザが用いるユーザ装置12がオブジェクト等のレンダリングやそのほかの画像処理を行うハイブリッド方式であってもよく、またはサーバ13で動画を生成する方式であってもよく、その他の動画の配信方式であってもよい。
<Video distribution method>
As a video distribution method, there is a video distribution method in which the user device 12 used by the distribution user generates, encodes, and transmits video data to the user device 12 used by the viewing user, and in addition to the user device 12 used by the distribution user, the viewing user There is a client rendering method in which the user device 12 used acquires data necessary for generating a moving image and generates a moving image. In this embodiment, a method of displaying a moving image on the user device 12 using the client rendering method will be described. Note that a hybrid method may be used in which the user device 12 used by the viewing user performs rendering of objects and other image processing using video data generated by the user device 12 used by the distribution user. may be used, or another moving image distribution method may be used.

<オブジェクトの描画>
次に図3~図8を参照して、動画におけるアバターオブジェクト及びその他のオブジェクトの描画方法について説明する。
<Drawing an object>
Next, a method of drawing an avatar object and other objects in a moving image will be described with reference to FIGS. 3 to 8. FIG.

図3は、配信ユーザ100と配信ユーザ100が用いるユーザ装置12を示す。ここでは、ユーザ装置12はスマートフォンである。なお、配信モードに設定されたユーザ装置12を、説明の便宜上「配信ユーザ装置12A」という。配信ユーザ100は、アプリケーションプログラムを配信モードにする。また、配信ユーザ100は、少なくとも自身の顔がセンサユニット24の検出範囲101に含まれるように配信ユーザ装置12Aと対峙して、アプリケーションプログラムを実行する。なお、図3に示す検出範囲101は一例であって、図示する範囲に限定されるものではない。 FIG. 3 shows a broadcast user 100 and a user device 12 used by the broadcast user 100 . Here, the user device 12 is a smart phone. For convenience of explanation, the user device 12 set to the distribution mode will be referred to as a “distribution user device 12A”. The distribution user 100 puts the application program in distribution mode. Also, the distribution user 100 faces the distribution user device 12A so that at least his own face is included in the detection range 101 of the sensor unit 24, and executes the application program. Note that the detection range 101 shown in FIG. 3 is an example, and is not limited to the illustrated range.

配信ユーザ装置12Aは、センサユニット24から出力されたトラッキングデータをアバターデータ221に適用して、アニメーションを生成する。ユーザ装置12のディスプレイ28には、アバターオブジェクトを含む仮想空間の動画が表示される。仮想空間内の仮想カメラとアバターオブジェクトの相対距離は、配信ユーザ100とセンサユニット24との相対距離に応じて変化する。つまり、現実世界での相対距離が短くなるほど、仮想カメラとアバターオブジェクトの相対距離も短くなる。 The distribution user device 12A applies the tracking data output from the sensor unit 24 to the avatar data 221 to generate animation. The display 28 of the user device 12 displays a moving image of the virtual space including the avatar object. The relative distance between the virtual camera and the avatar object in the virtual space changes according to the relative distance between the distribution user 100 and the sensor unit 24 . That is, the shorter the relative distance in the real world, the shorter the relative distance between the virtual camera and the avatar object.

図4は、仮想空間102に配置されたアバターオブジェクト105と、アバターオブジェクト105に設定されたローカル座標系106を示す。ローカル座標系106は、3次元座標を有する個々のオブジェクトに設定された座標系である。仮想空間102の全体には、ワールド座標系103が設定されている。アバターオブジェクト105は、配信ユーザ100の操作部27の操作に基づき、ローカル座標系106を基準に動作する。 FIG. 4 shows an avatar object 105 placed in the virtual space 102 and a local coordinate system 106 set on the avatar object 105 . A local coordinate system 106 is a coordinate system set for each object having three-dimensional coordinates. A world coordinate system 103 is set in the entire virtual space 102 . The avatar object 105 operates based on the local coordinate system 106 based on the operation of the operation unit 27 of the distribution user 100 .

アバターオブジェクトの動作を制御する方法は特に限定されないが、例えば図4中の操作方向107の各々のうち、ユーザがユーザ装置12の操作部27であるタッチパネルを右方向にスワイプすると、アバターオブジェクト105は、ローカル座標系のZ軸を中心としたZ軸回転方向108に回転する。つまり、アバターオブジェクト105は、立ち位置を変更することなく、ローカル座標系106のZ軸を中心に自身からみて左に向かって回転する。このときアバターオブジェクト105は、スワイプ操作の長さに応じた回転量だけ回転する。同様に、配信ユーザ100が配信ユーザ装置12Aの操作部27を左方向にスワイプすると、アバターオブジェクト105は、ローカル座標系106のZ軸を中心としたZ軸回転方向108と反対方向に回転する。 Although the method of controlling the action of the avatar object is not particularly limited, for example, in each of the operation directions 107 in FIG. , rotates in the Z-axis rotation direction 108 about the Z-axis of the local coordinate system. That is, the avatar object 105 rotates leftward as viewed from itself around the Z-axis of the local coordinate system 106 without changing its standing position. At this time, the avatar object 105 rotates by an amount corresponding to the length of the swipe operation. Similarly, when the broadcast user 100 swipes the operation unit 27 of the broadcast user device 12A leftward, the avatar object 105 rotates about the Z axis of the local coordinate system 106 in the direction opposite to the Z-axis rotation direction 108 .

また、配信ユーザ100が配信ユーザ装置12Aの操作部27を上方向にスワイプすると、アバターオブジェクト105は、ローカル座標系106のX軸を中心としたX軸回転方向109に回転する。つまり、アバターオブジェクト105は、ワールド座標系103のZ方向であって、三次元仮想空間の上方を仰ぎ見る。同様に配信ユーザ100が配信ユーザ装置12Aの操作部27を下方向にスワイプすると、アバターオブジェクト105は、ローカル座標系のX軸を中心としたX軸回転方向109と反対方向に回転する。つまり、アバターオブジェクト105は、ワールド座標系103のZ方向と逆方向であって、仮想空間の下方を見る。 Also, when the broadcast user 100 swipes the operation unit 27 of the broadcast user device 12A upward, the avatar object 105 rotates in the X-axis rotation direction 109 about the X-axis of the local coordinate system 106 . That is, the avatar object 105 looks up in the Z direction of the world coordinate system 103 and upward in the three-dimensional virtual space. Similarly, when broadcast user 100 swipes operation unit 27 of broadcast user device 12A downward, avatar object 105 rotates in the direction opposite to X-axis rotation direction 109 about the X-axis of the local coordinate system. In other words, the avatar object 105 looks in the direction opposite to the Z direction of the world coordinate system 103 and below the virtual space.

また、アバターオブジェクト105には、エモート機能(表現機能)が適用可能である。エモート機能とは、動画アプリケーションプログラム220が発現可能な機能の一つであり、アバターオブジェクトの動作や表情を発動する機能であって、アバターオブジェクト105の手、腕、頭部等の部位の各階層に関連付けられたコンポーネントである。アバターオブジェクト105には、例えば「拍手」、「手を振る」、「手を合わせる」、「ピース」等の所定数の基本的なエモート機能が適用可能となっている。例えば「手を振る」には、アバターオブジェクト105の「右手」の階層に、手を振るアニメーションが関連付けられている。配信ユーザ100は、操作部27に対し所定の操作を行って、それらのエモート機能のうち一つを選択する。配信ユーザ装置12Aは、選択されたエモート機能をアバターオブジェクト105に適用し、アバターオブジェクト105を動作させる。 Also, an emote function (expression function) can be applied to the avatar object 105 . The emote function is one of the functions that can be expressed by the video application program 220, and is a function that activates the actions and facial expressions of the avatar object. is the component associated with the . The avatar object 105 can be applied with a predetermined number of basic emote functions such as "clapping", "waving", "putting hands together", and "peace". For example, "waving hand" is associated with the "right hand" layer of the avatar object 105 with a hand waving animation. The distribution user 100 performs a predetermined operation on the operation unit 27 to select one of these emote functions. The broadcast user device 12A applies the selected emote function to the avatar object 105 to cause the avatar object 105 to act.

次に図5を参照して、ギフトオブジェクトの描画について説明する。ギフトオブジェクトの各々は、仮想空間102における表示領域又は表示位置が関連付けられている。表示領域又は表示位置は仮想空間102の座標で表されている。ギフトオブジェクトの表示位置は、オブジェクトの種類によって異なる。例えばユーザ装置12は、「ぬいぐるみ」等のギフトオブジェクト111をアバターオブジェクト105の前方領域110の何れかの位置に表示する。ユーザ装置12又はサーバ13は、アバターオブジェクト105の前方領域110のうち、表示位置をランダムに選択する。このとき、ユーザ装置12は、ギフトオブジェクト111を仮想空間の上方から下方に向かって移動させてもよい。また、ギフトオブジェクト111は前方領域110に出現した後、前方領域110内で移動してもよい。 Rendering of the gift object will now be described with reference to FIG. Each gift object is associated with a display area or display position in the virtual space 102 . The display area or display position is represented by coordinates in the virtual space 102 . The display position of the gift object differs depending on the type of object. For example, the user device 12 displays a gift object 111 such as a “stuffed toy” at any position in the front area 110 of the avatar object 105 . The user device 12 or the server 13 randomly selects a display position in the front area 110 of the avatar object 105 . At this time, the user device 12 may move the gift object 111 downward in the virtual space. Also, the gift object 111 may move within the front area 110 after appearing in the front area 110 .

また、ユーザ装置12は、例えば「掛け軸」等のギフトオブジェクト113を、アバターオブジェクト105の後方領域の予め指定された複数の表示位置112のいずれかに表示する。表示位置112には、順番が割り振られている。ユーザ装置12は、この表示位置112が関連付けられたギフトオブジェクト113を、順番に従って複数の表示位置112のうち選択された一の表示位置112に配置する。 Also, the user device 12 displays a gift object 113 such as a “hanging scroll” at one of a plurality of display positions 112 specified in advance in the area behind the avatar object 105 . An order is assigned to the display positions 112 . The user device 12 arranges the gift object 113 associated with this display position 112 in one display position 112 selected from among the plurality of display positions 112 in order.

サーバ13が、視聴ユーザが用いるユーザ装置12から、表示位置112に関連付けられたオブジェクトであって、表示位置112の数を超えるギフトオブジェクト113の表示要求を受信した場合について説明する。表示位置112にギフトオブジェクトが表示されていない状態で、サーバ13が「オブジェクト1」で示されるギフトオブジェクト113、「オブジェクト2」で示されるギフトオブジェクト113を受信した場合には、ユーザ装置12はサーバ13から送信された指示に従って表示位置112の各々に、順番に従ってギフトオブジェクト113を表示する。 A case will be described in which the server 13 receives, from the user device 12 used by the viewing user, a display request for gift objects 113 that are associated with the display positions 112 and exceed the number of display positions 112 . When the server 13 receives the gift object 113 indicated by "object 1" and the gift object 113 indicated by "object 2" while no gift object is displayed at the display position 112, the user device 12 displays the server The gift objects 113 are displayed in order at each of the display positions 112 according to the instructions sent from 13 .

そして、表示位置112に空きが無い状態において、サーバ13が新たに「オブジェクト3」で示すギフトオブジェクト113、「オブジェクト4」で示すギフトオブジェクト113の表示要求を視聴ユーザのユーザ装置から受信すると、サーバ13は、それらのギフトオブジェクト113の識別情報を待機列114に追加する。なお、説明の便宜上、図5に待機列114を模式的に表示しているが、待機列114に追加されたギフトオブジェクト113は画面に表示されない。 When the server 13 receives a new display request for the gift object 113 indicated by "object 3" and the gift object 113 indicated by "object 4" from the user device of the viewing user in a state where there is no space in the display position 112, the server 13 adds the identification information of those gift objects 113 to the queue 114 . For convenience of explanation, the waiting queue 114 is schematically displayed in FIG. 5, but the gift object 113 added to the waiting queue 114 is not displayed on the screen.

待機列114に追加されたギフトオブジェクト113は、表示位置112に表示される順番を待機する。ユーザ装置12は、既に表示されたギフトオブジェクト113について、非表示条件が満たされると非表示とする。非表示条件は、ギフトオブジェクト113の表示時間が所定時間に達すること、動画の配信終了時刻又は配信終了時刻よりも所定時間前に達すること、配信ユーザ又は視聴ユーザがギフトオブジェクトを非表示とする操作を行ったこと等である。例えば「オブジェクト1」のギフトオブジェクト113の非表示条件が満たされるとユーザ装置12はギフトオブジェクト113を非表示とする。その結果、ギフトオブジェクト113が表示されていた表示位置112が空く。次いで、ユーザ装置12は、サーバ13からの要求に基づき、待機列114の先頭のギフトオブジェクト113を、図5中の矢印115に示すように、空いた表示位置112に表示する。また、サーバ13は、待機列114で待機するギフトオブジェクト113が残っている場合には、図5中の矢印116に示すように待機の順番を繰り上げる。 The gift object 113 added to the waiting queue 114 waits for its turn to be displayed at the display position 112 . The user device 12 hides the already displayed gift object 113 when the non-display condition is satisfied. The non-display condition is that the display time of the gift object 113 reaches a predetermined time, that the distribution end time of the moving image or reaches a predetermined time before the distribution end time, and that the distribution user or the viewing user hides the gift object. etc. For example, the user device 12 hides the gift object 113 when the condition for hiding the gift object 113 of "object 1" is satisfied. As a result, the display position 112 where the gift object 113 was displayed becomes free. Next, based on the request from the server 13, the user device 12 displays the gift object 113 at the head of the waiting line 114 at the vacant display position 112 as indicated by the arrow 115 in FIG. Also, when there are gift objects 113 waiting in the waiting queue 114, the server 13 advances the waiting order as indicated by the arrow 116 in FIG.

待機列114に追加されるギフトオブジェクト113は、第1ギフトオブジェクトのみであってもよいし、第1ギフトオブジェクト及び第2ギフトオブジェクトが混じっていてもよい。第1ギフトオブジェクト及び第2ギフトオブジェクトが同じ表示位置112に関連付けられている場合、サーバ13は、表示要求を受信した又は第2ギフトオブジェクトを表示すると判定したタイミングで、それらのギフトオブジェクトの識別情報を待機列114に追加する。 The gift objects 113 added to the waiting queue 114 may be only the first gift objects, or may be a mixture of the first gift objects and the second gift objects. When the first gift object and the second gift object are associated with the same display position 112, the server 13 receives the display request or determines to display the second gift object, and displays the identification information of those gift objects. is added to the queue 114 .

他の態様として、第1ギフトオブジェクト及び第2ギフトオブジェクトが同じ表示位置112に関連付けられており、同じ期間内に、サーバ13が第1ギフトオブジェクトの表示要求をユーザ装置12から受信し、サーバ13が配信プログラム353に従って第2ギフトオブジェクトを表示すると判定した場合、第1ギフトオブジェクト及び第2ギフトオブジェクトのいずれかを優先させてもよい。例えば、サーバ13は、第1ギフトオブジェクトの表示を優先させてもよい。この場合、待機列114に第2ギフトオブジェクトの識別情報が含まれていても、その第2ギフトオブジェクトよりも前の順番に、第1オブジェクトの識別情報を割り当てて、第2ギフトオブジェクトよりも先に表示してもよい。同様に、サーバ13は、第2ギフトオブジェクトの表示を優先させてもよい。この場合、待機列114に第1ギフトオブジェクトの識別情報が含まれていても、第1ギフトオブジェクトよりも先に表示してもよい。 As another aspect, the first gift object and the second gift object are associated with the same display position 112, and within the same time period, the server 13 receives the display request for the first gift object from the user device 12, and the server 13 determines to display the second gift object according to the delivery program 353, either the first gift object or the second gift object may be prioritized. For example, the server 13 may give priority to displaying the first gift object. In this case, even if the identification information of the second gift object is included in the waiting queue 114, the identification information of the first object is assigned in the order before the second gift object, and the second gift object is preceded by the identification information of the second gift object. may be displayed in Similarly, the server 13 may prioritize the display of the second gift object. In this case, even if the identification information of the first gift object is included in the waiting queue 114, it may be displayed before the first gift object.

他の態様として、待機列114に第2ギフトオブジェクトを追加せず、待機列114に含まれる全ての第1ギフトオブジェクトの表示が完了するのを待って、第2ギフトオブジェクトを表示するようにしてもよい。具体的には、サーバ13は、第2ギフトオブジェクトを表示すると判定すると、第1ギフトオブジェクトの表示要求の受信を停止する。このとき、ユーザ装置12にギフトオブジェクトの一覧を表示させないようにしてもよいし、ギフトオブジェクトの一覧を表示するがギフトオブジェクトを選択不可能としてもよい。 As another mode, the second gift object is displayed after waiting for the display of all the first gift objects included in the waiting queue 114 to be completed without adding the second gift object to the waiting queue 114. good too. Specifically, when the server 13 determines to display the second gift object, it stops receiving the display request for the first gift object. At this time, the list of gift objects may not be displayed on the user device 12, or the list of gift objects may be displayed but the selection of gift objects may be disabled.

他の態様として、イベントに参加する場合等、動画の配信開始時点において第2ギフトオブジェクトを表示することが決定している場合には、サーバ13は、動画の配信開始時点から少なくとも第2ギフトオブジェクトの表示終了時点まで第1ギフトオブジェクトの表示要求を受け付けなくてもよい。 As another aspect, when it is decided to display the second gift object at the start of distribution of the moving image, such as when participating in an event, the server 13 displays at least the second gift object from the start of distribution of the moving image. The display request for the first gift object may not be accepted until the display of .

また、第2ギフトオブジェクトが表示されている期間においては、全ての第1ギフトオブジェクトを表示しないようにしてもよい。これは、例えば、第2ギフトオブジェクトは背景を含む規模の大きいものである場合があり、表示要求が行われた第1ギフトオブジェクトが第2ギフトオブジェクトの世界観に合わなかったり、第1ギフトオブジェクトがアバターオブジェクト105や他のオブジェクトと意図しない干渉を生じるおそれがあったりするためである。この態様において、第2ギフトオブジェクトが表示されている期間等の所定期間中に、サーバ13が、第1ギフトオブジェクトの表示要求を受け付けないようにしてもよい。又は、サーバ13は、第2ギフトオブジェクトが表示されている期間中に第1ギフトオブジェクトの表示要求を受け付け可能とし、第2ギフトオブジェクトの表示が終了した場合に、第1ギフトオブジェクトを表示するようにしてもよい。 Also, during the period in which the second gift object is displayed, all the first gift objects may not be displayed. This is because, for example, the second gift object may be large in scale including the background, and the first gift object requested to be displayed does not match the worldview of the second gift object, or the first gift object may cause unintended interference with the avatar object 105 or other objects. In this aspect, the server 13 may not accept the display request of the first gift object during a predetermined period such as the period during which the second gift object is displayed. Alternatively, the server 13 can receive a display request for the first gift object while the second gift object is being displayed, and display the first gift object when the display of the second gift object is finished. can be

次に図6及び図7を参照して、コラボレーション配信(共演機能)について説明する。コラボレーション配信では、複数の配信ユーザが自身のアバターオブジェクトを一つの動画に表示させることができる。本実施形態では、配信ユーザがコラボレーション配信を許可又は禁止する設定を行い、視聴ユーザが、コラボレーション配信が許可された配信中の動画に自身に対応するアバターオブジェクトを表示させる。コラボレーション配信に参加するにあたり、視聴ユーザが用いるユーザ装置12は、サーバ13を介して、配信ユーザ100が用いるユーザ装置12に参加要請を送信する。配信ユーザが参加要請を承認すると、配信ユーザ100がホストユーザ、参加要請を行った視聴ユーザがゲストユーザとなる。 Next, with reference to FIGS. 6 and 7, collaboration delivery (co-starring function) will be described. In collaborative distribution, multiple distribution users can display their own avatar objects in one moving image. In this embodiment, the distribution user makes settings to permit or prohibit collaboration distribution, and the viewing user displays an avatar object corresponding to himself/herself in the video being distributed for which collaboration distribution is permitted. When participating in the collaboration distribution, the user device 12 used by the viewing user transmits a participation request to the user device 12 used by the distribution user 100 via the server 13 . When the distribution user approves the participation request, the distribution user 100 becomes the host user, and the viewing user who made the participation request becomes the guest user.

図6は、ホストユーザに対応するアバターオブジェクト(以下、ホストアバターオブジェクト105A)とゲストユーザに対応するアバターオブジェクト(以下、ゲストアバターオブジェクト120)とを模式的に示している。なお、ホストアバターオブジェクト105Aは第1アバターオブジェクト、ゲストアバターオブジェクト120は第2アバターオブジェクトにそれぞれ対応する。 FIG. 6 schematically shows an avatar object corresponding to the host user (hereinafter referred to as host avatar object 105A) and an avatar object corresponding to the guest user (hereinafter referred to as guest avatar object 120). The host avatar object 105A corresponds to the first avatar object, and the guest avatar object 120 corresponds to the second avatar object.

ホストアバターオブジェクト105Aとともに共演が可能なゲストアバターオブジェクト120の数(以下、共演可能数)は予め決められている。サーバ13が、ユーザ装置12から、同じ期間に共演可能数以上の表示要求を受信した場合、表示要求の受け付けの順番に従ってゲストアバターオブジェクト120を表示する。まず最も先に表示要求が受け付けられたゲストアバターオブジェクト120を、ホストアバターオブジェクト105Aの隣等の表示位置121に表示する。そして、2番目以降に表示要求が受け付けられたゲストアバターオブジェクト120の識別情報を共演待機列122に追加する。図6では「ゲスト2」で示すゲストアバターオブジェクト120の識別情報、「ゲスト3」で示すゲストアバターオブジェクト120の識別情報が順に追加される。なお、説明の便宜上、図6に共演待機列122を模式的に表示しているが、共演待機列122に追加されたゲストアバターオブジェクト120は画面に表示されない。 The number of guest avatar objects 120 that can co-star with the host avatar object 105A (hereinafter referred to as the number of co-stars) is predetermined. When the server 13 receives from the user device 12 display requests equal to or greater than the co-starring number during the same period, the guest avatar object 120 is displayed according to the order of reception of the display requests. First, the guest avatar object 120 whose display request is accepted first is displayed at the display position 121 such as next to the host avatar object 105A. Then, the identification information of the guest avatar object 120 whose display request has been accepted after the second time is added to the co-star queue 122 . In FIG. 6, the identification information of the guest avatar object 120 indicated by "guest 2" and the identification information of the guest avatar object 120 indicated by "guest 3" are added in this order. For convenience of explanation, the co-starring waiting queue 122 is schematically displayed in FIG. 6, but the guest avatar object 120 added to the co-starring waiting queue 122 is not displayed on the screen.

また、コラボレーション配信を行う場合、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に関連付けて第2ギフトオブジェクト125を表示することができる。例えば、第2ギフトオブジェクト125は、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に装着される装着ギフトオブジェクトであってもよい。また、第2ギフトオブジェクト125は、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に適用されるエモート機能、又はエモート機能及びオブジェクトであってもよい。なお、第2ギフトオブジェクトとして提供されるエモート機能は、上述した基本機能以外のエモート機能である。 Also, when performing collaborative distribution, the second gift object 125 can be displayed in association with the host avatar object 105A and the guest avatar object 120 . For example, second gift object 125 may be an attached gift object attached to host avatar object 105A and guest avatar object 120 . Second gift object 125 may also be an emote function or an emote function and object applied to host avatar object 105A and guest avatar object 120 . The emote function provided as the second gift object is an emote function other than the basic functions described above.

例えば、第2ギフトオブジェクトとしてのエモート機能は、同じく第2ギフトオブジェクトであるエモートオブジェクト125Aを持ち上げたり、振ったり、操作したりする機能であってもよい。具体的には、アバターオブジェクトの手や腕等の階層に、エモートオブジェクト125Aを関連付けるとともに、部位のアニメーションが関連付けられる。例えばアバターオブジェクトの「ジョッキ」であるエモートオブジェクト125Aを持ち上げる、「旗」を振る、「銃」を撃つ等である。基本機能以外のエモート機能は、サービス提供者等が新たに作成するのに比較的多くの工数が必要となるものであるため、「めがね」等の他のギフトオブジェクトに比べアプリケーション内での付加価値が高い。例えば、第1ギフトオブジェクトとしてエモート機能を提供する場合には、エモート機能以外の第1ギフトオブジェクトよりもコイン等の対価が高くなっている。特に初心者ユーザにとってはエモート機能を第1ギフトオブジェクトとして提供されることは稀である。しかし第2ギフトオブジェクトとして配信ユーザ100に提供することで、配信ユーザ100は、人気の有無、視聴ユーザ数に関係なく、基本機能以外のエモート機能を体験することができる。なお、第2ギフトオブジェクト125としてのエモート機能は、エモート機能が発現される前からアバターオブジェクト105に関連付けられていてもよい。エモート機能が提供された場合、ユーザ装置12は、サーバ13から、エモート機能を指定する識別情報と、そのエモート機能を発現するための指令とを受信する。そして、ユーザ装置12は、受信したエモート機能の識別情報及び指令に基づき、エモート機能を所定のタイミングで発現可能な状態とする。このように、ユーザ装置12が、各種のエモート機能のコンポーネントを予めダウンロードしておくことによって、動画配信中にエモート機能を第2ギフトオブジェクト125として提供された場合の通信量が少なくなる。よって、第2ギフトオブジェクト125としてエモート機能が提供された直後に、エモート機能を発現することも可能である。 For example, the emote function as the second gift object may be a function of lifting, shaking, or manipulating the emote object 125A, which is also the second gift object. Specifically, the layer of the avatar object such as hands and arms is associated with the emote object 125A and the animation of the part. For example, the emote object 125A, which is the avatar object's "stein", is lifted, the "flag" is waved, the "gun" is shot, and the like. Emote functions other than basic functions require a relatively large number of man-hours for service providers to newly create them, so compared to other gift objects such as "glasses", added value within the application is high. For example, in the case of providing an emote function as the first gift object, the price, such as coins, is higher than that of the first gift object other than the emote function. Especially for a novice user, it is rare that the emote function is provided as the first gift object. However, by providing the distribution user 100 as the second gift object, the distribution user 100 can experience the emote function other than the basic function regardless of popularity or the number of viewing users. Note that the emote function as the second gift object 125 may be associated with the avatar object 105 before the emote function is manifested. When the emote function is provided, the user device 12 receives from the server 13 identification information designating the emote function and a command for manifesting the emote function. Then, based on the received identification information and command of the emote function, the user device 12 puts the emote function into a state in which it can be activated at a predetermined timing. In this manner, the user device 12 downloads components of various emote functions in advance, thereby reducing the amount of communication when the emote function is provided as the second gift object 125 during video distribution. Therefore, it is also possible to express the emote function immediately after the emote function is provided as the second gift object 125 .

また、エモート機能は、適用対象のアバターオブジェクト105が設定されている。例えば、エモート機能は、同じ「ジョッキを持ち上げる」という動作であっても、その適用対象として、アバターオブジェクト105に設定された性別(女性、男性)が設定されていてもよい。又は、エモート機能は、適用対象として、アバターオブジェクト105の年齢(子供、大人)、身長、人種、種別(人間、動物)が設定されていてもよい。ゲストアバターオブジェクト120は、退出条件が満たされると画面から退出し非表示となる。退出条件は、ホストアバターオブジェクト105Aが共演を開始した時点から経過した表示時間が所定時間に達すること、配信ユーザ又は視聴ユーザがゲストアバターオブジェクト120を退出させる操作を行ったこと等である。 Also, the avatar object 105 to which the emote function is applied is set. For example, the emote function may be applied to the gender (female, male) set for the avatar object 105, even though it is the same action of “lifting the mug”. Alternatively, the age (child, adult), height, race, and type (human, animal) of the avatar object 105 may be set as application targets for the emote function. The guest avatar object 120 exits the screen and becomes invisible when the exit condition is satisfied. The leaving condition is that the display time that has elapsed since the co-starring of the host avatar object 105A has reached a predetermined time, that the broadcasting user or the viewing user has performed an operation to leave the guest avatar object 120, and the like.

図7に示すように、ゲストアバターオブジェクト120の退出条件が満たされると、ユーザ装置12は、矢印126に示すようにゲストアバターオブジェクト120を表示位置121から退出させる。これにより、ゲストアバターオブジェクト120が表示されていた表示位置121が空く。ユーザ装置12は、矢印127に示すように、その空いた表示位置121に、共演待機列122の先頭のゲストアバターオブジェクト120を表示させる。なお、退出したゲストアバターオブジェクト120に代わって表示されるゲストアバターオブジェクト120は第3アバターオブジェクトに対応する。図6及び図7に示す例では「ゲスト2」のゲストアバターオブジェクト120を表示位置121に表示させる。また、サーバ13は、矢印128に示すように、共演待機列122で待機するギフトオブジェクトがある場合には、その順番を繰り上げる。図6及び図7に示す例では「ゲスト3」のゲストアバターオブジェクト120の順番を繰り上げる。 As shown in FIG. 7 , when the exit condition for guest avatar object 120 is satisfied, user device 12 causes guest avatar object 120 to exit display position 121 as indicated by arrow 126 . As a result, the display position 121 where the guest avatar object 120 was displayed becomes free. The user device 12 displays the first guest avatar object 120 in the co-star waiting queue 122 at the vacant display position 121 as indicated by an arrow 127 . The guest avatar object 120 displayed in place of the guest avatar object 120 that has left corresponds to the third avatar object. In the example shown in FIGS. 6 and 7, the guest avatar object 120 of “guest 2” is displayed at the display position 121. FIG. In addition, as indicated by an arrow 128, the server 13 advances the order of gift objects waiting in the co-play waiting queue 122 if any. In the example shown in FIGS. 6 and 7, the order of the guest avatar object 120 of "guest 3" is advanced.

ゲストアバターオブジェクト120に第2ギフトオブジェクト125が関連付けられて表示されている場合、ユーザ装置12は、ゲストアバターオブジェクト120が退出すると同時に第2ギフトオブジェクト125も非表示とする。第2ギフトオブジェクト125は、ゲストアバターオブジェクト120とともに画面外へ移動させてもよいし、退出条件が満たされた直後に消滅させて非表示としてもよい。 When the guest avatar object 120 is associated with the second gift object 125 and displayed, the user device 12 hides the second gift object 125 at the same time when the guest avatar object 120 leaves. The second gift object 125 may be moved out of the screen together with the guest avatar object 120, or may be extinguished and hidden immediately after the exit condition is satisfied.

そして、ユーザ装置12は、新たなゲストアバターオブジェクト120を表示すると、そのゲストアバターオブジェクト120に関連付けて新たな第2ギフトオブジェクト125を新たに表示する。例えば第2ギフトオブジェクトがエモート機能であった場合、新たなゲストアバターオブジェクト120にエモート機能を関連付ける。このとき、ユーザ装置12は、ゲストアバターオブジェクト120の各々に同じ第2ギフトオブジェクト125を関連付ける。なお、提供されたエモート機能が、オブジェクトの表示を伴わなくてもよい。この場合、エモート機能は演出ギフトである。 Then, when the new guest avatar object 120 is displayed, the user device 12 newly displays the new second gift object 125 in association with the guest avatar object 120 . For example, if the second gift object was an emote function, associate the new guest avatar object 120 with the emote function. User device 12 then associates the same second gift object 125 with each of the guest avatar objects 120 . It should be noted that the emote functionality provided does not have to involve the display of objects. In this case, the emote function is a performance gift.

他の態様として、ユーザ装置12は、サーバ13の要求に基づいて、ゲストアバターオブジェクト120毎に第2ギフトオブジェクト125を変更してもよい。このとき、サーバ13は、複数の異なる第2ギフトオブジェクト125を含むオブジェクト群から一つ又は複数の第2ギフトオブジェクト125を選択し、選択した第2ギフトオブジェクト125をゲストアバターオブジェクト120に関連付けて表示してもよい。この態様において、サーバ13は、ゲストアバターオブジェクト120と第2ギフトオブジェクト125とを予め関連付けたデータを用いて、ゲストアバターオブジェクト120を表示した際に、そのゲストアバターオブジェクト120に関連付けられた第2ギフトオブジェクト125を表示するようにしてもよい。又はゲストアバターオブジェクト120の属性情報に基づいて第2ギフトオブジェクト125を表示するようにしてもよい。属性情報は、特に限定されないが、ゲストアバターオブジェクトが属するグループ、希少度、身長や性別や設定年齢等であってもよい。例えば女性のゲストアバターオブジェクト120には、女性用の装着オブジェクトである第2ギフトオブジェクト125を表示してもよい。また、サーバ13は、乱数を用いた方法等、所定の抽選方法を用いて第2ギフトオブジェクト125を選択するようにしてもよい。 Alternatively, user device 12 may change second gift object 125 for each guest avatar object 120 based on a request from server 13 . At this time, the server 13 selects one or a plurality of second gift objects 125 from an object group including a plurality of different second gift objects 125, and displays the selected second gift objects 125 in association with the guest avatar object 120. You may In this aspect, the server 13 uses data that associates the guest avatar object 120 and the second gift object 125 in advance, and when the guest avatar object 120 is displayed, the second gift associated with the guest avatar object 120 is displayed. Object 125 may be displayed. Alternatively, the second gift object 125 may be displayed based on the attribute information of the guest avatar object 120. FIG. The attribute information is not particularly limited, but may be the group to which the guest avatar object belongs, rarity level, height, gender, set age, and the like. For example, a female guest avatar object 120 may display a second gift object 125 that is a wearable object for females. Also, the server 13 may select the second gift object 125 using a predetermined lottery method such as a method using random numbers.

又は、ユーザ装置12は、特定のホストアバターオブジェクト105Aを用いて動画が配信された場合のみ、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120の少なくとも一方に第2ギフトオブジェクト125を関連付けて表示するようにしてもよい。また、ユーザ装置12は、特定のゲストアバターオブジェクト120が共演した場合のみ第2ギフトオブジェクト125を関連付けて表示するようにしてもよい。つまり、特定のゲストアバターオブジェクト120以外のゲストアバターオブジェクト120が共演した場合には、第2ギフトオブジェクト125を表示せず、特定のゲストアバターオブジェクト120が共演した場合には、そのゲストアバターオブジェクト120に第2ギフトオブジェクト125を関連付けて表示する。第2ギフトオブジェクト125が関連付けて表示されるゲストアバターオブジェクト120は、例えばアプリケーションプログラムのお知らせ画面やホーム画面でイベントの一つとして掲示するようにしてもよい。又は、第2ギフトオブジェクト125が関連付けて表示されるゲストアバターオブジェクト120は、予め通知されず、ホストアバターオブジェクト105Aと共演するまで、そのゲストアバターオブジェクト120に対し第2ギフトオブジェクト125が付与されるか否かがわからないようにしてもよい。 Alternatively, the user device 12 displays the second gift object 125 in association with at least one of the host avatar object 105A and the guest avatar object 120 only when a video is distributed using a specific host avatar object 105A. good too. Also, the user device 12 may associate and display the second gift object 125 only when a specific guest avatar object 120 co-stars. That is, when a guest avatar object 120 other than a specific guest avatar object 120 co-stars, the second gift object 125 is not displayed. The second gift object 125 is associated and displayed. The guest avatar object 120 displayed in association with the second gift object 125 may be posted as one of the events on the notification screen or home screen of the application program, for example. Alternatively, the guest avatar object 120 displayed in association with the second gift object 125 is not notified in advance, and the second gift object 125 is given to the guest avatar object 120 until co-starring with the host avatar object 105A. You may make it so that it is not known whether or not.

他の態様として、ホストアバターオブジェクト105Aに関連付けられて表示された第2ギフトオブジェクト125の一部又は全部は、そのホストアバターオブジェクト105Aに対応するホストユーザに付与されてよい。また、ゲストアバターオブジェクト120に関連付けられて表示された第2ギフトオブジェクト125の一部又は全部は、そのゲストアバターオブジェクト120に対応するゲストユーザに付与されてよい。この態様において、サーバ13は、第2ギフトオブジェクト125の一部又は全部を使用可能な状態として、ユーザに対応するユーザ管理情報223及びユーザ管理データ350を更新する。プレゼントとしてのオブジェクトや動作を付与されたユーザのユーザ装置12は、ユーザによる入力操作を受け付けて、オブジェクトを仮想空間102に表示したり、アバターオブジェクト105に動作を適用したりすることができる。 Alternatively, some or all of the second gift objects 125 displayed in association with the host avatar object 105A may be given to the host user corresponding to that host avatar object 105A. Also, part or all of the second gift object 125 displayed in association with the guest avatar object 120 may be given to the guest user corresponding to that guest avatar object 120 . In this aspect, the server 13 updates the user management information 223 and the user management data 350 corresponding to the user, making part or all of the second gift object 125 usable. The user device 12 of the user given the object or action as a gift can receive the user's input operation, display the object in the virtual space 102, or apply the action to the avatar object 105.

<画面構成>
次に図8~図15を参照してユーザ装置12に表示される配信画面について説明する。
図8は、配信ユーザ装置12Aに表示される配信画面150である。なお、視聴ユーザのユーザ装置12のディスプレイ28には、操作ボタン等は異なるが、同様のアニメーションが表示される。
<Screen configuration>
Next, distribution screens displayed on the user device 12 will be described with reference to FIGS. 8 to 15. FIG.
FIG. 8 shows a delivery screen 150 displayed on the delivery user device 12A. The same animation is displayed on the display 28 of the user device 12 of the viewing user, although the operation buttons and the like are different.

アバターオブジェクト105の顔は、配信ユーザの表情の変化に伴い変化し、アバターオブジェクト105の頭部は、配信ユーザの頭部の動きに伴い動く。また、上述したように、アバターオブジェクト105の位置は、配信ユーザ100とセンサユニット24との相対距離の変化に応じて変化する。配信画面150には、メッセージ151が所定期間表示される。メッセージ151は、視聴ユーザのユーザ装置12から送信されたメッセージ、サーバ13が自動的に送信したメッセージを含む。また、配信画面150には、各種の操作部が表示されている。例えば、配信画面150には、コメントボタン152、音声切替ボタン153、ゲームボタン154、外部動画表示ボタン155が表示されていてもよい。コメントボタン152を選択すると、配信ユーザがコメントを入力することができる。入力されたコメントは、動画に表示される。音声切替ボタン153が選択されると、音声の入力を切り替えることができる。ゲームボタン154を選択すると、動画内でゲームを開始することができる。外部動画表示ボタン155が選択されると、外部のサーバ又はサーバ13から、動画を取得する操作を開始することができる。コラボレーション設定ボタン156を選択すると、コラボレーション配信に関する設定を行う画面を表示することができる。また、配信画面150には、配信ユーザのオブジェクトデータ352に基づいて、動画内に表示可能なオブジェクトを選択するためのボタンを表示してもよい。さらに、配信ユーザは、コラボレーション配信中に視聴ユーザからギフトが贈られた場合に、ギフトを付与する対象として、動画に表示された複数のアバターオブジェクト105又はアバターオブジェクト105に対応する配信ユーザを選択できるようにしてもよい。なお、視聴ユーザのユーザ装置12に表示される視聴画面には、メッセージの入力欄、ギフトオブジェクトの表示要求を行うための表示要求送信ボタン、共演を要請するためのボタンが含まれる。 The face of the avatar object 105 changes as the distribution user's expression changes, and the head of the avatar object 105 moves as the distribution user's head moves. Also, as described above, the position of the avatar object 105 changes according to changes in the relative distance between the broadcast user 100 and the sensor unit 24 . A message 151 is displayed on the distribution screen 150 for a predetermined period. The messages 151 include messages sent from the viewing user's user device 12 and messages automatically sent by the server 13 . Various operation units are displayed on the delivery screen 150 . For example, the delivery screen 150 may display a comment button 152 , an audio switching button 153 , a game button 154 , and an external video display button 155 . Selecting the comment button 152 allows the broadcast user to enter a comment. The input comment is displayed on the video. When the voice switching button 153 is selected, voice input can be switched. Game button 154 can be selected to start a game within the animation. When the external video display button 155 is selected, an operation to acquire a video from an external server or server 13 can be started. When the collaboration setting button 156 is selected, a screen for setting the collaboration delivery can be displayed. Also, on the delivery screen 150, a button for selecting an object that can be displayed in the moving image may be displayed based on the object data 352 of the delivery user. Furthermore, when a viewing user gives a gift during collaboration distribution, the distribution user can select a plurality of avatar objects 105 displayed in the video or distribution users corresponding to the avatar objects 105 as objects to which the gift is given. You may do so. The viewing screen displayed on the user device 12 of the viewing user includes a message input field, a display request transmission button for requesting display of the gift object, and a button for requesting co-starring.

図9は、配信ユーザ装置12Aに表示される配信画面160である。視聴ユーザがユーザ装置12を用いて参加要請を送信するための操作を行うと、配信画面160には承認要請ウィンドウ162が表示される。承認要請ウィンドウ162には、承認を待機(否認)する待機ボタン163、及び承認を行う承認ボタン164が表示されている。承認ボタン164が選択されると、サーバ13は、コラボレーション配信の共演待機列122に、参加要請を行ったユーザに対応するアバターオブジェクトの識別情報を追加して、コラボレーション配信の参加リストを作成する。 FIG. 9 shows a delivery screen 160 displayed on the delivery user device 12A. When the viewing user performs an operation for sending a participation request using the user device 12 , an approval request window 162 is displayed on the distribution screen 160 . The approval request window 162 displays a standby button 163 for waiting (denying) approval and an approval button 164 for approval. When the approval button 164 is selected, the server 13 adds the identification information of the avatar object corresponding to the user who made the participation request to the collaboration distribution co-star waiting queue 122 to create a collaboration distribution participation list.

図10は、配信ユーザ装置12Aに表示されるコラボレーション配信画面170の一例を示す。なお、視聴ユーザのユーザ装置12のディスプレイ28にも同様の画面が表示される。コラボレーション配信画面170では、ホストユーザのホストアバターオブジェクト105Aと、ゲストユーザのゲストアバターオブジェクト120とが表示されている。ゲストアバターオブジェクト120は、ホストアバターオブジェクト105Aの隣の表示位置121に表示される。 FIG. 10 shows an example of a collaboration distribution screen 170 displayed on the distribution user device 12A. A similar screen is also displayed on the display 28 of the user device 12 of the viewing user. On the collaboration distribution screen 170, the host avatar object 105A of the host user and the guest avatar object 120 of the guest user are displayed. Guest avatar object 120 is displayed at display position 121 next to host avatar object 105A.

次に図11~図15を参照して第2ギフトオブジェクト125が表示される例について説明する。第2ギフトオブジェクト125は、動画の配信開始時点から表示されていてもよいし、動画の配信開始時点では表示されず、動画の途中で表示するようにしてもよい。動画の途中で第2ギフトオブジェクト125を表示するにあたり、第2ギフトオブジェクト125の表示前と表示後との間に大きな差があり、急に表示すると不自然な場合には、第2ギフトオブジェクト125の表示前と表示後との間に待機画面を表示するようにしてもよい。 Next, an example in which the second gift object 125 is displayed will be described with reference to FIGS. 11 to 15. FIG. The second gift object 125 may be displayed from the start of distribution of the moving image, or may not be displayed at the start of distribution of the moving image and may be displayed in the middle of the moving image. When displaying the second gift object 125 in the middle of the moving image, if there is a large difference between before and after the display of the second gift object 125 and it would be unnatural to display the second gift object 125 abruptly, the second gift object 125 A standby screen may be displayed between before and after the display of .

図11は、配信ユーザ装置12Aに表示される第2ギフトオブジェクトが表示された配信画面180を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様の画面が表示される。ここでの第2ギフトオブジェクト125は、「夜空」の背景125B、花火オブジェクト125Cのアニメーションを含む。なお、第1ギフトオブジェクトでは、背景125Bと背景125Bに合わせた花火オブジェクト125Cとを提供することはできない。例えば配信ユーザ100は、第2ギフトオブジェクト125の表示に合わせて、操作部27であるタッチパネルをスワイプし、アバターオブジェクト105を、アバターオブジェクト105からみて左方向に回転させるとともに、頭部を上方向に回転させて花火オブジェクト125Cを見上げるような姿勢にすることができる。 FIG. 11 shows a delivery screen 180 displaying a second gift object displayed on the delivery user device 12A. A similar screen is also displayed on the display 28 of the user device 12 of the viewing user. The second gift object 125 here includes a "night sky" background 125B and an animation of a fireworks object 125C. Note that the first gift object cannot provide the background 125B and the fireworks object 125C that matches the background 125B. For example, the distribution user 100 swipes the touch panel, which is the operation unit 27, in accordance with the display of the second gift object 125, rotates the avatar object 105 leftward as viewed from the avatar object 105, and turns the head upward. It can be rotated to take a posture of looking up at the fireworks object 125C.

この花火オブジェクト125Cを含む第2ギフトオブジェクト125は、例えばその表示条件を、配信ユーザ100のイベントへの参加としている。配信ユーザは、イベントが開催される所定の期間内に動画の配信を開始することでイベントに参加することができる。また、イベントは、現実世界の花火大会の開催期間と同期させてもよい。 The display condition of the second gift object 125 including the fireworks object 125C is, for example, the distribution user 100's participation in the event. A distribution user can participate in an event by starting distribution of the moving image within a predetermined period during which the event is held. The event may also be synchronized with the duration of a real-world fireworks display.

図12及び図13は、コラボレーション配信において、第2ギフトオブジェクト125としてエモート機能が提供された配信画面190を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様の画面が表示される。図12に示すように、配信画面190は、第2ギフトオブジェクト125として「キャンプ」の背景191を含む。背景191は、二次元画像であってもよいし、複数の三次元オブジェクトから構成されていてもよい。また、配信画面190は、ホストアバターオブジェクト105A、及びゲストアバターオブジェクト120の他、第2ギフトオブジェクト125としてホストアバターオブジェクト105Aに関連付けられたエモートオブジェクト125A及びゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aを含む。また、配信画面190は、第2ギフトオブジェクト125として、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に装着され且つ背景191に応じた装着オブジェクト193を含んでいてもよい。例えば、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に「キャンプ」に関連する服装を装着オブジェクトとして提供してもよい。この装着オブジェクトは、ホストユーザ及びゲストユーザが、その装着オブジェクトを所持していなくても表示される。 12 and 13 show a delivery screen 190 provided with an emote function as the second gift object 125 in collaboration delivery. A similar screen is also displayed on the display 28 of the user device 12 of the viewing user. As shown in FIG. 12, the delivery screen 190 includes a “camp” background 191 as the second gift object 125 . Background 191 may be a two-dimensional image, or may be composed of a plurality of three-dimensional objects. In addition to the host avatar object 105A and the guest avatar object 120, the delivery screen 190 displays the emote object 125A associated with the host avatar object 105A and the emote object 125A associated with the guest avatar object 120 as the second gift object 125. include. Also, the distribution screen 190 may include, as the second gift object 125 , an attached object 193 attached to the host avatar object 105 A and the guest avatar object 120 and corresponding to the background 191 . For example, host avatar object 105A and guest avatar object 120 may be provided with clothing related to "camping" as wearable objects. This mounted object is displayed even if the host user and guest user do not possess the mounted object.

配信画面190の場面におけるエモート機能は、エモートオブジェクト125Aである「ジョッキ」を持ち上げて「乾杯」の動作を行うこと、「ジョッキ」を持ったまま腕を下げること、「ジョッキ」で飲み物を飲む動作を行うこと、「ジョッキ」をテーブル等に置くことである。ホストユーザ又はゲストユーザが、配信画面190を長押しする等の所定の入力操作を行うと、エモート機能選択部192が表示される。エモート機能選択部192は、エモート機能の各々を選択可能になっている。例えばホストユーザが、ユーザ装置12の操作部27を操作してエモート機能を選択すると、ホストアバターオブジェクト105Aにエモート機能が適用される。ゲストユーザが、ユーザ装置12の操作部27を操作してエモート機能を選択すると、ゲストアバターオブジェクト120にエモート機能が適用される。なお、エモート機能選択部192は、選択操作部に対応する。 The emote function in the delivery screen 190 is to lift up the emote object 125A "Mug" to make a "cheers", to lower the arm while holding the "Mug", and to drink with the "Mug". and placing a "stein" on a table or the like. When the host user or guest user performs a predetermined input operation such as long-pressing the distribution screen 190, an emote function selection section 192 is displayed. The emote function selection unit 192 can select each emote function. For example, when the host user operates the operation unit 27 of the user device 12 to select the emote function, the emote function is applied to the host avatar object 105A. When the guest user operates the operation unit 27 of the user device 12 to select the emote function, the emote function is applied to the guest avatar object 120 . Note that the emote function selection unit 192 corresponds to the selection operation unit.

また、エモート機能が提供するアバターオブジェクト105の動作は、アバターオブジェクト105の位置を基準として定められる動作可能範囲内で行われるようにしてもよい。動作可能範囲は、例えば円筒状、球状、半球状等、仮想空間において3次元の座標を有する範囲として設定される。複数のアバターオブジェクト105がコラボレーション配信する場合には、アバターオブジェクト105の動作可能範囲の各々を互いに重ならないように設定してもよい。又は、アバターオブジェクト105の動作可能範囲の各々が重複する場合、一方のアバターオブジェクト105に属する部位が重複範囲に入ったとき、他方のアバターオブジェクト105に属する部位が重複範囲に入らないように制御してもよい。具体的には、ユーザ装置12が、アバターオブジェクト105の部位が重複範囲に含まれるか否かを判定し、部位が重複範囲に含まれる場合に他方のアバターオブジェクトの部位の重複範囲への進入を禁止する。また、アバターオブジェクト105の身長によって、動作方向を設定してもよい。例えば身長の高いアバターオブジェクト105が水平方向に「乾杯」の動作を行う際、身長の低いアバターオブジェクト105に干渉する可能性がある場合には、前者のアバターオブジェクト105の上方向又は正面の方向に動作させてもよい。これらの態様によれば、アバターオブジェクト105同士の干渉を抑制することができる。また、重複範囲を設ける場合には、アバターオブジェクト105を接近させた場合であっても干渉を抑制できる。 Also, the action of the avatar object 105 provided by the emote function may be performed within the operable range determined based on the position of the avatar object 105 . The operable range is set as a range having three-dimensional coordinates in the virtual space, such as cylindrical, spherical, or hemispherical. When a plurality of avatar objects 105 perform collaborative distribution, the operable ranges of the avatar objects 105 may be set so as not to overlap each other. Alternatively, when the operable ranges of the avatar objects 105 overlap each other, when a part belonging to one avatar object 105 enters the overlapping range, control is performed so that a part belonging to the other avatar object 105 does not enter the overlapping range. may Specifically, the user device 12 determines whether or not the part of the avatar object 105 is included in the overlap range, and if the part is included in the overlap range, the user device 12 instructs the other avatar object to enter the overlap range. prohibit. Also, the motion direction may be set according to the height of the avatar object 105 . For example, when a tall avatar object 105 makes a "Cheers" motion in the horizontal direction, if there is a possibility of interfering with a short avatar object 105, the former avatar object 105 may may operate. According to these aspects, interference between avatar objects 105 can be suppressed. In addition, when the overlap range is provided, interference can be suppressed even when the avatar object 105 is brought closer.

また、エモートオブジェクト125Aは、表示態様変化条件が満たされると、表示態様が変化する。表示態様変化条件は、例えばエモートオブジェクト125Aの表示が開始されてから所定時間経過したこと、例えば「飲む」等の所定のエモート機能の発現回数が所定回数に達したこと等である。初期状態のエモートオブジェクト125Aは、「飲み物が満杯」の状態であるが、所定時間経過すると「空」である遷移状態となる。 In addition, the display mode of the emote object 125A changes when the display mode change condition is satisfied. The display mode change condition is, for example, that a predetermined time has elapsed since the display of the emote object 125A was started, or that a predetermined emote function such as "drink" has been performed a predetermined number of times. The emote object 125A in the initial state is in the state of "full drink", but after a predetermined period of time has passed, it changes to the transition state of "empty".

ゲストアバターオブジェクト120が退出すると、ゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aも非表示となる。このとき、ゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aを非表示とするとタイミングと同時に、ホストアバターオブジェクト105Aのエモートオブジェクト125Aを非表示としてもよい。 When the guest avatar object 120 leaves, the emote object 125A associated with the guest avatar object 120 is also hidden. At this time, the emote object 125A of the host avatar object 105A may be hidden at the same time as the emote object 125A associated with the guest avatar object 120 is hidden.

図13は、ゲストアバターオブジェクト120が退出し、新たなゲストアバターオブジェクト120が追加された配信画面190を示す。サーバ13は、新たなゲストアバターオブジェクト120を追加すると、ゲストアバターオブジェクト120に関連付けたエモートオブジェクト125Aも追加する。このとき、ゲストアバターオブジェクト120に関連付けられたエモートオブジェクト125Aを表示とするとタイミングと同時に、ホストアバターオブジェクト105Aに新たにエモートオブジェクト125Aを関連付けてもよい。これにより、「満杯」等の初期状態から「空」等の遷移状態になった「ジョッキ」のエモートオブジェクト125Aは、初期状態の「ジョッキ」のエモートオブジェクト125Aとなる。 FIG. 13 shows delivery screen 190 with guest avatar object 120 leaving and new guest avatar object 120 added. When the server 13 adds a new guest avatar object 120, it also adds an emote object 125A associated with the guest avatar object 120. FIG. At this time, the emote object 125A may be newly associated with the host avatar object 105A at the same time as the emote object 125A associated with the guest avatar object 120 is displayed. As a result, the "stein" emote object 125A that has transitioned from the initial state such as "full" to the transition state such as "empty" becomes the "stein" emote object 125A in the initial state.

図14は、コラボレーション配信において、第2ギフトオブジェクト125としてエモート機能が提供された配信画面200を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様のアニメーションが表示される。配信画面200は、第2ギフトオブジェクト125として「プール」の背景125Dを含む。また、配信画面200は、ホストアバターオブジェクト105A、及びゲストアバターオブジェクト120の他、第2ギフトオブジェクト125としてホストアバターオブジェクト105A及びゲストアバターオブジェクト120に関連付けられた「水鉄砲」のエモートオブジェクト125Aを含む。また、配信画面200は、第2ギフトオブジェクト125として、ホストアバターオブジェクト105A及びゲストアバターオブジェクト120に装着され且つ背景125Dに応じた装着オブジェクト203を含む。図示しないエモート機能選択部が操作されることによって、水鉄砲のエモートオブジェクト125Aから水が放射される。エモートオブジェクト125Aから水が放射される方向は一定であるが、ユーザの操作によってホストアバターオブジェクト105A及びゲストアバターオブジェクト120の向きを変更することにより、水の放射の向きを変更することができる。 FIG. 14 shows a delivery screen 200 provided with an emote function as the second gift object 125 in collaboration delivery. A similar animation is also displayed on the display 28 of the viewing user's user device 12 . The delivery screen 200 includes a “pool” background 125D as the second gift object 125 . In addition to the host avatar object 105A and the guest avatar object 120, the delivery screen 200 also includes a "water gun" emote object 125A associated with the host avatar object 105A and the guest avatar object 120 as a second gift object 125. Also, the distribution screen 200 includes, as the second gift object 125, an attached object 203 attached to the host avatar object 105A and the guest avatar object 120 and corresponding to the background 125D. Water is emitted from the water gun emote object 125A by operating an emote function selection unit (not shown). The direction in which water is emitted from the emote object 125A is constant, but the direction of water emission can be changed by changing the orientation of the host avatar object 105A and the guest avatar object 120 by user's operation.

図15は、現実世界の状況を示す情報に基づき第2ギフトオブジェクト125が提供された配信画面210を示す。視聴ユーザのユーザ装置12のディスプレイ28にも同様のアニメーションが表示される。配信画面210は、アバターオブジェクト105と、第2ギフトオブジェクト125として「飴」のギフトオブジェクト125Eと、「傘」のギフトオブジェクト125Fとを含む。ユーザ装置12は、現実世界で雨天となったときにこれらの第2ギフトオブジェクト125を表示する。この態様において、サーバ13は、配信ユーザ装置12Aの現在位置を取得する。また、サーバ13は、図示しない外部サーバから、取得した現在位置の天候情報を取得する。そしてサーバ13は、配信ユーザ装置12Aが存在する地域が雨天であると判定すると、上記のギフトオブジェクト125E,125Fの識別情報を表示の要求とともにユーザ装置12に送信する。ユーザ装置12は、ギフトオブジェクト125E,125Fの識別情報及び表示の要求を受信すると、ギフトオブジェクト125E,125Fの画像をストレージ22から読み出して表示する。なお、配信ユーザ装置12Aが、自身の現在位置から天候情報を取得し、サーバ13に送信するようにしてもよい。又は配信ユーザ装置12Aが、自身の現在位置から天候情報を取得し、取得した天候情報からギフトオブジェクト125E,125Fを表示するか否かを判断してもよい。また、現実世界の状況を示す情報は特に限定されないが、天候や配信ユーザ装置12Aが存在する地域(市街地、山間地等)等の環境情報、時刻情報、日にち情報、配信時の時期(季節等)といった情報がある。 FIG. 15 shows a distribution screen 210 in which a second gift object 125 is provided based on information indicating real world conditions. A similar animation is also displayed on the display 28 of the viewing user's user device 12 . Delivery screen 210 includes avatar object 105, and second gift object 125, gift object 125E of "candy" and gift object 125F of "umbrella". The user device 12 displays these second gift objects 125 when it rains in the real world. In this aspect, the server 13 obtains the current location of the broadcasting user equipment 12A. The server 13 also acquires weather information for the acquired current location from an external server (not shown). When the server 13 determines that it is raining in the area where the distribution user device 12A is present, the server 13 transmits the identification information of the gift objects 125E and 125F to the user device 12 together with a display request. When the user device 12 receives the identification information of the gift objects 125E and 125F and the display request, the user device 12 reads the images of the gift objects 125E and 125F from the storage 22 and displays them. Note that the distribution user device 12A may acquire weather information from its own current location and transmit it to the server 13. FIG. Alternatively, the distribution user device 12A may acquire weather information from its own current location and determine whether to display the gift objects 125E and 125F from the acquired weather information. Also, the information indicating the situation in the real world is not particularly limited, but environmental information such as the weather and the area where the distribution user device 12A is located (urban area, mountainous area, etc.), time information, date information, time of distribution (season, etc.) ) are available.

現実世界の状況を示す情報に基づく第2ギフトオブジェクト125の表示条件は、例えば現実世界の状況を示す情報が変化したこと等である。
(動作)
次に、図16及び図17を参照して、ホストユーザと複数のゲストユーザとが共演する場合の処理手順について説明する。
The display condition for the second gift object 125 based on the information indicating the situation in the real world is, for example, that the information indicating the situation in the real world has changed.
(motion)
Next, with reference to FIGS. 16 and 17, a processing procedure when the host user and a plurality of guest users co-star will be described.

図16は、第2ギフトオブジェクト125が表示されるイベントに配信ユーザ100が参加した場合のタイミングチャートである。イベントは、例えば「19:00~20:00」といった予め設定された期間内に開催される。第2ギフトオブジェクト125の表示条件は、この期間内に動画の配信を開始することである。図16に示すイベントのシナリオは「花火大会」のイベントのシナリオであって、「第1部」、「第2部」、「第3部」から構成され、各部においてそれぞれ異なる第2ギフトオブジェクト125が表示される。イベントの開始時点からイベントに参加した「配信ユーザA」が配信する動画では、サーバ13からの要求に基づき、各部の第2ギフトオブジェクト125が表示される。一方、「第2部」からイベントに参加した「配信ユーザB」が配信する動画では、サーバ13からの要求に基づき、「第2部」及び「第3部」で表示される第2ギフトオブジェクト125が表示され、「第1部」で表示される第2ギフトオブジェクト125は表示されない。また、各部の途中からイベントに参加した配信ユーザが配信する動画では、動画の配信開始時点に対応する時点からのアニメーションが表示されてもよい。このように途中からイベントに参加した配信ユーザ100の動画では、シナリオに沿って途中から第2ギフトオブジェクト125が表示されるため、第2ギフトオブジェクト125の表示を限定的なものにすることができる。よって、第2ギフトオブジェクト125がむやみに表示されないため、ギフトオブジェクトの価値の低下を抑制することができる。 FIG. 16 is a timing chart when broadcast user 100 participates in an event in which second gift object 125 is displayed. The event is held within a preset period such as "19:00 to 20:00", for example. The display condition for the second gift object 125 is to start distributing the moving image within this period. The event scenario shown in FIG. 16 is a "fireworks display" event scenario, and is composed of "Part 1", "Part 2", and "Part 3". is displayed. In the video distributed by “distributor user A” who participated in the event from the start of the event, the second gift objects 125 of each part are displayed based on the request from the server 13 . On the other hand, in the video distributed by "distributor user B" who participated in the event from "part 2", the second gift object displayed in "part 2" and "part 3" is based on a request from server 13. 125 is displayed, and the second gift object 125 displayed in the "first part" is not displayed. Also, in the video distributed by the distribution user who participated in the event from the middle of each part, the animation from the point corresponding to the distribution start point of the video may be displayed. In this way, in the moving image of the distribution user 100 who participated in the event halfway through, the second gift object 125 is displayed halfway along the scenario, so the display of the second gift object 125 can be limited. . Therefore, since the second gift object 125 is not displayed carelessly, it is possible to suppress the decrease in the value of the gift object.

図17は、コラボレーション配信において第2ギフトオブジェクトが表示される場合のホストユーザが用いる配信ユーザ装置12A、サーバ13、ゲストユーザである配信ユーザが用いる配信ユーザ装置12A、共演要請を行わない視聴ユーザが用いる視聴ユーザ装置12Bの処理手順を示す。前提として、配信ユーザ100は、コラボレーション配信を許可する設定を行っている。サーバ13は、視聴ユーザ装置12Bから参加要請を受信する。サーバ13は、参加要請を配信ユーザ装置12Aに送信し、配信ユーザ100は参加要請を許可する。このとき配信ユーザ装置12Aは参加要請の許可をサーバ13に送信する。サーバ13は、視聴ユーザをコラボレーション配信の参加リストに追加し、参加リストを配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。こうして、配信ユーザ100に対応するホストアバターオブジェクト105A及び共演が許可された視聴ユーザに対応するゲストアバターオブジェクト120が一つの画面に表示される。コラボレーション配信に参加した視聴ユーザは、ゲストユーザとしての配信ユーザとなる。 FIG. 17 shows the distribution user device 12A used by the host user when the second gift object is displayed in the collaboration distribution, the server 13, the distribution user device 12A used by the distribution user who is the guest user, and the viewing users who do not request co-starring. The processing procedure of the viewing user device 12B used is shown. As a premise, the distribution user 100 has made settings to permit collaboration distribution. The server 13 receives the participation request from the viewing user device 12B. The server 13 transmits a participation request to the broadcast user device 12A, and the broadcast user 100 approves the participation request. At this time, the distribution user device 12A transmits permission for the participation request to the server 13. FIG. The server 13 adds the viewing users to the collaboration distribution participation list, and transmits the participation list to the distribution user device 12A and the viewing user device 12B. Thus, the host avatar object 105A corresponding to the broadcasting user 100 and the guest avatar object 120 corresponding to the viewing user permitted to co-star are displayed on one screen. A viewing user who participates in the collaboration distribution becomes a distribution user as a guest user.

図17に示す例では、ゲストアバターオブジェクト120の表示と同時に第2ギフトオブジェクト125を表示することを想定している。コラボレーション配信を開始すると、配信ユーザ装置12Aは、動画の生成に用いられる動画構成データをサーバ13に送信する(ステップS11)。動画構成データは、少なくとも配信ユーザ100の動作をトラッキングしたトラッキングデータを含む。また、動画構成データは、音声データを含む。ホストアバターオブジェクト105Aの識別情報は、動画構成データに含まれていてもよく、動画構成データとは別に送信されてもよい。 In the example shown in FIG. 17, it is assumed that the second gift object 125 is displayed at the same time as the guest avatar object 120 is displayed. When collaboration distribution is started, the distribution user device 12A transmits moving image configuration data used for generating moving images to the server 13 (step S11). The motion picture composition data includes at least tracking data that tracks the motion of the distribution user 100 . Also, the moving image configuration data includes audio data. The identification information of the host avatar object 105A may be included in the animation composition data or may be transmitted separately from the animation composition data.

サーバ13は、第2ギフトオブジェクト125の表示条件に基づき、第2ギフトオブジェクトを表示するか否かを判定する。第2ギフトオブジェクト125の表示条件は、上記したように配信ユーザ100がイベントに参加していること、配信ユーザ100のアバターオブジェクト105が所定のアバターオブジェクトであること、動画の配信開始時が所定の日にちや期間に含まれること等である。 The server 13 determines whether or not to display the second gift object based on the display condition of the second gift object 125 . The display conditions for the second gift object 125 are that the distribution user 100 participates in the event as described above, that the avatar object 105 of the distribution user 100 is a predetermined avatar object, and that the video distribution start time is a predetermined It is included in the date and period.

サーバ13は、第2ギフトオブジェクトを表示すると判定すると、配信ユーザ装置12Aから受信した動画構成データとともに、ホストアバターオブジェクト105Aに関連付ける第2ギフトオブジェクトの識別情報(ID)をゲストユーザの配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する(ステップS12)。また、サーバ13は、第2ギフトオブジェクト125の識別情報(ID)を配信ユーザ装置12Aにも送信する(ステップS13)。なお、アバターオブジェクトやギフトオブジェクトを描画するための各種のデータは、配信ユーザ装置12A及び視聴ユーザ装置12Bが予め取得している。 When the server 13 determines to display the second gift object, the identification information (ID) of the second gift object to be associated with the host avatar object 105A is sent to the broadcast user device 12A of the guest user along with the animation configuration data received from the broadcast user device 12A. and transmitted to the viewing user device 12B (step S12). The server 13 also transmits the identification information (ID) of the second gift object 125 to the distribution user device 12A (step S13). Various data for drawing avatar objects and gift objects are obtained in advance by the distribution user device 12A and the viewing user device 12B.

同様に、ゲストユーザが用いる配信ユーザ装置12Aは、動画構成データをサーバ13に送信する(ステップS14)。サーバ13は、配信ユーザ装置12Aから受信した動画構成データとともに、ゲストアバターオブジェクト120に関連付ける第2ギフトオブジェクトの識別情報(ID)を視聴ユーザ装置12Bに送信する(ステップS15)。また、サーバ13は、同様に動画構成データ及び第2ギフトオブジェクトの識別情報(ID)を配信ユーザ装置12Aに送信する(ステップS16)。さらに、サーバ13は、ゲストアバターオブジェクト120に関連付ける第2ギフトオブジェクトの識別情報(ID)を、ゲストユーザの配信ユーザ装置12Aに送信する(ステップS17)。 Similarly, the distribution user device 12A used by the guest user transmits moving image configuration data to the server 13 (step S14). The server 13 transmits the identification information (ID) of the second gift object to be associated with the guest avatar object 120 to the viewing user device 12B together with the moving image configuration data received from the distribution user device 12A (step S15). Also, the server 13 similarly transmits the moving image configuration data and the identification information (ID) of the second gift object to the distribution user device 12A (step S16). Further, the server 13 transmits the identification information (ID) of the second gift object to be associated with the guest avatar object 120 to the guest user's distribution user device 12A (step S17).

配信ユーザ装置12A及び視聴ユーザ装置12Bは、受信した動画構成データ及び第2ギフトオブジェクトの識別情報に基づき、ホストアバターオブジェクト105A、ゲストアバターオブジェクト120、第2ギフトオブジェクト125等を含むアニメーションを生成してディスプレイ28に表示する(ステップS17~ステップS19)。なお、ステップS11~ステップS17は適宜変更可能である。ステップS11~ステップS17の順序は変更されてもよいし、1つのステップが複数に分割されてもよいし、複数のステップが1つのステップにまとめられても良い。要は、ホストユーザの配信ユーザ装置12A及びゲストユーザの配信ユーザ装置12Aが動画構成データを送信し、サーバ13がギフトオブジェクトの識別情報を送信し、配信ユーザ装置12A及び視聴ユーザ装置12Bが、他の装置から送られた動画構成データ及びギフトオブジェクトの識別情報に基づいて動画を表示できればよい。 The distribution user device 12A and the viewing user device 12B generate an animation including the host avatar object 105A, the guest avatar object 120, the second gift object 125, etc., based on the received moving image configuration data and the identification information of the second gift object. It is displayed on the display 28 (steps S17 to S19). Note that steps S11 to S17 can be changed as appropriate. The order of steps S11 to S17 may be changed, one step may be divided into a plurality of steps, or a plurality of steps may be combined into one step. In short, the distribution user device 12A of the host user and the distribution user device 12A of the guest user transmit moving image composition data, the server 13 transmits the identification information of the gift object, and the distribution user device 12A and the viewing user device 12B It suffices if the moving image can be displayed based on the moving image configuration data sent from the device and the identification information of the gift object.

ゲストユーザのゲストアバターオブジェクト120が動画から退出すると、退出したゲストユーザは視聴ユーザとなる。そして、新たなゲストアバターオブジェクト120が動画に追加されると、配信ユーザ装置12A、サーバ13及び視聴ユーザ装置12Bは上記したステップS11~ステップS20を繰り返す。つまり、ホストアバターオブジェクト105Aに第2ギフトオブジェクト125を関連付けて表示し、新たなゲストアバターオブジェクト120に第2ギフトオブジェクト125を関連付けて表示する。なお、ホストアバターオブジェクト105Aは退出しないため、ホストアバターオブジェクト105Aに関連付けられた第2ギフトオブジェクト125はその表示を変更しなくてもよい。また、ゲストアバターオブジェクト120に関連付けて表示される第2ギフトオブジェクト125が、ゲストアバターオブジェクト120によって変化しない場合には、サーバ13は、配信ユーザ装置12A、視聴ユーザ装置12Bに対し、第2ギフトオブジェクト125の識別情報を1度だけ送信するようにしてもよい。この場合、配信ユーザ装置12A及び視聴ユーザ装置12Bは、ゲストアバターオブジェクト120を変更するたびに、サーバ13から受信した第2ギフトオブジェクト125の識別情報に基づき第2ギフトオブジェクト125を表示する。 When the guest user's guest avatar object 120 exits the video, the exited guest user becomes the viewing user. Then, when a new guest avatar object 120 is added to the video, the distribution user device 12A, the server 13 and the viewing user device 12B repeat steps S11 to S20 described above. That is, the second gift object 125 is associated with the host avatar object 105A and displayed, and the second gift object 125 is associated with the new guest avatar object 120 and displayed. Since the host avatar object 105A does not leave, the second gift object 125 associated with the host avatar object 105A does not have to change its display. Also, if the second gift object 125 displayed in association with the guest avatar object 120 does not change due to the guest avatar object 120, the server 13 sends the second gift object to the distribution user device 12A and the viewing user device 12B. 125 identification information may be transmitted only once. In this case, the distribution user device 12A and the viewing user device 12B display the second gift object 125 based on the identification information of the second gift object 125 received from the server 13 each time the guest avatar object 120 is changed.

このようにコラボレーション配信において第2ギフトオブジェクトの表示条件が満たされた場合に、ゲストアバターオブジェクト120が追加されるたびに第2ギフトオブジェクト125を表示する。このため、ゲストユーザのコラボレーション配信に対する満足度を高めることができる。また、コラボレーション配信に参加すれば第2ギフトオブジェクトが表示されることが予め通知されている場合には、視聴ユーザのコラボレーション配信に対する参加意欲を高めることができる。 In this way, when the display conditions for the second gift object are satisfied in collaboration delivery, the second gift object 125 is displayed every time the guest avatar object 120 is added. For this reason, it is possible to increase the guest user's degree of satisfaction with collaboration delivery. In addition, when it is notified in advance that the second gift object will be displayed if the user participates in the collaboration distribution, it is possible to increase the willingness of the viewing user to participate in the collaboration distribution.

図18は、第2ギフトオブジェクト125の表示条件を、視聴ユーザからのアクションの有無としてもよい。この場合、サーバ13は、ユーザ管理データ350を参照して、視聴ユーザからのアクションが所定時間以上無いか否かを判断する(ステップS21)。具体的には、配信中の動画に第1ギフトオブジェクトの表示要求を視聴ユーザ装置12Bから受信したか否かを判断する。このとき第1ギフトオブジェクトの表示要求に加え、メッセージの投稿がなされたか否かを判定してもよい。 In FIG. 18, the display condition of the second gift object 125 may be presence or absence of action from the viewing user. In this case, the server 13 refers to the user management data 350 and determines whether or not there is no action from the viewing user for a predetermined time or longer (step S21). Specifically, it is determined whether or not a request to display the first gift object in the moving image being distributed has been received from the viewing user device 12B. At this time, in addition to the display request for the first gift object, it may be determined whether or not a message has been posted.

サーバ13は、視聴ユーザからのアクションが所定時間内に行われたと判定すると(ステップS21:有り)、第2ギフトオブジェクト125を表示しない。一方、視聴ユーザからのアクションが所定時間内に行われていないと判定すると(ステップS21:無し)、第2ギフトオブジェクト125の識別情報を、配信ユーザ装置12A及び視聴ユーザ装置12Bに送信する。第2ギフトオブジェクト125の識別情報を受信した配信ユーザ装置12A及び視聴ユーザ装置12Bは、識別情報に対応する第2ギフトオブジェクト125を表示するためのデータを読み出して、ディスプレイ28に表示する(ステップS22)。このようにすると、第1ギフトオブジェクトの表示要求が少ない配信ユーザ100であっても、動画を盛り上げることができる。また、配信ユーザ100は動画の配信を継続する意欲が高められる。 When the server 13 determines that the viewing user has performed an action within a predetermined period of time (step S21: Yes), the second gift object 125 is not displayed. On the other hand, if it is determined that no action has been taken by the viewing user within the predetermined time (step S21: None), the identification information of the second gift object 125 is transmitted to the distribution user device 12A and the viewing user device 12B. Upon receiving the identification information of the second gift object 125, the distribution user device 12A and the viewing user device 12B read the data for displaying the second gift object 125 corresponding to the identification information and display it on the display 28 (step S22). ). In this way, even distribution users 100 who make few requests to display the first gift object can liven up the animation. In addition, distribution users 100 are motivated to continue distributing moving images.

次に、本実施形態の効果について説明する。
(1)ホストアバターオブジェクト105A及びゲストアバターオブジェクト120を動画に表示させるコラボレーション配信において、配信状況が第2ギフトオブジェクト125の表示条件を満たす場合のみ、第2ギフトオブジェクト125が表示される。このため、ギフトオブジェクトの付加価値の低下を抑制することができる。また、ゲストユーザに対応するゲストアバターオブジェクト120が新たに追加された場合に、ゲストアバターオブジェクト120に関連付けて第2ギフトオブジェクト125が表示される。このため、ホストユーザだけでなく、コラボレーション配信に参加する全てのゲストユーザの満足度を高めることができる。
Next, the effects of this embodiment will be described.
(1) In collaboration distribution in which the host avatar object 105A and the guest avatar object 120 are displayed in a moving image, the second gift object 125 is displayed only when the distribution status satisfies the display conditions for the second gift object 125 . Therefore, it is possible to suppress the decrease in the added value of the gift object. Also, when the guest avatar object 120 corresponding to the guest user is newly added, the second gift object 125 is displayed in association with the guest avatar object 120 . Therefore, not only the host user but also all guest users who participate in the collaboration delivery can be satisfied.

(2)ユーザ装置12は、予め定めた期間内に動画を配信した場合に第2ギフトオブジェクト125が動画に表示される。また、シナリオの途中から動画の配信を開始した場合に、動画の配信開始時点に対応する場面から第2ギフトオブジェクト125の表示を開始する。このため、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。また、アプリケーション内でのユーザ共通のイベントとする場合には、複数の動画の間において第2ギフトオブジェクト125の表示を同期させることができるため、あたかも現実世界で生じているイベントのような動画を配信することができる。 (2) The user device 12 displays the second gift object 125 in the moving image when the moving image is distributed within a predetermined period. Also, when distribution of the moving image is started in the middle of the scenario, display of the second gift object 125 is started from the scene corresponding to the start of distribution of the moving image. Therefore, the second gift object 125 can be displayed only on limited occasions, so that the added value of the second gift object 125 can be prevented from decreasing. In addition, in the case of an event common to users within an application, the display of the second gift object 125 can be synchronized between a plurality of moving images, so that a moving image that looks like an event occurring in the real world can be displayed. can be delivered.

(3)予め定めた期間内に動画の配信を開始した配信開始時点から所定時間経過後に第2ギフトオブジェクト125を表示する。よって、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。 (3) The second gift object 125 is displayed after a predetermined period of time has elapsed from the start of distribution of the moving image within a predetermined period. Therefore, the chances of displaying the second gift object 125 are limited, and the decrease in the added value of the second gift object 125 can be suppressed.

(4)第1ギフトオブジェクトの表示要求等、視聴ユーザのアクティビティが無い状態が所定時間継続した場合に第2ギフトオブジェクト125を表示する。このため、第2ギフトオブジェクト125の表示を契機として、配信ユーザの表現の幅を拡大することができる。また、配信ユーザと視聴ユーザとのコミュニケーションを活発化させることができる。 (4) The second gift object 125 is displayed when there is no activity of the viewing user, such as a display request for the first gift object, for a predetermined period of time. Therefore, with the display of the second gift object 125 as a trigger, the range of expression of the distribution user can be expanded. In addition, it is possible to activate communication between the distribution user and the viewing user.

(5)エモート機能選択部192が操作された場合に、第2ギフトオブジェクト125が動画に表示される。このため、ユーザが要望するタイミングで第2ギフトオブジェクト125を表示することができる。 (5) When the emote function selection unit 192 is operated, the second gift object 125 is displayed in the moving image. Therefore, the second gift object 125 can be displayed at the timing requested by the user.

(6)特定のアバターオブジェクトが動画に表示されている場合に第2ギフトオブジェクト125を表示するようにした。よって、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。また、特定のアバターオブジェクトが配信ユーザ100に使用される機会を増やすことができる。 (6) The second gift object 125 is displayed when a specific avatar object is displayed in the moving image. Therefore, the chances of displaying the second gift object 125 are limited, and the decrease in the added value of the second gift object 125 can be suppressed. Also, it is possible to increase the chances that a specific avatar object is used by the broadcast user 100 .

(7)現実世界の天候等の外部状況が表示条件を満たす場合に第2ギフトオブジェクト125を表示する。よって、第2ギフトオブジェクト125の表示の機会が限定的となるため、第2ギフトオブジェクト125の付加価値の低下を抑制することができる。また、第2ギフトオブジェクト125の表示が外部状況と同期するため、動画を配信する季節や時間帯に応じて、変化に富んだ動画を表示することができる。 (7) Display the second gift object 125 when the external conditions such as the weather in the real world satisfy the display conditions. Therefore, the chances of displaying the second gift object 125 are limited, and the decrease in the added value of the second gift object 125 can be suppressed. In addition, since the display of the second gift object 125 is synchronized with the external situation, it is possible to display a variety of moving images according to the season and time period in which the moving images are distributed.

(8)アバターオブジェクト105のエモート機能が第2ギフトオブジェクト125として表示される。エモート機能の一部であるエモートオブジェクト125Aは、アバターオブジェクト105の各々を構成する部位に関連付けて表示される。エモート機能は他のギフトオブジェクトに比べ価値が高いため、エモート機能をギフトとして提供される機会が少ないユーザも、基本的なエモート機能以外のエモート機能を利用することができる。このため、ユーザの満足度を高めることができる。 (8) The emote function of the avatar object 105 is displayed as the second gift object 125; The emote object 125A, which is part of the emote function, is displayed in association with the parts forming each of the avatar objects 105. FIG. Emote functions are more valuable than other gift objects, so even users who have few opportunities to receive emote functions as gifts can use emote functions other than basic emote functions. Therefore, user satisfaction can be enhanced.

(9)アバターオブジェクト105の背景を含む第2ギフトオブジェクト125が表示される。背景は他のギフトオブジェクトに比べ価値が高い。このため、第1ギフトオブジェクトとして背景が提供できない場合や、背景をギフトとして提供される機会が少ないユーザも、背景を利用する機会を得ることができる。このため、ユーザの満足度を高めることができる。 (9) A second gift object 125 containing the background of the avatar object 105 is displayed. Backgrounds are more valuable than other gift objects. Therefore, even users who cannot provide the background as the first gift object or who have few opportunities to receive the background as a gift can have the opportunity to use the background. Therefore, user satisfaction can be enhanced.

(10)アバターオブジェクト105の装着オブジェクトを含む第2ギフトオブジェクト125が表示されるため、ユーザの満足度を高めることができる。
(11)視聴ユーザが表示要求を行った第1ギフトオブジェクトが優先して表示されるため、第1ギフトオブジェクトの表示要求を送信した視聴ユーザの満足度を高めることができる。
(10) Since the second gift object 125 including the wearing object of the avatar object 105 is displayed, user satisfaction can be enhanced.
(11) Since the first gift object requested by the viewing user to be displayed is preferentially displayed, it is possible to increase the satisfaction of the viewing user who has transmitted the display request for the first gift object.

(12)第2ギフトオブジェクトが優先して表示されるため、シナリオに沿った動画の進行が可能となる。
上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
(12) Since the second gift object is preferentially displayed, it is possible to progress the animation according to the scenario.
The above embodiment can be implemented with the following modifications. The above embodiments and the following modifications can be combined with each other within a technically consistent range.

・上記実施形態では、ホストユーザが配信する動画に対し、共演要請をしてゲストユーザのアバターオブジェクトを動画に追加するようにした。これに代えて、ホストユーザ、ゲストユーザを決めず、予め定めたユーザに対応するアバターオブジェクトを共演させた動画を配信してもよい。 - In the above-described embodiment, the guest user's avatar object is added to the moving image distributed by the host user by requesting co-starring. Alternatively, a moving image may be distributed in which avatar objects corresponding to predetermined users co-star without determining the host user or the guest user.

・上記実施形態では、エモート機能は、アバターオブジェクトの手や腕等の部位を動作させるものやアバターオブジェクトの表情に例示して説明したが、これに限定されない。エモート機能は、アバターオブジェクトの立ち位置を変更させたり、アバターオブジェクトを歩かせたり、踊らせたりするものであってもよい。 - In the above-described embodiment, the emote function is explained by exemplifying the movement of parts such as hands and arms of the avatar object and the expression of the avatar object, but the emote function is not limited to this. The emote function may change the standing position of the avatar object, make the avatar object walk or dance.

・上記実施形態では、サーバ13が、ユーザ装置12からのギフトオブジェクトの表示要求を受信して、ギフトオブジェクトの識別情報を待機列114に追加するようにした。これに代えて、配信ユーザのユーザ装置12が、サーバ13からギフトオブジェクトの表示要求を受信して、待機列114を管理するようにしてもよい。 - In the above embodiment, the server 13 receives a gift object display request from the user device 12 and adds the identification information of the gift object to the waiting queue 114 . Alternatively, the user device 12 of the distribution user may receive a gift object display request from the server 13 and manage the queue 114 .

・上記実施形態では、ユーザ装置12には、動画を視聴及び配信するための動画アプリケーションプログラムがインストールされているものとした。これに代えて、動画を視聴するためのアプリケーションプログラムと、動画を配信するためのアプリケーションプログラムとを別のアプリケーションプログラムとを分けてもよい。配信を行う場合には配信アプリケーションプログラムを用いて動画を配信する。視聴を行う場合には視聴アプリケーションプログラムを用いて動画を視聴する。ギフトオブジェクトの表示要求は、視聴アプリケーションプログラムを用いて行う。 - In the above-described embodiment, the user device 12 is assumed to have a moving image application program installed therein for viewing and distributing moving images. Alternatively, an application program for viewing moving images and an application program for distributing moving images may be separated from each other. When performing distribution, a distribution application program is used to distribute moving images. For viewing, the video is viewed using a viewing application program. A gift object display request is made using a viewing application program.

・上記実施形態では、配信ユーザ装置12A及び視聴ユーザ装置12Bが動画構成データ等を受信して動画を生成するクライアントレンダリング方式を用いた。これに代えて若しくは加えて、配信ユーザ装置12Aが動画データをエンコードする映像配信方式を用いてもよい。図19に示すように、サーバ13が、ギフトオブジェクトの識別情報を配信ユーザ装置12Aに送信する(ステップS30)。配信ユーザ装置12Aは、受信したギフトオブジェクトの識別情報とトラッキングデータ等を用いてアニメーションを生成し、エンコードする(ステップS31)。このとき、視聴ユーザからのメッセージや音声データを、アニメーションと一緒にエンコードしてもよい。また、配信ユーザ装置12Aは、エンコードしたデータをサーバ13に送信する(ステップS32)。サーバ13は、エンコードしたデータを視聴ユーザ装置12Bに送信する(ステップS33)。また、配信ユーザ装置12Aは、トラッキングデータ及びギフトオブジェクトの識別情報を用いてアニメーションを表示する(ステップS34)。視聴ユーザ装置12Bは、エンコードされたデータをデコードして、アニメーションを表示する(ステップS35)。なお、コラボレーション配信を行う場合には、ゲストユーザとしての配信ユーザの配信ユーザ装置12Aは、動画構成データ等を受信して、動画構成データに基づいて動画を生成してもよい。又はゲストユーザとしての配信ユーザの配信ユーザ装置12Aは、ホストユーザである配信ユーザの配信ユーザ装置12Aから、エンコードされた映像データを受信するようにしてもよい。 - In the above-described embodiment, a client rendering method is used in which the distribution user device 12A and the viewing user device 12B receive moving image configuration data and the like and generate moving images. Instead of or in addition to this, a video distribution method in which the distribution user device 12A encodes video data may be used. As shown in FIG. 19, the server 13 transmits the identification information of the gift object to the distribution user device 12A (step S30). The distribution user device 12A generates and encodes an animation using the received identification information of the gift object, tracking data, and the like (step S31). At this time, a message from the viewing user and voice data may be encoded together with the animation. Also, the distribution user device 12A transmits the encoded data to the server 13 (step S32). The server 13 transmits the encoded data to the viewing user device 12B (step S33). Also, the distribution user device 12A displays the animation using the tracking data and the identification information of the gift object (step S34). The viewing user device 12B decodes the encoded data and displays the animation (step S35). In the case of collaborative distribution, the distribution user device 12A of the distribution user as the guest user may receive moving image composition data and the like and generate a moving image based on the moving image composition data. Alternatively, the broadcast user device 12A of the broadcast user as the guest user may receive encoded video data from the broadcast user device 12A of the broadcast user who is the host user.

・センサユニット24は、ユーザの表情の変化、頭部の動き、センサユニット24に対するユーザの相対位置を検出した検出データを取得するとしたが、このうち少なくとも一つであってもよい。また、センサユニット24は、ユーザの表情の変化、頭部の動き及びユーザの相対位置の少なくとも一つに加えて、若しくは代えて、頭部の動作以外の動きを検出した検出データ等のその他の検出データを取得してもよい。 - Although the sensor unit 24 acquires detection data obtained by detecting changes in the user's facial expression, movement of the head, and the relative position of the user with respect to the sensor unit 24, at least one of them may be acquired. In addition to or instead of at least one of a change in the user's facial expression, a movement of the head, and a relative position of the user, the sensor unit 24 detects other data such as detection data that detects movements other than the movement of the head. Detection data may be acquired.

・動画に表示される仮想空間は、拡張現実(AR;Augmented Reality)の空間であってもよい。例えば、ユーザ装置12のカメラが撮影した現実世界の画像に、アバターオブジェクト及びギフトオブジェクト等のアニメーションを重ねて表示してもよい。また、ユーザ装置12のカメラが撮影した、ユーザを含む現実世界の画像に、ギフトオブジェクト等のアニメーションを重ねて表示してもよい。 - The virtual space displayed in the moving image may be an augmented reality (AR) space. For example, an image of the real world captured by the camera of the user device 12 may be overlaid with an animation of an avatar object, a gift object, or the like. Alternatively, an animation of a gift object or the like may be superimposed on an image of the real world including the user captured by the camera of the user device 12 .

・上記実施形態では、ユーザ装置12は、スマートフォン、携帯電話機、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ等のウェアラブルコンピュータ等の情報処理装置とした。これに代えて、動画配信用のスタジオに設けられたシステムであって、制御部20等を備える情報処理装置、配信ユーザの身体に装着されるセンサユニット24、センサユニット24の位置を検出するトラッキングシステム、操作部27、スピーカ25、ディスプレイ28を備えたシステムを、動画を配信するシステムとして用いてもよい。トラッキングシステムは、同期用のパルスレーザ光を出射する多軸レーザエミッターを備えていてもよい。センサユニット24は、レーザ光を検出するセンサを備え、同期パルスで同期をとりつつ、自らの位置及び向きを検出する。センサユニット24は、例えば、HTC Corporation(登録商標)から提供されているVive Tracker(登録商標)及びVive Base Stationを用いることができる。 - In the above embodiment, the user device 12 is an information processing device such as a smart phone, a mobile phone, a tablet terminal, a personal computer, a console game machine, or a wearable computer such as a head-mounted display. Instead of this, a system provided in a studio for video distribution, which includes an information processing device including a control unit 20 and the like, a sensor unit 24 worn on the distribution user's body, and a tracking system that detects the position of the sensor unit 24 A system including the system, the operation unit 27, the speaker 25, and the display 28 may be used as a system for distributing moving images. The tracking system may include a multi-axis laser emitter that emits pulsed laser light for synchronization. The sensor unit 24 includes a sensor that detects laser light, and detects its own position and orientation while synchronizing with a synchronization pulse. For the sensor unit 24, for example, Vive Tracker (registered trademark) and Vive Base Station provided by HTC Corporation (registered trademark) can be used.

・上記実施形態では、センサユニット24をユーザ装置12側に設けたが、この態様に限定されない。例えばセンサユニット24の少なくとも一部を、配信ユーザの身体に装着したり、配信ユーザの近傍に設けたりしてもよい。図20は、動画配信スタジオに設置された動画配信システムであって、カメラ229、マイク230、コントローラ226、及び配信サーバ228等を備える。また、動画配信システムは、配信ユーザ100に手足に装着された装着センサ227、装着センサ227の位置を特定するための位置検出部225等を含むトラッキングシステムを備える。カメラ229は、配信ユーザ100の顔を撮影する。配信サーバ228は、トラッングシステムから取得したトラッキングデータ、カメラ229から取得した表情データをアバターオブジェクトに適用したアニメーションを生成する。また、仮想空間の背景とアバターオブジェクトとをレンダリングしたアニメーションを音声とともに動画データとして視聴ユーザ装置12Bに配信する。また、例えば、トラッキングシステムは、配信ユーザの身体に装着されたマーカーを検出するカメラ等から構成してもよい。
次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
[1]
動画をディスプレイに表示するコンピュータを、
第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理部と、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、
前記第2画像処理部は、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する、プログラム。
[2]
前記第2ギフトオブジェクトの前記表示条件は、一定の時間に実行されるイベントに前記第1ユーザが参加することであり、
前記期間は、順番に実行される複数のイベント期間から構成され、前記各イベント期間には前記第2ギフトオブジェクトがそれぞれ関連付けられ、
前記第2画像処理部は、2番目以降の前記イベント期間から前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する前記イベント期間に関連付けられた前記第2ギフトオブジェクトを表示し、前記配信開始時点前の前記イベント期間に関連付けられた前記第2ギフトオブジェクトを表示しない、[1]に記載のプログラム。
[3]
前記第2画像処理部は、前記第2アバターオブジェクトを前記動画から非表示とする場合に前記第2アバターオブジェクトに関連付けられた前記第2ギフトオブジェクトを非表示とし、第3ユーザに対応する第3アバターオブジェクトを新たに前記動画に表示した場合に前記第3アバターオブジェクトに関連付けられた前記第2ギフトオブジェクトを前記動画に表示する[1]又は[2]に記載のプログラム。
[4]
前記第2画像処理部は、アバターオブジェクトの各々を構成する部位に関連付けて前記第2ギフトオブジェクトを表示する[1]~[3]のいずれか1項に記載のプログラム。
[5]
前記第2画像処理部は、前記動画の配信開始時点から所定時間経過後に、前記第2ギフトオブジェクトを表示する[1]~[4]のいずれか1項に記載のプログラム。
[6]
前記第2画像処理部は、前記視聴ユーザによる前記動画に対するアクティビティが無い状態が所定時間継続したとの前記表示条件を満たす場合に前記第2ギフトオブジェクトを表示する[1]に記載のプログラム。
[7]
前記第2画像処理部は、表示条件が満たされた場合に前記第2ギフトオブジェクトを前記動画に表示させるための選択操作部を前記動画に表示し、前記選択操作部が操作された場合に前記第2ギフトオブジェクトを前記動画に表示する[1]~[6]のいずれか1項に記載のプログラム。
[8]
前記第2画像処理部は、前記第2ギフトオブジェクトとしてのアバターオブジェクトの表現機能を発動するための表現機能選択部を表示し、前記アバターオブジェクトに対応するユーザの前記表現機能選択部の操作に基づいて前記表現機能を発現する[1]~[7]のいずれか1項に記載のプログラム。
[9]
前記第2画像処理部は、アバターオブジェクトの背景を含む前記第2ギフトオブジェクトを表示する[1]~[8]のいずれか1項に記載のプログラム。
[10]
前記第2画像処理部は、アバターオブジェクトの部位に装着される装着オブジェクトを含む前記第2ギフトオブジェクトを表示する[1]~[9]のいずれか1項に記載のプログラム。
[11]
動画をディスプレイに表示するコンピュータが、
第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを動画に表示する第1画像処理ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示するとともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する第2画像処理ステップとを実行し、
前記第2画像処理ステップでは、シナリオに沿って前記第2ギフトオブジェクトを表示し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面から前記第2ギフトオブジェクトの表示を開始する、情報処理方法。
[12]
動画をユーザ装置のディスプレイに表示する情報処理装置であって、
第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、
前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理装置。
[13]
動画をユーザ装置のディスプレイに表示する情報処理装置が実行する情報処理方法であって、
前記情報処理装置が、
第1ユーザの動きが反映される第1アバターオブジェクトを描画するためのデータと、第2ユーザの動きが反映される第2アバターオブジェクトを描画するためのデータとを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求とともに、前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、
前記表示要求送信ステップでは、シナリオに沿って前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信し、予め定めた期間内であって前記シナリオの途中から前記第1ユーザが前記動画の配信を開始した場合に、前記動画の配信開始時点に対応する場面に対応する前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理方法。
- In the above embodiment, the sensor unit 24 is provided on the user device 12 side, but the present invention is not limited to this aspect. For example, at least part of the sensor unit 24 may be worn on the body of the distribution user or provided near the distribution user. FIG. 20 shows a video distribution system installed in a video distribution studio, comprising a camera 229, a microphone 230, a controller 226, a distribution server 228, and the like. In addition, the moving image distribution system includes a tracking system including mounting sensors 227 worn on the hands and feet of the distribution user 100 and a position detection unit 225 for specifying the positions of the mounting sensors 227 and the like. Camera 229 photographs the face of distribution user 100 . The distribution server 228 generates animation by applying the tracking data obtained from the tracking system and the facial expression data obtained from the camera 229 to the avatar object. Also, an animation obtained by rendering the background of the virtual space and the avatar object is distributed to the viewing user device 12B as moving image data together with the sound. Also, for example, the tracking system may be composed of a camera or the like that detects a marker attached to the body of the distribution user.
Next, technical ideas that can be grasped from the above-described embodiment and another example will be added below together with their effects.
[1]
A computer that displays video on the display,
a first image processing unit that displays a moving image of a first avatar object reflecting the motion of the first user and a second avatar object reflecting the motion of the second user;
a first gift object display processing unit that displays the first gift object in response to transmission of a display request by a viewing user who watches the moving image;
When the display condition of the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied, the second gift object associated with the first avatar object is displayed, and the second avatar object is displayed. function as a second image processing unit that displays the second gift object associated with the
The second image processing unit displays the second gift object according to a scenario, and when the first user starts distributing the moving image in the middle of the scenario within a predetermined period, the A program for starting display of the second gift object from a scene corresponding to a distribution start point of a moving image.
[2]
the display condition for the second gift object is that the first user participates in an event that is held at a certain time;
the period comprises a plurality of event periods that are executed in sequence, each of the event periods being associated with the second gift object;
The second image processing unit displays the second gift object associated with the event period corresponding to the distribution start point of the moving image when distribution of the moving image is started from the event period after the second event period. , the program according to [1], wherein the second gift object associated with the event period before the distribution start time is not displayed.
[3]
The second image processing unit hides the second gift object associated with the second avatar object when hiding the second avatar object from the moving image, and hides the second gift object associated with the second avatar object. The program according to [1] or [2], displaying the second gift object associated with the third avatar object in the moving image when an avatar object is newly displayed in the moving image.
[4]
The program according to any one of [1] to [3], wherein the second image processing unit displays the second gift object in association with a part constituting each avatar object.
[5]
The program according to any one of [1] to [4], wherein the second image processing unit displays the second gift object after a predetermined time has elapsed from the start of distribution of the moving image.
[6]
The program according to [1], wherein the second image processing unit displays the second gift object when the display condition that the viewing user's no activity on the moving image has continued for a predetermined time period is satisfied.
[7]
The second image processing unit displays a selection operation unit for displaying the second gift object in the moving image when a display condition is satisfied, and displays the selection operation unit when the selection operation unit is operated. The program according to any one of [1] to [6], displaying the second gift object in the moving image.
[8]
The second image processing unit displays an expressive function selection unit for activating an expressive function of an avatar object as the second gift object, and displays an expressive function selection unit for activating an expressive function of the avatar object as the second gift object. The program according to any one of [1] to [7], which expresses the expression function by
[9]
The program according to any one of [1] to [8], wherein the second image processing unit displays the second gift object including a background of an avatar object.
[10]
The program according to any one of [1] to [9], wherein the second image processing unit displays the second gift object including a wearable object to be worn on a part of the avatar object.
[11]
A computer that displays video on a display
a first image processing step of displaying, in a video, a first avatar object reflecting the movement of the first user and a second avatar object reflecting the movement of the second user;
a first display processing step of displaying a first gift object triggered by transmission of a display request by a viewing user viewing the moving image;
When the display condition of the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied, the second gift object associated with the first avatar object is displayed, and the second avatar object is displayed. and performing a second image processing step of displaying the second gift object associated with
In the second image processing step, the second gift object is displayed according to a scenario, and if the first user starts distributing the moving image from the middle of the scenario within a predetermined period, the An information processing method, wherein the display of the second gift object is started from a scene corresponding to a distribution start point of a moving image.
[12]
An information processing device that displays a moving image on a display of a user device,
Drawing data for transmitting to the user device data for drawing a first avatar object reflecting the movement of the first user and data for drawing a second avatar object reflecting the movement of the second user. a sending step;
a first display processing step of transmitting a request for displaying a first gift object to the user device, triggered by transmission of a display request by a viewing user viewing the moving image;
When the display condition for the second gift object to be displayed without being based on the display request sent by the viewing user is satisfied, the display request for the second gift object associated with the first avatar object and the second avatar object are met. and a display request transmission step of transmitting a display request for the second gift object associated with the user device to the user device,
In the display request transmission step, a display request for the second gift object is transmitted to the user device according to a scenario, and the first user requests distribution of the moving image from the middle of the scenario within a predetermined period. An information processing device that, when started, transmits to the user device a request to display the second gift object corresponding to a scene corresponding to a distribution start point of the moving image.
[13]
An information processing method executed by an information processing device that displays a moving image on a display of a user device,
The information processing device
Drawing data for transmitting to the user device data for drawing a first avatar object reflecting the movement of the first user and data for drawing a second avatar object reflecting the movement of the second user. a sending step;
a first display processing step of transmitting a request for displaying a first gift object to the user device, triggered by transmission of a display request by a viewing user viewing the moving image;
When the display condition for the second gift object to be displayed without being based on the display request sent by the viewing user is satisfied, the display request for the second gift object associated with the first avatar object and the second avatar object are met. and a display request transmission step of transmitting a display request for the second gift object associated with the user device to the user device,
In the display request transmission step, a display request for the second gift object is transmitted to the user device according to a scenario, and the first user requests distribution of the moving image from the middle of the scenario within a predetermined period. An information processing method, wherein, when started, a request to display the second gift object corresponding to a scene corresponding to a time point at which distribution of the moving image is started is transmitted to the user device.

11…動画配信システム、
12,12A,12B…ユーザ装置
13…サーバ
11 ... Video distribution system,
12, 12A, 12B... User device 13... Server

Claims (20)

動画をディスプレイに表示するコンピュータを、
ユーザの動きが反映されるアバターオブジェクトを前記動画に表示する第1画像処理部と、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、
前記第1画像処理部は、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを前記動画に表示し、
前記第2画像処理部は、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを前記動画に表示するとともに前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する、プログラム。
A computer that displays video on the display,
a first image processing unit that displays an avatar object reflecting a user's movement in the video;
a first gift object display processing unit that displays the first gift object in response to transmission of a display request by a viewing user who watches the moving image;
functioning as a second image processing unit for displaying the second gift object when the display condition for the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied;
The first image processing unit displays a first avatar object reflecting movement of a first user and a second avatar object reflecting movement of a second user in the moving image,
The second image processing unit reproduces the second gift object associated with the first avatar object when the display condition that the viewing user has not taken any action on the moving image for a predetermined period of time is satisfied. A program for displaying in the animation and displaying the second gift object associated with the second avatar object .
前記第2画像処理部は、前記第1アバターオブジェクトを構成する部位及び前記第2アバターオブジェクトを構成する部位に関連付けて前記第2ギフトオブジェクトをそれぞれ表示する、請求項1に記載のプログラム。 2. The program according to claim 1 , wherein said second image processing unit displays said second gift object in association with a part constituting said first avatar object and a part constituting said second avatar object. 前記第2画像処理部は、前記第2ギフトオブジェクトとしての前記第1アバターオブジェクト又は前記第2アバターオブジェクトの表現機能を発動するための表現機能選択部を表示し、前記第1アバターオブジェクト又は前記第2アバターオブジェクトに対応するユーザの前記表現機能選択部の操作に基づいて前記表現機能を発現する、請求項1又は2に記載のプログラム。 The second image processing unit displays an expression function selection unit for activating an expression function of the first avatar object or the second avatar object as the second gift object, 3. The program according to claim 1 or 2, wherein said expressive function is expressed based on a user's operation of said expressive function selection unit corresponding to 2 avatar objects. 前記第2画像処理部は、前記第1アバターオブジェクト及び前記第2アバターオブジェクトの背景を含む前記第2ギフトオブジェクトを表示する、請求項1~のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 3 , wherein said second image processing section displays said second gift object including a background of said first avatar object and said second avatar object. 前記第2画像処理部は、前記第1アバターオブジェクト及び前記第2アバターオブジェクトの部位に装着される装着オブジェクトを含む前記第2ギフトオブジェクトを表示する、請求項1~のいずれか1項に記載のプログラム。 5. The second image processing unit according to any one of claims 1 to 4 , wherein the second gift object including an attachment object attached to parts of the first avatar object and the second avatar object is displayed. program. 前記第2画像処理部は、前記第2アバターオブジェクトを前記動画から非表示とする場合に前記第2アバターオブジェクトに関連付けられた前記第2ギフトオブジェクトを非表示とし、第3ユーザに対応する第3アバターオブジェクトを新たに前記動画に表示した場合に前記第3アバターオブジェクトに関連付けられた前記第2ギフトオブジェクトを前記動画に表示する、請求項1~5のいずれか1項に記載のプログラム。 The second image processing unit hides the second gift object associated with the second avatar object when hiding the second avatar object from the moving image, and hides the second gift object associated with the second avatar object. 6. The program according to any one of claims 1 to 5, wherein when an avatar object is newly displayed in the moving image, the second gift object associated with the third avatar object is displayed in the moving image. 動画をディスプレイに表示するコンピュータを、
ユーザの動きが反映されるアバターオブジェクトを前記動画に表示する第1画像処理部と、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1ギフトオブジェクト表示処理部と、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトを表示する第2画像処理部として機能させ、
前記第2画像処理部は、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記アバターオブジェクトの属性に応じた前記第2ギフトオブジェクトを前記動画に表示する、プログラム。
A computer that displays video on the display,
a first image processing unit that displays an avatar object reflecting a user's movement in the video;
a first gift object display processing unit that displays the first gift object in response to transmission of a display request by a viewing user who watches the moving image;
functioning as a second image processing unit for displaying the second gift object when the display condition for the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied;
The second image processing unit displays the second gift object according to the attribute of the avatar object when the display condition that the viewing user does not take any action on the moving image continues for a predetermined period of time is satisfied. A program displayed in the moving image.
前記第2画像処理部は、前記アバターオブジェクトを構成する部位に関連付けて前記第2ギフトオブジェクトを表示する、請求項に記載のプログラム。 8. The program according to claim 7 , wherein said second image processing section displays said second gift object in association with a part constituting said avatar object. 前記第2画像処理部は、前記第2ギフトオブジェクトとしての前記アバターオブジェクトの表現機能を発動するための表現機能選択部を表示し、前記アバターオブジェクトに対応するユーザの前記表現機能選択部の操作に基づいて前記表現機能を発現する、請求項7又は8に記載のプログラム。 The second image processing unit displays an expressive function selection unit for activating an expressive function of the avatar object as the second gift object, and displays an expressive function selection unit for operating the expressive function selection unit by a user corresponding to the avatar object. 9. The program according to claim 7 or 8 , which expresses the expressive function based on. 前記第2画像処理部は、前記アバターオブジェクトの背景を含む前記第2ギフトオブジェクトを表示する、請求項7~9のいずれか1項に記載のプログラム。 10. The program according to any one of claims 7 to 9 , wherein said second image processing section displays said second gift object including a background of said avatar object. 前記第2画像処理部は、前記アバターオブジェクトの部位に装着される装着オブジェクトを含む前記第2ギフトオブジェクトを表示する、請求項7~10のいずれか1項に記載のプログラム。 11. The program according to any one of claims 7 to 10 , wherein said second image processing unit displays said second gift object including an attached object attached to a part of said avatar object. 前記第2画像処理部は、前記視聴ユーザが用いる視聴ユーザ装置から前記動画に対して前記第1ギフトオブジェクトの表示要求を受信しない場合に、前記第2ギフトオブジェクトを前記動画に表示する、請求項1~11のいずれか1項に記載のプログラム。 3. The second image processing unit displays the second gift object in the moving image when a request to display the first gift object for the moving image is not received from a viewing user device used by the viewing user. 12. The program according to any one of 1 to 11 . 前記第2画像処理部は、前記視聴ユーザが用いる視聴ユーザ装置から前記動画に対するメッセージを受信しない場合に、前記第2ギフトオブジェクトを前記動画に表示する、請求項1~12のいずれか1項に記載のプログラム。 The second image processing unit according to any one of claims 1 to 12, wherein the second image processing unit displays the second gift object in the moving image when a message regarding the moving image is not received from the viewing user device used by the viewing user. program as described. 前記第2画像処理部は、前記表示条件が満たされた場合に前記第2ギフトオブジェクトを前記動画に表示させるための選択操作部を前記動画に表示し、前記選択操作部が操作された場合に前記第2ギフトオブジェクトを前記動画に表示する、請求項1~13のいずれか1項に記載のプログラム。 The second image processing unit displays in the moving image a selection operation unit for displaying the second gift object in the moving image when the display condition is satisfied, and when the selection operation unit is operated 14. The program according to any one of claims 1 to 13 , wherein said second gift object is displayed in said animation. 動画をディスプレイに表示するコンピュータが、
ユーザの動きが反映されるアバターオブジェクトを前記動画に表示する第1画像処理ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトを表示する第2画像処理ステップと、を実行し、
前記第1画像処理ステップでは、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを前記動画に表示し、
前記第2画像処理ステップでは、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを前記動画に表示するとともに前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトを表示する、情報処理方法。
A computer that displays video on a display
a first image processing step of displaying an avatar object reflecting a user's movement in the moving image;
a first display processing step of displaying a first gift object triggered by transmission of a display request by a viewing user viewing the moving image;
a second image processing step of displaying the second gift object when the display condition of the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied;
In the first image processing step, a first avatar object reflecting movement of a first user and a second avatar object reflecting movement of a second user are displayed in the moving image;
In the second image processing step, the second gift object associated with the first avatar object is displayed when the display condition that the viewing user has not taken any action on the moving image for a predetermined period of time is satisfied. An information processing method , wherein the second gift object associated with the second avatar object is displayed while displaying the moving image.
動画をユーザ装置のディスプレイに表示する情報処理装置であって、
ユーザの動きが反映されるアバターオブジェクトを描画するためのデータを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップと、を実行し、
前記描画データ送信ステップでは、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを描画するためのデータを前記ユーザ装置に送信し、
前記表示要求送信ステップでは、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクト及び前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理装置。
An information processing device that displays a moving image on a display of a user device,
a drawing data transmission step of transmitting data for drawing an avatar object reflecting a user's movement to the user device;
a first display processing step of transmitting a request for displaying a first gift object to the user device, triggered by transmission of a display request by a viewing user viewing the moving image;
a display request transmission step of transmitting a display request for the second gift object to the user device when a display condition for the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied; death,
In the drawing data transmitting step, data for drawing a first avatar object reflecting movement of a first user and a second avatar object reflecting movement of a second user are transmitted to the user device;
In the display request transmission step, when the display condition is satisfied that the viewing user has not taken any action on the moving image for a predetermined period of time, the second gift object associated with the first avatar object and the An information processing device that transmits a request to display the second gift object associated with the second avatar object to the user device .
動画をユーザ装置のディスプレイに表示する情報処理装置が実行する情報処理方法であって、
前記情報処理装置が、
ユーザの動きが反映されるアバターオブジェクトを描画するためのデータを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、
前記描画データ送信ステップでは、第1ユーザの動きが反映される第1アバターオブジェクトと、第2ユーザの動きが反映される第2アバターオブジェクトとを描画するためのデータを前記ユーザ装置に送信し、
前記表示要求送信ステップでは、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記第1アバターオブジェクトに関連付けた前記第2ギフトオブジェクト及び前記第2アバターオブジェクトに関連付けた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理方法。
An information processing method executed by an information processing device that displays a moving image on a display of a user device,
The information processing device
a drawing data transmission step of transmitting data for drawing an avatar object reflecting a user's movement to the user device;
a first display processing step of transmitting a request for displaying a first gift object to the user device, triggered by transmission of a display request by a viewing user viewing the moving image;
and a display request transmission step of transmitting a display request for the second gift object to the user device when a display condition for the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied. ,
In the drawing data transmitting step, data for drawing a first avatar object reflecting movement of a first user and a second avatar object reflecting movement of a second user are transmitted to the user device;
In the display request transmission step, when the display condition is satisfied that the viewing user has not taken any action on the moving image for a predetermined period of time, the second gift object associated with the first avatar object and the An information processing method , wherein a request for displaying the second gift object associated with the second avatar object is transmitted to the user device .
動画をディスプレイに表示するコンピュータが、
ユーザの動きが反映されるアバターオブジェクトを前記動画に表示する第1画像処理ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトを表示する第2画像処理ステップと、を実行し、
前記第2画像処理ステップでは、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記アバターオブジェクトの属性に応じた前記第2ギフトオブジェクトを前記動画に表示する、情報処理方法。
A computer that displays video on a display
a first image processing step of displaying an avatar object reflecting a user's movement in the moving image;
a first display processing step of displaying a first gift object triggered by transmission of a display request by a viewing user viewing the moving image;
a second image processing step of displaying the second gift object when the display condition of the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied;
In the second image processing step, the second gift object corresponding to the attribute of the avatar object is generated when the display condition that the viewing user does not take any action on the moving image continues for a predetermined period of time is satisfied. An information processing method displayed in the moving image.
動画をユーザ装置のディスプレイに表示する情報処理装置であって、
ユーザの動きが反映されるアバターオブジェクトを描画するためのデータを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップと、を実行し、
前記表示要求送信ステップでは、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記アバターオブジェクトの属性に応じた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理装置。
An information processing device that displays a moving image on a display of a user device,
a drawing data transmission step of transmitting data for drawing an avatar object reflecting a user's movement to the user device;
a first display processing step of transmitting a request for displaying a first gift object to the user device, triggered by transmission of a display request by a viewing user viewing the moving image;
a display request transmission step of transmitting a display request for the second gift object to the user device when a display condition for the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied; death,
In the display request transmission step, the second gift object is displayed according to the attribute of the avatar object when the display condition that the viewing user has not taken any action on the moving image for a predetermined period of time is satisfied. An information processing device that transmits a request to the user device .
動画をユーザ装置のディスプレイに表示する情報処理装置が実行する情報処理方法であって、
前記情報処理装置が、
ユーザの動きが反映されるアバターオブジェクトを描画するためのデータを前記ユーザ装置に送信する描画データ送信ステップと、
前記動画を視聴する視聴ユーザによる表示要求の送信を表示の契機として第1ギフトオブジェクトを表示するための要求を前記ユーザ装置に送信する第1表示処理ステップと、
前記視聴ユーザが送信した表示要求に基づかずに表示される第2ギフトオブジェクトの表示条件を満たす場合に、前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する表示要求送信ステップとを実行し、
前記表示要求送信ステップでは、前記視聴ユーザによる前記動画に対するアクションが無い状態が所定時間継続したとの前記表示条件が満たされた場合に、前記アバターオブジェクトの属性に応じた前記第2ギフトオブジェクトの表示要求を前記ユーザ装置に送信する、情報処理方法。
An information processing method executed by an information processing device that displays a moving image on a display of a user device,
The information processing device
a drawing data transmission step of transmitting data for drawing an avatar object reflecting a user's movement to the user device;
a first display processing step of transmitting a request for displaying a first gift object to the user device, triggered by transmission of a display request by a viewing user viewing the moving image;
and a display request transmission step of transmitting a display request for the second gift object to the user device when a display condition for the second gift object to be displayed without being based on the display request transmitted by the viewing user is satisfied. ,
In the display request transmission step, the second gift object is displayed according to the attribute of the avatar object when the display condition that the viewing user has not taken any action on the moving image for a predetermined period of time is satisfied. A method of processing information, wherein a request is sent to the user equipment .
JP2022022581A 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus Active JP7333528B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022022581A JP7333528B2 (en) 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus
JP2023125953A JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021209726A JP7223834B2 (en) 2020-11-13 2021-12-23 Program, information processing method and information processing apparatus
JP2022022581A JP7333528B2 (en) 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021209726A Division JP7223834B2 (en) 2020-11-13 2021-12-23 Program, information processing method and information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023125953A Division JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Publications (2)

Publication Number Publication Date
JP2022078994A JP2022078994A (en) 2022-05-25
JP7333528B2 true JP7333528B2 (en) 2023-08-25

Family

ID=87654351

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022022581A Active JP7333528B2 (en) 2021-12-23 2022-02-17 Program, information processing method and information processing apparatus
JP2023125953A Pending JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023125953A Pending JP2023143963A (en) 2021-12-23 2023-08-02 Program, information processing method, and information processing device

Country Status (1)

Country Link
JP (2) JP7333528B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445272B1 (en) 2023-03-31 2024-03-07 グリー株式会社 Video processing method, video processing system, and video processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018174456A (en) 2017-03-31 2018-11-08 株式会社ドワンゴ Virtual processing server, control method for virtual processing server, content distribution system, and application program for terminal
JP6543403B1 (en) 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program
JP2019204244A (en) 2018-05-22 2019-11-28 株式会社 ディー・エヌ・エー System for animated cartoon distribution, method, and program
JP2020017243A (en) 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2020036134A (en) 2018-08-28 2020-03-05 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018174456A (en) 2017-03-31 2018-11-08 株式会社ドワンゴ Virtual processing server, control method for virtual processing server, content distribution system, and application program for terminal
JP2019204244A (en) 2018-05-22 2019-11-28 株式会社 ディー・エヌ・エー System for animated cartoon distribution, method, and program
JP2020017243A (en) 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2020036134A (en) 2018-08-28 2020-03-05 グリー株式会社 Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user
JP6543403B1 (en) 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program

Also Published As

Publication number Publication date
JP2022078994A (en) 2022-05-25
JP2023143963A (en) 2023-10-06

Similar Documents

Publication Publication Date Title
JP2019192173A (en) Program, information processing device, and method
WO2019130864A1 (en) Information processing device, information processing method, and program
JP7098676B2 (en) Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
US20190333261A1 (en) Program, and information processing apparatus and method
US20220297006A1 (en) Program, method, and terminal device
JP2021158558A (en) Moving image application program, object drawing method of moving image, moving image management program, moving image management method, server and moving image distribution system
JP2023143963A (en) Program, information processing method, and information processing device
JP2024036381A (en) Programs, information processing methods, servers and server information processing methods
JP7001796B1 (en) Information processing program, information processing method and information processing system
JP2019192174A (en) Program, information processing device, and method
JP2019188059A (en) Program, information processing device and method
US20230252706A1 (en) Information processing system, information processing method, and computer program
JP7293329B1 (en) Information processing device, information processing method, and program
US20230138046A1 (en) Information processing system, information processing method, and computer program
JP7223834B2 (en) Program, information processing method and information processing apparatus
JP2022075669A (en) Program, information processing device, and method
JP7357865B1 (en) Program, information processing method, and information processing device
JP7323900B1 (en) Program, information processing method, and information processing apparatus
JP7333564B2 (en) Information processing system, information processing method and computer program
JP2019192175A (en) Program, information processing device, and method
JP2019192176A (en) Program, information processing device, and method
JP7253025B1 (en) Information processing system, information processing method and computer program
JP7253026B1 (en) Information processing system, information processing method and computer program
JP7253597B1 (en) Information processing system, information processing method and computer program
JP2023066520A (en) Information processing system, information processing method, and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7333528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150