JP2024069071A - Information processing system, information processing method, and computer program - Google Patents

Information processing system, information processing method, and computer program Download PDF

Info

Publication number
JP2024069071A
JP2024069071A JP2022179861A JP2022179861A JP2024069071A JP 2024069071 A JP2024069071 A JP 2024069071A JP 2022179861 A JP2022179861 A JP 2022179861A JP 2022179861 A JP2022179861 A JP 2022179861A JP 2024069071 A JP2024069071 A JP 2024069071A
Authority
JP
Japan
Prior art keywords
user
user terminal
display
video
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022179861A
Other languages
Japanese (ja)
Other versions
JP7421738B1 (en
Inventor
大起 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022179861A priority Critical patent/JP7421738B1/en
Priority to US18/387,676 priority patent/US20240152311A1/en
Priority to JP2023220575A priority patent/JP2024069180A/en
Application granted granted Critical
Publication of JP7421738B1 publication Critical patent/JP7421738B1/en
Publication of JP2024069071A publication Critical patent/JP2024069071A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】配信ユーザの配信意欲、視聴ユーザの視聴意欲及び/又はユーザ同士の交流意欲を向上させる。【解決手段】1以上の視聴ユーザ端末と情報処理装置がネットワークを介して接続する情報処理システムにおいて、サーバ装置400は、第一ユーザ端末及び/又は第二ユーザ端末が送信する情報を受け付ける受付部と、第一のユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザ端末に送信することにより、動画を第二ユーザ端末において視聴可能とする配信部と、第一のユーザ及び/又は第二のユーザに関連付けて記憶されている履歴情報に基づいて、動画とともに第二ユーザ端末に表示されるオブジェクト表示枠に表示するオブジェクト表示データを生成する生成部と、受付部が受け付けた第二ユーザ端末からのオブジェクト表示枠の表示要求に応答して、生成部が生成したオブジェクト表示データを第二ユーザ端末に送信する送信部と、を備える。【選択図】図36[Problem] To improve a distributing user's willingness to distribute, a viewing user's willingness to view, and/or a willingness to interact with other users. [Solution] In an information processing system in which one or more viewing user terminals and an information processing device are connected via a network, a server device 400 includes a reception unit that receives information transmitted from a first user terminal and/or a second user terminal, a distribution unit that transmits information about a video including a character object of the first user to the second user terminal, thereby making the video viewable on the second user terminal, a generation unit that generates object display data to be displayed in an object display frame displayed on the second user terminal together with the video, based on history information stored in association with the first user and/or the second user, and a transmission unit that transmits the object display data generated by the generation unit to the second user terminal in response to a display request for the object display frame from the second user terminal received by the reception unit. [Selected Figure] FIG. 36

Description

本発明は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a computer program.

アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムが知られている(例えば、特許文献1参照)。 There is known an information processing system that generates animation of a character object based on the movement of an actor and distributes a video including the animation of the character object (see, for example, Patent Document 1).

特開2015-184689号公報JP 2015-184689 A

本技術分野において、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を如何にして向上させるかは重要な課題である。 In this technical field, an important issue is how to increase distribution users' willingness to distribute, viewing users' willingness to watch, and/or users' willingness to interact with each other.

本開示の目的は、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することにある。 The purpose of this disclosure is to provide technical improvements that solve or mitigate at least some of the problems with the prior art described above.

本開示のより具体的な目的の一つは、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。 One of the more specific objectives of the present disclosure is to provide an information processing system, information processing method, and computer program that can increase distribution users' motivation to distribute, viewing users' motivation to watch, and/or users' motivation to interact with each other.

本開示における情報処理システムは、一又は複数のコンピュータプロセッサを備える情報処理システムであって、一又は複数のコンピュータプロセッサは、第一のユーザの第一ユーザ端末および/または第二のユーザの第二ユーザ端末から送信される情報を受け付ける受付部と、第一のユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザ端末に送信することにより、動画を第二ユーザ端末において視聴可能とする配信部と、第一のユーザおよび/または第二のユーザに関連付けて記憶されている履歴情報に基づいて、動画とともに第二ユーザ端末に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成部と、受付部が受け付けた第二ユーザ端末からのオブジェクト表示枠の表示要求に応答して、生成部により生成されたオブジェクト表示データを第二ユーザ端末に送信する送信部とを備えることを特徴とする。 The information processing system of the present disclosure is an information processing system having one or more computer processors, the one or more computer processors being characterized in that they include a reception unit that receives information transmitted from a first user terminal of a first user and/or a second user terminal of a second user, a distribution unit that transmits information regarding a video including a character object of the first user to the second user terminal, thereby making the video viewable on the second user terminal, a generation unit that generates object display data, which is data to be displayed in an object display frame displayed on the second user terminal together with the video, based on history information stored in association with the first user and/or the second user, and a transmission unit that transmits the object display data generated by the generation unit to the second user terminal in response to a display request for the object display frame from the second user terminal received by the reception unit.

第一のユーザに関連付けて記憶されている履歴情報は、第一のユーザと所定のイベントとが関連付けられた履歴に関する情報を含むことができる。 The history information stored in association with the first user may include information regarding a history in which the first user is associated with a specific event.

第一のユーザに関連付けて記憶されている履歴情報は、第二ユーザ端末から送信された、第一のユーザに関連付けられた動画への所定のオブジェクトの表示要求に関する情報を含むことができる。 The history information stored in association with the first user may include information regarding a request sent from the second user terminal to display a specific object in a video associated with the first user.

第二のユーザに関連付けて記憶されている履歴情報は、第二ユーザ端末から送信された、第一のユーザに関連付けられた動画への所定のオブジェクトの表示要求に関する情報を含むことができる。 The history information stored in association with the second user may include information regarding a request sent from the second user terminal to display a specific object in a video associated with the first user.

第二のユーザに関連付けて記憶されている履歴情報は、第二ユーザ端末から送信された、第一のユーザに関連付けられた動画を含む任意の動画への所定のオブジェクトの表示要求に関する情報を含むことができる。 The history information stored in association with the second user may include information regarding a request sent from the second user terminal to display a specific object in any video, including a video associated with the first user.

生成部は、履歴情報に基づいて、オブジェクト表示枠に表示されるオブジェクトの中から特定の表示制御の対象となる対象オブジェクトを特定し、当該対象オブジェクトをオブジェクト表示枠の中で第一の位置に表示する、または、対象オブジェクトをオブジェクト表示枠の中で他のオブジェクトと異なる態様で表示するオブジェクト表示データを生成することができる。 The generation unit can identify a target object that is the subject of a specific display control from among the objects displayed in the object display frame based on the history information, and generate object display data that displays the target object in a first position in the object display frame, or displays the target object in a manner different from other objects in the object display frame.

生成部は、履歴情報に基づいて、第二ユーザ端末から表示要求が送信された直近所定個数の異なる所定のオブジェクトを対象オブジェクトとして特定することができる。 Based on the history information, the generation unit can identify a certain number of different predetermined objects in the immediate vicinity to which a display request has been sent from the second user terminal as target objects.

生成部は、履歴情報に基づいて、所定のオブジェクトに対する表示要求が一時に送信された回数を対象オブジェクトに関連付けたオブジェクト表示データを生成することができる。 The generation unit can generate object display data that associates the number of times display requests for a specific object were sent at one time with the target object based on the history information.

受付部は、さらに、第一ユーザ端末および/または第二ユーザ端末から送信される、オブジェクトおよび/またはオブジェクトの属性の指定情報を受け付け、生成部は、指定情報に基づいて指定オブジェクトを特定し、当該指定オブジェクトをオブジェクト表示枠の中の第二の位置に表示する、または、指定オブジェクトをオブジェクト表示枠の中で他のオブジェクトと異なる態様で表示するオブジェクト表示データを生成することができる。 The receiving unit further receives designation information for an object and/or an attribute of the object transmitted from the first user terminal and/or the second user terminal, and the generating unit identifies the designated object based on the designation information and displays the designated object at a second position in the object display frame, or generates object display data that displays the designated object in a manner different from other objects in the object display frame.

一又は複数のコンピュータプロセッサは、さらに、第一のユーザに所定のイベントが関連付けられているかを判定する判定部を備え、判定部により第一のユーザに所定のイベントが関連付けられていると判定された場合、生成部は、所定のイベントに関して第一のユーザに関連付けられたパラメータ値が、所定の値に達するのに必要な必要値に関する表示情報を生成し、送信部は、表示情報を第二ユーザ端末に送信することができる。 The one or more computer processors further include a determination unit that determines whether a predetermined event is associated with the first user, and when the determination unit determines that the predetermined event is associated with the first user, the generation unit generates display information regarding a required value that is necessary for a parameter value associated with the first user for the predetermined event to reach a predetermined value, and the transmission unit can transmit the display information to the second user terminal.

所定の値は、所定のイベントにおいて予め定められた値とすることができる。 The specified value can be a value that is predefined for a specified event.

所定の値は、所定のイベントと関連付けられた他のユーザに関連付けられたパラメータ値に応じて変動する値とすることができる。 The predetermined value may be a value that varies depending on parameter values associated with other users associated with the given event.

生成部は、表示情報を、必要値の変化に応じてリアルタイムで更新することができる。 The generation unit can update the display information in real time according to changes in the required values.

パラメータ値は、第二ユーザ端末から送信された動画へのオブジェクトの表示要求の数および/または価値に基づいて増加する値とすることができる。 The parameter value may be a value that increases based on the number and/or value of requests to display the object in a video sent from the second user terminal.

生成部は、必要値を表示情報とすることができる。 The generation unit can use the required values as display information.

生成部は、必要値を0とするための必要オブジェクトの種類を決定し、必要値を0とするために必要な必要オブジェクトの個数を計算し、必要オブジェクトの種類および個数を表示情報とすることができる。 The generation unit can determine the type of required object to make the required value 0, calculate the number of required objects required to make the required value 0, and display the type and number of required objects as display information.

生成部は、必要値を0とするための必要オブジェクトの種類を、履歴情報に基づいて決定することができる。 The generation unit can determine the type of object required to set the required value to 0 based on the history information.

生成部は、必要値を0とするための必要オブジェクトの種類を、第二ユーザ端末の数に基づいて決定することができる。 The generation unit can determine the type of object required to set the required value to 0 based on the number of second user terminals.

生成部は、さらに、個数の必要オブジェクトの表示要求を一括で送信可能な一括オブジェクトを第二ユーザ端末に表示するための情報を生成することができる。 The generation unit can further generate information for displaying a batch object on the second user terminal, which allows a display request for a number of required objects to be sent in a batch.

受付部は、第二ユーザ端末からの必要オブジェクトの仮の表示要求を受け付け、当該仮の表示要求の数が個数に達した場合に、個数の必要オブジェクトの表示要求を一括で受け付けたものとみなすことができる。 The reception unit receives a provisional display request for the required objects from the second user terminal, and when the number of provisional display requests reaches the number, the reception unit can regard the display requests for the number of required objects as having been received all at once.

第一の位置は、オブジェクト表示枠の上段位置またはオブジェクト表示枠における特定のタブ内の位置とすることができる。 The first location can be the top position of the object display pane or a location within a particular tab in the object display pane.

生成部は、必要値を0とするために必要なポイントの必要数を計算し、当該必要数を表示情報とすることができる。 The generation unit can calculate the number of points required to make the required value 0, and display the required number as the display information.

一又は複数のコンピュータプロセッサは、さらに、第二のユーザに関連付けられたポイントの数が必要数に足りているかを判定する判定部を備え、判定部によりポイントの数が必要数に足りていないと判定された場合に、送信部は、当該ポイントを増加させる処理を行う画面への導線となるオブジェクトを表示させるための情報を第二ユーザ端末に送信することができる。 The one or more computer processors further include a determination unit that determines whether the number of points associated with the second user is sufficient to meet the required number, and when the determination unit determines that the number of points is insufficient to meet the required number, the transmission unit can transmit, to the second user terminal, information for displaying an object that serves as a guide to a screen that performs processing to increase the points.

本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、第一のユーザの第一ユーザ端末および/または第二のユーザの第二ユーザ端末から送信される情報を受け付ける受付ステップと、第一のユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザ端末に送信することにより、動画を第二ユーザ端末において視聴可能とする配信ステップと、第一のユーザおよび/または第二のユーザに関連付けて記憶されている履歴情報に基づいて、動画とともに第二ユーザ端末に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成ステップと、第二ユーザ端末からのオブジェクト表示枠の表示要求があったか否かを判定する判定ステップと、第二ユーザ端末からのオブジェクト表示枠の表示要求に応答して、生成ステップにおいて生成されたオブジェクト表示データを第二ユーザ端末に送信する送信ステップとを実行させることを特徴とする。 The information processing method of the present disclosure is characterized in that it causes one or more computer processors to execute a receiving step of receiving information transmitted from a first user terminal of a first user and/or a second user terminal of a second user, a distribution step of transmitting information regarding a video including a character object of the first user to the second user terminal, thereby making the video viewable on the second user terminal, a generating step of generating object display data, which is data to be displayed in an object display frame displayed on the second user terminal together with the video, based on historical information stored in association with the first user and/or the second user, a determining step of determining whether or not a display request for the object display frame has been made from the second user terminal, and a transmitting step of transmitting the object display data generated in the generating step to the second user terminal in response to the display request for the object display frame from the second user terminal.

本開示における情報処理方法は、一又は複数のコンピュータプロセッサを備える情報処理装置における情報処理方法であって、一又は複数のコンピュータプロセッサに、第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信ステップと、第一のユーザの第一ユーザ端末および/または情報処理装置に関連付けて記憶されている履歴情報に基づいて、動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成ステップと、オブジェクト表示枠の表示要求があったか否かを判定する判定ステップと、オブジェクト表示枠の表示要求に応答して、生成ステップにおいて生成されたオブジェクト表示データに基づいて生成されたオブジェクト表示枠を動画とともに表示する表示ステップとを実行させることを特徴とする。 The information processing method of the present disclosure is an information processing method in an information processing device having one or more computer processors, characterized in that the one or more computer processors are caused to execute a receiving step of receiving information about a video including a character object of a first user from a server device, a generating step of generating object display data, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with a first user terminal of the first user and/or the information processing device, a determining step of determining whether or not a display request for the object display frame has been made, and a display step of displaying, together with the video, the object display frame generated based on the object display data generated in the generating step in response to the display request for the object display frame.

本開示におけるコンピュータプログラムは、一又は複数のコンピュータプロセッサを備える情報処理装置で実行されるコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信機能と、第一のユーザの第一ユーザ端末および/または情報処理装置に関連付けて記憶されている履歴情報に基づいて、動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成機能と、オブジェクト表示枠の表示要求に応答して、生成機能により生成されたオブジェクト表示データに基づいて生成されたオブジェクト表示枠を動画とともに表示する表示機能とを実現させることを特徴とする。 The computer program of the present disclosure is a computer program executed on an information processing device having one or more computer processors, and is characterized in that the one or more computer processors are provided with a receiving function for receiving information relating to a video including a character object of a first user from a server device, a generating function for generating object display data, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with the first user terminal of the first user and/or the information processing device, and a display function for displaying, together with the video, an object display frame generated based on the object display data generated by the generating function in response to a display request for the object display frame.

本開示によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本開示の構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 According to the present disclosure, it is possible to provide technical improvements that solve or alleviate at least some of the problems of the conventional technology described above. Specifically, according to the configuration of the present disclosure, it is possible to improve the willingness of broadcasting users to broadcast, the willingness of viewing users to watch, and/or the willingness of users to interact with each other.

本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示におけるサーバ装置、第一ユーザ端末および第二ユーザ端末のハードウェア構成の一例を示す構成図である。FIG. 2 is a configuration diagram showing an example of a hardware configuration of a server device, a first user terminal, and a second user terminal in the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示において説明される仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space described in the present disclosure. 本開示におけるサーバ装置の機能構成の一例を示す構成図である。FIG. 2 is a configuration diagram illustrating an example of a functional configuration of a server device according to the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における記憶装置に記憶されたデータテーブルの一例を示すデータ構成図である。FIG. 2 is a data configuration diagram showing an example of a data table stored in a storage device in the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示におけるサーバ装置の機能構成の他の例を示す構成図である。FIG. 13 is a configuration diagram showing another example of the functional configuration of the server device in the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における情報処理方法のフローの一例を示すフロー図である。FIG. 1 is a flow diagram showing an example of the flow of an information processing method according to the present disclosure. 本開示における情報処理方法のフローの他の例を示すフロー図である。FIG. 11 is a flow diagram showing another example of the flow of the information processing method according to the present disclosure. 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。FIG. 2 is a circuit configuration diagram showing an example of a circuit configuration for realizing a computer program according to the present disclosure. 本開示における第二ユーザ端末の機能構成の一例を示す構成図である。FIG. 2 is a configuration diagram showing an example of a functional configuration of a second user terminal in the present disclosure. 本開示における第二ユーザ端末における情報処理方法のフローの一例を示すフロー図である。11 is a flow diagram showing an example of the flow of an information processing method in a second user terminal in the present disclosure. 本開示における第二ユーザ端末で実行されるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。FIG. 11 is a circuit diagram showing an example of a circuit configuration for realizing a computer program executed in a second user terminal in the present disclosure. 本開示におけるコンピュータベースの動作を実行する処理回路のブロック図である。FIG. 1 is a block diagram of processing circuitry for performing computer-based operations in the present disclosure.

初めに、本開示の実施形態に係る情報処理システムの概要について図面を参照しながら説明する。 First, an overview of an information processing system according to an embodiment of the present disclosure will be described with reference to the drawings.

本開示における情報処理システムは、一以上のクライアント装置およびサーバ装置を備える情報処理システムであって、一又は複数のコンピュータプロセッサを備える。 The information processing system in this disclosure is an information processing system that includes one or more client devices and a server device, and includes one or more computer processors.

各クライアント装置に表示される動画は、配信ユーザの動きに基づいて生成される3Dまたは2Dのキャラクタオブジェクトのアニメーションを含むものとして説明を行うが、これに限られるものではなく、配信ユーザの操作に応じて生成されるキャラクタオブジェクトのアニメーションを含むものとしてもよいし、配信ユーザ本人の画像を含むものとしてもよい。また、これらキャラクタオブジェクトや配信ユーザは表示されず、配信ユーザの声のみを含むものとしてもよい。 The video displayed on each client device will be described as including animation of 3D or 2D character objects generated based on the movements of the broadcasting user, but is not limited to this and may include animation of character objects generated in response to the broadcasting user's operations, or may include an image of the broadcasting user himself. Also, these character objects and the broadcasting user may not be displayed, and only the voice of the broadcasting user may be included.

ここで、配信ユーザは、映像および/または音声に関する情報を送信する側のユーザを意味するものとする。例えば、配信ユーザは、単独での動画配信(ソロ配信)、複数人が参加可能なコラボ配信、複数人が参加および/または視聴可能なビデオチャットまたはボイスチャット、複数人が参加および/または視聴可能な仮想空間上でのイベント(パーティなど)を主催または開催するユーザ、すなわち、これらをメインで実行するユーザであればよい。そのため、本開示における配信ユーザは、ホストユーザ、主催ユーザまたは開催ユーザなどと言い換えることもできる。 Here, a broadcasting user refers to a user who transmits information related to video and/or audio. For example, a broadcasting user may be a user who hosts or organizes a single video broadcast (solo broadcast), a collaborative broadcast in which multiple people can participate, a video chat or voice chat in which multiple people can participate and/or watch, or an event (such as a party) in a virtual space in which multiple people can participate and/or watch, in other words, a user who mainly carries out these activities. Therefore, a broadcasting user in this disclosure can also be referred to as a host user, organizer user, or organizer user.

一方で、視聴ユーザは、映像および/または音声に関する情報を受信する側のユーザを意味するものとする。ただし、視聴ユーザは上記情報を受信するのみならず、リアクションすることも可能なユーザとすることができる。例えば、視聴ユーザは、動画配信やコラボ配信を視聴するユーザ、または、ビデオチャット、ボイスチャットやイベントに参加および/またはこれらを視聴するユーザであればよい。そのため、本開示における視聴ユーザは、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、応援ユーザなどと言い換えることもできる。 On the other hand, a viewing user refers to a user who receives information regarding video and/or audio. However, a viewing user can be a user who is not only able to receive the above information but also able to react to it. For example, a viewing user may be a user who watches a video broadcast or a collaborative broadcast, or a user who participates in and/or watches a video chat, voice chat, or event. Therefore, a viewing user in this disclosure can also be referred to as a guest user, participating user, listener, spectator user, supporter user, etc.

また、本開示の実施形態における情報処理システムは、多くの人が同時に参加してキャラクタオブジェクト(アバタ)を通じた交流や仕事、遊びなどを実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供するために用いられることができる。 The information processing system in the embodiment of the present disclosure can also be used to provide a digital world in which many people can participate simultaneously and freely engage in activities such as interacting, working, and playing through character objects (avatars) at a level close to that of the real world, and in which social activities can take place beyond the gap between reality and virtuality, creating a next-generation Internet space (metaverse).

このような空間において、ユーザのアバタはワールド内を自由に歩き回り、互いにコミュニケーションをとることが可能である。 In such a space, users' avatars can roam freely within the world and communicate with each other.

そして、かかる仮想空間にいる複数のアバタの中の一のアバタが、配信ユーザのキャラクタオブジェクトとして動画を配信できる構成としてもよい。すなわち、多対多のメタバースな仮想空間において一対多の動画配信を行うことができるものとしてもよい。 Then, one of the multiple avatars in the virtual space may be configured to be able to distribute video as a character object of the distribution user. In other words, one-to-many video distribution may be possible in a many-to-many metaverse virtual space.

このような空間において、配信ユーザと視聴ユーザとは特に区別されないものとすることができる。 In such a space, there can be no particular distinction between broadcast users and viewing users.

また、動画に表される空間は仮想空間であってもよいし、現実空間であってもよいし、これらが融合した拡張現実空間であってもよい。また、動画は、少なくとも所定の映像および配信ユーザの声を再生するカラオケ動画やゲーム実況動画のようなものであってもよいし、これらにキャラクタオブジェクトまたは配信ユーザの実画像を重畳して表示したものであってもよい。 The space depicted in the video may be a virtual space, a real space, or an augmented reality space that combines these. The video may be something like a karaoke video or a game commentary video that plays back at least a specific image and the voice of the broadcasting user, or may display a character object or an actual image of the broadcasting user superimposed on these.

また、現実空間に配信ユーザが含まれる場合には、当該配信ユーザの実画像に当該配信ユーザの動きに基づいて生成されるキャラクタオブジェクトを重ねて表示させてもよい。また、現実空間の撮影画像に、ギフトオブジェクト等のアニメーションを重ねて表示してもよい。 In addition, if the real space includes a broadcast user, a character object generated based on the broadcast user's movements may be displayed superimposed on an actual image of the broadcast user. Also, an animation of a gift object or the like may be displayed superimposed on an image captured in real space.

<システム構成>
図1に一例として示されるように、本開示に係る情報処理システム1000は、1以上の視聴ユーザ端末1100、および、これら視聴ユーザ端末1100とネットワーク1200を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)1300を含むことができる。
<System Configuration>
As shown as an example in FIG. 1, the information processing system 1000 of the present disclosure may include one or more viewing user terminals 1100, and an information processing device (support computer) 1300 located in a video distribution studio, etc., connected to these viewing user terminals 1100 via a network 1200.

また、当該情報処理装置1300は、インターネットを介して所定のサーバ装置と接続され、情報処理装置1300で行われるべき処理の一部または全部は当該サーバ装置で行われるものとしてもよい。なお、かかるサーバ装置は、図2に示す情報処理装置2400であるものとしてもよい。 In addition, the information processing device 1300 may be connected to a specific server device via the Internet, and some or all of the processing to be performed by the information processing device 1300 may be performed by the server device. Such a server device may be the information processing device 2400 shown in FIG. 2.

本明細書において、かかる情報処理システム1000による配信を、スタジオ配信と呼ぶものとする。 In this specification, such distribution by the information processing system 1000 is referred to as studio distribution.

スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。 In studio streaming, the entire body movements of the streaming user (actor) are captured by a camera installed in the studio using markers attached to the streaming user, and are reflected in the character in real time using known motion capture technology.

また、本発明の情報処理システム1000は、図2に一例として示される別の情報処理システム2000と連携することができる。図2に示される情報処理システム2000は、配信ユーザ端末2100、1以上の視聴ユーザ端末2200、および、これら配信ユーザ端末2100および視聴ユーザ端末2200とネットワーク2300を介して接続される情報処理装置(サーバ装置)2400を含むことができる。 The information processing system 1000 of the present invention can also be linked to another information processing system 2000, shown as an example in FIG. 2. The information processing system 2000 shown in FIG. 2 can include a broadcast user terminal 2100, one or more viewing user terminals 2200, and an information processing device (server device) 2400 connected to the broadcast user terminal 2100 and the viewing user terminal 2200 via a network 2300.

上記の例において、配信ユーザ端末2100はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム2000による配信を、モバイル配信と呼ぶものとする。 In the above example, the broadcast user terminal 2100 can be an information processing terminal such as a smartphone. In this specification, broadcasting by such an information processing system 2000 is referred to as mobile broadcasting.

モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザ端末2100が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。 In mobile distribution, the facial movements of the broadcast user are captured by a camera installed in the broadcast user terminal 2100, and are reflected on the character's face in real time using known face tracking technology.

なお、モバイル配信における配信ユーザと視聴ユーザの区別は特になく、視聴ユーザはいつでもモバイル配信が可能であり、配信ユーザは他の配信ユーザの動画を視聴する場合には視聴ユーザとなりうる。 Note that there is no particular distinction between broadcast users and viewing users in mobile distribution; viewing users can broadcast via mobile at any time, and broadcast users can become viewing users when viewing videos of other broadcast users.

上記情報処理システム1000および情報処理システム2000により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。 The videos generated by the information processing system 1000 and the information processing system 2000 can be distributed to viewing users from a single video distribution platform, as an example.

また、いずれの配信においても、モーションをキャラクタに反映させてアニメーションを生成する処理および後述するギフトを表示する処理等は、配信ユーザ端末、視聴ユーザ端末、情報処理装置および他の装置により分担して行われてもよい。 In addition, in any broadcast, the process of generating animation by reflecting motion on a character and the process of displaying gifts (described below) may be shared and performed by the broadcasting user terminal, the viewing user terminal, an information processing device, and other devices.

すなわち、ここでいう「配信」は、視聴ユーザの端末において動画を視聴可能とするための情報を送信することをいい、動画のレンダリングは情報処理装置1300,2400側で行われるものであってもよいし、配信ユーザ端末2100,視聴ユーザ端末1100,2200側で行われるものであってもよい。 In other words, "distribution" here refers to the transmission of information that enables the video to be viewed on the viewing user's terminal, and the rendering of the video may be performed on the information processing device 1300, 2400 side, or on the distribution user terminal 2100 or the viewing user terminal 1100, 2200 side.

具体的には、キャラクタオブジェクトのアニメーションを生成する(レンダリングする)端末または装置には、配信ユーザ端末または情報処理装置から、配信ユーザのフェイスモーションデータおよび音声データが送信される。また、フェイスモーションに加えてボディモーションが送信されてもよい。 Specifically, facial motion data and voice data of the broadcasting user are transmitted from the broadcasting user terminal or information processing device to a terminal or device that generates (renders) the animation of the character object. Body motion may also be transmitted in addition to facial motion.

本開示において、アニメーションを生成する処理は配信ユーザ端末および視聴ユーザ端末のそれぞれで行うものとして説明を行うが、これに限られるものではない。 In this disclosure, the process of generating animation is described as being performed on both the broadcasting user terminal and the viewing user terminal, but is not limited to this.

そして、本開示における情報処理システムは、図1および図2に示した例のいずれの場合にも適用が可能である。そこで、本開示の実施形態における情報処理システム3000は、図3に示されるように、第一ユーザ端末100、第二ユーザ端末200、および、これら第一ユーザ端末100および第二ユーザ端末200とネットワーク300を介して接続可能なサーバ装置400を備えるものとして説明を行う。 The information processing system of the present disclosure can be applied to either of the examples shown in FIG. 1 and FIG. 2. Therefore, the information processing system 3000 in the embodiment of the present disclosure will be described as including a first user terminal 100, a second user terminal 200, and a server device 400 that can be connected to the first user terminal 100 and the second user terminal 200 via a network 300, as shown in FIG. 3.

第一ユーザ端末100および第二ユーザ端末200は、例えば、基地局、移動体通信網、ゲートウェイおよびインターネットを介してサーバ装置400と相互に接続される。第一ユーザ端末100および第二ユーザ端末200とサーバ装置400との間では、ハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)等の通信プロトコルに基づいて通信が行われる。また、第一ユーザ端末100および第二ユーザ端末200とサーバ装置400との間において、最初にHTTP通信によりコネクションが確立され、その後は、HTTP通信よりも小コスト(通信負荷及び処理負荷が少ない)の双方向通信が行われるWebSocketに基づいて通信が行われてもよい。なお、第一ユーザ端末100および第二ユーザ端末200とサーバ装置400との間の通信方式は、上述の方式に限定されず、本実施形態を実現できるものであれば、どのような通信方式の技術が用いられてもよい。 The first user terminal 100 and the second user terminal 200 are connected to the server device 400 via, for example, a base station, a mobile communication network, a gateway, and the Internet. Between the first user terminal 100 and the second user terminal 200 and the server device 400, communication is performed based on a communication protocol such as Hypertext Transfer Protocol (HTTP). In addition, between the first user terminal 100 and the second user terminal 200 and the server device 400, a connection is first established by HTTP communication, and then communication may be performed based on WebSocket, which performs two-way communication with lower cost (lower communication load and processing load) than HTTP communication. Note that the communication method between the first user terminal 100 and the second user terminal 200 and the server device 400 is not limited to the above-mentioned method, and any communication method technology may be used as long as it can realize this embodiment.

第一ユーザ端末100は、少なくとも上述した情報処理装置1300、視聴ユーザ端末1100、配信ユーザ端末2100または視聴ユーザ端末2200として機能するものであり、第二ユーザ端末200は、少なくとも上述した情報処理装置1300、視聴ユーザ端末1100、配信ユーザ端末2100または視聴ユーザ端末2200として機能するものであり、サーバ装置400は、少なくとも上述した所定のサーバ装置または情報処理装置2400として機能するものである。 The first user terminal 100 functions at least as the above-mentioned information processing device 1300, viewing user terminal 1100, broadcast user terminal 2100 or viewing user terminal 2200, the second user terminal 200 functions at least as the above-mentioned information processing device 1300, viewing user terminal 1100, broadcast user terminal 2100 or viewing user terminal 2200, and the server device 400 functions at least as the above-mentioned specified server device or information processing device 2400.

本開示において第一ユーザ端末100および第二ユーザ端末200は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ(HMD)、眼鏡型のウェアラブル端末(ARグラス等)等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置とすることができる。また、これら端末は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。 In the present disclosure, the first user terminal 100 and the second user terminal 200 can be a smartphone (multifunction phone terminal), a tablet terminal, a personal computer, a console game machine, a head mounted display (HMD), a wearable computer such as a glasses-type wearable terminal (AR glasses, etc.), and an information processing device capable of playing videos other than these devices. Furthermore, these terminals may be standalone devices that operate independently, or may be composed of multiple devices connected to each other so that they can send and receive various data.

<ハードウェア構成>
ここで、図4を用いて、第一ユーザ端末100のハードウェア構成について説明する。第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力インターフェース(入出力I/F)104と、通信インターフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
<Hardware Configuration>
Here, the hardware configuration of the first user terminal 100 will be described with reference to Fig. 4. The first user terminal 100 includes a processor 101, a memory 102, a storage 103, an input/output interface (input/output I/F) 104, and a communication interface (communication I/F) 105. The components are connected to each other via a bus B.

第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力I/F104と、通信I/F105との協働により、本実施形態に記載される機能、方法を実現することができる。 The first user terminal 100 can realize the functions and methods described in this embodiment through cooperation between the processor 101, memory 102, storage 103, input/output I/F 104, and communication I/F 105.

プロセッサ101は、ストレージ103に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。 The processor 101 executes functions and/or methods realized by codes or instructions included in a program stored in the storage 103. The processor 101 includes, for example, a central processing unit (CPU), a micro processing unit (MPU), a graphics processing unit (GPU), a microprocessor, a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), etc., and may realize each process disclosed in each embodiment by a logic circuit (hardware) or a dedicated circuit formed in an integrated circuit (an integrated circuit (IC) chip, a large scale integration (LSI)), etc.). These circuits may be realized by one or more integrated circuits, and multiple processes shown in each embodiment may be realized by one integrated circuit. In addition, an LSI may be called a VLSI, a super LSI, an ultra LSI, etc. depending on the degree of integration.

メモリ102は、ストレージ103からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ102には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。 The memory 102 temporarily stores the programs loaded from the storage 103 and provides a working area for the processor 101. The memory 102 also temporarily stores various data generated while the processor 101 is executing the programs. The memory 102 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), etc.

ストレージ103は、プログラムを記憶する。ストレージ103は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。 Storage 103 stores programs. Storage 103 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), flash memory, etc.

通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク300を介して、他の情報処理装置との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。 The communication I/F 105 is implemented as hardware such as a network adapter, communication software, or a combination of these, and transmits and receives various data via the network 300. The communication may be performed either wired or wirelessly, and any communication protocol may be used as long as mutual communication can be performed. The communication I/F 105 communicates with other information processing devices via the network 300. The communication I/F 105 transmits various data to other information processing devices according to instructions from the processor 101. The communication I/F 105 also receives various data transmitted from other information processing devices and transmits it to the processor 101.

入出力I/F104は、第一ユーザ端末100に対する各種操作を入力する入力装置、及び、第一ユーザ端末100で処理された処理結果を出力する出力装置を含む。入出力I/F104は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。 The input/output I/F 104 includes an input device for inputting various operations to the first user terminal 100, and an output device for outputting the results of processing performed by the first user terminal 100. The input/output I/F 104 may be an integrated input device and output device, or may be separate input device and output device.

入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input device is realized by any type of device, or a combination of devices, that can receive input from a user and transmit information related to the input to the processor 101. Examples of input devices include hardware keys such as a touch panel, a touch display, and a keyboard, pointing devices such as a mouse, a camera (operation input via images), and a microphone (operation input via voice).

入力装置は、センサユニットを含むことができる。センサユニットは、ユーザの表情の変化を示すフェイスモーション、及びセンサユニットに対するユーザの身体の相対位置の変化を示すボディモーションを検出する1以上のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニットは、公知の物を使用することができる。センサユニットの一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニットは、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LiDAR」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニットの演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。 The input device may include a sensor unit. The sensor unit is one or more sensors that detect face motions indicating changes in the user's facial expression and body motions indicating changes in the relative position of the user's body with respect to the sensor unit. Face motions include blinking, opening and closing of the mouth, and other movements. The sensor unit may be a publicly known one. An example of the sensor unit includes a ToF sensor that measures and detects the time of flight (Time of Flight) until light irradiated toward the user is reflected by the user's face and returns, a camera that captures the user's face, and an image processing unit that processes the data captured by the camera. The sensor unit may also include an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light. The RGB camera and the near-infrared camera may be, for example, True Depth of the "iPhoneX (registered trademark)", or LiDAR of the "iPad Pro (registered trademark)", or other ToF sensors installed in smartphones. Specifically, this camera uses a dot projector to project tens of thousands of invisible dots onto the user's face, etc. Then, it detects and analyzes the reflected light from the dot pattern to form a depth map of the face, and captures an infrared image of the face, etc., thereby capturing accurate facial data. The sensor unit's processing unit generates various information based on the depth map and the infrared image, and compares the information with registered reference data to calculate the depth of each point on the face (the distance between each point and the near-infrared camera) and positional deviations other than depth.

また、センサユニットは、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニットは、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサ、をさらに含むものであってもよい。センサユニットは、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニットの画像処理部は、本発明の情報処理システムが具備可能な制御部が備えていてもよい。 The sensor unit may also have a function of tracking not only the user's face but also their hands (hand tracking). The sensor unit may further include sensors other than the above-mentioned sensors, such as an acceleration sensor or a gyro sensor. The sensor unit may have a spatial mapping function of recognizing objects in the real space in which the user exists based on the detection results of the above-mentioned ToF sensor or other known sensors, and mapping the recognized objects on a spatial map. Hereinafter, when face motion detection data and body motion detection data are described without making a distinction between them, they will simply be referred to as "tracking data". Note that the image processing unit of the sensor unit may be provided in a control unit that can be provided in the information processing system of the present invention.

入力装置としての操作部は、ユーザ端末の種類に応じたものを用いることができる。操作部の一例は、ディスプレイと一体化されたタッチパネルや、ユーザ端末の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行したりすることができる。なお、センサユニットがハンドトラック機能等の入力インターフェース機能も有する場合には、操作部は省略可能である。 The operation unit as an input device can be one that corresponds to the type of user terminal. Examples of the operation unit include a touch panel integrated with a display, operation buttons provided on the housing of the user terminal, a keyboard, a mouse, and a controller operated by the user's hand. The controller may have various known sensors built in, such as an acceleration sensor and an inertial measurement unit (IMU) such as a gyroscope. Another example of the operation unit may be a tracking device that identifies the user's hand movement, eye movement, head movement, line of sight, and the like. In this aspect, for example, the user's instructions can be determined based on the user's hand movement, and various operations can be performed, such as starting or ending the distribution of a video, rating a message or a video, and requesting the display of a specific object (for example, a gift, which will be described later). Note that if the sensor unit also has an input interface function such as a hand truck function, the operation unit can be omitted.

出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。 The output device outputs the processing results processed by the processor 101. The output device includes, for example, a touch panel, a speaker, etc.

なお、本明細書中に記載されている構成要素により実現される機能は、当該記載された機能を実現するようにプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs (Application Specific Integrated Circuits)、CPU (a Central Processing Unit)、従来型の回路、および/又はそれらの組合せを含む、circuitry又はprocessing circuitryにおいて実装されてもよい。プロセッサは、トランジスタやその他の回路を含み、 circuitry又はprocessing circuitryとみなされる。プロセッサは、メモリに格納されたプログラムを実行する、programmed processorであってもよい。 It should be noted that the functions provided by the components described herein may be implemented in circuitry or processing circuitry, including general-purpose processors, application-specific processors, integrated circuits, ASICs (Application Specific Integrated Circuits), a CPU (a Central Processing Unit), conventional circuits, and/or combinations thereof, programmed to provide the functions described. Processors include transistors and other circuits and are considered to be circuitry or processing circuitry. A processor may be a programmed processor that executes a program stored in a memory.

本明細書において、circuitry、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。 In this specification, a circuitry, unit, or means is hardware that is programmed to realize or executes the described functions. The hardware may be any hardware disclosed in this specification or any hardware known to be programmed to realize or execute the described functions.

当該ハードウェアがcircuitryのタイプであるとみなされるプロセッサである場合、当該circuitry、手段、又はユニットは、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアの組合せである。 If the hardware is a processor that is considered to be a type of circuitry, the circuitry, means, or unit is the combination of the hardware and/or software used to configure the hardware and/or processor.

また、本開示における第二ユーザ端末200およびサーバ装置400についても、特筆すべき場合を除き、図4と同様のハードウェア構成で構成されることができる。 In addition, the second user terminal 200 and server device 400 in this disclosure can also be configured with the same hardware configuration as shown in FIG. 4, unless otherwise noted.

続いて、本開示の実施形態における情報処理システムにより実現されるアプリケーションを起動したユーザ端末において実行可能な各種機能、および、表示される画面の遷移について図面を参照しながら説明する。 Next, various functions that can be executed on a user terminal that has launched an application realized by an information processing system in an embodiment of the present disclosure, and the transition of the screens that are displayed will be explained with reference to the drawings.

図5は、動画の配信・視聴アプリケーションを起動した際にユーザ端末(ここでは未だユーザが視聴/配信を行うか否かは特定されない)に表示されるトップ画面T10を示したものである。 Figure 5 shows the top screen T10 that is displayed on a user terminal (it is not yet specified here whether the user will be viewing/distributing) when a video distribution/viewing application is launched.

図5に示されるように、ユーザは、トップ画面T10においておすすめタブT11内で一覧表示されるおすすめの一以上の配信チャンネルT12のサムネイル画像の中から一の配信チャンネル(配信枠、配信番組、配信動画などと呼ばれる)を選ぶことにより、当該一の配信チャンネルで再生される動画を視聴することができる。 As shown in FIG. 5, a user can watch a video being played on one distribution channel by selecting a distribution channel (also called a distribution slot, distribution program, distribution video, etc.) from thumbnail images of one or more recommended distribution channels T12 listed in the Recommendations tab T11 on the top screen T10.

あるいは、ユーザは、特定の一の配信チャンネルの固定リンクへアクセスすることにより、当該特定の一の配信チャンネルで再生される動画を視聴することができる。かかる固定リンクは、フォロー中の第一のユーザからのお知らせ、または、他のユーザから送られたシェアの通知などにより得ることができる。 Alternatively, a user can view a video being played on a specific distribution channel by accessing a fixed link for the specific distribution channel. Such a fixed link can be obtained through a notification from a first user the user is following, or a share notification sent by another user, etc.

ここでは、動画を視聴するユーザは視聴ユーザとなり、動画を視聴する端末は第二ユーザ端末200となる。 Here, the user watching the video is the viewing user, and the terminal watching the video is the second user terminal 200.

また、図5に示すように、トップ画面T10にはキャンペーンやイベントなどのお知らせの表示欄T13が表示されてもよい。このお知らせの表示欄T13は、スライド操作により他のお知らせへの表示の切り替えが可能である。 As shown in FIG. 5, the top screen T10 may also display a display area T13 for notifications such as campaigns and events. This notification display area T13 can be switched to display other notifications by sliding the display area.

そして、トップ画面T10からは、フォロータブT14、ゲームカテゴリを表示するためのゲームタブT15、コラボ待ちの配信チャンネルを表示するためのコラボ待ちタブT16、ビギナーの配信チャンネルを表示するためのビギナータブT17が表示される。これらを選択することにより(タブを切り替えることにより)、トップ画面T10からそれぞれ別の画面へと遷移する。 The top screen T10 displays a follow tab T14, a game tab T15 for displaying game categories, a collaboration waiting tab T16 for displaying distribution channels waiting for collaboration, and a beginner tab T17 for displaying distribution channels for beginners. By selecting these (by switching between tabs), the top screen T10 transitions to each of the different screens.

なお、トップ画面T10の上部枠のサービス名表示T18および検索ボタンT19については、遷移先の画面で固定して表示されたままとしてもよい。 The service name display T18 and search button T19 in the upper frame of the top screen T10 may remain fixed and displayed on the destination screen.

同様に、トップ画面T10の下部枠のホームボタンT20、メッセージボタンT21、配信準備ボタンT22、ガチャボタンT23、プロフィールボタンT24についても、遷移先の画面で固定して表示されたままとしてもよい。 Similarly, the home button T20, message button T21, delivery preparation button T22, gacha button T23, and profile button T24 in the lower frame of the top screen T10 may also be fixed and remain displayed on the transition destination screen.

図5に示したトップ画面T10等において、表示されているサムネイル画像T12を選択したユーザは、上述したように動画を視聴する視聴ユーザ(第二のユーザ)となり、配信準備ボタンT22を選択したユーザは、動画を配信する配信ユーザ(第一のユーザ)となりうる。 On the top screen T10 shown in FIG. 5, a user who selects a displayed thumbnail image T12 becomes a viewing user (second user) who watches the video as described above, and a user who selects the distribution preparation button T22 becomes a distribution user (first user) who distributes the video.

一例として、図5に示したトップ画面T10において配信準備ボタンT22を選択すると、図6に示すアバタ設定画面D10へと遷移する。そして、アバタ設定画面D10において配信ボタンD11を選択すると、図7に示す配信設定画面D20へと遷移する。そして、配信設定画面D20において配信開始ボタンD25を選択すると、図8に示すアバタ配信画面D30へと遷移する。 As an example, when the distribution preparation button T22 is selected on the top screen T10 shown in FIG. 5, the screen transitions to the avatar setting screen D10 shown in FIG. 6. Then, when the distribution button D11 is selected on the avatar setting screen D10, the screen transitions to the distribution setting screen D20 shown in FIG. 7. Then, when the start distribution button D25 is selected on the distribution setting screen D20, the screen transitions to the avatar distribution screen D30 shown in FIG. 8.

続いて、動画の配信を開始するまでのフローの詳細について説明を行う。 Next, we will explain the details of the flow until video distribution begins.

本開示における一又は複数のコンピュータプロセッサは、配信開始要求受付部と、配信設定部と、配信開始部とを備えることができる。 The one or more computer processors in the present disclosure may include a distribution start request receiving unit, a distribution setting unit, and a distribution start unit.

配信開始要求受付部は、第一のユーザの第一ユーザ端末から、キャラクタオブジェクトのアニメーションを含む第一の動画の配信開始要求を受け付ける。 The distribution start request receiving unit receives a request to start distribution of a first video including an animation of a character object from a first user terminal of a first user.

ここでは、第一の動画は、キャラクタオブジェクトのアニメーションを含む動画のことをいう。なお、本明細書において、キャラクタオブジェクトのことを「アバタ」と呼ぶ場合がある。 Here, the first video refers to a video that includes animation of a character object. Note that in this specification, a character object may also be called an "avatar."

そして、上記配信開始要求は、上記動画配信プラットフォームにアクセスするための専用のアプリケーション(動画の配信・視聴アプリケーション)を起動したユーザ端末(後に第一ユーザ端末となる)に表示される上述したトップ画面から遷移したアバタ設定画面D10等に配置される配信ボタンD11を選択することにより、ユーザ端末からサーバ装置400に送信されるものとすることができる。 The request to start distribution can be transmitted from the user terminal (which will later become the first user terminal) to the server device 400 by selecting a distribution button D11 located on an avatar setting screen D10 or the like, which is transitioned from the above-mentioned top screen displayed on the user terminal (which will later become the first user terminal) that has launched a dedicated application (video distribution/viewing application) for accessing the video distribution platform.

図6は、アバタ設定画面D10の一例を示したものである。アバタ設定画面D10には、キャラクタオブジェクトCO、配信ボタンD11、ガチャボタンD12、着替えボタンD13、フォトボタンD14等が表示されることができる。 Figure 6 shows an example of an avatar setting screen D10. The avatar setting screen D10 can display a character object CO, a distribution button D11, a gacha button D12, a change of clothes button D13, a photo button D14, etc.

ユーザによって着替えボタンD13が選択されると、キャラクタオブジェクトCOの目、鼻、口、髪、アクセサリ、洋服、背景などの各種アバタパーツを選択するためのクローゼット画面が展開する。 When the user selects the change clothes button D13, a closet screen appears for selecting various avatar parts for the character object CO, such as eyes, nose, mouth, hair, accessories, clothes, and background.

ユーザによってガチャボタンD12が選択されると、上記アバタパーツを入手するための抽選画面が展開する。 When the user selects the gacha button D12, a lottery screen for obtaining the avatar parts appears.

ユーザによってフォトボタンD14が選択されると、キャラクタオブジェクトの静止画を撮影するための撮影画面が展開する。 When the user selects the photo button D14, a shooting screen appears for taking a still image of the character object.

そして、ユーザによって配信ボタンD11が選択されると、サーバ装置400に対して配信開始要求が送信される。 When the user selects the distribution button D11, a distribution start request is sent to the server device 400.

配信設定部は、配信開始要求受付部が受け付けた第一の動画の配信開始要求に応じて、第一の動画の配信設定を第一ユーザ端末100からの指定に基づいて設定する。 The distribution setting unit sets the distribution settings of the first video based on the specifications from the first user terminal 100 in response to a request to start distribution of the first video received by the distribution start request receiving unit.

一例として、上記配信ボタンD11が選択されると、第一ユーザ端末100に表示される画面は、図6に示したアバタ設定画面D10から図7に示す配信設定画面D20へと遷移する。 As an example, when the distribution button D11 is selected, the screen displayed on the first user terminal 100 transitions from the avatar setting screen D10 shown in FIG. 6 to the distribution setting screen D20 shown in FIG. 7.

配信設定には、第一の動画のタイトルに関する設定、第一の動画への他のユーザの出演可否に関する設定、および、第一の動画へ出演可能な人数に関する設定、パスワードに関する設定の少なくとも一つが含まれることができる。 The distribution settings may include at least one of the following: a setting regarding the title of the first video, a setting regarding whether other users can appear in the first video, a setting regarding the number of people who can appear in the first video, and a setting regarding a password.

これらの配信設定は、それぞれ図7におけるタイトル設定欄D21、コラボ可否設定欄D22、人数設定欄D23、パスワード設定欄D24において設定が可能である。なお、図7では、さらに、誰でもコラボ可否設定欄D26、SNS投稿可否欄D27が表示されている。 These distribution settings can be set in the title setting field D21, collaboration permission setting field D22, number of people setting field D23, and password setting field D24 in FIG. 7. In addition, FIG. 7 also displays a collaboration permission field D26 for anyone and a SNS posting permission field D27.

第一の動画のタイトルは、許容される上限までの文字数の範囲において配信ユーザが自由に決定することができるものである。なお、配信ユーザによる入力が無い場合には「〇〇〇の配信だよ♪」等の、キャラクタオブジェクト(配信ユーザ)の名前を含む、予め設定されたタイトルが自動的に決定されるものとしてもよい。 The title of the first video can be freely determined by the broadcasting user within the range of the maximum number of characters allowed. If there is no input from the broadcasting user, a pre-set title including the name of the character object (broadcasting user), such as "This is XXX's broadcast ♪", may be automatically determined.

第一の動画への他のユーザの出演可否は、第一のユーザが自由に決定することができるものである。可の場合には、他のユーザは配信ユーザに対して出演申請を行うことが可能であり、否の場合には、他のユーザは配信ユーザに対して出演申請を行うことができない。第一のユーザの動画に他のユーザが出演している状態を、本明細書では「コラボ」と呼ぶことがある。コラボについての詳細は後述する。 The first user can freely decide whether or not other users can appear in the first video. If yes, other users can make an appearance request to the distributing user, and if no, other users cannot make an appearance request to the distributing user. In this specification, the state in which other users appear in the first user's video is sometimes referred to as "collaboration." More details on collaboration will be provided later.

第一の動画へ出演可能な人数は、前述した第一の動画への他のユーザの出演が可の場合にのみ設定が可能であり、許容される上限までの人数の範囲において配信ユーザが自由に決定することができるものである。 The number of people who can appear in the first video can only be set if other users are allowed to appear in the first video as described above, and can be freely determined by the distributor user within the range of the maximum number of people allowed.

パスワードは、前述した第一の動画への他のユーザの出演が可の場合にのみ任意で設定が可能であり、指定された桁数の数字を配信ユーザが自由に決定することができるものである。他のユーザが第一の動画への出演申請を行う際、かかるパスワードの入力が要求される。なお、誰でもコラボ可否設定欄D26がOFFの場合にのみ、パスワード設定欄D24がアクティブとなる構成としてもよい。 The password can be set arbitrarily only if other users are allowed to appear in the first video described above, and the distribution user can freely decide the number of digits specified. When other users apply to appear in the first video, they are required to enter the password. Note that the password setting field D24 may be configured to be active only if the collaboration permission setting field D26 is OFF.

配信開始部は、配信設定部により設定された条件に基づいて、第一の動画に関する情報を、視聴ユーザの第二ユーザ端末200に配信する。 The distribution start unit distributes information about the first video to the viewing user's second user terminal 200 based on the conditions set by the distribution setting unit.

かかる配信の開始指示は、図7に示した配信開始ボタンD25の選択により送信される。 The instruction to start such distribution is sent by selecting the distribution start button D25 shown in FIG. 7.

一例として、配信開始部は、第一のユーザのキャラクタオブジェクトのアニメーションを含む動画(第一の動画)に関する情報を、第二のユーザの第二ユーザ端末200に配信する(アバタ配信する)。 As an example, the distribution initiation unit distributes (avatar distributes) information about a video (first video) including animation of a character object of a first user to a second user terminal 200 of a second user.

第一の動画に関する情報には、例えばキャラクタオブジェクトの動作を示すモーション情報や、第一のユーザの音声情報や、他の視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報は、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。 The information about the first video includes, for example, motion information indicating the movement of a character object, voice information of the first user, and gift object information indicating gifts sent by other viewing users. The gift object information includes at least gift object identification information that specifies the type of gift object, and position information that indicates the position where the gift object is displayed.

そして、配信開始部は、上述した動画配信プラットフォームを介して動画をライブ配信することができる。 Then, the distribution start unit can live-stream the video via the video distribution platform described above.

図8は、第一ユーザ端末100に表示されるアバタ配信画面D30を示したものである。 Figure 8 shows the avatar distribution screen D30 displayed on the first user terminal 100.

アバタ配信画面D30には、キャラクタオブジェクトCOが表示される他、配信ユーザがコメントを入力するためのコメント入力ボタンD31、画面の静止画を保存するためのフォトボタンD32、後述するゲームをプレイするためのプレイ開始ボタンD33、外部サービスにより提供される動画を視聴するための外部サービス連携ボタンD34、アバタパーツを入手するためのガチャボタンD12が表示されることができる。 The avatar distribution screen D30 displays the character object CO, as well as a comment input button D31 for the distribution user to input a comment, a photo button D32 for saving a still image of the screen, a start play button D33 for playing a game described below, an external service linkage button D34 for watching videos provided by an external service, and a gacha button D12 for obtaining avatar parts.

また、アバタ配信画面D30の上部には累計視聴者数表示D35、累計いいね数表示D36、コラボ人数表示D37、外部SNSへのシェアボタンD38、ゲスト詳細ボタンD39、ランキング表示ボタンD40、設定ボタンD41、音声のON/OFFを切り替えるための音声切替ボタンD42が表示されることができる。また、配信を終了するための終了ボタンD43も表示される。 In addition, the top of the avatar distribution screen D30 can display a cumulative viewer count D35, a cumulative like count D36, a collaborator count D37, a share button for external SNS D38, a guest details button D39, a ranking display button D40, a settings button D41, and an audio switch button D42 for switching audio ON/OFF. Also displayed is an end button D43 for ending the distribution.

これらの表示およびボタンの詳細な説明は省略するが、設定ボタンD41の選択により、配信設定画面D20で設定した配信設定の変更を行うことが可能である。 A detailed description of these displays and buttons will be omitted, but by selecting the settings button D41, it is possible to change the distribution settings set on the distribution settings screen D20.

なお、図8は、配信設定画面D20において、第一の動画への他のユーザの出演を可、第一の動画へ出演可能な人数を3人として配信を開始した例を示したものであるため、キャラクタオブジェクトCOは左下に寄った状態で表示されている。空いている空間には他のユーザのキャラクタオブジェクトが3人まで出演可能な状態である。 Note that FIG. 8 shows an example in which distribution has been started with the distribution setting screen D20 set to allow other users to appear in the first video and the number of people who can appear in the first video set to three, so character object CO is displayed shifted to the bottom left. Up to three character objects of other users can appear in the empty space.

以上が、本開示における発明のアバタ配信を行う際の画面遷移の説明である。 The above is an explanation of the screen transitions that occur when delivering an avatar according to the invention disclosed herein.

続いて、配信ユーザが配信中にゲームを行う際の画面遷移について説明を行う。 Next, we will explain the screen transitions that occur when a broadcaster plays a game while broadcasting.

本開示における一又は複数のコンピュータプロセッサは、ゲーム要求受付部と、ゲーム動画配信部と、ゲーム表示処理部とを備えることができる。 The one or more computer processors in the present disclosure may include a game request receiving unit, a game video distribution unit, and a game display processing unit.

配信ユーザは、図8に示したようなアバタ配信の最中に、プレイ開始ボタンD33を選択することによりゲームのプレイ開始要求を行うことが可能である。 During avatar distribution as shown in FIG. 8, the broadcasting user can request to start playing the game by selecting the start play button D33.

なお、プレイ開始ボタンD33の選択により表示されるゲームは、本開示における情報処理システムにより実現されるアプリケーションに実装される専用のゲームであり、外部サービスにより提供される汎用的なゲームとは異なるものとすることができる。よって、本開示におけるゲーム配信は、外部サービスにより提供される汎用的なゲームのプレイ動画を配信ユーザの実況と共に配信するものとは区別されるものとしてもよい。 The game displayed by selecting the play start button D33 is a dedicated game implemented in an application realized by the information processing system of the present disclosure, and may be different from a general-purpose game provided by an external service. Therefore, game distribution in the present disclosure may be distinguished from distribution of a gameplay video of a general-purpose game provided by an external service along with a live commentary by the distribution user.

あるいは、プレイ開始要求は、第一のユーザの第一ユーザ端末100に表示される所定の画面に配置されるプレイ開始ボタンを選択することにより、第一ユーザ端末100からサーバ装置400に送信されるものとすることができる。 Alternatively, the request to start playing can be transmitted from the first user terminal 100 to the server device 400 by selecting a start play button located on a specific screen displayed on the first user terminal 100 of the first user.

図9は、上記所定の画面として、プレイ開始ボタンG11が配置された画面G10の一例を示したものである。図9に示す画面G10は、本開示における情報処理システムにより実現されるアプリケーションを起動したユーザ端末に表示されるトップ画面T10(図5)から、ゲームタブT15の選択により遷移してきた画面である。 Figure 9 shows an example of a screen G10 on which a play start button G11 is arranged as the above-mentioned predetermined screen. The screen G10 shown in Figure 9 is a screen transitioned to by selecting the game tab T15 from the top screen T10 (Figure 5) displayed on a user terminal that has launched an application realized by the information processing system of the present disclosure.

画面G10には、少なくとも、所定のゲームのプレイ開始要求を送信可能なプレイ開始ボタンG11が表示される。 Screen G10 displays at least a play start button G11 that can send a request to start playing a specific game.

そして、ゲーム要求受付部が所定のゲームのプレイ開始要求を受け付けた場合、ゲーム動画配信部は、第二の動画に関する情報を第二ユーザ端末200に配信する。 Then, when the game request receiving unit receives a request to start playing a specific game, the game video distribution unit distributes information about the second video to the second user terminal 200.

ここで、第二の動画は、所定のゲームのプレイ動画である。本明細書において、かかる動画が第二ユーザ端末200の画面に表示されるよう配信を行うことを「ゲーム配信」と呼ぶ。 Here, the second video is a gameplay video of a specific game. In this specification, the distribution of such a video so that it is displayed on the screen of the second user terminal 200 is referred to as "game distribution."

また、ユーザは、本開示の発明により実現されるアプリケーションの起動後、ゲーム一覧画面およびゲーム詳細画面に配置されるプレイ開始オブジェクトを選択することにより、第一のユーザとして、第二の動画の配信開始要求を情報処理装置2400に送信することができる。 Furthermore, after launching the application realized by the invention of the present disclosure, the user can, as the first user, send a request to start distribution of the second video to the information processing device 2400 by selecting a play start object placed on the game list screen and the game details screen.

これらゲーム一覧画面またはゲーム詳細画面は、次に詳説する第一の画面である。 These game list screens and game details screens are the first screens, which will be explained in detail below.

すなわち、ゲーム表示処理部は、配信開始要求を送信可能な配信開始オブジェクト、所定のゲームのプレイ開始要求を送信可能なプレイ開始オブジェクト、および、所定のゲームのプレイ動画を配信中の動画のサムネイル画像を含む第一の画面の表示処理を行う。 In other words, the game display processing unit performs display processing of a first screen including a distribution start object capable of sending a request to start distribution, a play start object capable of sending a request to start playing a specific game, and a thumbnail image of a video of a gameplay video of a specific game being distributed.

図9において示した画面G10は、当該第一の画面のうちゲーム一覧画面に相当する。ゲーム一覧画面である第一の画面は、トップ画面T10から、ゲームタブT15の選択により遷移してきた画面である。 The screen G10 shown in FIG. 9 corresponds to the game list screen among the first screens. The first screen, which is the game list screen, is a screen transitioned to by selecting the game tab T15 from the top screen T10.

かかる第一の画面には、配信開始オブジェクトとしての配信準備ボタンT22、プレイ開始オブジェクトとしてのプレイ開始ボタンG11、および、動画の配信チャンネルを示すサムネイル画像が含まれる。 This first screen includes a distribution preparation button T22 as a distribution start object, a play start button G11 as a play start object, and a thumbnail image indicating the video distribution channel.

第一の画面には、プレイ可能な複数のゲームごとに、プレイ開始ボタンG11、ゲームアイコンG12、ゲーム名G13、当該ゲームの配信チャンネルの総視聴者数G14、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG15がそれぞれ表示されている。 For each of the multiple playable games, the first screen displays a play start button G11, a game icon G12, the game name G13, the total number of viewers of the game's distribution channel G14, and a distribution list G15 that includes thumbnail images of the distribution channels currently distributing the game.

なお、ここで表示される配信リストG15に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG15のサムネイル画像は横スクロールにより表示範囲の変更が可能であるものとする。 The order of thumbnail images displayed in the distribution list G15 displayed here can be different depending on the viewing user. As an example, the order is arranged in the following order of priority: most frequently viewed by the viewing user who is following the content, most frequently viewed by the viewing user, most frequently viewed by the cumulative number of viewers, and oldest distribution start date. The display range of thumbnail images in this distribution list G15 can be changed by scrolling horizontally.

また、このゲーム一覧画面に表示されるゲームは、以下の優先度の上位10タイトルを読み込むものとする。一例として、優先度は、ゲーム配信開始日時から48時間以内、視聴ユーザが30日以内で最後にプレイした日付の新しい順、期間IDの優先度の高い順、期間IDの降順、により定められている。 The games displayed on this game list screen are the top 10 titles with the following priorities: As an example, the priorities are determined within 48 hours of the game distribution start date and time, in descending order of the date when the viewing user last played the game within the last 30 days, in descending order of the priority of the period ID.

この配信リストG15は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。 This distribution list G15 is updated when you return from another tab screen or when you perform a pull-to-refresh operation.

そして、図10は、第一の画面のうちゲーム詳細画面に相当する。ゲーム詳細画面である第一の画面は、図9に示したゲーム一覧画面に表示されたゲームアイコンG12またはゲーム名G13を選択することにより遷移してきた画面でG20である。 Figure 10 corresponds to the game details screen of the first screen. The first screen, which is the game details screen, is G20, which is the screen transitioned to by selecting the game icon G12 or game name G13 displayed on the game list screen shown in Figure 9.

かかる第一の画面には、配信開始オブジェクトである配信準備ボタンT22、プレイ開始オブジェクトであるプレイ開始ボタンG21、および、動画の配信チャンネルを示すサムネイル画像が含まれる。 This first screen includes a distribution preparation button T22, which is a distribution start object, a play start button G21, which is a play start object, and a thumbnail image indicating the distribution channel for the video.

また、第一の画面には、ゲームアイコンG22、ゲーム名G23、当該ゲームの配信チャンネルの総視聴者数G24、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG25がそれぞれ表示されている。 The first screen also displays a game icon G22, a game name G23, the total number of viewers of the game's distribution channel G24, and a distribution list G25 that includes thumbnail images of the distribution channels currently distributing the game.

なお、ここで表示される配信リストG25に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG25のサムネイル画像は縦スクロールにより表示範囲の変更が可能であるものとする。 The order of thumbnail images displayed in the distribution list G25 displayed here can be different depending on the viewing user. As an example, the order is arranged in the following order of priority: the most number of views by the viewing user who is following the images, the most cumulative number of viewers, and the oldest distribution start date. The display range of the thumbnail images in this distribution list G25 can be changed by vertical scrolling.

この配信リストG25は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。 This distribution list G25 is updated when you return from another tab screen or when you perform a pull-to-refresh operation.

上述したように、配信開始オブジェクト(配信準備ボタンT22)またはプレイ開始オブジェクト(プレイ開始ボタンG11,21)を選択したユーザは、配信開始要求またはプレイ開始要求を行う第一のユーザとなる。 As described above, a user who selects the distribution start object (distribution preparation button T22) or the play start object (play start button G11, 21) becomes the first user to make a distribution start request or a play start request.

また、サムネイル画像を選択したユーザは、第二の動画を視聴する第二のユーザとなる。 In addition, the user who selects the thumbnail image becomes the second user who watches the second video.

また、第一の画面は、スクロール操作が不可能な第一の領域と、スクロール操作が可能な第二の領域とを含む。 The first screen also includes a first area in which scrolling is not possible and a second area in which scrolling is possible.

ここでいう第一の画面は図10に示す第一の画面とする。そして、第一の画面は、第一の領域R1と第二の領域R2とを含む。具体的には、第一の領域R1には、ゲームタイトルが表示され、第二の領域R2には上述したプレイ開始ボタンG21、ゲームアイコンG22、ゲーム名G23、視聴者数G24、そして配信リストG25が表示されている。 The first screen referred to here is the first screen shown in FIG. 10. The first screen includes a first area R1 and a second area R2. Specifically, the game title is displayed in the first area R1, and the above-mentioned play start button G21, game icon G22, game name G23, number of viewers G24, and distribution list G25 are displayed in the second area R2.

そして、第一の領域R1はスクロール操作が不可能な、表示画面上で固定表示される部分であり、第二の領域R2はユーザによってスクロール操作が可能な部分である。第二の領域R2をスクロールすることにより、ユーザは画面外に隠れたサムネイル画像を確認することができるようになる。 The first region R1 is a portion that is fixedly displayed on the display screen and cannot be scrolled, while the second region R2 is a portion that can be scrolled by the user. By scrolling the second region R2, the user can check thumbnail images that are hidden outside the screen.

ところが、第二の領域のスクロールによってプレイ開始ボタンG21が画面外へ隠れてしまうおそれがあるため、本開示における表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクト(プレイ開始ボタンG21)の表示状態に応じて、第一の領域R1にプレイ開始オブジェクト(プレイ開始ボタンG21)を表示させることができる。 However, since there is a risk that the play start button G21 may be hidden off-screen by scrolling the second area, the display processing unit in this disclosure can display the play start object (play start button G21) in the first area R1 depending on the display state of the play start object (play start button G21) displayed in the second area R2.

一例として、図10ではプレイ開始ボタンG21は第二の領域R2に表示されるが、図11では第一の領域R1に表示される。すなわち、プレイ開始ボタンG21の一部またはすべてが第二の領域R2に表示されなくなると、プレイ開始ボタンG21が第一の領域に出現するようにしたものである。 As an example, in FIG. 10, the play start button G21 is displayed in the second region R2, but in FIG. 11, it is displayed in the first region R1. In other words, when part or all of the play start button G21 is no longer displayed in the second region R2, the play start button G21 appears in the first region.

また、ゲーム表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクトの表示状態に応じて、第一の領域R1にプレイ開始オブジェクトを段階的に表示させてもよい。 The game display processing unit may also cause the play start object to be displayed in stages in the first area R1 depending on the display state of the play start object displayed in the second area R2.

かかる表現は、第二の領域R2のスクロール量に合わせてプレイ開始オブジェクトの透明度を変化させることにより実現することができる。 This representation can be achieved by changing the transparency of the play start object in accordance with the amount of scrolling of the second region R2.

一例として、スクロール量(単位はピクセル)0~50をボタンの透明度0.0(完全に透明)~1.0(完全に不透明)に対応させる。すると、初期表示状態ではオブジェクトは完全に透明なので見えず、50ピクセル以上スクロールするとオブジェクトが完全に表示されるようになる。その間(0~50)はオブジェクトの透明度を線形に変化させるのが好ましい。なお、スクロール量の単位は論理ピクセルであって、ディスプレイの実際のピクセルとは異なってもよい。 As an example, a scroll amount (unit: pixels) of 0 to 50 can correspond to a button transparency of 0.0 (completely transparent) to 1.0 (completely opaque). In this way, in the initial display state, the object is completely transparent and cannot be seen, but when the object is scrolled 50 pixels or more, it becomes completely visible. It is preferable to change the object's transparency linearly in this range (0 to 50). Note that the unit of the scroll amount is logical pixels, which may differ from the actual pixels on the display.

また、ゲーム要求受付部は、ゲーム動画配信部による第二の動画に関する情報の配信後、第一ユーザ端末100からの所定のゲームのプレイ終了要求を受け付け可能であるものとする。 The game request receiving unit is also capable of receiving a request to end play of a specified game from the first user terminal 100 after the game video distribution unit has distributed information about the second video.

プレイ終了要求は、ゲーム画面に配置された終了ボタンの選択により送信することができる。 A request to end play can be sent by selecting the end button located on the game screen.

そして、ゲーム要求受付部が所定のゲームのプレイ終了要求を受け付けた場合、配信開始部は、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信することができる。 Then, when the game request receiving unit receives a request to end play of a specific game, the distribution starting unit can end the distribution of information about the second video and distribute information about the first video.

すなわち、ここで配信されるのは第一の動画の情報の一部ではなく、第一の動画の情報の全てである。 In other words, what is distributed here is not just a portion of the information in the first video, but all of the information in the first video.

そして、配信開始部が、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信した場合に、第二ユーザ端末200に表示されるのは、第一の動画であるものとする。 Then, when the distribution starting unit ends the distribution of information about the second video and distributes information about the first video, it is the first video that is displayed on the second user terminal 200.

続いて、動画の視聴を開始するためのフローについて説明を行う。 Next, we will explain the flow for starting to watch a video.

本開示における一または複数のプロセッサは、さらに、視聴受付部を備えることができる。 One or more processors in the present disclosure may further include a viewing reception unit.

視聴受付部は、ユーザからの動画の視聴要求を受け付ける。 The viewing reception unit accepts video viewing requests from users.

上記配信開始部は、視聴要求に応じて、ユーザの情報処理端末に、動画情報として映像および音声に関する情報を配信する。 In response to a viewing request, the distribution start unit distributes video and audio information as video information to the user's information processing terminal.

図12は、第二ユーザ端末200に表示されるアバタ動画の視聴画面V10を示した例である。 Figure 12 shows an example of a viewing screen V10 of an avatar video displayed on the second user terminal 200.

視聴ユーザは、コメント入力欄V11にテキストの入力を行い、送信ボタンV12を押すことでコメントを投稿することができる。 A viewing user can post a comment by entering text in the comment input field V11 and pressing the send button V12.

また、ギフトボタンV13を押すことで視聴ユーザにはギフトの一覧(図13の画面V30)が表示され、選択により指定したギフトの表示要求を送信することができる。 In addition, by pressing the gift button V13, the viewing user can see a list of gifts (screen V30 in FIG. 13) and can send a display request for the specified gift by selecting it.

このとき、本開示における一又は複数のプロセッサは、判定部を備えることができる。判定部は、第二ユーザ端末200からギフトの表示要求があったか否かを判定する。 At this time, one or more processors in the present disclosure may include a determination unit. The determination unit determines whether or not a gift display request has been made from the second user terminal 200.

表示要求には、ギフトオブジェクト情報が含まれることができる。ギフトオブジェクト情報は、少なくともギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。 The display request may include gift object information. The gift object information includes at least gift object identification information that identifies the type of gift object, and location information that indicates the location where the gift object is to be displayed.

また、図13に示されるように、ギフトは分類(無料(有料)ギフト、アクセサリ、応援グッズ、アピール、バラエティ等)ごとに分けて表示されることができる。 In addition, as shown in FIG. 13, gifts can be displayed by category (free (paid) gifts, accessories, cheering goods, appeals, variety, etc.).

ここで、有料ギフトとは、視聴ユーザが購入したコインの消費により購入可能なギフト(コインギフト)であり、無料ギフトとは、視聴ユーザが無料で入手したポイントの消費または消費なしで入手可能なギフト(ポイントギフト)である。 Here, a paid gift is a gift (coin gift) that can be purchased by spending coins purchased by the viewing user, and a free gift is a gift (point gift) that can be obtained by the viewing user with or without spending points obtained for free.

なお、本出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。したがって、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本件出願に記載された技術を理解することも可能である。 The term "gift" used in this application has the same concept as the term "token." Therefore, it is possible to understand the technology described in this application by replacing the term "gift" with the term "token."

また、視聴ユーザは、いいねボタンV14を押すことで好意的な評価を投稿することができる。なお、いいねボタンV14に加えて/代えて、否定的な評価やその他の感情を投稿するボタンを表示することも可能である。 In addition, the viewing user can post a favorable evaluation by pressing the like button V14. Note that in addition to/instead of the like button V14, it is also possible to display a button for posting a negative evaluation or other feelings.

また、第一のユーザが配信設定で他のユーザの出演可否を可に設定している場合、コラボ申請ボタンV15を選択することで動画への出演申請を送信することができる。 In addition, if the first user has set the distribution settings to allow other users to appear, they can send a request to appear in the video by selecting the collaboration request button V15.

また、第二のユーザが未だフォローしていない第一のユーザが配信する動画の画面には、第二のユーザが配信ユーザをフォローするためのフォローボタンV16が表示される。このフォローボタンは、第二のユーザが既にフォローしている第一のユーザが配信する動画の画面では、フォロー解除ボタンとして機能する。 In addition, on the screen of a video distributed by a first user who is not yet being followed by a second user, a follow button V16 is displayed that allows the second user to follow the distribution user. This follow button functions as an unfollow button on the screen of a video distributed by a first user who is already being followed by the second user.

なお、この「フォロー」は第二のユーザから他の第二のユーザへ、第一のユーザから第二のユーザへ、第一のユーザから他の第一のユーザへ行われるものであってもよい。ただし、フォローは一方向のみの関連付けとして管理され、逆方向の関連付けはフォロワーとして別に管理されるものとする。 This "following" may be from a second user to another second user, from a first user to a second user, or from a first user to another first user. However, following is managed as a one-way association only, and associations in the reverse direction are managed separately as followers.

また、画面の静止画を保存するためのフォトボタンV25も表示されることができる。 A photo button V25 for saving a still image of the screen may also be displayed.

また、視聴画面V10には、応援ランキング表示ボタンV17、シェアボタンV18、ランキング表示ボタンV19も表示される。 The viewing screen V10 also displays a support ranking display button V17, a share button V18, and a ranking display button V19.

応援ランキングは、第一のユーザを応援している第二のユーザのランキングを表示するものであり、ランキングはギフトの額(ポイント/コイン)等に応じて算出されることができる。 The support ranking displays the ranking of second users who are supporting the first user, and the ranking can be calculated based on the amount of the gift (points/coins), etc.

また、動画のシェアに関し、第二のユーザはシェアボタンV18を押すことでシェア可能なSNS(ソーシャル・ネットワーキング・サービス)一覧を確認し、選択により指定したSNSの指定した場所に固定リンクを送信することができる。 In addition, regarding sharing a video, the second user can press the share button V18 to check a list of SNS (social networking services) on which the video can be shared, and can send a fixed link to a specified location on a specified SNS by selecting it.

また、コラボ申請ボタンV15を押すことで第一のユーザに対してコラボ配信をリクエストすることができる。コラボ配信とは、第一のユーザの配信動画に第二のユーザのキャラクタオブジェクトを登場させることをいう。 You can also request a collaboration broadcast from the first user by pressing the collaboration request button V15. A collaboration broadcast means having a character object of the second user appear in the video broadcast by the first user.

視聴画面V10の上部には、配信ユーザアイコンV21、配信ユーザ名(キャラクタオブジェクト名)V22、累計視聴者数表示V23、累計いいね数表示V24が表示されることができる。 The upper part of the viewing screen V10 can display the broadcast user icon V21, the broadcast user name (character object name) V22, a cumulative number of viewers display V23, and a cumulative number of likes display V24.

また、視聴終了ボタンV20を選択すると、視聴を終了するための画面が展開し、視聴終了要求を送信することができるようになる。 In addition, when the End Viewing button V20 is selected, a screen for ending viewing appears, allowing the user to send a request to end viewing.

かかる視聴を終了するための画面について、詳細に説明する。かかる画面は、「小窓音声配信」と呼ばれ、動画の映像は表示させに音声のみを再生する態様での視聴を行うためのものである。 The screen for ending such viewing will be explained in detail below. This screen is called "small window audio distribution" and is used for viewing in a mode where only the audio is played without displaying the video image.

上記視聴終了ボタンV20の選択は、動画の視聴終了要求として視聴受付部によって受け付けられる。 Selection of the above-mentioned viewing end button V20 is accepted by the viewing acceptance unit as a request to end viewing of the video.

このとき、配信開始部は、視聴終了要求に応じて、映像に関する情報の配信を終了する一方で、音声に関する情報の配信は終了させない。 At this time, the distribution starting unit ends the distribution of information about the video in response to the request to end viewing, but does not end the distribution of information about the audio.

そして、ユーザ端末において、映像および音声に関する情報が配信されている場合には、ユーザ端末には映像が主画面に表示され、音声に関する情報のみが配信されている場合には、ユーザ端末には映像は表示されず動画を視聴中であることを示す副画面が表示されることを特徴とする。 When information related to video and audio is distributed to the user terminal, the video is displayed on the main screen of the user terminal, and when information related to audio only is distributed, the video is not displayed on the user terminal, but a sub-screen indicating that a video is being viewed is displayed.

図14は、上記副画面V51が表示された画面V50のイメージを示したものである。 Figure 14 shows an image of screen V50 on which the above-mentioned sub-screen V51 is displayed.

この副画面V51が表示される際、バックに表示される主画面は動画を視聴する前の画面へと遷移する。例えば、おすすめタブから視聴枠へ移動した場合にはおすすめタブの表示へと戻り、フォロータブから視聴枠へ移動した場合にはフォロータブへと遷移する。 When this sub-screen V51 is displayed, the main screen displayed in the background transitions to the screen before watching the video. For example, if you move from the recommendation tab to the viewing frame, it will return to displaying the recommendation tab, and if you move from the follow tab to the viewing frame, it will transition to the follow tab.

この副画面V51が表示されている場合、主画面での操作が可能となり、他の画面への遷移が可能となる。 When this sub-screen V51 is displayed, operations can be performed on the main screen, and transitions to other screens are possible.

副画面V51には、プロフィール画像、名前、タイトルおよび、音声が流れていることが視覚的に識別可能な音声アイコンが表示される。 The sub-screen V51 displays a profile picture, name, title, and an audio icon that visually indicates that audio is being played.

そして、副画面V51に表示された終了アイコンV52の選択により、視聴を完全に終了させることができる。 Then, viewing can be completely ended by selecting the end icon V52 displayed on the sub-screen V51.

なお、映像の表示の終了については、サーバ装置から情報は送信するものの端末側で表示をしないものとしてもよいし、サーバ装置から情報の送信自体を停止するものとしてもよい。 When the video display is to be terminated, the server device may transmit information but not display it on the terminal, or the server device may stop transmitting information altogether.

かかる構成によれば、音声のみ聞きながら他の配信を探したり、他のユーザとのチャットを楽しんだりすることができるようになる。 With this configuration, you can search for other broadcasts or chat with other users while listening to only the audio.

続いて、第一のユーザの動画に他のユーザが出演する「コラボ」について説明する。 Next, we will explain "collaboration," where other users appear in a video by a first user.

上述したとおり、第二のユーザは、図12に示すコラボ申請ボタンV15を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信することができる。 As described above, the second user can send a request to join the video by pressing the collaboration request button V15 shown in FIG. 12 and going through the collaboration broadcast participation request confirmation screen that is displayed.

本開示における一又は複数のコンピュータプロセッサが備えるコラボアバタ表示部は、受け付けた参加要求に応じて、当該参加要求を行った視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトを動画に表示させる。 In the present disclosure, a collaboration avatar display unit provided in one or more computer processors displays in a video a character object that is generated based on the movement of the viewing user who made the participation request in response to the received participation request.

図15は、一例として、ホストユーザのキャラクタオブジェクトである第1のアバタCO3が表示された動画に、ゲストユーザのキャラクタオブジェクトである第2のアバタCO4が参加している場合の視聴または配信画面を示したものである。なお、図15ではアバタ以外のオブジェクトの表示については省略されている。 Figure 15 shows, as an example, a viewing or distribution screen in which a second avatar CO4, a character object of a guest user, is participating in a video in which a first avatar CO3, a character object of a host user, is displayed. Note that the display of objects other than the avatars is omitted in Figure 15.

また、図16に示すように、さらに、別の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第3のアバタCO1が動画に参加してもよい。なお、図16では第3のアバタCO1が、第1のアバタCO3およびCO4のアバタA2の後方に配置されているが、3人が横一列に並ぶように配置されてもよい。また、アバタの配置位置は配信ユーザが指定できるようにしてもよい。 Furthermore, as shown in FIG. 16, a third avatar CO1, which is a character object generated based on the movement of another viewing user, may also participate in the video. Note that in FIG. 16, the third avatar CO1 is placed behind the first avatars CO3 and CO4's avatar A2, but the three may also be placed in a horizontal line. Also, the placement position of the avatars may be specified by the distribution user.

図17は、図5に示したトップ画面のフォロータブT14の選択により表示される、相互フォロー関係を有するユーザの一覧画面T30を示したものである。相互フォローとは、互いに相手をフォローしている関係をいう。 Figure 17 shows a list screen T30 of users who have mutual follow relationships, which is displayed by selecting the Follow tab T14 on the top screen shown in Figure 5. Mutual follow refers to a relationship in which two users follow each other.

この一覧画面T30には、相互フォロー関係を有するユーザのプロフィール画像および名前が表示されている。 This list screen T30 displays the profile images and names of users with whom you have a mutual follow relationship.

図17に示されるように、一覧画面T30には、相互フォロー関係を有するユーザの各々に対して第一のオブジェクトT31が表示されるものとする。また、第一のオブジェクトT31とともに、チャットオブジェクトT32が表示されるものとしてもよい。このチャットオブジェクトを選択することにより、第二のユーザとの個別のチャット画面へと遷移することができる。 As shown in FIG. 17, the list screen T30 displays a first object T31 for each user who has a mutual follow relationship. In addition, a chat object T32 may be displayed together with the first object T31. By selecting this chat object, it is possible to transition to an individual chat screen with the second user.

第一のオブジェクトT31は、当該第一のオブジェクトT31に関連付けられたユーザの端末に対して、所定の通知を送信する。 The first object T31 sends a specified notification to the terminal of the user associated with the first object T31.

所定の通知は、一例として、呼び出し通知とすることができる。 The specified notification may be, for example, a call notification.

続いて、本開示の実施形態におけるビデオチャットを実行するためのフローの詳細について説明を行う。 Next, we will explain the details of the flow for performing a video chat in an embodiment of the present disclosure.

一例として、ユーザは、個別のチャット画面またはグループのチャット画面からビデオチャットを実行することが可能である。 As an example, users can conduct video chats from individual chat screens or group chat screens.

これらのチャット画面は、例えば、トップ画面T10(図5)のメッセージボタンT21を選択することにより展開したチャット一覧画面C10(図18)から遷移することができる。 These chat screens can be accessed, for example, from the chat list screen C10 (Figure 18) that is expanded by selecting the message button T21 on the top screen T10 (Figure 5).

図18に示すチャット一覧画面C10には、過去にメッセージ(チャット)の送信および/または受信を行ったことがあるユーザ(キャラクタオブジェクト)のアイコンまたはグループのアイコンが名前または名称とともに表示されている。なお、グループのアイコンはグループに参加するユーザ(キャラクタオブジェクト)のアイコンを含むものとすることができる。 The chat list screen C10 shown in FIG. 18 displays icons of users (character objects) or groups who have sent and/or received messages (chats) in the past, along with their names or titles. Note that the group icons may include icons of users (character objects) who will join the group.

そして、ユーザは、上記チャット一覧画面C10において一のユーザまたはグループを選択し、個人のチャット画面C20(図19)またはグループのチャット画面を開き、ビデオチャットボタンC21を選択することによりビデオチャットを開始することができる。 Then, the user can select a user or group on the chat list screen C10, open the personal chat screen C20 (Figure 19) or the group chat screen, and start a video chat by selecting the video chat button C21.

また、チャット一覧画面C10の編集ボタンC11を選択することにより表示されるチャット作成ボタンC12またはグループ作成ボタンC13を選択することにより(図20)、チャット一覧画面C10には表示されていないユーザまたはグループのチャット画面を作成することができる。 In addition, by selecting the chat creation button C12 or group creation button C13, which is displayed by selecting the edit button C11 on the chat list screen C10 (Figure 20), a chat screen can be created for a user or group that is not displayed on the chat list screen C10.

図21は、チャット作成ボタンC12を選択した場合に展開するユーザ選択画面C30であり、表示されているおすすめユーザまたは検索欄C31を用いて検索されたユーザとのチャット画面が表示/生成される。生成されたチャット画面の構成は図19に示したチャット画面C20と同様であり、ビデオチャットボタンC21を選択することによりビデオチャットを開始することができる。 Figure 21 shows the user selection screen C30 that opens when the chat creation button C12 is selected, and a chat screen with the displayed recommended users or with a user searched for using the search field C31 is displayed/generated. The configuration of the generated chat screen is the same as the chat screen C20 shown in Figure 19, and a video chat can be started by selecting the video chat button C21.

同様に、図22は、グループ作成ボタンC13を選択した場合に展開するグループ作成画面C40である。ユーザは、ユーザ追加ボタンC41を選択することにより自分以外のユーザをグループメンバとして追加することができる。追加できるグループメンバの数は一例として7名までとする。また、グループ名の設定もこの画面で行うことができる。 Similarly, FIG. 22 shows a group creation screen C40 that opens when the group creation button C13 is selected. The user can add users other than themselves as group members by selecting the user addition button C41. As an example, the number of group members that can be added is up to seven. The group name can also be set on this screen.

グループが作成されると、グループのチャット画面C50が表示される(図23)。グループのチャット画面C50においても、ビデオチャットボタンC51を選択することによりビデオチャットを開始することができる。 Once a group is created, the group chat screen C50 is displayed (Figure 23). On the group chat screen C50, you can also start a video chat by selecting the video chat button C51.

なお、上記チャット画面C20は、フォローの一覧画面T30(図17)のチャットオブジェクトT32から遷移することもできる。 The chat screen C20 can also be accessed from the chat object T32 on the follow list screen T30 (Figure 17).

また、他のユーザのプロフィール画面にもチャットアイコンが配置されることができ、ユーザは多様なページからチャット画面へと遷移し、ビデオチャットを開始することができる。 Chat icons can also be placed on other users' profile screens, allowing users to move to the chat screen from various pages and start video chats.

なお、ビデオチャットが開始されると、相手方へ通知が送信され、相手方は、かかる通知に応答することによりビデオチャットへと参加が可能となる。かかる通知の受け取り可否はユーザにより設定することができる。 When a video chat starts, a notification is sent to the other party, who can join the video chat by responding to the notification. Users can set whether or not they want to receive such notifications.

また、相互フォロー関係にあるユーザとのビデオチャットのみ実行できる構成としてもよい。このとき、相互フォロー関係にあるユーザが他のユーザとビデオチャット中であることを示すアイコンをフォロー一覧画面に表示し、かかるアイコンを選択することによりかかる開催中のビデオチャットに参加できる構成としてもよい。 Also, a configuration may be adopted in which video chats can only be conducted with users who are mutually followed. In this case, an icon indicating that a user who is mutually followed is currently video chatting with another user may be displayed on the follow list screen, and a user may be able to participate in the ongoing video chat by selecting the icon.

本開示におけるビデオチャットは、上述したコラボ配信を、特定のユーザのみが視聴できる機能であるということができる。ここでいう特定のユーザとは、ビデオチャットに参加しているユーザを指すものとする。 The video chat in this disclosure can be said to be a function that allows only specific users to view the above-mentioned collaborative distribution. The specific users here refer to the users who are participating in the video chat.

続いて、本開示における仮想空間の広がりのイメージについて図24を参照しながら説明する。 Next, we will explain the image of the expansion of virtual space in this disclosure with reference to Figure 24.

図24に一例として示されるように、本実施形態における仮想空間は、円盤状の島(ワールド)が宙に浮いているように配置されている。この島は、タワー状のケーキの天地を逆にした態様のオブジェクトであり、円盤状の地面に様々なオブジェクトが配置される構成とすることができる。なお、この島や地面は一例として示されたものであり、これらの表示態様は特に限定されない。 As shown as an example in FIG. 24, the virtual space in this embodiment is arranged so that a disk-shaped island (world) is floating in the air. This island is an object that resembles an upside-down tower-shaped cake, and various objects can be arranged on the disk-shaped ground. Note that this island and ground are shown as examples, and their display forms are not particularly limited.

オブジェクトとしては、少なくとも、第一のユーザのキャラクタオブジェクトCO、第二のユーザから表示要求がなされたギフトに対応するギフトオブジェクトG1、および、サーバ装置400(システム側)で表示位置および表示タイミングを制御するオブジェクトS1が表示されることができる。 The objects that can be displayed are at least the character object CO of the first user, a gift object G1 corresponding to a gift requested to be displayed by the second user, and an object S1 whose display position and display timing are controlled by the server device 400 (system side).

ユーザ操作によりキャラクタオブジェクトをワールド内で移動およびジャンプ等させることが可能であり、かかる機能は、一例として、上述したゲームの一つとして提供されることができる。本開示において、これを特別に「ワールド配信」と呼び、上述したゲーム配信の開始および終了手順を適用する。 It is possible for a character object to move and jump within the world through user operation, and such functionality can be provided, as an example, as one of the games described above. In this disclosure, this is specifically referred to as "world distribution," and the above-mentioned game distribution start and end procedures are applied.

具体的には、通常配信(アバタ配信)からワールド配信への切り替えは、アバタ配信の動画に表示されたゲームのプレイ開始ボタンD33(図8)または当該プレイ開始ボタンD33の選択により遷移した先の画面において表示されるゲーム一覧の中から選択した一のゲームのプレイボタンG11,G21(図9,図10)を選択することにより行うことができる。 Specifically, switching from normal streaming (avatar streaming) to world streaming can be performed by selecting the play button D33 (Fig. 8) of the game displayed in the avatar streaming video, or the play button G11, G21 (Figs. 9, 10) of a game selected from a list of games displayed on the screen transitioned to by selecting the play button D33.

また、ワールド配信からアバタ配信への切り替えは、ワールド配信の動画に表示されたプレイ終了ボタンを選択することにより行うことができる。 You can also switch from world streaming to avatar streaming by selecting the end play button displayed on the world streaming video.

続いて、本開示における実施形態にかかる情報処理システム3000において実行可能な各種機能について図面を参照しながら説明する。 Next, various functions that can be executed in the information processing system 3000 according to an embodiment of the present disclosure will be explained with reference to the drawings.

本開示の実施形態にかかる情報処理システム3000は、一例として、ユーザのキャラクタオブジェクトを表示可能な仮想空間を提供する情報処理システムとすることができる。 The information processing system 3000 according to an embodiment of the present disclosure can be, as an example, an information processing system that provides a virtual space in which a user's character object can be displayed.

かかる仮想空間は、ユーザのキャラクタオブジェクトを表示可能なものであれば特に限定されない。 Such a virtual space is not particularly limited as long as it is capable of displaying the user's character object.

情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図25に一例として示されるように、受付部410、配信部420、生成部430および送信部440を備える。 The one or more computer processors included in the information processing system 3000 include a reception unit 410, a distribution unit 420, a generation unit 430, and a transmission unit 440, as shown as an example in FIG. 25.

本実施形態において、上記受付部410、配信部420、生成部430および送信部440はすべてサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。 In this embodiment, the above-mentioned reception unit 410, distribution unit 420, generation unit 430 and transmission unit 440 are all described as being included in the server device 400, but this is not limited to the above.

受付部410は、第一のユーザの第一ユーザ端末100および/または第二のユーザの第二ユーザ端末200から送信される情報を受け付ける。 The reception unit 410 receives information sent from the first user terminal 100 of the first user and/or the second user terminal 200 of the second user.

ここで、第一のユーザは配信ユーザであり、第一ユーザ端末100は配信ユーザの情報処理装置であるものとする。 Here, the first user is a broadcasting user, and the first user terminal 100 is an information processing device of the broadcasting user.

同様に、第二のユーザは視聴ユーザであり、第二ユーザ端末200は視聴ユーザの情報処理装置であるものとする。 Similarly, the second user is a viewing user, and the second user terminal 200 is an information processing device of the viewing user.

第一ユーザ端末100から送信される情報は、第一ユーザ端末100から送信されるあらゆる情報を含むものとする。 The information transmitted from the first user terminal 100 includes any information transmitted from the first user terminal 100.

一例として、第一ユーザ端末100から送信される情報には、第一のユーザのモーションデータおよび音声データ等のキャラクタオブジェクトを表示するための情報、各種画面の表示要求、および、その他の操作情報等が含まれる。 As an example, the information transmitted from the first user terminal 100 includes information for displaying a character object such as the first user's motion data and voice data, requests to display various screens, and other operation information.

また、第二ユーザ端末200から送信される情報は、第二ユーザ端末200からサーバ装置400に送信されるあらゆる情報を含むものとする。 In addition, the information transmitted from the second user terminal 200 includes any information transmitted from the second user terminal 200 to the server device 400.

一例として、第二ユーザ端末200から送信される情報には、ギフトやコメント等の表示要求、および、その他の操作情報等が含まれる。 As an example, the information sent from the second user terminal 200 includes requests to display gifts, comments, etc., and other operation information, etc.

配信部420は、第一のユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザ端末200に送信することにより、動画を第二ユーザ端末200において視聴可能とする。 The distribution unit 420 transmits information about the video including the character object of the first user to the second user terminal 200, thereby making the video viewable on the second user terminal 200.

第一のユーザのキャラクタオブジェクトを含む動画に関する情報は、上述したように、キャラクタオブジェクトの動作を示すモーション情報や、第一のユーザの音声情報や、視聴ユーザ(第二のユーザまたは他のユーザ)から送られたギフトを示すギフトオブジェクト情報などが含まれる。 As described above, the information about the video including the first user's character object includes motion information indicating the movement of the character object, audio information about the first user, and gift object information indicating gifts sent by viewing users (the second user or other users).

生成部430は、第一のユーザおよび/または第二のユーザに関連付けて記憶されている履歴情報に基づいて、動画とともに第二ユーザ端末200に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する。 The generation unit 430 generates object display data, which is data to be displayed in an object display frame displayed on the second user terminal 200 together with the video, based on history information stored in association with the first user and/or the second user.

履歴情報は、情報処理システム3000が備えることが可能な記憶部、情報処理システム3000に接続可能な記憶装置、または、第一ユーザ端末100または第二ユーザ端末200が備えることが可能な記憶部に記憶されることができる。 The history information can be stored in a memory unit that may be provided in the information processing system 3000, a storage device that may be connected to the information processing system 3000, or a memory unit that may be provided in the first user terminal 100 or the second user terminal 200.

第一のユーザに関連付けて記憶されている履歴情報は、一例として、第一のユーザのアクションに関する履歴、および/または、第二のユーザによる第一のユーザの動画へのアクションに関する履歴等である。 The history information stored in association with the first user may, for example, be a history of the first user's actions and/or a history of actions taken by a second user on the first user's video.

第一のユーザのアクションとは、例えば、第一のユーザによるイベントへの参加である。 An action of the first user is, for example, participation in an event by the first user.

イベントとは、配信ユーザが参加可能な、動画の配信中のスコアに関するイベントであって、ランキング型、スコア達成型およびスコア達成ランキング型の3種類に大別されることができる。 An event is an event related to the score during video distribution that a broadcasting user can participate in, and can be broadly divided into three types: ranking type, score achievement type, and score achievement ranking type.

スコアは、動画の配信中に獲得したギフトを、視聴ユーザが投じる(表示要求を行う)のに必要なコイン数とポイント数によって決定されるものとする。一例として、スコアは、動画の配信中に獲得したギフトのコイン数×10+動画の配信中に獲得したギフトのポイント数×1で計算されることができる。 The score is determined by the number of coins and points required for the viewing user to deposit (make a display request) the gifts acquired during the distribution of the video. As an example, the score can be calculated as follows: number of coins of gifts acquired during the distribution of the video x 10 + number of points of gifts acquired during the distribution of the video x 1.

ランキング型のイベントは、所定期間(例えばイベント期間)において各配信ユーザが獲得した累積スコアで配信ユーザのランキングを作成し、上位数名に対して報酬を付与するイベントである。 A ranking-type event is an event in which a ranking of broadcasting users is created based on the cumulative scores each broadcasting user has earned over a specified period of time (e.g., the event period), and rewards are awarded to the top several users.

スコア達成型のイベントは、所定期間において各配信ユーザが獲得した累積スコアが予め定められた値に到達したことを条件に、報酬を付与するイベントである。 A score achievement event is an event in which a reward is awarded on the condition that the cumulative score earned by each broadcast user over a specified period of time reaches a predetermined value.

スコア達成ランキング型のイベントは、所定期間において各配信ユーザが獲得した累積スコアが定められた値に到達したことを条件に報酬を付与するのに加え、上記累積スコアで配信ユーザのランキングを作成し、上位数名に対してさらなる報酬を付与するイベントである。 Score achievement ranking type events are events in which rewards are awarded if the cumulative score earned by each broadcasting user over a specified period of time reaches a set value, and in addition, a ranking of broadcasting users is created based on that cumulative score, with further rewards awarded to the top several users.

サーバ装置400は、第一ユーザ端末100からの所定のイベントへの参加要求を受信すると、第一のユーザと所定のイベントとを関連付け、イベントへの参加履歴として記憶する。なお、ここでいう参加履歴には、少なくとも第一のユーザが現在参加中のイベントに関する情報が含まれるものとする。 When the server device 400 receives a request to participate in a specific event from the first user terminal 100, it associates the first user with the specific event and stores it as a participation history of the event. Note that the participation history here includes at least information about the event in which the first user is currently participating.

また、第一のユーザのアクションに関する履歴には、第一のユーザが、自分が希望するギフト(おねだりギフト)を指定する行為を含むものとすることができる。 The history of the first user's actions may also include the first user specifying a gift that he or she desires (a requested gift).

希望するギフトの指定は、配信設定画面D20等から設定することが可能であり、第一ユーザは、ギフトID、ギフトのテーマカラー、ギフトのテーマナンバーなどを指定することができるものとする。 The desired gift can be specified from the distribution setting screen D20, etc., and the first user can specify the gift ID, gift theme color, gift theme number, etc.

第二のユーザによる第一のユーザの動画へのアクションとは、例えば、第二のユーザによる第一のユーザの動画へのギフトの表示要求である。 An action by a second user on a video of a first user is, for example, a request by the second user to display a gift on the video of the first user.

サーバ装置400は、第二ユーザ端末200からのギフトの表示要求を受信すると、表示要求の数をギフトの種類毎(オブジェクトID毎)にギフト履歴として記憶する。 When the server device 400 receives a gift display request from the second user terminal 200, it stores the number of display requests for each gift type (each object ID) as gift history.

なお、ここでいうギフト履歴は、第二のユーザが視聴中の動画に関して集計されたものとしてもよいし、過去に視聴した第一のユーザのすべての動画に関して集計されたものとしてもよい。 The gift history referred to here may be a compilation of videos currently being watched by the second user, or may be a compilation of all videos previously watched by the first user.

ここで、図26に、動画とともに第二ユーザ端末200に表示されるオブジェクト表示枠の従来例を示す。 Here, Figure 26 shows a conventional example of an object display frame that is displayed on the second user terminal 200 together with a video.

図26において、動画に表示されるアバタ以外のボタンやオブジェクトは上述した通りであるため図示が省略されている。 In Figure 26, buttons and objects other than the avatars displayed in the video have been omitted as they have been described above.

図26に示されるように、視聴画面V10において、オブジェクト表示枠V30が動画とともに表示される。なお、動画とともに表示されるとは、動画とオブジェクト表示枠V30とが分割して表示される態様の他、オブジェクト表示枠V30が動画に重畳して表示される態様を含むものとする。 As shown in FIG. 26, the object display frame V30 is displayed together with the video on the viewing screen V10. Note that "displayed together with the video" includes a mode in which the video and the object display frame V30 are displayed separately, as well as a mode in which the object display frame V30 is displayed superimposed on the video.

このように、オブジェクト表示枠V30は、第二のユーザがオブジェクト(ギフト)の表示要求を行うための表示枠である。すなわち、オブジェクト表示枠V30は、図13に示したギフトの一覧画面V30に対応するものである。 In this way, the object display frame V30 is a display frame for the second user to request the display of an object (gift). In other words, the object display frame V30 corresponds to the gift list screen V30 shown in FIG. 13.

また、図26に示されるように、オブジェクト表示枠V30において、オブジェクトは分類(無料(有料)、アクセサリ、定番、ユーザ制作等)ごとにタブを分けて表示されることができる。 Also, as shown in FIG. 26, in the object display frame V30, objects can be displayed in separate tabs according to their classification (free (paid), accessories, standard, user-created, etc.).

オブジェクト表示データは、かかるオブジェクト表示枠V30にオブジェクトを表示する位置、順序、および/または、表示態様を定めたデータであるものとする。 The object display data is data that defines the position, order, and/or display format in which objects are displayed in the object display frame V30.

あるいは、オブジェクト表示データは、かかるオブジェクト表示枠V30に表示するための、オブジェクトが配列された画像データとしてもよい。 Alternatively, the object display data may be image data in which objects are arranged for display in such object display frame V30.

ここで、図26に従来例として示したように、オブジェクト表示データが履歴情報に基づいて生成されない場合、一の第二ユーザ端末に表示されるオブジェクト表示枠V30におけるオブジェクトの表示位置、表示順序、および/または表示態様は、オブジェクトの追加・変更・削除等のシステム側の都合を除いては基本的には変化しない。 Here, as shown in the conventional example in FIG. 26, when object display data is not generated based on history information, the display position, display order, and/or display mode of objects in the object display frame V30 displayed on a second user terminal basically do not change except for system reasons such as adding, changing, or deleting objects.

また、オブジェクト表示データが履歴情報に基づいて生成されない場合、複数の第二ユーザ端末の各々に表示されるオブジェクト表示枠V30におけるオブジェクトの表示位置、表示順序、および/または表示態様は、基本的には同一となる。 In addition, when the object display data is not generated based on historical information, the display position, display order, and/or display mode of the objects in the object display frame V30 displayed on each of the multiple second user terminals will basically be the same.

一方で、本開示における発明のように、オブジェクト表示データが履歴情報に基づいて生成される場合、一の第二ユーザ端末に表示されるオブジェクト表示枠におけるオブジェクトの表示位置、表示順序、および/または表示態様は、変化する可能性がある。 On the other hand, when object display data is generated based on historical information, as in the invention disclosed herein, the display position, display order, and/or display mode of the objects in the object display frame displayed on a second user terminal may change.

また、本開示における発明のように、オブジェクト表示データが履歴情報に基づいて生成される場合、複数の第二ユーザ端末の各々に表示されるオブジェクト表示枠V30におけるオブジェクトの表示位置、表示順序、および/または表示態様は、それぞれ異なるものとなる可能性がある。 In addition, when object display data is generated based on historical information, as in the invention of the present disclosure, the display positions, display order, and/or display modes of objects in the object display frame V30 displayed on each of the multiple second user terminals may differ from one another.

図27は、履歴情報に基づいて生成されたオブジェクト表示データに従って表示されたオブジェクト表示枠V30の一例を示したものである。 Figure 27 shows an example of an object display frame V30 displayed according to object display data generated based on history information.

図27において、オブジェクト表示枠V30の上段位置は第一の位置とされ、本開示における発明の構成によれば、かかる第一の位置に、第一のユーザが投じてもらうことを必要とする/希望する、および/または、第二のユーザが投じることを希望するギフトに対応するオブジェクトを、第二のユーザに分かり易く表示することが可能となる。 In FIG. 27, the top position of the object display frame V30 is set to a first position, and according to the configuration of the invention in this disclosure, it is possible to display, in this first position, objects corresponding to gifts that a first user needs/wants to be cast and/or that a second user wishes to cast, in a manner that is easy for the second user to understand.

例えば、生成部430は、履歴情報に基づいて、オブジェクト表示枠V30に表示されるオブジェクトの中から特定の表示制御の対象となる対象オブジェクトを特定する。 For example, the generation unit 430 identifies target objects that are to be subject to specific display control from among the objects displayed in the object display frame V30 based on the history information.

特定の表示制御とは、例えば、対象オブジェクトをオブジェクト表示枠の中で第一の位置に表示することである。 A specific display control is, for example, displaying the target object in a first position within the object display frame.

このように、生成部430は、上記特定の表示制御を行うためのオブジェクト表示データを生成することができる。 In this way, the generation unit 430 can generate object display data for performing the above-mentioned specific display control.

そして、送信部440は、受付部410が受け付けた第二ユーザ端末200からのオブジェクト表示枠V30の表示要求に応答して、生成部430により生成されたオブジェクト表示データを第二ユーザ端末200に送信する。 Then, in response to a display request for the object display frame V30 from the second user terminal 200 received by the reception unit 410, the transmission unit 440 transmits the object display data generated by the generation unit 430 to the second user terminal 200.

これにより、第二ユーザ端末200においてオブジェクトが表示されたオブジェクト表示枠V30が表示される。 This causes an object display frame V30 in which the object is displayed to be displayed on the second user terminal 200.

なお、上記説明では、生成部430によるオブジェクト表示データの生成は、第二ユーザ端末200からのオブジェクト表示枠V30の表示要求の前に行われているものとしたが、上記表示要求の後に行われるものとしてもよい。 In the above description, the generation unit 430 generates the object display data before the second user terminal 200 requests the object display frame V30 to be displayed, but the generation may be performed after the display request.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 The above configuration provides a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above.

具体的には、本開示の構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 Specifically, the configuration of the present disclosure can increase the willingness of broadcasting users to broadcast, the willingness of viewing users to watch, and/or the willingness of users to interact with each other.

従来、配信ユーザによっては、必要とする/希望するギフトがある場合があるが、視聴ユーザは、配信ユーザごとに対応するギフトを探す必要があり、膨大なギフトが表示されるギフト一覧の中から対応するギフトを探し出すのに非常に手間が掛かっていた。特に、スマートフォン等のディスプレイが小さい端末においては、ギフトの数が多いとスクロール回数が多くなってしまう。そのため、視聴ユーザのギフティング意欲の低下が懸念されていた。 Previously, some broadcast users may need/want certain gifts, but viewing users would have to search for the corresponding gifts for each broadcast user, which was very time-consuming as it required users to find the corresponding gifts from a huge list of gifts. In particular, on devices with small displays such as smartphones, a large number of gifts results in a lot of scrolling. This led to concerns that viewing users would be less willing to give gifts.

しかしながら、上述した本開示の構成によれば、視聴ユーザ端末に表示されるオブジェクト表示枠に表示されるオブジェクト(ギフトの一覧)は、履歴情報に基づいて生成されたオブジェクト表示データに従ったものとなるため、従来よりも所望のギフトが探し易く、ギフティング意欲を向上させることができる。 However, according to the configuration of the present disclosure described above, the objects (list of gifts) displayed in the object display frame displayed on the viewing user terminal are based on object display data generated based on historical information, making it easier to find the desired gift than before, and increasing motivation to give gifts.

そして、ギフティング数の増加は、配信ユーザの配信意欲の向上および動画の品質向上に繋がるものである。 And an increase in the number of giftings leads to increased motivation from streamers to continue streaming and improved video quality.

また、高品質の動画に対して視聴ユーザの視聴意欲は向上し、視聴ユーザ数の増加によりユーザの配信意欲はさらに向上する。 In addition, users are more willing to watch high quality videos, and an increase in the number of viewers further increases users' willingness to distribute.

また、使用意欲および配信意欲の高いユーザが集うことで、ユーザ同士の交流も活性化にも繋がる。 In addition, by bringing together users who are highly motivated to use and distribute, it also leads to more active interaction between users.

続いて、第一のユーザに関連付けて記憶されている履歴情報の詳細について説明を行う。 Next, we will provide a detailed explanation of the history information stored in association with the first user.

第一のユーザに関連付けて記憶されている履歴情報は、第一のユーザと所定のイベントとが関連付けられた参加履歴に関する情報を含むことができる。 The history information stored in association with the first user may include information regarding a participation history associated with the first user and a given event.

上述したように、サーバ装置400は、第一ユーザ端末100からの所定のイベントへの参加要求を受信すると、第一のユーザと所定のイベントとを関連付け、イベントへの参加履歴として記憶する。 As described above, when the server device 400 receives a request to participate in a specific event from the first user terminal 100, it associates the first user with the specific event and stores this as a participation history for the event.

原則として、第一のユーザに関連付けられる所定のイベントは一つとするが、複数のイベントを関連付け可能としてもよい。 As a general rule, there is one specific event associated with a first user, but multiple events may be associated.

かかる履歴情報を用いることで、第二ユーザ端末200に表示されるオブジェクト表示枠V30に、第一のユーザがイベントにおける目標となるスコアを達成するために必要なギフトを、第二のユーザが探し易く表示させることができるようになる。 By using such history information, the gifts that the first user needs to achieve the target score in the event can be displayed in the object display frame V30 displayed on the second user terminal 200 in a manner that makes it easier for the second user to find them.

第一のユーザに関連付けて記憶されている履歴情報は、第二ユーザ端末200から送信された、第一のユーザに関連付けられた動画への所定のオブジェクトの表示要求に関する情報を含むことができる。 The history information stored in association with the first user may include information regarding a request sent from the second user terminal 200 to display a specific object in a video associated with the first user.

上述したように、所定のオブジェクトの表示要求とは、例えば、第二のユーザによる第一のユーザの動画へのギフトの表示要求である。 As described above, a request to display a specific object is, for example, a request by a second user to display a gift on a video of a first user.

なお、ここでいう第二のユーザは第一の動画を視聴するすべての視聴ユーザを意味するものとすることができる。 Note that the second user here can refer to all viewing users who watch the first video.

第二ユーザ端末200からのギフトの表示要求を受信すると、サーバ装置400は、表示要求の数および/または表示要求を受信した時刻をギフトの種類毎(オブジェクトID毎)に履歴として記憶する。なお、ここでいう履歴は、第二のユーザが視聴中の一の動画に関するものとしてもよいし、第二のユーザが過去に視聴したことのあるすべての第一のユーザの動画に関するものとしてもよい。 When a gift display request is received from the second user terminal 200, the server device 400 stores the number of display requests and/or the time at which the display requests were received as a history for each type of gift (each object ID). Note that the history referred to here may be related to a video that the second user is currently watching, or may be related to all videos of the first user that the second user has previously watched.

かかる履歴情報を用いることで、第二ユーザ端末200に表示されるオブジェクト表示枠に、第一のユーザの動画を視聴するすべての視聴ユーザから多く投じられているギフトや直近で投じられているギフトを、第二のユーザが探し易く表示させることができるようになる。 By using such history information, the object display frame displayed on the second user terminal 200 can display the most frequently and most recently donated gifts from all viewing users who watch the first user's video in a way that makes it easy for the second user to find them.

なお、第一のユーザの動画に対して視聴ユーザから多く投じられているギフトは、第一のユーザが動画において投じられることを希望しているギフトであることが多いため、第一のユーザが動画において発言せずとも、また、第二のユーザが発言を聞き逃していたとしても、第二のユーザは自分の端末に表示されたオブジェクト表示枠V30を確認するだけで第一のユーザが希望するギフトを把握することができるようになる。 In addition, gifts that are frequently given to a first user's video by viewing users are often gifts that the first user wishes to be given in the video, so even if the first user does not make a comment in the video, or even if the second user misses a comment, the second user can know the gift that the first user wishes to receive simply by checking the object display frame V30 displayed on his or her own device.

また、直近で投じられているギフトを探しやすく表示することで、特定のギフトを連続でタイミングよく投げることができるようになる。これは、特定のギフトを連続でタイミングよく投げると特別なギフトオブジェクトが表示されるという効果がある場合等に有益である。 Also, by making the most recently thrown gifts easier to find, it becomes possible to throw specific gifts in succession at the right time. This is useful in cases where throwing specific gifts in succession at the right time results in a special gift object appearing.

続いて、第二のユーザに関連付けて記憶されている履歴情報の詳細について説明を行う。 Next, we will provide a detailed explanation of the history information stored in association with the second user.

第二のユーザに関連付けて記憶されている履歴情報は、第二ユーザ端末200から送信された、第一のユーザに関連付けられた動画への所定のオブジェクトの表示要求に関する情報を含むことができる。 The history information stored in association with the second user may include information regarding a request sent from the second user terminal 200 to display a specific object in a video associated with the first user.

所定のオブジェクトの表示要求とは、例えば、第二のユーザによる第一のユーザの動画へのギフトの表示要求である。 A request to display a specific object is, for example, a request by a second user to display a gift on a video of a first user.

第二ユーザ端末200からのギフトの表示要求を受信すると、サーバ装置400は、表示要求の数および/または表示要求を受信した時刻をギフトの種類毎(オブジェクトID毎)に履歴として記憶する。なお、ここでいう履歴は、第二のユーザが視聴中の動画に関するものとしてもよいし、第二のユーザが過去に視聴したことのあるすべての第一のユーザ動画に関するものとしてもよい。 When a gift display request is received from the second user terminal 200, the server device 400 stores the number of display requests and/or the time at which the display requests were received as history for each type of gift (each object ID). Note that the history referred to here may be related to the video that the second user is currently watching, or may be related to all first user videos that the second user has previously watched.

かかる履歴情報を用いることで、第二ユーザ端末200に表示されるオブジェクト表示枠V30に、第一のユーザの動画に対して自分が多く投じているギフトや直近で投じたギフトを、探し易く表示させることができるようになる。 By using such history information, the object display frame V30 displayed on the second user terminal 200 can easily display the gifts that the user has given most frequently to the first user's videos and the gifts that the user has given most recently.

第二のユーザに関連付けて記憶されている履歴情報は、第二ユーザ端末200から送信された、第一のユーザに関連付けられた動画を含む任意の動画への所定のオブジェクトの表示要求に関する情報を含むことができる。 The history information stored in association with the second user may include information regarding a request sent from the second user terminal 200 to display a specific object in any video, including a video associated with the first user.

所定のオブジェクトの表示要求とは、例えば、第二のユーザによる任意のユーザの動画へのギフトの表示要求である。 A request to display a specific object is, for example, a request by a second user to display a gift on a video of a given user.

第二ユーザ端末200からのギフトの表示要求を受信すると、サーバ装置400は、表示要求の数および/または表示要求を受信した時刻をギフトの種類毎(オブジェクトID毎)に履歴として記憶する。なお、ここでいう履歴は、第二のユーザが視聴中の動画に関するものとしてもよいし、第二のユーザが過去に視聴したことのあるすべての動画に関するものとしてもよい。 When a gift display request is received from the second user terminal 200, the server device 400 stores the number of display requests and/or the time at which the display requests were received as history for each type of gift (each object ID). Note that the history referred to here may be related to the video that the second user is currently watching, or may be related to all videos that the second user has previously watched.

かかる履歴情報を用いることで、第二ユーザ端末200に表示されるオブジェクト表示枠V30に、動画に対して自分が多く投じているギフトや、直近で投じたギフトを、探し易く表示させることができるようになる。 By using this history information, the gifts that a user has given to a video the most and the most recent gifts can be displayed in an easy-to-find manner in the object display frame V30 displayed on the second user terminal 200.

上述したように、生成部430は、履歴情報に基づいて、オブジェクト表示枠V30に表示されるオブジェクトの中から特定の表示制御の対象となる対象オブジェクトを特定することができる。 As described above, the generation unit 430 can identify target objects that are to be subject to specific display control from among the objects displayed in the object display frame V30 based on the history information.

生成部430により特定されたオブジェクトは、一例として図28に示されるように特定のオブジェクトであることが関連付けられて所定の記憶部に記憶されることができる。 The object identified by the generation unit 430 can be associated with a specific object and stored in a specified storage unit, as shown in FIG. 28 as an example.

なお、図28では対象オブジェクトが1つである例が示されているが、特定されるオブジェクトは複数であってもよい。 Note that while FIG. 28 shows an example in which there is one target object, there may be multiple objects identified.

そして、生成部430は、当該対象オブジェクトをオブジェクト表示枠V30の中で第一の位置V31に表示するオブジェクト表示データを生成することができる。 Then, the generation unit 430 can generate object display data that displays the target object at a first position V31 within the object display frame V30.

オブジェクト表示枠V30の中の第一の位置V31とは、他のオブジェクトと区別がつく位置であれば特に限定されないが、一例として、図27,29-30に示される位置とすることができる。 The first position V31 in the object display frame V30 is not particularly limited as long as it is a position that can be distinguished from other objects, but as an example, it can be the position shown in Figures 27, 29-30.

図29は、第一の位置V31が、各タブにおける先頭位置である場合を示したイメージ図である。 Figure 29 is an illustration showing the case where the first position V31 is the top position of each tab.

図29に示されるように、対象オブジェクトは、オブジェクトが属するカテゴリのタブの先頭位置に表示される。 As shown in Figure 29, the target object is displayed at the top of the tab for the category to which the object belongs.

図27は、上述したとおり、第一の位置V31が、オブジェクト表示枠V30の上段位置である場合を示したイメージ図である。 Figure 27 is an image diagram showing the case where the first position V31 is the upper position of the object display frame V30, as described above.

図27に示されるように、オブジェクト表示枠V30の上部には、対象オブジェクト表示用の段が用意され、対象オブジェクトは、かかる段に表示される。 As shown in FIG. 27, a row for displaying the target object is provided at the top of the object display frame V30, and the target object is displayed in this row.

図30は、第一の位置V31が、オブジェクト表示枠V30における特定のタブ内の位置である場合を示したイメージ図である。 Figure 30 is an illustration showing a case where the first position V31 is a position within a specific tab in the object display frame V30.

図30に示されるように、オブジェクト表示枠V30には特定のタブが用意され、対象オブジェクトは、かかる特定のタブ内に表示される。 As shown in FIG. 30, specific tabs are provided in the object display frame V30, and the target object is displayed within the specific tab.

または、生成部430は、対象オブジェクトをオブジェクト表示枠V30の中で他のオブジェクトと異なる態様で表示するオブジェクト表示データを生成することができる。 Alternatively, the generation unit 430 can generate object display data that displays the target object in the object display frame V30 in a manner different from other objects.

図31は、対象オブジェクトに所定のマークV32(一例として星形のマーク)が付され、他のオブジェクトと区別が付くように表示されている例である。また、対象オブジェクトに「欲しい!」といった内容のタグを付す構成としてもよい。 Figure 31 shows an example in which a specific mark V32 (for example, a star-shaped mark) is added to the target object, and the target object is displayed so as to be distinguished from other objects. It is also possible to add a tag such as "I want it!" to the target object.

図32は、対象オブジェクトに枠V33が付され、他のオブジェクトと区別が付くように表示されている例である。 Figure 32 shows an example in which a frame V33 is added to the target object, making it easier to distinguish from other objects.

また、オブジェクトの表示要求を行うための操作として、複数回の操作が必要な場合(例えば、対象オブジェクトをタップすることにより選択し、選択された対象オブジェクトを再度タップすることにより表示要求がなされる場合等)において、生成部430は、対象オブジェクトが既に選択された状態(初期選択状態)でオブジェクト表示枠V30に表示するオブジェクト表示データを生成するものとしてもよい。かかる構成によれば、表示要求を行うまでに必要な操作の回数を低減させることができる。 In addition, when multiple operations are required to make a display request for an object (for example, when a target object is selected by tapping and a display request is made by tapping the selected target object again), the generation unit 430 may generate object display data that is displayed in the object display frame V30 with the target object already selected (initial selection state). With this configuration, the number of operations required to make a display request can be reduced.

生成部430は、履歴情報に基づいて、第二ユーザ端末200から表示要求が送信された直近所定個数の異なる所定のオブジェクトを対象オブジェクトとして特定することができる。 Based on the history information, the generation unit 430 can identify a certain number of different specific objects in the immediate vicinity to which a display request has been sent from the second user terminal 200 as target objects.

第二ユーザ端末200から表示要求が送信された直近所定個数の異なる所定のオブジェクトとは、例えば、第二のユーザが動画に対して最近送ったギフトと言い換えることができる。 The predetermined number of different objects in the immediate vicinity for which a display request is sent from the second user terminal 200 can be rephrased as, for example, gifts recently sent by the second user in response to the video.

例えば、図33に示されるように、第二のユーザが、動画に対してお寿司ギフトを3つ、ウサギのぬいぐるみギフトを5つ、くまさん(小)ギフトを2つをこの順に送った場合、お寿司ギフト、ウサギのぬいぐるみギフト、くまさん(小)ギフトが対象オブジェクトとして特定され、第一の位置V31に表示されるものとすることができる。 For example, as shown in FIG. 33, if a second user sends three sushi gifts, five rabbit stuffed animal gifts, and two small teddy bear gifts to a video in that order, the sushi gifts, the rabbit stuffed animal gifts, and the small teddy bear gifts can be identified as target objects and displayed at the first position V31.

第一の位置V31では、左側がより最新のものであるとして配置されるものとする。 In the first position V31, the left side is assumed to be the most recent.

このとき、第一の位置V31は、ギフトの送信履歴欄として機能する。 At this time, the first location V31 functions as a gift sending history column.

また、変形例として、図34に示されるように、履歴タブの最上行は、視聴ユーザが、配信ユーザに関わらない任意の動画に直近送った所定個数(図34では3個)のオブジェクトの表示欄V34とし、2行目以降は視聴している配信ユーザに贈った直近所定個数(図34では3個)のオブジェクトの表示欄V35などとすることができる。 Also, as a variant, as shown in FIG. 34, the top line of the history tab can be a display column V34 of a predetermined number of objects (three in FIG. 34) that the viewing user most recently sent to any video not related to the distribution user, and the second line and on can be a display column V35 of a predetermined number of objects (three in FIG. 34) that were most recently sent to the viewing distribution user.

生成部430は、履歴情報に基づいて、所定のオブジェクトに対する表示要求が一時に送信された回数を対象オブジェクトに関連付けたオブジェクト表示データを生成することができる。 The generation unit 430 can generate object display data that associates the number of times display requests for a specific object were sent at one time with the target object based on the history information.

一例として、第二のユーザは、オブジェクト表示枠に表示されたオブジェクトを所定時間内に複数回タップまたは長押しすることにより、一のオブジェクトに対する複数回の表示要求を送信することができるものとする。 As an example, the second user can send multiple display requests for a single object by tapping or long pressing an object displayed in the object display frame multiple times within a specified period of time.

そして、上記構成では、例えば、第二のユーザが、動画に対してお寿司ギフトを1つ、ウサギのぬいぐるみギフトを5つ、くまさん(小)ギフトを2つをこの順に送った場合、図35に示されるように、ウサギのぬいぐるみギフト、くまさん(小)ギフトにそれぞれ5回、2回との回数オブジェクトV36を関連付けて表示する。 In the above configuration, for example, if a second user sends one sushi gift, five rabbit stuffed animal gifts, and two small teddy bear gifts in that order to a video, the rabbit stuffed animal gift and the small teddy bear gift will be associated with a frequency object V36 of five times and two times, respectively, and displayed, as shown in FIG. 35.

この回数オブジェクトV36を選択すると、一度の選択で複数個分の表示要求を送信することができる。 When you select this number object V36, you can send multiple display requests with a single selection.

受付部410は、さらに、第一ユーザ端末100および/または第二ユーザ端末200から送信される、オブジェクトおよび/またはオブジェクトの属性の指定情報を受け付けることができる。 The reception unit 410 can further receive specification information for objects and/or object attributes sent from the first user terminal 100 and/or the second user terminal 200.

かかる指定情報は、配信設定画面D20等から設定することが可能であり、第一ユーザは、ギフトID、ギフトのテーマカラー、ギフトのテーマナンバーなどを指定することができるものとする。 Such specification information can be set from the distribution setting screen D20, etc., and the first user can specify the gift ID, gift theme color, gift theme number, etc.

かかる指定は、第一のユーザが行うものであってもよいし、第二のユーザが行うものであってもよい。第一のユーザが指定した指定情報は、すべての第二のユーザに適用され、第二のユーザ指定した指定情報は、自分のみに適用される。なお、第一のユーザが指定したギフトはおねだりギフトと呼ばれることができる。 Such designation may be made by the first user or the second user. The designation information designated by the first user applies to all second users, and the designation information designated by the second user applies only to the first user. The gift designated by the first user may be called a begging gift.

なお、上記例では属性の指定情報として色や数字を例示したが、ギフトの価格帯や人気度などを指定情報としてもよい。 In the above example, colors and numbers are used as examples of attribute specification information, but gift price ranges, popularity, etc. may also be used as specification information.

生成部430は、指定情報に基づいて指定オブジェクトを特定する。 The generation unit 430 identifies the specified object based on the specification information.

ギフトIDを指定した場合、そのギフトIDを有するギフト1つが特定される。同様に、ギフトのテーマカラー、例えば「ブラック」を指定した場合、ブラックという色情報が関連付けられた一または複数のギフトが特定される。また、テーマナンバー、例えば「8」を指定した場合、8という数字情報が関連付けられた一または複数のギフトが特定される。 When a gift ID is specified, one gift with that gift ID is identified. Similarly, when a gift theme color, for example "black", is specified, one or more gifts associated with the color information of black are identified. Furthermore, when a theme number, for example "8", is specified, one or more gifts associated with the number information of 8 are identified.

そして、生成部430は、当該指定オブジェクトをオブジェクト表示枠の中の第二の位置に表示する、または、指定オブジェクトをオブジェクト表示枠の中で他のオブジェクトと異なる態様で表示するオブジェクト表示データを生成することができる。 The generating unit 430 can then generate object display data that displays the specified object in a second position within the object display frame, or that displays the specified object in a manner different from other objects within the object display frame.

かかる第二の位置は上述した第一の位置と同じであってもよいし、別の位置であってもよい。例えば、同一のオブジェクト表示枠の中で上述した第一の位置とは異なる位置としてもよいし、別タブのオブジェクト表示枠に表示するものとしてもよい。 The second position may be the same as the first position described above, or may be a different position. For example, it may be a position different from the first position described above in the same object display frame, or it may be displayed in an object display frame of a different tab.

続いて、第一のユーザに関連付けて記憶されている履歴情報が、第一のユーザと所定のイベントとが関連付けられた履歴に関する情報である場合の詳細について説明を行う。 Next, we will explain in detail the case where the history information stored in association with a first user is information about a history that associates the first user with a specific event.

本開示における一又は複数のコンピュータプロセッサは、図36に示されるように、さらに、判定部450を備えることができる。 The one or more computer processors in this disclosure may further include a determination unit 450, as shown in FIG. 36.

判定部450は、第一のユーザに所定のイベントが関連付けられているかを判定するものである。 The determination unit 450 determines whether a specific event is associated with the first user.

判定部450により第一のユーザに所定のイベントが関連付けられていると判定された場合、生成部430は、所定のイベントに関して第一のユーザに関連付けられたパラメータ値が、所定の値に達するのに必要な必要値に関する表示情報を生成する。 When the determination unit 450 determines that a specific event is associated with the first user, the generation unit 430 generates display information regarding a required value that is necessary for a parameter value associated with the first user for the specific event to reach a specific value.

パラメータ値は、一例として、第二ユーザ端末200から送信された動画へのオブジェクトの表示要求の数および/または価値に基づいて増加する値(上述したスコア等)であるものとすることができる。 As an example, the parameter value may be a value (such as the score described above) that increases based on the number and/or value of requests to display an object in a video sent from the second user terminal 200.

イベントがスコア達成型の場合、所定の値は、所定のイベントにおいて予め定められた値であるものとする。 If the event is a score achievement type, the specified value is a value that is predefined for the specified event.

一方で、イベントがランキング型である場合、所定の値は、所定のイベントにおいて所定順位(1位または報酬が付与される最低順位)となるために必要な値であるものとする。そのため、この場合における所定の値は、所定のイベントと関連付けられた他のユーザに関連付けられたパラメータ値に応じて変動する値となる。 On the other hand, if the event is a ranking type, the specified value is the value required to achieve a specified rank (first place or the lowest rank at which a reward is awarded) in the specified event. Therefore, the specified value in this case is a value that varies depending on the parameter values associated with other users associated with the specified event.

必要値は、所定の値とパラメータ値との差分をとることにより算出されるものとする。 The required value is calculated by taking the difference between a predetermined value and the parameter value.

また、このとき、第一のユーザのパラメータおよび他の配信ユーザのパラメータの変動に応じて必要値も逐次変動するため、生成部430は、表示情報を、必要数の変化に応じてリアルタイムで更新するものとしてもよい。 In addition, at this time, since the required value also changes sequentially in response to changes in the parameters of the first user and the parameters of the other distribution users, the generation unit 430 may update the display information in real time in response to changes in the required number.

なお、順位変動に必要な必要値をリアルタイムに変更するのは高負荷となるおそれがあるため、細かな変動が起こらない、ランクやステータスを用いてもよい。 Note that changing the required values for ranking changes in real time may result in a high load, so it may be better to use rank or status, which do not change in small increments.

そして、送信部440は、表示情報を第二ユーザ端末200に送信する。 Then, the transmission unit 440 transmits the display information to the second user terminal 200.

なお、図37は、表示情報を含む動画が表示された第二ユーザ端末200における視聴画面V10のイメージを示したものである。 Note that FIG. 37 shows an image of the viewing screen V10 on the second user terminal 200 on which a video including display information is displayed.

このように、生成部430は、必要値V41を表示情報とすることができる。 In this way, the generation unit 430 can display the required value V41 as display information.

図37では、必要値V41はイベントに参加していることを示すイベントアイコンV40とともに動画内に表示されている。 In Figure 37, the required value V41 is displayed in the video along with an event icon V40 indicating participation in the event.

あるいは、図38に示されるように、生成部430は、必要値を0とするために必要なポイントの必要数を計算し、当該必要数V42を表示情報とすることができる。 Alternatively, as shown in FIG. 38, the generation unit 430 can calculate the number of points required to make the required value 0, and display the required number V42 as the display information.

なお、ここでいうポイントの必要数には、上述したように、ユーザが購入したコインおよび無料で入手したポイントのいずれかにより換算されるものとする。 Note that the required number of points referred to here will be calculated based on either the coins purchased by the user or the points obtained for free, as described above.

例えば、必要値が200,000である場合、コインで換算すると20,000となり、ポイントで換算すると200,000となる。 For example, if the required value is 200,000, it will be converted into 20,000 coins and 200,000 points.

あるいは、生成部430は、必要値を0とするための必要オブジェクトの種類を決定し、必要値を0とするために必要な必要オブジェクトの個数を計算し、必要オブジェクトの種類および個数V43を表示情報とすることができる。 Alternatively, the generation unit 430 can determine the type of required object to make the required value 0, calculate the number of required objects required to make the required value 0, and display the type and number of required objects V43 as display information.

なお、ここでいう必要値を0とするための必要オブジェクトの決定方法の具体例については後述するが、個数については、必要値≦オブジェクトの価値×個数となる最小の個数とすることができる。 Note that a specific example of how to determine the necessary objects to make the required value 0 will be described later, but the number can be the smallest number such that the required value is less than or equal to the value of the object x the number of objects.

また、オブジェクトの価値×個数が必要値を必要以上に超えないように、オブジェクトの種類を適宜変更するものとしてもよい。例えば、最初は高額ギフトであるタワーケーキで換算されていたものが、最後は、すなわち、必要値が0に近づくと、少額ギフトであるくまさん(小)で換算されるなどとすることができる。 The type of object may also be changed as appropriate so that the value x number of objects does not exceed the required value more than necessary. For example, something that is initially converted into a high-value gift such as a tower cake may eventually be converted into a low-value gift such as a small bear as the required value approaches 0.

ただし、イベントがランキング型の場合には常に高額ギフトが表示されていた方がよい。ランキング型の場合、他のユーザも自分のスコアを増加させるものであるから、必要値が0を超えてマイナスになるようスコアを蓄積させておくのが好ましいためである。 However, if the event is a ranking-based event, it is better to always display high-value gifts. In ranking-based events, other users will also increase their own scores, so it is preferable to accumulate scores so that the required value exceeds 0 and becomes negative.

図39に示されるように、例えば、必要スコアが200,000である場合、100コインのギフトである「くまさん(小)」が「200個」必要であると計算され、かかるオブジェクトの種類および個数V43が動画に表示されることができる。 As shown in FIG. 39, for example, if the required score is 200,000, it is calculated that 200 "small bears," which are gifts worth 100 coins, are required, and the type and number V43 of such objects can be displayed in the video.

また、一例として図40に示されるように、必要スコアが500,000である場合は、10000コインのギフトである「タワーケーキ」が「5個」必要であると計算され、かかるオブジェクトの種類および個数V43が動画に表示されることができる。 As an example, as shown in FIG. 40, if the required score is 500,000, it is calculated that "5" "Tower Cakes", which are gifts worth 10,000 coins, are required, and the type and number V43 of such objects can be displayed in the video.

また、このとき、図41に示されるように、上記表示情報はオブジェクト表示枠V30に表示されるものとしてもよい。図41に示す例では、表示情報は対応するオブジェクトに関連付けて表示されている。なお、上記動画内に表示される表示情報とオブジェクト表示枠に表示される表示情報とは共に表示されるものとしてもよいし、オブジェクト表示枠V30に表示される場合には、動画内には表示されないものとしてもよい。 At this time, the display information may be displayed in the object display frame V30 as shown in FIG. 41. In the example shown in FIG. 41, the display information is displayed in association with the corresponding object. Note that the display information displayed in the video and the display information displayed in the object display frame may be displayed together, or when the display information is displayed in the object display frame V30, it may not be displayed in the video.

上記個数は必要オブジェクトが投じられる毎に減じられるよう、リアルタイムで更新されるものとする。 The above number will be updated in real time, decreasing each time a required object is thrown.

そして、生成部430は、必要値を0とするための必要オブジェクトの種類を、履歴情報に基づいて決定することができる。 Then, the generation unit 430 can determine the type of object required to set the required value to 0 based on the history information.

履歴情報には、上述したように、ギフトに関する履歴が含まれることから、一例として、かかるギフト履歴に基づいて、第一のユーザの動画に対して表示要求がなされたギフトの個数が最も多いものを必要オブジェクトとすることができる。 As described above, the history information includes gift-related history, so as an example, the required object can be the object with the greatest number of gifts requested to be displayed for the first user's video based on the gift history.

あるいは、ギフト履歴に基づいて、第一のユーザの動画に対して直近表示要求がなされたものを必要オブジェクトとすることができる。 Alternatively, the required object can be the most recently requested video of the first user based on the gift history.

あるいは、ギフト履歴に基づいて、第一のユーザの動画に対して表示要求がなされた最も高額なものを必要オブジェクトとすることができる。 Alternatively, the required object can be the most expensive video requested to be displayed for the first user based on the gift history.

あるいは、イベント履歴に基づいて、イベント専用のギフトを必要オブジェクトとすることができる。 Alternatively, event-specific gifts can be required objects based on event history.

あるいは、上述したおねだりギフトを必要オブジェクトとすることができる。 Alternatively, the required object can be the begging gift mentioned above.

生成部430は、必要値を0とするための必要オブジェクトの種類を、第二ユーザ端末200の数に基づいて決定することができる。 The generation unit 430 can determine the type of object required to set the required value to 0 based on the number of second user terminals 200.

例えば、第二ユーザ端末の数が多い場合、少額のオブジェクトが必要オブジェクトとして決定される。この少額には無料も含まれる。 For example, if there are a large number of second user terminals, a small amount of object is determined as the required object. This small amount includes free objects.

逆に、第二ユーザ端末の数が少ない場合、高額のオブジェクトが必要オブジェクトとして決定される。 Conversely, if the number of second user terminals is small, high-value objects are determined to be required objects.

表示される視聴者数は累計視聴者数であるが、この場合は同時視聴数に基づいて決定される。同時視聴者数はサーバ装置400により取得されている。 The number of viewers displayed is the cumulative number of viewers, but in this case it is determined based on the number of simultaneous viewers. The number of simultaneous viewers is obtained by the server device 400.

生成部430は、さらに、必要な個数の必要オブジェクトの表示要求を一括で送信可能な一括オブジェクトを第二ユーザ端末200に表示するための情報を生成することができる。 The generation unit 430 can further generate information for displaying a batch object on the second user terminal 200, which allows a display request for the required number of required objects to be sent in a batch.

図42は、一例として、かかる一括の表示要求を受け付けるための一括送信オブジェクトV44が表示された例を示したものである。 Figure 42 shows an example in which a batch transmission object V44 for accepting such a batch display request is displayed.

かかる一括送信オブジェクトV44が選択されると、一例として、オブジェクト5個分の表示要求を一回の選択で送信することができる。 When such a bulk transmission object V44 is selected, as an example, display requests for five objects can be sent with a single selection.

かかる構成によれば、第二のユーザが複数個のギフトを送りたい場合の手間を省くことができるようになる。 This configuration can save the second user time and effort when they want to send multiple gifts.

受付部410は、第二ユーザ端末200からの必要オブジェクトの仮の表示要求を受け付け、当該仮の表示要求の数が個数に達した場合に、個数の必要オブジェクトの表示要求を一括で受け付けたものとみなすことができる。 The reception unit 410 receives a provisional display request for the necessary objects from the second user terminal 200, and when the number of such provisional display requests reaches number, it can regard the display requests for number of necessary objects as having been received all at once.

図43は、一例として、かかる仮の表示要求を受け付けるための参加オブジェクトV45が表示された例を示したものである。 Figure 43 shows an example in which a participation object V45 is displayed to accept such a provisional display request.

かかる参加オブジェクトV45は、第二のユーザが一人で要求された数だけ選択することも可能であるし、1回だけ選択することも可能である。 The second user may select as many of these participating objects V45 as he or she desires, or may select them only once.

参加オブジェクトV45に表示される必要個数は、一又は複数の第二のユーザによる選択により徐々に減っていくものとする。かかる必要個数が0になると、ギフトオブジェクトの表示要求がサーバ装置に送信されるものとする。 The required number displayed on the participating object V45 is gradually decreased by selection by one or more second users. When the required number reaches 0, a display request for the gift object is transmitted to the server device.

なお、仮の表示要求を行った時点ではコインを減じられることはなく、必要個数分の仮の表示要求が集まった場合に、コインが減じられるとともにギフトの表示要求がサーバ装置400に送信される。 Note that coins are not deducted when a provisional display request is made, and when the required number of provisional display requests are received, coins are deducted and a gift display request is sent to the server device 400.

かかる構成によれば、必要個数が集まらなかった場合における第二のユーザのデメリットがなくなり、ギフトの投じ控えを抑制することができるようになる。 This configuration eliminates the disadvantage to the second user when the required number of gifts is not collected, and reduces the risk of second users refraining from donating gifts.

また、図36に示された判定部450は、第二のユーザに関連付けられたポイントの数が必要数に足りているかを判定するものとしてもよい。 The determination unit 450 shown in FIG. 36 may also determine whether the number of points associated with the second user is sufficient.

判定部450によりポイントの数が必要数に足りていないと判定された場合に、送信部440は、当該ポイントを増加させる処理を行う画面への導線となるオブジェクトを表示させるための情報を第二ユーザ端末200に送信する。 If the determination unit 450 determines that the number of points is insufficient to the required number, the transmission unit 440 transmits information to the second user terminal 200 to display an object that serves as a guide to a screen that performs the process of increasing the points.

ポイントを増加させるための処理を行うための画面への導線となるオブジェクトとは、図44に一例として示されるように、コイン購入画面へと遷移するための購入オブジェクトV46とすることができる。 The object that serves as a guide to the screen for performing the process to increase points can be a purchase object V46 for transitioning to a coin purchase screen, as shown as an example in FIG. 44.

この購入オブジェクトV46は、判定部450の結果に依らず表示されているものとしてもよいが、その場合において、判定部450によりポイントの数が必要数に足りていないと判定された場合には、遷移先の画面において、不足分のコインを容易に購入することができるように構成されるものとする。 This purchase object V46 may be displayed regardless of the result of the judgment unit 450, but in that case, if the judgment unit 450 judges that the number of points is insufficient to meet the required number, the transition destination screen is configured to allow the user to easily purchase the missing coins.

図45は、コインの購入画面の一例を示したものである。図45の下方に示されるように、通常は所定単位毎の購入しかできないが、本発明においては、不足分と同額のコインを一括で購入することが可能となる。一例として、図45には、不足分が3000Cである場合において、3000Cを一括で購入するための購入オブジェクトV46が表示されている。 Figure 45 shows an example of a coin purchase screen. As shown at the bottom of Figure 45, normally coins can only be purchased in predetermined units, but in the present invention, it is possible to purchase coins in a lump sum for the amount equal to the shortfall. As an example, Figure 45 shows a purchase object V46 for purchasing 3000C in a lump sum when the shortfall is 3000C.

上記購入オブジェクトV46が第二のユーザにより選択されると、第二のユーザによる3000円の支払いと引き換えに、3000Cが第二のユーザに関連付けて記憶される。 When the above purchase object V46 is selected by the second user, 3000C is stored in association with the second user in exchange for the second user's payment of 3000 yen.

その後、図42等に示したオブジェクト表示枠V30の中から一括送信オブジェクトV44を選択することにより、動画にかかるオブジェクトの送信要求がサーバ装置400に送信される。 Then, by selecting the batch transmission object V44 from the object display frame V30 shown in FIG. 42 etc., a request to transmit the objects related to the video is transmitted to the server device 400.

以上の構成によれば、コイン購入画面への導線が明確になり、コインが不足することによる第二のユーザのギフトの投じ控えを抑制することができるようになる。 The above configuration provides a clear path to the coin purchase screen, and can prevent second users from refraining from donating gifts due to a lack of coins.

続いて、第二のユーザが、動画に表示されるイベントアイコンV40を選択した場合の画面の遷移について説明する。 Next, we will explain the screen transitions that occur when a second user selects the event icon V40 displayed in the video.

第二のユーザにより動画においてイベントアイコンV40が選択されると、視聴画面V10は、図46に一例として示されるイベント画面V60へと遷移する。 When the second user selects the event icon V40 in the video, the viewing screen V10 transitions to an event screen V60, an example of which is shown in FIG. 46.

イベント画面V60は、イベント詳細タブおよびスコアタブにより、表示される情報を切り替えられるよう構成されている。 The event screen V60 is configured so that the information displayed can be switched using the event details tab and score tab.

スコアタブで表示される情報には、第二のユーザが視聴する動画の配信ユーザである第一のユーザのスコアが最上段に表示され、その下に、他のユーザのスコアがランキング順に表示されるものとする。あるいは、イベントに参加するすべてのユーザのスコアがランキング順に表示され、その中で第二のユーザが視聴する動画の配信ユーザである第一のユーザが強調表示させるものとしてもよい。 The information displayed in the score tab will show at the top the score of the first user who is the distributor of the video being viewed by the second user, and below that the scores of the other users will be displayed in order of ranking. Alternatively, the scores of all users participating in the event may be displayed in order of ranking, with the first user who is the distributor of the video being viewed by the second user being highlighted.

また、図46に示されるように、各ユーザのスコアとともに、上述した必要値に関する情報を表示する表示欄V61が表示される。表示欄V61の表示内容の詳細については後述する。 As shown in FIG. 46, a display field V61 is displayed that displays information about the required values described above along with the scores of each user. Details of the display content of the display field V61 will be described later.

そして、第二のユーザは、この表示欄V61を選択することにより、かかるイベント画面V60を介してもギフトの表示要求を行うことができる。 The second user can then select this display field V61 to request the display of gifts via the event screen V60 as well.

ここで、図46に示した表示欄V61の表示内容の詳細は、図47および図48に一例として示される。 Here, the details of the display contents of the display field V61 shown in FIG. 46 are shown as examples in FIG. 47 and FIG. 48.

図47に示す例では、表示欄V61に、ランキング型のイベントにおいてユーザが一位となるために必要なギフトの種類を示す必要オブジェクト(タワーケーキギフト)および必要な個数(5本)が表示されている。 In the example shown in FIG. 47, a required object (tower cake gift) indicating the type of gift required for a user to come in first in a ranking-type event and the required number (5 pieces) are displayed in display field V61.

第二のユーザによりかかる表示欄V61が選択されると、タワーケーキギフト1本の表示要求がサーバ装置に送信される。 When the second user selects the display field V61, a request to display one tower cake gift is sent to the server device.

また、図48に示す例では、表示欄V61に、イベントにおいてユーザのスコアが所定の条件を達成するのに必要なギフトの種類を示す必要オブジェクト(タワーケーキギフト)および必要な個数(5本)が表示されている。 In the example shown in FIG. 48, the display field V61 displays a required object (tower cake gift) and the required number (5 pieces) indicating the type of gift required for the user's score to achieve a specified condition in the event.

図47に示した例との違いは、第二のユーザによりかかる表示欄V61が選択されると、タワーケーキギフト1本の仮の表示要求がサーバ装置に送信される点である。 The difference from the example shown in FIG. 47 is that when such a display field V61 is selected by the second user, a provisional display request for one tower cake gift is sent to the server device.

このような仮の表示要求は、必要な個数分だけの仮の表示要求が集まった場合にのみ、タワーケーキギフト1本の仮の表示要求がサーバ装置に送信される。 A temporary display request for one tower cake gift is sent to the server device only when the required number of temporary display requests are received.

このような表示欄V61は、図46に示される第一のユーザに対する位置にのみ表示されてもよいし、イベントに参加中の全ユーザに対応する位置にそれぞれ表示されるものとしてもよいし、配信中のユーザに対応する位置にのみ表示されるものとしてもよい。 Such a display field V61 may be displayed only at the position corresponding to the first user shown in FIG. 46, or may be displayed at positions corresponding to all users participating in the event, or may be displayed only at the position corresponding to the user currently broadcasting.

このとき、第一のユーザの動画を視聴中の第二のユーザにより第一のユーザ以外の他のユーザの表示欄V61が選択されても、かかる他のユーザの動画に対するギフトの表示要求は送信されないものとすることができる。 At this time, even if a display field V61 of a user other than the first user is selected by a second user who is watching a video of a first user, a request to display a gift for the video of that other user may not be sent.

あるいは、第一のユーザの動画を視聴中の第二のユーザにより第一のユーザ以外の他のユーザの表示欄V61が選択された場合に、かかる他のユーザの動画に対するギフトの表示要求が送信されるものとしてもよい。 Alternatively, when a display field V61 of a user other than the first user is selected by a second user while watching a video of a first user, a request to display a gift for the video of that other user may be transmitted.

以上の構成によれば、第二のユーザが必要オブジェクトを見つけるのがより容易になり、ギフティング意欲の向上につながる。 The above configuration makes it easier for the second user to find the required object, which leads to increased motivation to gift.

以上の説明では、第二のユーザが、動画に表示された必要オブジェクトに対応するギフトを投じることを前提として説明を行ったが、当然、必要オブジェクトとは異なる他のオブジェクトについても自由に投じることができる。 The above explanation is based on the assumption that the second user throws a gift that corresponds to a required object displayed in the video, but of course the second user can also freely throw objects other than the required object.

この場合においても、必要値および必要数については当然減っていくことになるが、表示情報として必要オブジェクトの種類および個数が表示されている場合には、かかる個数と上記他のオブジェクトの個数とは1対1では対応しない可能性がある点に留意が必要である。 Even in this case, the required value and required number will naturally decrease, but if the type and number of required objects are displayed as display information, it is important to note that such numbers may not correspond one-to-one with the numbers of the other objects mentioned above.

また、第二のユーザが他のオブジェクトを投じた場合と比較して、必要オブジェクトを投じた場合には、特別な演出効果を動画に表示させるものとしてもよい。 In addition, a special effect may be displayed in the video when the second user casts a required object compared to when the second user casts another object.

以上の構成によれば、第二のユーザの、必要オブジェクトを投じる意欲をより向上させることができる。 The above configuration can further increase the second user's motivation to cast the required object.

以上の説明では、動画が第一のユーザによる単独のソロ配信である例を挙げて説明を行ったが、コラボ配信の動画において本開示の発明を適用することも可能である。 In the above explanation, an example was given in which the video was a solo broadcast by a first user, but the invention of this disclosure can also be applied to videos that are collaboratively broadcast.

このコラボ配信において、第二ユーザ端末200に表示されるオブジェクト表示枠は、上述したソロ配信の場合と同じものとすることもできる。このとき、第一のユーザはコラボ配信のホストユーザである。 In this collaborative distribution, the object display frame displayed on the second user terminal 200 can be the same as that in the case of the solo distribution described above. In this case, the first user is the host user of the collaborative distribution.

あるいは、このコラボ配信において、第二ユーザ端末200に表示されるオブジェクト表示枠は、上述したソロ配信の場合と異なるものとすることもできる。 Alternatively, in this collaborative distribution, the object display frame displayed on the second user terminal 200 can be different from that in the solo distribution described above.

例えば、第二ユーザ端末200に表示されるオブジェクト表示枠は、コラボ配信に出演するユーザ(ホストユーザおよびゲストユーザ)毎に生成されたオブジェクト表示データに基づいて、複数用意されるものであってもよい。 For example, multiple object display frames may be provided on the second user terminal 200 based on object display data generated for each user (host user and guest user) appearing in the collaborative broadcast.

または、第二ユーザ端末200に表示されるオブジェクト表示枠は一つであるとして、コラボ配信に出演するユーザ毎に生成されたオブジェクト表示データに基づいて、複数のタブが用意されるものとしてもよい。 Alternatively, a single object display frame may be displayed on the second user terminal 200, and multiple tabs may be provided based on object display data generated for each user appearing in the collaborative broadcast.

以上の構成によれば、コラボ配信の動画においても、出演するユーザ毎に適切なギフトを、視聴ユーザがより容易に投じることが可能になる。 With the above configuration, viewers can more easily give appropriate gifts to each user appearing in a collaborative video.

続いて、本開示の実施形態における情報処理方法について説明を行う。 Next, we will explain the information processing method in an embodiment of the present disclosure.

本開示の実施形態における情報処理方法は、図49に示されるように、一又は複数のコンピュータプロセッサに、受付ステップS410、配信ステップS420、生成ステップS430、判定ステップS435および送信ステップS440を実行させることを特徴とする。 The information processing method according to an embodiment of the present disclosure is characterized in that, as shown in FIG. 49, one or more computer processors are caused to execute a receiving step S410, a distributing step S420, a generating step S430, a determining step S435, and a sending step S440.

受付ステップS410では、第一のユーザの第一ユーザ端末100および/または第二のユーザの第二ユーザ端末200から送信される情報を受け付ける。 In the reception step S410, information sent from the first user terminal 100 of the first user and/or the second user terminal 200 of the second user is received.

かかる受付ステップS410は、上述した受付部410により実行されることができる。 Such reception step S410 can be executed by the reception unit 410 described above.

受付ステップS410は、サーバ側(サーバ装置400)で実行されるものとすることができる。 The reception step S410 may be executed on the server side (server device 400).

配信ステップS420では、第一のユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザ端末200に送信することにより、動画を第二ユーザ端末において視聴可能とする。 In the distribution step S420, information about the video including the character object of the first user is sent to the second user terminal 200, thereby making the video viewable on the second user terminal.

かかる配信ステップS420は、上述した配信部420により実行されることができる。 Such distribution step S420 can be executed by the distribution unit 420 described above.

配信ステップS420は、サーバ側(サーバ装置400)で実行されるものとすることができる。 The delivery step S420 may be executed on the server side (server device 400).

生成ステップS430では、第一のユーザおよび/または第二のユーザに関連付けて記憶されている履歴情報に基づいて、動画とともに第二ユーザ端末200に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する。 In the generation step S430, object display data is generated based on the history information stored in association with the first user and/or the second user, which is data to be displayed in an object display frame displayed on the second user terminal 200 together with the video.

かかる生成ステップS430は、上述した生成部430により実行されることができる。 Such generation step S430 can be executed by the generation unit 430 described above.

生成ステップS430は、サーバ側(サーバ装置400)で実行されるものとすることができる。または、生成ステップS430は、クライアント側(第一ユーザ端末100または第二ユーザ端末200)で実行されるものとすることができる。 The generation step S430 may be executed on the server side (server device 400). Alternatively, the generation step S430 may be executed on the client side (first user terminal 100 or second user terminal 200).

判定ステップS435では、第二ユーザ端末200からのオブジェクト表示枠の表示要求があったか否かを判定する。 In the determination step S435, it is determined whether or not a request to display the object display frame has been received from the second user terminal 200.

判定ステップS435は、サーバ側(サーバ装置400)で実行されるものとすることができる。または、判定ステップS435は、クライアント側(第二ユーザ端末200)で実行されるものとすることができる。 The determination step S435 may be executed on the server side (server device 400). Alternatively, the determination step S435 may be executed on the client side (second user terminal 200).

送信ステップS440では、オブジェクト表示枠の表示要求に応答して、生成ステップS430において生成されたオブジェクト表示データを第二ユーザ端末200に送信する。 In the transmission step S440, in response to a display request for the object display frame, the object display data generated in the generation step S430 is transmitted to the second user terminal 200.

かかる送信ステップS440は、上述した送信部440により実行されることができる。 Such transmission step S440 can be executed by the transmission unit 440 described above.

送信ステップS440は、サーバ側(サーバ装置400)で実行されるものとすることができる。 The sending step S440 may be executed on the server side (server device 400).

なお、上記生成ステップS430および判定ステップS435がクライアント側で実行される場合、受付ステップS410は送信ステップS440におけるデータの送受信は各クライアント内で行われるものとすることができる。 When the above generating step S430 and determining step S435 are executed on the client side, the data transmission and reception in the receiving step S410 and the sending step S440 can be performed within each client.

また、図50に示されるように、生成ステップS430は、判定ステップS435の後に実行されるものとしてもよい。 Also, as shown in FIG. 50, the generation step S430 may be performed after the determination step S435.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 The above configuration provides a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above.

続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。 Next, we will explain the computer program in an embodiment of the present disclosure.

本開示の実施形態におけるコンピュータプログラムは、一又は複数のコンピュータプロセッサに、受付機能と、配信機能と、生成機能と、送信機能とを実現させることを特徴とする。 The computer program in the embodiment of the present disclosure is characterized in that it causes one or more computer processors to realize a reception function, a distribution function, a generation function, and a transmission function.

受付機能は、第一のユーザの第一ユーザ端末100および/または第二のユーザの第二ユーザ端末200から送信される情報を受け付ける。 The reception function accepts information sent from the first user terminal 100 of the first user and/or the second user terminal 200 of the second user.

配信機能は、第一のユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザ端末200に送信することにより、動画を第二ユーザ端末200において視聴可能とする。 The distribution function transmits information about a video including the first user's character object to the second user terminal 200, thereby making the video viewable on the second user terminal 200.

生成機能は、第一のユーザおよび/または第二のユーザに関連付けて記憶されている履歴情報に基づいて、動画とともに第二ユーザ端末200に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する。 The generation function generates object display data, which is data to be displayed in an object display frame displayed on the second user terminal 200 together with the video, based on historical information stored in association with the first user and/or the second user.

送信機能は、受付機能により受け付けられた第二ユーザ端末200からのオブジェクト表示枠の表示要求に応答して、生成機能により生成されたオブジェクト表示データを第二ユーザ端末200に送信する。 The transmission function transmits the object display data generated by the generation function to the second user terminal 200 in response to a display request for an object display frame from the second user terminal 200 accepted by the acceptance function.

上記機能は、図51に示す受付回路1410、配信回路1420、生成回路1430および送信回路1440により実現されることができる。受付回路1410、配信回路1420、生成回路1430および送信回路1440は、それぞれ上述した受付部410、配信部420、生成部430および送信部440により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the reception circuit 1410, distribution circuit 1420, generation circuit 1430, and transmission circuit 1440 shown in FIG. 51. The reception circuit 1410, distribution circuit 1420, generation circuit 1430, and transmission circuit 1440 are realized by the reception unit 410, distribution unit 420, generation unit 430, and transmission unit 440 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 The above configuration provides a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above.

続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第二ユーザ端末200に相当するものである。 Next, an information processing device in an embodiment of the present disclosure will be described. The information processing device corresponds to the second user terminal 200 in the information processing system 3000 described above.

情報処理装置が備える一又は複数のコンピュータプロセッサは、図52に示されるように、受信部210、生成部220および表示部230を備える。 The one or more computer processors included in the information processing device include a receiving unit 210, a generating unit 220, and a display unit 230, as shown in FIG. 52.

受信部210は、第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400から受信する。 The receiving unit 210 receives information about a video including a character object of the first user from the server device 400.

生成部220は、第一のユーザの第一ユーザ端末100および/または情報処理装置に関連付けて記憶されている履歴情報に基づいて、動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する。 The generation unit 220 generates object display data, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with the first user terminal 100 and/or the information processing device of the first user.

生成部220は、上述した生成部430と同様の構成とすることができる。 The generating unit 220 may have a configuration similar to that of the generating unit 430 described above.

表示部230は、オブジェクト表示枠の表示要求に応答して、生成部220により生成されたオブジェクト表示データに基づいて生成されたオブジェクト表示枠を動画とともに表示する。 In response to a request to display the object display frame, the display unit 230 displays the object display frame generated based on the object display data generated by the generation unit 220 together with the video.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 The above configuration provides a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above.

続いて、本開示の実施形態における情報処理方法の一例について説明を行う。かかる情報処理方法は、上述した情報処理装置(第二ユーザ端末200)において実行される情報処理方法である。 Next, an example of an information processing method according to an embodiment of the present disclosure will be described. This information processing method is executed in the information processing device (second user terminal 200) described above.

情報処理方法は、図53に一例として示されるように、一又は複数のコンピュータプロセッサに、受信ステップS210、生成ステップS220、判定ステップS230および表示ステップS240を実行させることを特徴とする。 The information processing method is characterized in that, as shown as an example in FIG. 53, one or more computer processors execute a receiving step S210, a generating step S220, a determining step S230, and a displaying step S240.

受信ステップS210では、第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400から受信する。 In the receiving step S210, information regarding the video including the character object of the first user is received from the server device 400.

かかる受信ステップS210は、上述した受信部210により実行されることができる。 Such receiving step S210 can be executed by the receiving unit 210 described above.

生成ステップS220では、第一のユーザの第一ユーザ端末100および/または情報処理装置に関連付けて記憶されている履歴情報に基づいて、動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する。 In the generation step S220, object display data is generated, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with the first user terminal 100 and/or information processing device of the first user.

かかる生成ステップS220は、上述した生成部220により実行されることができる。 Such generation step S220 can be executed by the generation unit 220 described above.

判定ステップS230では、オブジェクト表示枠の表示要求があったか否かを判定する。 In decision step S230, it is determined whether a request to display the object display frame has been made.

表示ステップS240では、オブジェクト表示枠の表示要求に応答して、生成ステップにおいて生成されたオブジェクト表示データに基づいて生成されたオブジェクト表示枠を動画とともに表示する。 In the display step S240, in response to a request to display the object display frame, the object display frame generated based on the object display data generated in the generation step is displayed together with the video.

かかる表示ステップS240は、上述した表示部240により実行されることができる。 Such display step S240 can be executed by the display unit 240 described above.

また、生成ステップS220は、判定ステップS230の後に実行されるものとしてもよい。 The generation step S220 may also be performed after the determination step S230.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 The above configuration provides a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above.

続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第二ユーザ端末200)において実行されるコンピュータプログラムである。 Next, a computer program according to an embodiment of the present disclosure will be described. Such a computer program is executed in the information processing device (second user terminal 200) described above.

本開示におけるコンピュータプログラムは、情報処理装置が備える一又は複数のプロセッサに、受信機能、生成機能および表示機能を実現させることを特徴とする。 The computer program disclosed herein is characterized in that it causes one or more processors included in an information processing device to realize a receiving function, a generating function, and a display function.

受信機能は、第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400から受信する。 The receiving function receives information about a video including the first user's character object from the server device 400.

生成機能は、第一のユーザの第一ユーザ端末100および/または情報処理装置に関連付けて記憶されている履歴情報に基づいて、動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する。 The generation function generates object display data, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with the first user terminal 100 and/or information processing device of the first user.

表示機能は、オブジェクト表示枠の表示要求に応答して、生成機能により生成されたオブジェクト表示データに基づいて生成されたオブジェクト表示枠を動画とともに表示する。 The display function responds to a request to display an object display frame by displaying the object display frame together with a video, the object display frame being generated based on the object display data generated by the generation function.

上記機能は、図54に示す受信回路1210、生成回路1220および表示回路1230により実現されることができる。受信回路1210、生成回路1220および表示回路1230は、それぞれ上述した受信部210、生成部220および表示部230により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the receiving circuit 1210, the generating circuit 1220, and the display circuit 1230 shown in FIG. 54. The receiving circuit 1210, the generating circuit 1220, and the display circuit 1230 are realized by the receiving unit 210, the generating unit 220, and the display unit 230 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 The above configuration provides a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above.

また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。 In addition, an information processing device such as a computer or a mobile phone can be suitably used to function as the server device or terminal device according to the above-mentioned embodiments. Such an information processing device can be realized by storing a program describing the processing contents for realizing each function of the server device or terminal device according to the embodiments in a memory unit of the information processing device, and reading and executing the program by the CPU of the information processing device.

図55は、本開示に従ってコンピュータベースの動作を実行する処理回路のブロック図である。図55は、処理回路600を示しており、本開示における端末および装置のCPUに相当する。 FIG. 55 is a block diagram of a processing circuit for performing computer-based operations in accordance with the present disclosure. FIG. 55 shows a processing circuit 600, which corresponds to the CPU of the terminals and devices in the present disclosure.

処理回路600は、任意のコンピュータベース及びクラウドベースの制御プロセスを制御するために使用され、フローチャートの記述又はブロックは、プロセス内の特定の論理機能又はステップを実装するための1つ以上の実行可能な命令を含むコードのモジュール、セグメント又は部分を表すものとして理解することができ、代替実装は、機能が実行され得る本進歩の例示的実施形態の範囲内に含まれる。図示または議論されたものからの順序は、当業者によって理解されるように、関与する機能性に応じて実質的に同時または逆の順序で含む。本明細書に開示される要素の機能性は、汎用プロセッサ、特殊用途プロセッサ、集積回路、ASIC(「特定用途向け集積回路」)、開示された機能を実行するように構成またはプログラムされた従来の回路および/またはそれらの組み合わせを含み得る回路または処理回路を使用して実装され得る。プロセッサは、トランジスタおよびその中に他の回路を含むように、回路または回路を処理する。プロセッサは、メモリに格納されたプログラムを実行するプログラムされたプロセッサであってもよい。本開示において、処理回路、ユニット、または手段は、列挙された機能を実行するか、または実行するようにプログラムされているハードウェアである。ハードウェアは、本明細書に開示される任意のハードウェア、または列挙された機能を実行するようにプログラムまたは構成された他の方法で公知の任意のハードウェアであり得る。 The processing circuit 600 can be used to control any computer-based and cloud-based control process, and the flowchart descriptions or blocks can be understood as representing modules, segments, or portions of code that include one or more executable instructions for implementing a particular logical function or step in a process, and alternative implementations are included within the scope of the exemplary embodiments of the present advancement in which the functions may be performed. The order from that shown or discussed includes substantially simultaneous or reverse order depending on the functionality involved, as will be understood by those skilled in the art. The functionality of the elements disclosed herein can be implemented using circuits or processing circuits that may include general purpose processors, special purpose processors, integrated circuits, ASICs ("application specific integrated circuits"), conventional circuits configured or programmed to perform the disclosed functions, and/or combinations thereof. A processor processes circuits or circuits to include transistors and other circuits therein. A processor may be a programmed processor that executes a program stored in a memory. In this disclosure, a processing circuit, unit, or means is hardware that performs or is programmed to perform the recited functions. The hardware can be any hardware disclosed herein or any other known hardware that is programmed or configured to perform the recited functions.

図43において、処理回路600は、本開示で論じた1つ以上の制御プロセスを実行するCPU601を含む。プロセスデータおよび命令は、メモリ602に格納されてもよい。これらのプロセスおよび命令はまた、ハードドライブ(HDD)またはポータブル記憶媒体などの記憶媒体ディスク604に格納されてもよいし、リモートで格納されてもよい。さらに、特許請求される進歩は、本発明のプロセスの命令が格納されるコンピュータ可読媒体の形態によって限定されない。例えば、命令は、CD、DVD、フラッシュメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク、またはサーバまたはコンピュータなどの処理回路600が通信する情報処理装置の任意の他の非一時的なコンピュータ可読媒体に格納され得る。プロセスはまた、処理回路600によってネットワークベースのストレージ、クラウドベースのストレージまたは他のモバイルアクセス可能なストレージおよび実行可能に格納されてもよい。 In FIG. 43, the processing circuit 600 includes a CPU 601 that executes one or more control processes discussed in this disclosure. Process data and instructions may be stored in memory 602. These processes and instructions may also be stored on a storage medium disk 604, such as a hard drive (HDD) or a portable storage medium, or may be stored remotely. Furthermore, the claimed advancement is not limited by the form of the computer-readable medium on which the instructions of the processes of the invention are stored. For example, the instructions may be stored on a CD, DVD, flash memory, RAM, ROM, PROM, EPROM, EEPROM, hard disk, or any other non-transitory computer-readable medium of an information processing device with which the processing circuit 600 communicates, such as a server or computer. The processes may also be stored in network-based storage, cloud-based storage, or other mobile-accessible storage and executable by the processing circuit 600.

さらに、特許請求の範囲の進展は、ユーティリティアプリケーション、バックグラウンドデーモン、またはオペレーティングシステムの構成要素として、またはそれらの組み合わせとして提供されてもよく、CPU601およびオペレーティングシステム、例えばMicrosoft Windows、UNIX、Solaris、LINUX、Apple MAC-OS、Apple iOSおよび当業者に公知の他のシステムと共に実行される。 Furthermore, the claimed developments may be provided as a utility application, a background daemon, or an operating system component, or combinations thereof, and execute in conjunction with the CPU 601 and an operating system, such as Microsoft Windows, UNIX, Solaris, LINUX, Apple MAC-OS, Apple iOS, and other systems known to those skilled in the art.

処理回路600を実現するためのハードウェア要素は、種々の回路要素によって実現され得る。また、上述した実施形態の各機能は、1つ以上の処理回路を含む回路によって実現されてもよい。処理回路は、特にプログラムされたプロセッサ、例えば、図43に示すようにプロセッサ(CPU)601を含む。処理回路には、特定用途向け集積回路(ASIC)や、列挙された機能を実行するように配置された従来の回路部品などのデバイスも含まれます。 The hardware elements for implementing the processing circuit 600 may be implemented by various circuit elements. Also, each function of the above-described embodiments may be implemented by a circuit including one or more processing circuits. The processing circuit includes a specifically programmed processor, for example, processor (CPU) 601 as shown in FIG. 43. The processing circuit also includes devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the enumerated functions.

代替的に、又は付加的に、CPU601は、FPGA、ASIC、PLD上で、又は離散論理回路を用いて、当業者が認識するように実装され得る。また、CPU601は、上述した本発明処理の命令を実行するために並列に協調して動作する複数のプロセッサとして実現されてもよい。 Alternatively or additionally, CPU 601 may be implemented on an FPGA, an ASIC, a PLD, or using discrete logic circuitry, as will be appreciated by those skilled in the art. CPU 601 may also be realized as multiple processors operating in parallel and in coordination to execute the instructions of the inventive process described above.

図43の処理回路600はまた、ネットワーク700とインターフェースするためのイーサネットPROネットワークインターフェースカードなどのネットワークコントローラ606を含む。理解できるように、ネットワーク700は、インターネットなどのパブリックネットワーク、またはローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)などのプライベートネットワーク、またはそれらの任意の組み合わせであることができ、公衆交換電話網(PSTN)またはサービス総合デジタルネットワーク(ISDN)サブネットワークを含むこともできる。ネットワーク700はまた、イーサネットネットワーク、ユニバーサルシリアルバス(USB)ケーブルなどの有線、またはEDGE、3Gおよび4G無線セルラーシステムを含むセルラーネットワークなどのワイヤレスとすることができる。無線ネットワークはまた、Wi-Fi、無線LAN、Bluetooth、または既知の他の任意の無線通信形態とすることができる。さらに、ネットワークコントローラ606は、Bluetooth、近距離無線通信(NFC)、赤外線または他のような他の直接通信規格に準拠してもよい。 The processing circuit 600 of FIG. 43 also includes a network controller 606, such as an Ethernet PRO network interface card, for interfacing with the network 700. As can be appreciated, the network 700 can be a public network, such as the Internet, or a private network, such as a local area network (LAN) or a wide area network (WAN), or any combination thereof, and can include a public switched telephone network (PSTN) or an integrated services digital network (ISDN) sub-network. The network 700 can also be wired, such as an Ethernet network, a universal serial bus (USB) cable, or wireless, such as a cellular network, including EDGE, 3G and 4G wireless cellular systems. The wireless network can also be Wi-Fi, wireless LAN, Bluetooth, or any other form of wireless communication known in the art. Additionally, the network controller 606 may be compliant with other direct communication standards, such as Bluetooth, near field communication (NFC), infrared, or other.

処理回路600は、モニタなどのディスプレイ609とインターフェースするためのグラフィックスカードまたはグラフィックスアダプタなどのディスプレイコントローラ608をさらに含む。I/Oインターフェース612は、キーボードおよび/またはマウス614、ならびにディスプレイ609上またはディスプレイ609から分離されたタッチスクリーンパネル616とインターフェースする。I/Oインターフェース612はまた、様々な周辺機器618に接続する。 The processing circuit 600 further includes a display controller 608, such as a graphics card or graphics adapter, for interfacing with a display 609, such as a monitor. The I/O interface 612 interfaces with a keyboard and/or mouse 614, as well as a touch screen panel 616 on or separate from the display 609. The I/O interface 612 also connects to various peripheral devices 618.

ストレージコントローラ624は、記憶媒体ディスク604を、ISA、EISA、VESA、PCI、または同様のものであり得る通信バス626と接続し、処理回路600のすべての構成要素を相互接続する。ディスプレイ609、キーボードおよび/またはマウス614、ならびにディスプレイコントローラ608、ストレージコントローラ624、ネットワークコントローラ606、およびI/Oインターフェース612の一般的な特徴および機能性の説明は、これらの特徴が公知であるため、簡潔にするために本明細書では省略する。 The storage controller 624 connects the storage media disks 604 to a communication bus 626, which may be ISA, EISA, VESA, PCI, or the like, and interconnects all components of the processing circuit 600. A description of the display 609, keyboard and/or mouse 614, as well as the general features and functionality of the display controller 608, storage controller 624, network controller 606, and I/O interface 612 is omitted herein for the sake of brevity, as these features are well known.

本開示の文脈において説明される例示的な回路要素は、他の要素と置き換えられてもよく、本明細書に提供される実施例とは異なる構造であってもよい。さらに、本明細書に記載される機能を実行するように構成された回路は、複数の回路ユニット(例えば、チップ)で実装されてもよいし、または、特徴が単一のチップセット上の回路において組み合わされてもよい。 The exemplary circuit elements described in the context of this disclosure may be substituted with other elements and may be of different structure than the examples provided herein. Furthermore, circuits configured to perform the functions described herein may be implemented in multiple circuit units (e.g., chips) or features may be combined in circuits on a single chipset.

本明細書に記載される機能及び特徴はまた、システムの様々な分散コンポーネントによって実行され得る。例えば、1つ以上のプロセッサは、これらのシステム機能を実行することができ、ここで、プロセッサは、ネットワーク内で通信する複数の構成要素に分散される。分散コンポーネントは、様々なヒューマンインターフェースおよび通信デバイス(例えば、ディスプレイモニタ、スマートフォン、タブレット、携帯情報端末(PDA))に加えて、処理を共有し得る1つ以上のクライアントおよびサーバマシンを含むことができる。ネットワークは、LANやWANなどのプライベートネットワークであってもよいし、インターネットなどのパブリックネットワークであってもよい。システムへの入力は、直接ユーザ入力を介して受信され、リアルタイムまたはバッチプロセスとしてリモートで受信され得る。さらに、いくつかの実装は、説明されたものと同一ではないモジュールまたはハードウェア上で実行されてもよい。したがって、他の実装は、請求され得る範囲内にある。 The functions and features described herein may also be performed by various distributed components of the system. For example, one or more processors may perform these system functions, where the processors are distributed across multiple components that communicate within a network. The distributed components may include one or more client and server machines that may share processing, as well as various human interface and communication devices (e.g., display monitors, smartphones, tablets, personal digital assistants (PDAs)). The network may be a private network, such as a LAN or WAN, or a public network, such as the Internet. Input to the system may be received via direct user input, remotely in real time or as a batch process. Additionally, some implementations may be performed on modules or hardware that are not identical to those described. Thus, other implementations are within the scope that may be claimed.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。 The method described in the embodiment can be stored as a program that can be executed by a calculator (computer) on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, MO, etc.), semiconductor memory (ROM, RAM, flash memory, etc.), and can also be distributed by transmitting it via a communication medium. The program stored on the medium also includes a setting program that configures the software means (including not only execution programs but also tables and data structures) that the computer executes. The computer that realizes this device reads the program recorded on the recording medium, and in some cases, configures the software means using the setting program, and executes the above-mentioned processing by controlling the operation of this software means. Note that the recording medium referred to in this specification is not limited to a storage medium for distribution, but also includes storage media such as a magnetic disk or semiconductor memory provided inside the computer or in a device connected via a network. The storage unit may function as, for example, a main storage device, an auxiliary storage device, or a cache memory.

100 第一ユーザ端末
200 第二ユーザ端末
300 ネットワーク
400 サーバ装置
410 受付部
420 配信部
430 生成部
440 送信部

100 First user terminal 200 Second user terminal 300 Network 400 Server device 410 Reception unit 420 Distribution unit 430 Generation unit 440 Transmission unit

Claims (26)

一又は複数のコンピュータプロセッサを備える情報処理システムであって、
前記一又は複数のコンピュータプロセッサは、
第一のユーザの第一ユーザ端末および/または第二のユーザの第二ユーザ端末から送信される情報を受け付ける受付部と、
前記第一のユーザのキャラクタオブジェクトを含む動画に関する情報を前記第二ユーザ端末に送信することにより、前記動画を前記第二ユーザ端末において視聴可能とする配信部と、
前記第一のユーザおよび/または前記第二のユーザに関連付けて記憶されている履歴情報に基づいて、前記動画とともに前記第二ユーザ端末に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成部と、
前記受付部が受け付けた前記第二ユーザ端末からの前記オブジェクト表示枠の表示要求に応答して、前記生成部により生成された前記オブジェクト表示データを前記第二ユーザ端末に送信する送信部と
を備える情報処理システム。
An information processing system including one or more computer processors,
the one or more computer processors:
a reception unit that receives information transmitted from a first user terminal of a first user and/or a second user terminal of a second user;
a distribution unit that transmits information about a video including a character object of the first user to the second user terminal, thereby making the video viewable on the second user terminal;
a generation unit that generates object display data, which is data to be displayed in an object display frame that is displayed on the second user terminal together with the video, based on history information stored in association with the first user and/or the second user;
An information processing system comprising: a transmission unit that transmits the object display data generated by the generation unit to the second user terminal in response to a display request for the object display frame from the second user terminal accepted by the acceptance unit.
前記第一のユーザに関連付けて記憶されている履歴情報は、前記第一のユーザと所定のイベントとが関連付けられた履歴に関する情報を含むことを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the history information stored in association with the first user includes information regarding a history in which the first user is associated with a specific event. 前記第一のユーザに関連付けて記憶されている履歴情報は、前記第二ユーザ端末から送信された、前記第一のユーザに関連付けられた動画への所定のオブジェクトの表示要求に関する情報を含むことを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the history information stored in association with the first user includes information regarding a request sent from the second user terminal to display a specific object in a video associated with the first user. 前記第二のユーザに関連付けて記憶されている履歴情報は、前記第二ユーザ端末から送信された、前記第一のユーザに関連付けられた動画への所定のオブジェクトの表示要求に関する情報を含むことを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the history information stored in association with the second user includes information regarding a request sent from the second user terminal to display a specific object in a video associated with the first user. 前記第二のユーザに関連付けて記憶されている履歴情報は、前記第二ユーザ端末から送信された、前記第一のユーザに関連付けられた動画を含む任意の動画への所定のオブジェクトの表示要求に関する情報を含むことを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the history information stored in association with the second user includes information regarding a request sent from the second user terminal to display a specific object in any video, including a video associated with the first user. 前記生成部は、前記履歴情報に基づいて、前記オブジェクト表示枠に表示されるオブジェクトの中から特定の表示制御の対象となる対象オブジェクトを特定し、当該対象オブジェクトを前記オブジェクト表示枠の中で第一の位置に表示する、または、前記対象オブジェクトを前記オブジェクト表示枠の中で他のオブジェクトと異なる態様で表示するオブジェクト表示データを生成することを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the generation unit generates object display data that identifies a target object that is the subject of specific display control from among the objects displayed in the object display frame based on the history information, and displays the target object in a first position in the object display frame, or displays the target object in a manner different from other objects in the object display frame. 前記生成部は、前記履歴情報に基づいて、前記第二ユーザ端末から表示要求が送信された直近所定個数の異なる所定のオブジェクトを前記対象オブジェクトとして特定することを特徴とする請求項6に記載の情報処理システム。 The information processing system according to claim 6, characterized in that the generation unit identifies, as the target object, a certain number of predetermined objects in the immediate vicinity of the second user terminal for which a display request has been sent based on the history information. 前記生成部は、前記履歴情報に基づいて、前記所定のオブジェクトに対する表示要求が一時に送信された回数を前記対象オブジェクトに関連付けたオブジェクト表示データを生成することを特徴とする請求項7に記載の情報処理システム。 The information processing system according to claim 7, characterized in that the generation unit generates object display data in which the number of times display requests for the specified object were sent at one time is associated with the target object based on the history information. 前記受付部は、さらに、前記第一ユーザ端末および/または前記第二ユーザ端末から送信される、オブジェクトおよび/またはオブジェクトの属性の指定情報を受け付け、
前記生成部は、前記指定情報に基づいて指定オブジェクトを特定し、当該指定オブジェクトを前記オブジェクト表示枠の中の第二の位置に表示する、または、前記指定オブジェクトを前記オブジェクト表示枠の中で他のオブジェクトと異なる態様で表示するオブジェクト表示データを生成することを特徴とする請求項1に記載の情報処理システム。
The reception unit further receives designation information of an object and/or an attribute of the object transmitted from the first user terminal and/or the second user terminal;
The information processing system according to claim 1, characterized in that the generation unit identifies a designated object based on the designation information, and generates object display data that displays the designated object at a second position in the object display frame, or that displays the designated object in a manner different from other objects in the object display frame.
前記一又は複数のコンピュータプロセッサは、さらに、
前記第一のユーザに所定のイベントが関連付けられているかを判定する判定部を備え、
前記判定部により前記第一のユーザに所定のイベントが関連付けられていると判定された場合、前記生成部は、前記所定のイベントに関して前記第一のユーザに関連付けられたパラメータ値が、所定の値に達するのに必要な必要値に関する表示情報を生成し、
前記送信部は、前記表示情報を前記第二ユーザ端末に送信することを特徴とする請求項1に記載の情報処理システム。
The one or more computer processors further include:
a determination unit that determines whether a predetermined event is associated with the first user;
When the determination unit determines that a predetermined event is associated with the first user, the generation unit generates display information regarding a required value that is necessary for a parameter value associated with the first user for the predetermined event to reach a predetermined value;
The information processing system according to claim 1 , wherein the transmission unit transmits the display information to the second user terminal.
前記所定の値は、前記所定のイベントにおいて予め定められた値であることを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the predetermined value is a value that is predetermined for the predetermined event. 前記所定の値は、前記所定のイベントと関連付けられた他のユーザに関連付けられたパラメータ値に応じて変動する値であることを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the predetermined value is a value that varies depending on parameter values associated with other users associated with the predetermined event. 前記生成部は、前記表示情報を、前記必要値の変化に応じてリアルタイムで更新することを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the generation unit updates the display information in real time in response to changes in the required value. 前記パラメータ値は、前記第二ユーザ端末から送信された前記動画へのオブジェクトの表示要求の数および/または価値に基づいて増加する値であることを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the parameter value is a value that increases based on the number and/or value of requests to display an object in the video sent from the second user terminal. 前記生成部は、前記必要値を前記表示情報とすることを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the generation unit sets the required value as the display information. 前記生成部は、前記必要値を0とするための必要オブジェクトの種類を決定し、前記必要値を0とするために必要な前記必要オブジェクトの個数を計算し、前記必要オブジェクトの種類および個数を前記表示情報とすることを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the generation unit determines the type of necessary objects to make the necessary value 0, calculates the number of necessary objects required to make the necessary value 0, and sets the type and number of necessary objects as the display information. 前記生成部は、前記必要値を0とするための必要オブジェクトの種類を、前記履歴情報に基づいて決定することを特徴とする請求項16に記載の情報処理システム。 The information processing system according to claim 16, characterized in that the generation unit determines the type of required object for making the required value 0 based on the history information. 前記生成部は、前記必要値を0とするための必要オブジェクトの種類を、前記第二ユーザ端末の数に基づいて決定することを特徴とする請求項16に記載の情報処理システム。 The information processing system according to claim 16, characterized in that the generation unit determines the type of object required to set the required value to 0 based on the number of the second user terminals. 前記生成部は、さらに、前記個数の前記必要オブジェクトの表示要求を一括で送信可能な一括オブジェクトを前記第二ユーザ端末に表示するための情報を生成することを特徴とする請求項16に記載の情報処理システム。 The information processing system according to claim 16, characterized in that the generating unit further generates information for displaying a batch object on the second user terminal that can transmit a display request for the number of required objects at once. 前記受付部は、前記第二ユーザ端末からの前記必要オブジェクトの仮の表示要求を受け付け、当該仮の表示要求の数が前記個数に達した場合に、前記個数の前記必要オブジェクトの表示要求を一括で受け付けたものとみなすことを特徴とする請求項16に記載の情報処理システム。 The information processing system according to claim 16, characterized in that the reception unit receives a provisional display request for the necessary objects from the second user terminal, and when the number of the provisional display requests reaches the number, it regards the display requests for the number of the necessary objects as having been received all at once. 前記第一の位置は、前記オブジェクト表示枠の上段位置または前記オブジェクト表示枠における特定のタブ内の位置であることを特徴とする請求項6に記載の情報処理システム。 The information processing system according to claim 6, characterized in that the first position is a top position of the object display frame or a position within a specific tab in the object display frame. 前記生成部は、前記必要値を0とするために必要なポイントの必要数を計算し、当該必要数を前記表示情報とすることを特徴とする請求項10に記載の情報処理システム。 The information processing system according to claim 10, characterized in that the generation unit calculates the number of points required to make the required value 0, and sets the required number as the display information. 前記一又は複数のコンピュータプロセッサは、さらに、
前記第二のユーザに関連付けられたポイントの数が前記必要数に足りているかを判定する判定部を備え、
前記判定部により前記ポイントの数が前記必要数に足りていないと判定された場合に、前記送信部は、当該ポイントを増加させる処理を行う画面への導線となるオブジェクトを表示させるための情報を前記第二ユーザ端末に送信することを特徴とする請求項22に記載の情報処理システム。
The one or more computer processors further include:
a determination unit that determines whether the number of points associated with the second user is sufficient to meet the required number;
The information processing system described in claim 22, characterized in that when the judgment unit determines that the number of points is insufficient to the required number, the transmission unit transmits information to the second user terminal for displaying an object that serves as a guide to a screen that performs a process to increase the points.
一又は複数のコンピュータプロセッサに、
第一のユーザの第一ユーザ端末および/または第二のユーザの第二ユーザ端末から送信される情報を受け付ける受付ステップと、
前記第一のユーザのキャラクタオブジェクトを含む動画に関する情報を前記第二ユーザ端末に送信することにより、前記動画を前記第二ユーザ端末において視聴可能とする配信ステップと、
前記第一のユーザおよび/または前記第二のユーザに関連付けて記憶されている履歴情報に基づいて、前記動画とともに前記第二ユーザ端末に表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成ステップと、
前記第二ユーザ端末からの前記オブジェクト表示枠の表示要求があったか否かを判定する判定ステップと、
前記第二ユーザ端末からの前記オブジェクト表示枠の表示要求に応答して、前記生成ステップにおいて生成された前記オブジェクト表示データを前記第二ユーザ端末に送信する送信ステップと
を実行させる情報処理方法。
one or more computer processors,
A receiving step of receiving information transmitted from a first user terminal of a first user and/or a second user terminal of a second user;
a distribution step of transmitting information about a moving image including a character object of the first user to the second user terminal, thereby making the moving image viewable on the second user terminal;
a generating step of generating object display data, which is data to be displayed in an object display frame displayed on the second user terminal together with the video, based on history information stored in association with the first user and/or the second user;
a determination step of determining whether or not a display request for the object display frame has been made from the second user terminal;
and a transmission step of transmitting the object display data generated in the generation step to the second user terminal in response to a display request of the object display frame from the second user terminal.
一又は複数のコンピュータプロセッサを備える情報処理装置における情報処理方法であって、
前記一又は複数のコンピュータプロセッサに、
第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信ステップと、
前記第一のユーザの第一ユーザ端末および/または前記情報処理装置に関連付けて記憶されている履歴情報に基づいて、前記動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成ステップと、
前記オブジェクト表示枠の表示要求があったか否かを判定する判定ステップと、
前記オブジェクト表示枠の表示要求に応答して、前記生成ステップにおいて生成された前記オブジェクト表示データに基づいて生成されたオブジェクト表示枠を前記動画とともに表示する表示ステップと
を実行させる情報処理方法。
An information processing method in an information processing device having one or more computer processors,
the one or more computer processors;
a receiving step of receiving information about a moving image including a character object of a first user from a server device;
a generating step of generating object display data, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with a first user terminal of the first user and/or the information processing device;
a determination step of determining whether or not a display request for the object display frame has been made;
and a display step of displaying, in response to a display request for the object display frame, the object display frame generated based on the object display data generated in the generating step, together with the moving image.
一又は複数のコンピュータプロセッサを備える情報処理装置で実行されるコンピュータプログラムであって、
前記一又は複数のコンピュータプロセッサに、
第一のユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信機能と、
前記第一のユーザの第一ユーザ端末および/または前記情報処理装置に関連付けて記憶されている履歴情報に基づいて、前記動画とともに表示されるオブジェクト表示枠に表示するデータであるオブジェクト表示データを生成する生成機能と、
前記オブジェクト表示枠の表示要求に応答して、前記生成機能により生成された前記オブジェクト表示データに基づいて生成されたオブジェクト表示枠を前記動画とともに表示する表示機能と
を実現させるコンピュータプログラム。

A computer program executed on an information processing device having one or more computer processors,
the one or more computer processors;
a receiving function for receiving information relating to a moving image including a character object of the first user from the server device;
a generation function of generating object display data, which is data to be displayed in an object display frame displayed together with the video, based on history information stored in association with a first user terminal of the first user and/or the information processing device;
a display function that displays, in response to a display request for the object display frame, the object display frame generated based on the object display data generated by the generation function together with the video.

JP2022179861A 2022-11-09 2022-11-09 Information processing system, information processing method and computer program Active JP7421738B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022179861A JP7421738B1 (en) 2022-11-09 2022-11-09 Information processing system, information processing method and computer program
US18/387,676 US20240152311A1 (en) 2022-11-09 2023-11-07 Information processing system, information processing method, and computer program
JP2023220575A JP2024069180A (en) 2022-11-09 2023-12-27 Information processing system, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022179861A JP7421738B1 (en) 2022-11-09 2022-11-09 Information processing system, information processing method and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023220575A Division JP2024069180A (en) 2022-11-09 2023-12-27 Information processing system, information processing method, and computer program

Publications (2)

Publication Number Publication Date
JP7421738B1 JP7421738B1 (en) 2024-01-25
JP2024069071A true JP2024069071A (en) 2024-05-21

Family

ID=89616050

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022179861A Active JP7421738B1 (en) 2022-11-09 2022-11-09 Information processing system, information processing method and computer program
JP2023220575A Pending JP2024069180A (en) 2022-11-09 2023-12-27 Information processing system, information processing method, and computer program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023220575A Pending JP2024069180A (en) 2022-11-09 2023-12-27 Information processing system, information processing method, and computer program

Country Status (2)

Country Link
US (1) US20240152311A1 (en)
JP (2) JP7421738B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184689A (en) 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP7086253B2 (en) 2020-02-26 2022-06-17 グリー株式会社 Information processing systems, information processing methods and computer programs

Also Published As

Publication number Publication date
JP2024069180A (en) 2024-05-21
JP7421738B1 (en) 2024-01-25
US20240152311A1 (en) 2024-05-09

Similar Documents

Publication Publication Date Title
JP6941245B1 (en) Information processing system, information processing method and computer program
US11989811B2 (en) Information processing system, information processing method, and computer program
JP7421738B1 (en) Information processing system, information processing method and computer program
JP7376030B1 (en) Information processing system, information processing method and computer program
JP7470312B2 (en) Information processing system, information processing method, and computer program
JP7317325B1 (en) Information processing system, information processing method and computer program
JP2024087887A (en) Information processing system, information processing method, and computer program
JP7441448B1 (en) Information processing system, information processing method and computer program
JP2024088629A (en) Information processing system, information processing method, and computer program
JP7470337B2 (en) Information processing system, information processing method, and computer program
JP7301263B1 (en) Information processing system, information processing method and computer program
JP7455297B2 (en) Information processing system, information processing method and computer program
JP7455300B2 (en) Information processing system, information processing method and computer program
JP7229400B1 (en) Information processing system, information processing method and computer program
JP7090199B1 (en) Information processing systems, information processing methods and computer programs
JP7253026B1 (en) Information processing system, information processing method and computer program
US11704854B2 (en) Information processing system, information processing method, and computer program
JP7340207B2 (en) Information processing system, information processing method and computer program
JP2024050776A (en) Information processing system, information processing method, and computer program
JP2023067679A (en) Information processing system, information processing method, and computer program
JP2023066519A (en) Information processing system, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221109

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7421738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150