JP7470337B2 - Information processing system, information processing method, and computer program - Google Patents

Information processing system, information processing method, and computer program Download PDF

Info

Publication number
JP7470337B2
JP7470337B2 JP2023048877A JP2023048877A JP7470337B2 JP 7470337 B2 JP7470337 B2 JP 7470337B2 JP 2023048877 A JP2023048877 A JP 2023048877A JP 2023048877 A JP2023048877 A JP 2023048877A JP 7470337 B2 JP7470337 B2 JP 7470337B2
Authority
JP
Japan
Prior art keywords
user
video
displayed
character
character object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023048877A
Other languages
Japanese (ja)
Other versions
JP2023098892A (en
Inventor
椋 矢部
修平 麻田
賢 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023048877A priority Critical patent/JP7470337B2/en
Publication of JP2023098892A publication Critical patent/JP2023098892A/en
Application granted granted Critical
Publication of JP7470337B2 publication Critical patent/JP7470337B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

特許法第30条第2項適用 [ウェブサイトの掲載日]2021年8月6日 [ウェブサイトのアドレス]https://twitter.com/REALITY_app/status/1423604281257586697?s=20 [公開者]REALITY株式会社 [公開された発明の内容 本件出願に係る発明に関連するワールド機能に関する動画を公開した。Article 30, paragraph 2 of the Patent Act applies [Website posting date] August 6, 2021 [Website address] https://twitter.com/REALITY_app/status/1423604281257586697?s=20 [Publisher] REALITY Co., Ltd. [Disclosed content of the invention] A video about the world function related to the invention of this application has been published.

特許法第30条第2項適用 [ウェブサイトの掲載日]2021年8月6日 [ウェブサイトのアドレス]https://reality.app/notice/page/n6ffzPPDnaww [公開者]REALITY株式会社 [公開された発明の内容]本件出願に係る発明に関連するワールド機能に関する説明及び動画を公開した。Article 30, Paragraph 2 of the Patent Act applies [Website posting date] August 6, 2021 [Website address] https://reality.app/notice/page/n6ffzPPDnow [Publisher] REALITY Co., Ltd. [Disclosed content of the invention] An explanation and video regarding the world function related to the invention of this application have been published.

特許法第30条第2項適用 [ウェブサイトの掲載日]2021年8月6日~2021年8月16日 [ウェブサイトのアドレス]https://reality.app/ https://itunes.apple.com/us/app/reality/idl404176564?l=ja&ls=1&mt=8 https://play.google.com/store/apps/details?id=net.wrightflyer.le.reality [公開者]REALITY株式会社 [公開された発明の内容]バーチャルライブ試聴・配信アプリ「REALITY」において、本件出願に係る発明に関連するワールド機能を公開した。Article 30, paragraph 2 of the Patent Act applies [Website posting date] August 6, 2021 to August 16, 2021 [Website address] https://reality.app/ https://itunes.apple.com/us/app/reality/idl404176564?l=ja&ls=1&mt=8 https://play.google.com/store/apps/details?id=net.wrightflyer.le.reality [Publisher] REALITY Co., Ltd. [Disclosed content of the invention] A world function related to the invention of this application has been disclosed in the virtual live listening and distribution app "REALITY".

本発明は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a computer program.

アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムが知られている(例えば、特許文献1参照)。 There is known an information processing system that generates animation of a character object based on the movement of an actor and distributes a video including the animation of the character object (see, for example, Patent Document 1).

特開2015-184689号公報JP 2015-184689 A

本技術分野において、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を如何にして向上させるかは重要な課題である。 In this technical field, an important issue is how to increase distribution users' willingness to distribute, viewing users' willingness to watch, and/or users' willingness to interact with each other.

そのため、本開示の目的は、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。 Therefore, an object of the present disclosure is to provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. One of the more specific objects of the present disclosure is to provide an information processing system, an information processing method, and a computer program that can increase distribution users' motivation to distribute, viewing users' motivation to watch, and/or users' motivation to interact with each other.

本開示における情報処理システムは、一又は複数のコンピュータプロセッサが、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末に送信する送信部と、第二ユーザ端末から、第一のオブジェクトの表示要求を受け付ける受付部と、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成部と、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成部とを備え、第二の動画生成部は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする。 The information processing system of the present disclosure includes one or more computer processors, which include a transmission unit that transmits information about a video including a character object of a first user to a second user terminal of a second user, a reception unit that receives a display request for a first object from the second user terminal, a first video generation unit that generates first information for displaying the character object of the first user and the first object in a first area in a virtual space as a first video, and a second video generation unit that generates second information for displaying a second object different from the first object in a second area in the virtual space as a second video and displaying the character object of the first user movably in the first area and the second area, and the second video generation unit displays the first object at a predetermined position in the first area or at a position associated with the character object of the first user based on placement position information associated with the first object.

第二の動画生成部は、第一のオブジェクトを表示する際に、第二の動画に第一のオブジェクトが表示されている旨のシステムコメントを表示させることができる。 When displaying the first object, the second video generation unit can display a system comment indicating that the first object is being displayed in the second video.

一又は複数のコンピュータプロセッサは、さらに、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける移動操作受付部と、仮想空間内を撮影する仮想カメラの動作を制御する仮想カメラ制御部とを備えることができる。 The one or more computer processors may further include a movement operation receiving unit that receives a movement operation of the first user's character object in the virtual space, and a virtual camera control unit that controls the operation of a virtual camera that captures images in the virtual space.

仮想カメラ制御部は、第一のオブジェクトが第一の領域の所定位置に表示される際に、所定位置と仮想カメラとの位置関係に応じて、仮想カメラの動作を制御することができる。 When the first object is displayed at a predetermined position in the first area, the virtual camera control unit can control the operation of the virtual camera according to the positional relationship between the predetermined position and the virtual camera.

仮想カメラ制御部は、所定位置と仮想カメラとの位置関係から、第一のオブジェクトとキャラクタオブジェクトとを同画面に含めることができない場合、第一のオブジェクトを画面に含めるよう仮想カメラの動作を制御することができる。 When the first object and the character object cannot be included on the same screen due to the positional relationship between the specified position and the virtual camera, the virtual camera control unit can control the operation of the virtual camera to include the first object on the screen.

第二の動画生成部は、第一のオブジェクトを第一の領域の所定位置に表示する際に、キャラクタオブジェクトの仮想空間内の位置に応じて、仮想空間内に第一のオブジェクトの位置を示す目印オブジェクトを表示することができる。 When displaying the first object at a predetermined position in the first area, the second video generation unit can display a marker object indicating the position of the first object in the virtual space according to the position of the character object in the virtual space.

第二の動画生成部は、第一のオブジェクトに関連付けられた配置位置情報が当該第一のオブジェクトを第一の領域の所定位置に表示させるべきものであっても、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることができる。 The second video generation unit can display the first object at a position associated with the first user's character object, even if the placement position information associated with the first object indicates that the first object should be displayed at a specified position in the first area.

第一ユーザのキャラクタオブジェクトの顔部の動きは、第一ユーザ端末のインカメラによって撮影された第一ユーザの顔部の動きに基づいて生成され、第一の動画生成部は、第一ユーザのキャラクタオブジェクトの顔部の動きを、第一ユーザの顔部の動きと反転した反転状態で生成し、第二の動画生成部は、第一ユーザのキャラクタオブジェクトと仮想カメラとの位置関係に応じて、第一ユーザのキャラクタオブジェクトの顔部の動きを、反転状態または非反転状態で生成することができる。 The facial movement of the first user's character object is generated based on the facial movement of the first user captured by the front camera of the first user terminal, the first video generation unit generates the facial movement of the first user's character object in an inverted state that is the inverse of the facial movement of the first user, and the second video generation unit can generate the facial movement of the first user's character object in an inverted or non-inverted state depending on the positional relationship between the first user's character object and the virtual camera.

第二の動画生成部は、第一ユーザのキャラクタオブジェクトが移動可能な領域を超えて移動した場合、仮想空間内の他の位置から再出現させることができる。 The second video generation unit can make the character object of the first user reappear from another position in the virtual space if the character object moves beyond the movable area.

本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末に送信する送信ステップと、第二ユーザ端末から、第一のオブジェクトの表示要求を受け付ける受付ステップと、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成ステップと、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成ステップとを実行させ、第二の動画生成ステップでは、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする。
The information processing method of the present disclosure includes:
The method includes a transmitting step of transmitting information regarding a video including a character object of a first user to a second user terminal of a second user; a receiving step of receiving a display request for a first object from the second user terminal; a first video generation step of generating first information for displaying the character object of the first user and the first object in a first area in a virtual space as a first video; and a second video generation step of displaying a second object different from the first object in a second area in the virtual space as a second video and generating second information for displaying the character object of the first user movably in the first area and the second area, and in the second video generation step, the first object is displayed at a predetermined position in the first area or at a position associated with the character object of the first user based on placement position information associated with the first object.

本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する送信ステップと、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成ステップと、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成ステップとを実行させ、第二の動画生成ステップは、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする。 The information processing method of the present disclosure includes causing one or more computer processors to execute a transmission step of transmitting information about a video including a character object of a first user to a server device, a first video generation step of generating first information for displaying, as a first video, the character object of the first user and a first object requested to be displayed from a second user terminal in a first area in a virtual space, and a second video generation step of displaying, as a second video, a second object different from the first object in a second area in the virtual space and generating second information for displaying the character object of the first user movably in the first area and the second area, and the second video generation step is characterized in that the first object is displayed at a predetermined position in the first area or at a position associated with the character object of the first user based on placement position information associated with the first object.

本開示におけるコンピュータプログラムは、一又は複数のコンピュータプロセッサに、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する送信機能と、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成機能と、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成機能とを実現させ、第二の動画生成機能は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする。 The computer program of the present disclosure provides one or more computer processors with a transmission function for transmitting information about a video including a character object of a first user to a server device, a first video generation function for generating first information for displaying, as a first video, the character object of the first user and a first object requested to be displayed from a second user terminal in a first area in a virtual space, and a second video generation function for displaying, as a second video, a second object different from the first object in a second area in the virtual space and generating second information for displaying the character object of the first user movably in the first area and the second area, and the second video generation function is characterized in that the first object is displayed at a predetermined position in the first area or at a position associated with the character object of the first user based on placement position information associated with the first object.

本開示における情報処理方法は、一又は複数のコンピュータプロセッサに、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信ステップと、第一のオブジェクトの表示要求をサーバ装置に送信する送信ステップと、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示する表示ステップとを実行させ、表示ステップでは、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを仮想空間内の第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする。 The information processing method of the present disclosure includes causing one or more computer processors to execute a receiving step of receiving information about a video including a character object of a first user from a server device, a transmitting step of transmitting a display request for the first object to the server device, and a display step of displaying the character object of the first user and the first object requested to be displayed from the second user terminal in a first area in a virtual space as the first video, displaying a second object different from the first object in a second area in the virtual space as the second video, and displaying the character object of the first user movably in the first area and the second area, and the display step is characterized in that the first object is displayed at a predetermined position in the first area in the virtual space or at a position associated with the character object of the first user based on placement position information associated with the first object.

本開示におけるコンピュータプログラムは、一又は複数のコンピュータプロセッサに、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信機能と、第一のオブジェクトの表示要求をサーバ装置に送信する送信機能と、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示する表示機能とを実現させ、表示機能は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを仮想空間内の第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする。 The computer program of the present disclosure provides one or more computer processors with a receiving function for receiving information about a video including a character object of a first user from a server device, a transmitting function for transmitting a display request for the first object to the server device, and a display function for displaying, as a first video, the character object of the first user and a first object requested to be displayed from a second user terminal in a first area in a virtual space, and, as a second video, a second object different from the first object in a second area in a virtual space, and displaying the character object of the first user movably in the first area and the second area, and the display function is characterized in that, based on placement position information associated with the first object, the first object is displayed at a predetermined position in the first area in the virtual space or at a position associated with the character object of the first user.

本開示によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本開示によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 According to the present disclosure, it is possible to provide technical improvements that solve or alleviate at least some of the problems of the conventional technology described above. Specifically, according to the present disclosure, it is possible to improve the willingness of broadcasting users to broadcast, the willingness of viewing users to view, and/or the willingness of users to interact with each other.

本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示におけるサーバ装置、第一ユーザ端末および第二ユーザ端末のハードウェア構成の一例を示す構成図である。FIG. 2 is a configuration diagram showing an example of a hardware configuration of a server device, a first user terminal, and a second user terminal in the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における第一の実施形態におけるサーバ装置の機能構成の一例を示す構成図である。FIG. 2 is a configuration diagram illustrating an example of a functional configuration of a server device according to the first embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space in the present disclosure. 本開示における仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space in the present disclosure. 本開示における仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space in the present disclosure. 本開示における仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space in the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space in the present disclosure. 本開示における第一の実施形態におけるサーバ装置の機能構成の他の例を示す構成図である。FIG. 11 is a configuration diagram showing another example of the functional configuration of the server device according to the first embodiment of the present disclosure. 本開示における第二の実施形態におけるサーバ装置の機能構成の一例を示す構成図である。FIG. 11 is a configuration diagram illustrating an example of a functional configuration of a server device according to a second embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における第二の実施形態におけるサーバ装置の機能構成の他の例を示す構成図である。FIG. 11 is a configuration diagram showing another example of the functional configuration of the server device according to the second embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における第三の実施形態におけるサーバ装置の機能構成の一例を示す構成図である。FIG. 13 is a configuration diagram illustrating an example of a functional configuration of a server device according to a third embodiment of the present disclosure. 本開示における仮想空間のイメージを示した概念図である。FIG. 1 is a conceptual diagram showing an image of a virtual space in the present disclosure. 本開示における第三のオブジェクトおよび第四のオブジェクトのイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a third object and a fourth object in the present disclosure. 本開示におけるローディング画像のイメージを示した概念図である。FIG. 2 is a conceptual diagram showing an image of a loading image in the present disclosure. 本開示における第三の実施形態におけるサーバ装置の機能構成の他の例を示す構成図である。FIG. 13 is a configuration diagram showing another example of the functional configuration of the server device according to the third embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における処理フローの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of a processing flow in the present disclosure. 本開示における処理フローの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of a processing flow in the present disclosure. 本開示における第五のオブジェクトのイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of a fifth object in the present disclosure. 本開示における第四の実施形態における第一ユーザ端末の機能構成の一例を示す構成図である。FIG. 13 is a configuration diagram showing an example of a functional configuration of a first user terminal in a fourth embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における第五の実施形態における第一ユーザ端末の機能構成の一例を示す構成図である。FIG. 13 is a configuration diagram showing an example of a functional configuration of a first user terminal in a fifth embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における第五の実施形態における第一ユーザ端末の機能構成の他の例を示す構成図である。FIG. 13 is a configuration diagram showing another example of the functional configuration of the first user terminal in the fifth embodiment of the present disclosure. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. ユーザ端末に表示される画面のイメージを示した概念図である。FIG. 11 is a conceptual diagram showing an image of a screen displayed on a user terminal. 本開示における情報処理方法のフローの一例を示すフロー図である。FIG. 1 is a flow diagram showing an example of the flow of an information processing method according to the present disclosure. 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。FIG. 2 is a circuit configuration diagram showing an example of a circuit configuration for realizing a computer program according to the present disclosure. 本開示における第一ユーザ端末の機能構成の一例を示す構成図である。FIG. 2 is a configuration diagram showing an example of a functional configuration of a first user terminal in the present disclosure. 本開示における第一ユーザ端末における情報処理方法のフローの一例を示すフロー図である。11 is a flow diagram showing an example of the flow of an information processing method in a first user terminal in the present disclosure. 本開示における第一ユーザ端末で実行されるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。FIG. 2 is a circuit diagram showing an example of a circuit configuration for realizing a computer program executed in a first user terminal in the present disclosure. 本開示における第二ユーザ端末の機能構成の一例を示す構成図である。FIG. 2 is a configuration diagram showing an example of a functional configuration of a second user terminal in the present disclosure. 本開示における第二ユーザ端末における情報処理方法のフローの一例を示すフロー図である。11 is a flow diagram showing an example of the flow of an information processing method in a second user terminal in the present disclosure. 本開示における第二ユーザ端末で実行されるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。FIG. 11 is a circuit diagram showing an example of a circuit configuration for realizing a computer program executed in a second user terminal in the present disclosure.

初めに、本開示の実施形態に係る情報処理システムの概要について図面を参照しながら説明する。 First, an overview of an information processing system according to an embodiment of the present disclosure will be described with reference to the drawings.

本開示における情報処理システムは、一以上の情報処理装置およびサーバ装置を備える情報処理システムであって、一又は複数のコンピュータプロセッサを備える。 The information processing system in this disclosure is an information processing system that includes one or more information processing devices and a server device, and includes one or more computer processors.

各装置に表示される動画は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含むものとして説明を行うが、これに限られるものではなく、配信ユーザの操作に応じて生成されるキャラクタオブジェクトのアニメーションを含むものとしてもよいし、配信ユーザ本人の画像を含むものとしてもよい。また、これらキャラクタオブジェクトや配信ユーザは表示されず、配信ユーザの声のみを含むものとしてもよい。 The video displayed on each device will be described as including animation of a character object generated based on the broadcasting user's movements, but is not limited to this and may include animation of a character object generated in response to the broadcasting user's operations, or may include an image of the broadcasting user himself. Also, these character objects and the broadcasting user may not be displayed, and only the voice of the broadcasting user may be included.

また、動画に表示される空間は仮想空間であってもよいし、現実空間であってもよいし、これらが融合した拡張現実空間であってもよい。また、動画は、少なくとも所定の映像および配信ユーザの声を再生するカラオケ動画やゲーム実況動画のようなものであってもよいし、これらにキャラクタオブジェクトまたは配信ユーザの実画像を重畳して表示したものであってもよい。 The space displayed in the video may be a virtual space, a real space, or an augmented reality space that combines these. The video may be something like a karaoke video or a game commentary video that plays back at least a specific image and the voice of the broadcasting user, or may be a display in which a character object or an actual image of the broadcasting user is superimposed on these.

また、現実空間に配信ユーザが含まれる場合には、当該配信ユーザの実画像に当該配信ユーザの動きに基づいて生成されるキャラクタオブジェクトを重ねて表示させてもよい。また、現実空間の撮影画像に、ギフトオブジェクト等のアニメーションを重ねて表示してもよい。 In addition, if the real space includes a broadcast user, a character object generated based on the broadcast user's movements may be displayed superimposed on an actual image of the broadcast user. Also, an animation of a gift object or the like may be displayed superimposed on an image captured in real space.

本開示の実施形態における情報処理システムは、多くの人が同時に参加してキャラクタオブジェクト(アバタ)を通じた交流や仕事、遊びなどを実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供するために用いられることができる。 The information processing system in the embodiment of the present disclosure is a digital world in which many people can participate simultaneously and freely engage in activities such as interacting, working, and playing through character objects (avatars) at a level close to that of the real world, and can be used to provide a next-generation Internet space (metaverse) in which social activities can take place beyond the gap between reality and virtuality.

本実施形態では、上記メタバースの一要素として、仮想空間の中で自分のアバタ(キャラクタオブジェクト)が自由に歩き回り、互いにコミュニケーションをとることが可能な「ワールド機能」を実現するために用いられることができる。 In this embodiment, as one element of the metaverse, it can be used to realize a "world function" that allows users' avatars (character objects) to roam freely in a virtual space and communicate with each other.

<システム構成>
図1に一例として示されるように、本開示に係る情報処理システム1000は、1以上の視聴ユーザ端末1100、および、これら視聴ユーザ端末1100とネットワーク1200を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)1300を含むことができる。
<System Configuration>
As shown as an example in FIG. 1, the information processing system 1000 of the present disclosure may include one or more viewing user terminals 1100, and an information processing device (support computer) 1300 located in a video distribution studio, etc., connected to these viewing user terminals 1100 via a network 1200.

また、当該情報処理装置1300は、インターネットを介してサーバ装置と接続され、情報処理装置1300で行われるべき処理の一部または全部を当該サーバ装置で行うものとしてもよい。なお、かかるサーバ装置は、図2に示す情報処理装置2400としてもよい。 The information processing device 1300 may be connected to a server device via the Internet, and some or all of the processing that should be performed by the information processing device 1300 may be performed by the server device. Such a server device may be the information processing device 2400 shown in FIG. 2.

本明細書において、かかる情報処理システム1000による配信を、スタジオ配信と呼ぶものとする。 In this specification, such distribution by the information processing system 1000 is referred to as studio distribution.

スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。 In studio streaming, the entire body movements of the streaming user (actor) are captured by a camera installed in the studio using markers attached to the streaming user, and are reflected in the character in real time using known motion capture technology.

また、本発明の情報処理システム1000は、図2に一例として示される別の情報処理システム2000と連携することができる。図2に示される情報処理システム2000は、配信ユーザ端末2100、1以上の視聴ユーザ端末2200、および、これら配信ユーザ端末2100および視聴ユーザ端末2200とネットワーク2300を介して接続される情報処理装置(サーバ装置)2400を含むことができる。 The information processing system 1000 of the present invention can also be linked to another information processing system 2000, shown as an example in FIG. 2. The information processing system 2000 shown in FIG. 2 can include a broadcast user terminal 2100, one or more viewing user terminals 2200, and an information processing device (server device) 2400 connected to the broadcast user terminal 2100 and the viewing user terminal 2200 via a network 2300.

上記の例において、配信ユーザ端末2100はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム2000による配信を、モバイル配信と呼ぶものとする。 In the above example, the broadcast user terminal 2100 can be an information processing terminal such as a smartphone. In this specification, broadcasting by such an information processing system 2000 is referred to as mobile broadcasting.

モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザ端末2100が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。 In mobile distribution, the facial movements of the broadcast user are captured by a camera installed in the broadcast user terminal 2100, and are reflected on the character's face in real time using known face tracking technology.

なお、モバイル配信における配信ユーザと視聴ユーザの区別は特になく、視聴ユーザはいつでもモバイル配信が可能であり、配信ユーザは他の配信ユーザの動画を視聴する場合には視聴ユーザとなりうる。 In addition, there is no particular distinction between broadcast users and viewing users in mobile distribution; viewing users can broadcast via mobile at any time, and broadcast users can become viewing users when viewing videos of other broadcast users.

上記情報処理システム1000および情報処理システム2000により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。 The videos generated by the information processing system 1000 and the information processing system 2000 can be distributed to viewing users from a single video distribution platform, as an example.

また、いずれの配信においても、モーションをキャラクタに反映させてアニメーションを生成する処理および後述するギフトを表示する処理等は、配信ユーザ端末、視聴ユーザ端末、情報処理装置および他の装置により分担して行われてもよい。 In addition, in any broadcast, the process of generating animation by reflecting motion on a character and the process of displaying gifts (described below) may be shared among the broadcast user terminal, the viewing user terminal, an information processing device, and other devices.

すなわち、ここでいう「配信」は、視聴ユーザの端末において動画を視聴可能とするための情報を送信することをいい、動画のレンダリングは情報処理装置1300,2400側で行われるものであってもよいし、配信ユーザ端末2100,視聴ユーザ端末1100,2200側で行われるものであってもよい。 In other words, "distribution" here refers to the transmission of information that enables the video to be viewed on the viewing user's terminal, and the rendering of the video may be performed on the information processing device 1300, 2400 side, or on the distribution user terminal 2100 or the viewing user terminal 1100, 2200 side.

具体的には、キャラクタオブジェクトのアニメーションを生成する(レンダリングする)端末または装置には、配信ユーザ端末または情報処理装置から、配信ユーザのフェイスモーションデータおよび音声データが送信される。また、フェイスモーションに加えてボディモーションが送信されてもよい。 Specifically, facial motion data and voice data of the broadcasting user are transmitted from the broadcasting user terminal or information processing device to a terminal or device that generates (renders) the animation of the character object. Body motion may also be transmitted in addition to facial motion.

本開示において、アニメーションを生成する処理は配信ユーザ端末および視聴ユーザ端末のそれぞれで行うものとして説明を行うが、これに限られるものではない。 In this disclosure, the process of generating animation is described as being performed on both the broadcasting user terminal and the viewing user terminal, but is not limited to this.

そして、本開示における情報処理システムは、図1および図2に示した例のいずれの場合にも適用が可能である。また、「配信ユーザ」および「視聴ユーザ」の区別は必ずしも必要でないことから、本開示の実施形態における情報処理システム3000は、図3に示されるように、第一ユーザ端末100、第二ユーザ端末200、および、これら第一ユーザ端末100および第二ユーザ端末200とネットワーク300を介して接続可能なサーバ装置400を備えるものとして説明を行う。 The information processing system of the present disclosure can be applied to either of the examples shown in FIG. 1 and FIG. 2. Also, since it is not necessary to distinguish between "broadcast users" and "viewing users", the information processing system 3000 in the embodiment of the present disclosure will be described as including a first user terminal 100, a second user terminal 200, and a server device 400 that can be connected to the first user terminal 100 and the second user terminal 200 via a network 300, as shown in FIG. 3.

第一ユーザ端末100は、少なくとも上述した情報処理装置1300または配信ユーザ端末2100として機能するものであり、第二ユーザ端末200は、少なくとも上述した一以上の視聴ユーザ端末1100,2200として機能するものであり、サーバ装置400は、少なくとも上述したサーバ装置または情報処理装置2400として機能するものである。 The first user terminal 100 functions at least as the information processing device 1300 or the broadcasting user terminal 2100 described above, the second user terminal 200 functions at least as one or more of the viewing user terminals 1100, 2200 described above, and the server device 400 functions at least as the server device or the information processing device 2400 described above.

本開示において第一ユーザ端末100および第二ユーザ端末200は、スマートフォン(多機能電話端末)、タブレット端末、パーソナルコンピュータ、コンソールゲーム機、ヘッドマウントディスプレイ(HMD)、眼鏡型のウェアラブル端末(ARグラス等)等のウェアラブルコンピュータ、及びこれらの装置以外の動画を再生可能な情報処理装置とすることができる。また、これら端末は、単独で動作するスタンドアロン型の装置であってもよく、互いに各種のデータを送受信可能に接続された複数の装置から構成されるものであってもよい。 In the present disclosure, the first user terminal 100 and the second user terminal 200 can be a smartphone (multifunction phone terminal), a tablet terminal, a personal computer, a console game machine, a head mounted display (HMD), a wearable computer such as a glasses-type wearable terminal (AR glasses, etc.), and an information processing device capable of playing videos other than these devices. Furthermore, these terminals may be standalone devices that operate independently, or may be composed of multiple devices connected to each other so that they can send and receive various data.

<ハードウェア構成>
ここで、図4を用いて、第一ユーザ端末100のハードウェア構成について説明する。第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力インターフェース(入出力I/F)104と、通信インターフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
<Hardware Configuration>
Here, the hardware configuration of the first user terminal 100 will be described with reference to Fig. 4. The first user terminal 100 includes a processor 101, a memory 102, a storage 103, an input/output interface (input/output I/F) 104, and a communication interface (communication I/F) 105. The components are connected to each other via a bus B.

第一ユーザ端末100は、プロセッサ101と、メモリ102と、ストレージ103と、入出力I/F104と、通信I/F105との協働により、本実施形態に記載される機能、方法を実現することができる。 The first user terminal 100 can realize the functions and methods described in this embodiment through cooperation between the processor 101, memory 102, storage 103, input/output I/F 104, and communication I/F 105.

プロセッサ101は、ストレージ103に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。 The processor 101 executes functions and/or methods realized by codes or instructions included in a program stored in the storage 103. The processor 101 includes, for example, a central processing unit (CPU), a micro processing unit (MPU), a graphics processing unit (GPU), a microprocessor, a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), etc., and may realize each process disclosed in each embodiment by a logic circuit (hardware) or a dedicated circuit formed in an integrated circuit (an integrated circuit (IC) chip, a large scale integration (LSI)), etc.). These circuits may be realized by one or more integrated circuits, and multiple processes shown in each embodiment may be realized by one integrated circuit. In addition, an LSI may be called a VLSI, a super LSI, an ultra LSI, etc. depending on the degree of integration.

メモリ102は、ストレージ103からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ102には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。 The memory 102 temporarily stores the programs loaded from the storage 103 and provides a working area for the processor 101. The memory 102 also temporarily stores various data generated while the processor 101 is executing the programs. The memory 102 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), etc.

ストレージ103は、プログラムを記憶する。ストレージ103は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。 Storage 103 stores programs. Storage 103 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), flash memory, etc.

通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク300を介して、他の情報処理装置との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。 The communication I/F 105 is implemented as hardware such as a network adapter, communication software, or a combination of these, and transmits and receives various data via the network 300. The communication may be performed either wired or wirelessly, and any communication protocol may be used as long as mutual communication can be performed. The communication I/F 105 communicates with other information processing devices via the network 300. The communication I/F 105 transmits various data to other information processing devices according to instructions from the processor 101. The communication I/F 105 also receives various data transmitted from other information processing devices and transmits it to the processor 101.

入出力I/F104は、第一ユーザ端末100に対する各種操作を入力する入力装置、及び、第一ユーザ端末100で処理された処理結果を出力する出力装置を含む。入出力I/F104は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。 The input/output I/F 104 includes an input device for inputting various operations to the first user terminal 100, and an output device for outputting the results of processing performed by the first user terminal 100. The input/output I/F 104 may be an integrated input device and output device, or may be separate input device and output device.

入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input device is realized by any type of device, or a combination of devices, that can receive input from a user and transmit information related to the input to the processor 101. Examples of input devices include hardware keys such as a touch panel, a touch display, and a keyboard, pointing devices such as a mouse, a camera (operation input via images), and a microphone (operation input via voice).

入力装置は、センサユニットを含むことができる。センサユニットは、ユーザの表情の変化を示すフェイスモーション、及びセンサユニットに対するユーザの身体の相対位置の変化を示すボディモーションを検出する1以上のセンサである。フェイスモーションは、瞬きや口の開閉等の動きを含む。センサユニットは、公知の物を使用することができる。センサユニットの一例は、ユーザに向かって照射された光がユーザの顔等に反射して返ってくるまでの飛行時間(Time of Flight)を測定検出するToFセンサ、ユーザの顔を撮影するカメラ及びカメラが撮影したデータを画像処理する画像処理部を含むものである。また、センサユニットは、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラとを含んでいてもよい。RGBカメラや近赤外線カメラは、例えば「iphoneX(登録商標)」のトゥルーデプス(True Depth)、又は「iPad Pro(登録商標)」の「LIDER」や、スマートフォンに搭載されるその他のToFセンサを用いることが可能である。このカメラは、具体的には、ドットプロジェクタによってユーザの顔等に数万の不可視のドット(点)を投影する。そして、ドットパターンの反射光を検出し、分析して顔の深度マップを形成し、顔等の赤外線画像をキャプチャすることで、正確な顔データをキャプチャする。センサユニットの演算処理部は、深度マップと赤外線画像に基づいて各種の情報を生成し、その情報を登録済みの参照データと比較して、顔の各ポイントの深度(各ポイントと近赤外線カメラとの間の距離)や深度以外の位置のずれを算出する。 The input device may include a sensor unit. The sensor unit is one or more sensors that detect face motions indicating changes in the user's facial expression and body motions indicating changes in the relative position of the user's body with respect to the sensor unit. Face motions include blinking, opening and closing of the mouth, and other movements. The sensor unit may be a publicly known one. An example of the sensor unit includes a ToF sensor that measures and detects the time of flight (Time of Flight) until light irradiated toward the user is reflected by the user's face and returns, a camera that captures the user's face, and an image processing unit that processes the data captured by the camera. The sensor unit may also include an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light. The RGB camera and the near-infrared camera may be, for example, True Depth of the "iPhoneX (registered trademark)", or "LIDER" of the "iPad Pro (registered trademark)", or other ToF sensors installed in smartphones. Specifically, this camera uses a dot projector to project tens of thousands of invisible dots onto the user's face, etc. Then, it detects and analyzes the reflected light from the dot pattern to form a depth map of the face, and captures an infrared image of the face, etc., thereby capturing accurate facial data. The sensor unit's processing unit generates various information based on the depth map and the infrared image, and compares the information with registered reference data to calculate the depth of each point on the face (the distance between each point and the near-infrared camera) and positional deviations other than depth.

また、センサユニットは、ユーザの顔だけでなく、手をトラッキングする(ハンドトラッキング)機能を有していてもよい。センサユニットは、加速度センサやジャイロセンサ等といった上記のセンサ以外のセンサ、をさらに含むものであってもよい。センサユニットは、上記のToFセンサや公知の他のセンサの検出結果に基づきユーザが存在する現実空間の物体を認識し、認識した物体を空間地図にマッピングする空間マッピング機能を有していてもよい。以下、フェイスモーションの検出データ及びボディモーションの検出データを特に区別しないで説明する場合には単に「トラッキングデータ」という。なお、センサユニットの画像処理部は、本発明の情報処理システムが具備可能な制御部が備えていてもよい。 The sensor unit may also have a function of tracking not only the user's face but also their hands (hand tracking). The sensor unit may further include sensors other than the above-mentioned sensors, such as an acceleration sensor or a gyro sensor. The sensor unit may have a spatial mapping function of recognizing objects in the real space in which the user exists based on the detection results of the above-mentioned ToF sensor or other known sensors, and mapping the recognized objects on a spatial map. Hereinafter, when face motion detection data and body motion detection data are described without making a distinction between them, they will simply be referred to as "tracking data". Note that the image processing unit of the sensor unit may be provided in a control unit that can be provided in the information processing system of the present invention.

入力装置としての操作部は、ユーザ端末の種類に応じたものを用いることができる。操作部の一例は、ディスプレイと一体化されたタッチパネルや、ユーザ端末の筐体等に設けられた操作ボタン、キーボード、マウス、ユーザが手で操作するコントローラ等である。コントローラは、加速度センサ、ジャイロ等の慣性計測センサ(IMU:Inertial Measurement Unit)等の公知の各種のセンサを内蔵していてもよい。また、操作部の他の一例は、ユーザの手の動き、目の動き、頭部の動き、視線の方向等を特定するトラッキング装置であってもよい。この態様では、例えば、ユーザの手の動きに基づいて、ユーザの指示を判定し、動画の配信を開始又は終了したり、メッセージや動画への評価、所定のオブジェクト(例えば後述するギフト)の表示要求等の各種操作を実行することができる。なお、センサユニットがハンドトラック機能等の入力インターフェース機能も有する場合には、操作部は省略可能である。 The operation unit as an input device can be one that corresponds to the type of the user terminal. Examples of the operation unit include a touch panel integrated with a display, operation buttons provided on the housing of the user terminal, a keyboard, a mouse, and a controller operated by the user's hand. The controller may have various known sensors built in, such as an acceleration sensor and an inertial measurement unit (IMU) such as a gyroscope. Another example of the operation unit may be a tracking device that identifies the user's hand movement, eye movement, head movement, and gaze direction. In this aspect, for example, the user's instructions can be determined based on the user's hand movement, and various operations can be performed, such as starting or ending the distribution of a video, rating a message or a video, and requesting the display of a specific object (for example, a gift, which will be described later). Note that if the sensor unit also has an input interface function such as a hand truck function, the operation unit can be omitted.

出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。 The output device outputs the processing results processed by the processor 101. The output device includes, for example, a touch panel, a speaker, etc.

また、本開示における第二ユーザ端末200およびサーバ装置400についても、特筆すべき場合を除き、図4と同様のハードウェア構成で構成されることができる。 In addition, the second user terminal 200 and server device 400 in this disclosure can also be configured with the same hardware configuration as shown in FIG. 4, unless otherwise noted.

続いて、本開示の実施形態における情報処理システムにより実現されるアプリケーションを起動したユーザ端末において実行可能な各種機能、および、表示される画面の遷移について図面を参照しながら説明する。 Next, various functions that can be executed on a user terminal that has launched an application realized by an information processing system in an embodiment of the present disclosure, and the transition of the displayed screens will be explained with reference to the drawings.

図5は、動画の配信・視聴アプリケーションを起動した際にユーザ端末に表示されるトップ画面T10を示したものである。 Figure 5 shows the top screen T10 that is displayed on the user terminal when the video distribution and viewing application is launched.

図5に示されるように、ユーザは、トップ画面T10においておすすめタブT11内で一覧表示されるおすすめの一以上の配信チャンネルT12のサムネイル画像の中から一の配信チャンネル(配信枠、配信番組、配信動画など)を選ぶことにより、当該一の配信チャンネルで再生される動画を視聴することができる。 As shown in FIG. 5, a user can watch a video being played on one of the distribution channels by selecting one of the distribution channels (distribution slot, distribution program, distribution video, etc.) from thumbnail images of one or more recommended distribution channels T12 displayed in a list in the Recommendations tab T11 on the top screen T10.

あるいは、ユーザは、特定の一の配信チャンネルの固定リンクへアクセスすることにより、当該特定の一の配信チャンネルで再生される動画を視聴することができる。かかる固定リンクは、フォロー中の配信ユーザからのお知らせ、または、他のユーザから送られたシェアの通知などにより得ることができる。 Alternatively, a user can view a video being played on a specific distribution channel by accessing a fixed link for that specific distribution channel. Such a fixed link can be obtained through notifications from distribution users who the user is following, or through notifications of shares sent by other users.

このように、動画を視聴するユーザは視聴ユーザとなり、動画を視聴する端末は第二ユーザ端末200となる。 In this way, the user watching the video becomes the viewing user, and the terminal watching the video becomes the second user terminal 200.

また、図5に示すように、トップ画面T10にはキャンペーンやイベントなどのお知らせの表示欄T13が表示されてもよい。このお知らせの表示欄T13は、スライド操作により他のお知らせへの表示の切り替えが可能である。 As shown in FIG. 5, the top screen T10 may also display a display area T13 for notifications such as campaigns and events. This notification display area T13 can be switched to display other notifications by sliding the display area.

そして、トップ画面T10からは、フォロータブT14、ゲームカテゴリを表示するためのゲームタブT15、コラボ待ちの配信チャンネルを表示するためのコラボ待ちタブT16、ビギナーの配信チャンネルを表示するためのビギナータブT17が表示される。これらを選択することにより(タブを切り替えることにより)、トップ画面T10からそれぞれ別の画面へと遷移する。 The top screen T10 displays a follow tab T14, a game tab T15 for displaying game categories, a collaboration waiting tab T16 for displaying distribution channels waiting for collaboration, and a beginner tab T17 for displaying distribution channels for beginners. By selecting these (by switching between tabs), the top screen T10 transitions to each of the different screens.

なお、トップ画面T10の上部枠のサービス名表示T18および検索ボタンT19については、遷移先の画面で固定して表示されたままとしてもよい。 The service name display T18 and search button T19 in the upper frame of the top screen T10 may remain fixed and displayed on the destination screen.

同様に、トップ画面T10の下部枠のホームボタンT20、メッセージボタンT21、配信準備ボタンT22、ガチャボタンT23、プロフィールボタンT24についても、遷移先の画面で固定して表示されたままとしてもよい。 Similarly, the home button T20, message button T21, delivery preparation button T22, gacha button T23, and profile button T24 in the lower frame of the top screen T10 may also be fixed and remain displayed on the transition destination screen.

図5に示したトップ画面T10等において、表示されているサムネイル画像T12を選択したユーザは、上述したように動画を視聴する視聴ユーザ(第二ユーザ)となり、配信準備ボタンT22を選択したユーザは、動画を配信する配信ユーザ(第一ユーザ)となりうる。 On the top screen T10 shown in FIG. 5, a user who selects a displayed thumbnail image T12 can become a viewing user (second user) who watches the video as described above, and a user who selects the distribution preparation button T22 can become a distribution user (first user) who distributes the video.

一例として、図5に示したトップ画面T10において配信準備ボタンT22を選択すると、図6に示すアバタ設定画面D10へと遷移する。そして、アバタ設定画面D10において配信ボタンD11を選択すると、図7に示す配信設定画面D20へと遷移する。そして、配信設定画面D20において配信開始ボタンD25を選択すると、図8に示すアバタ配信画面D30へと遷移する。 As an example, when the distribution preparation button T22 is selected on the top screen T10 shown in FIG. 5, the screen transitions to the avatar setting screen D10 shown in FIG. 6. Then, when the distribution button D11 is selected on the avatar setting screen D10, the screen transitions to the distribution setting screen D20 shown in FIG. 7. Then, when the start distribution button D25 is selected on the distribution setting screen D20, the screen transitions to the avatar distribution screen D30 shown in FIG. 8.

続いて、動画の配信を開始するまでのフローの詳細について説明を行う。 Next, we will explain the details of the flow until video distribution begins.

本開示における一又は複数のコンピュータプロセッサは、配信開始要求受付部と、配信設定部と、配信開始部とを備えることができる。 The one or more computer processors in the present disclosure may include a distribution start request receiving unit, a distribution setting unit, and a distribution start unit.

配信開始要求受付部は、配信ユーザの配信ユーザ端末から、キャラクタオブジェクトのアニメーションを含む第一の動画の配信開始要求を受け付ける。 The distribution start request receiving unit receives a request to start distribution of a first video including animation of a character object from a broadcast user terminal of the broadcast user.

ここでは、第一の動画は、キャラクタオブジェクトのアニメーションを含む動画のことをいう。なお、本明細書において、キャラクタオブジェクトのことを「アバタ」と呼ぶ場合がある。 Here, the first video refers to a video that includes animation of a character object. Note that in this specification, a character object may also be called an "avatar."

そして、上記配信開始要求は、上記動画配信プラットフォームにアクセスするための専用のアプリケーション(動画の配信・視聴アプリケーション)を起動したユーザ端末(後に配信ユーザ端末2100となる)に表示される上述したトップ画面から遷移したアバタ設定画面等に配置される配信ボタンD11を選択することにより、ユーザ端末から情報処理装置2400に送信されるものとすることができる。 The request to start distribution can be transmitted from a user terminal (later becoming the distribution user terminal 2100) to the information processing device 2400 by selecting a distribution button D11 located on an avatar setting screen or the like transitioned to from the above-mentioned top screen displayed on the user terminal that has launched a dedicated application (video distribution/viewing application) for accessing the video distribution platform.

図6は、アバタ設定画面D10の一例を示したものである。アバタ設定画面D10には、キャラクタオブジェクトCO、配信ボタンD11、ガチャボタンD12、着替えボタンD13、フォトボタンD14等が表示されることができる。 Figure 6 shows an example of an avatar setting screen D10. The avatar setting screen D10 can display a character object CO, a distribution button D11, a gacha button D12, a change of clothes button D13, a photo button D14, etc.

ユーザによって着替えボタンD13が選択されると、キャラクタオブジェクトCOの目、鼻、口、髪、アクセサリ、洋服、背景などの各種アバタパーツを選択するためのクローゼット画面が展開する。 When the user selects the change clothes button D13, a closet screen appears for selecting various avatar parts for the character object CO, such as eyes, nose, mouth, hair, accessories, clothes, and background.

ユーザによってガチャボタンD12が選択されると、上記アバタパーツを入手するための抽選画面が展開する。 When the user selects the gacha button D12, a lottery screen for obtaining the avatar parts appears.

ユーザによってフォトボタンD14が選択されると、キャラクタオブジェクトの静止画を撮影するための撮影画面が展開する。 When the user selects the photo button D14, a shooting screen appears for taking a still image of the character object.

そして、ユーザによって配信ボタンD11が選択されると、情報処理装置2400(サーバ装置400)に対して配信開始要求が送信される。 When the user selects the distribution button D11, a distribution start request is sent to the information processing device 2400 (server device 400).

配信設定部は、配信開始要求受付部が受け付けた第一の動画の配信開始要求に応じて、第一の動画の配信設定を配信ユーザ端末2100からの指定に基づいて設定する。 The distribution setting unit sets the distribution settings of the first video based on the specifications from the distribution user terminal 2100 in response to a request to start distribution of the first video accepted by the distribution start request accepting unit.

一例として、上記配信ボタンD11が選択されると、配信ユーザ端末2100に表示される画面は、図6に示したアバタ設定画面D10から図7に示す配信設定画面D20へと遷移する。 As an example, when the broadcast button D11 is selected, the screen displayed on the broadcast user terminal 2100 transitions from the avatar setting screen D10 shown in FIG. 6 to the broadcast setting screen D20 shown in FIG. 7.

配信設定には、第一の動画のタイトルに関する設定、第一の動画への他のユーザの出演可否に関する設定、および、第一の動画へ出演可能な人数に関する設定、パスワードに関する設定の少なくとも一つが含まれることができる。 The distribution settings may include at least one of the following: a setting regarding the title of the first video, a setting regarding whether other users can appear in the first video, a setting regarding the number of people who can appear in the first video, and a setting regarding a password.

これらの配信設定は、それぞれ図7におけるタイトル設定欄D21、コラボ可否設定欄D22、人数設定欄D23、パスワード設定欄D24において設定が可能である。なお、図7では、さらに、誰でもコラボ可否設定欄D26、SNS投稿可否欄D27が表示されている。 These distribution settings can be set in the title setting field D21, collaboration setting field D22, number of people setting field D23, and password setting field D24 in FIG. 7. In addition, FIG. 7 also displays a collaboration setting field D26 for anyone and a SNS posting setting field D27.

第一の動画のタイトルは、許容される上限までの文字数の範囲において配信ユーザが自由に決定することができるものである。なお、配信ユーザによる入力が無い場合には「〇〇〇の配信だよ♪」等の、配信ユーザまたはキャラクタオブジェクトの名前を含む、予め設定されたタイトルが自動的に決定されるものとしてもよい。 The title of the first video can be freely determined by the broadcasting user within the range of the maximum number of characters allowed. If there is no input from the broadcasting user, a pre-set title including the name of the broadcasting user or character object, such as "This is XXX's broadcast ♪", may be automatically determined.

第一の動画への他のユーザの出演可否は、配信ユーザが自由に決定することができるものである。可の場合には、他のユーザは配信ユーザに対して出演申請を行うことが可能であり、否の場合には、他のユーザは配信ユーザに対して出演申請を行うことができない。配信ユーザの動画に他のユーザが出演している状態を、本明細書では「コラボ」と呼ぶことがある。コラボについての詳細は後述する。 The distributing user can freely decide whether or not other users can appear in the first video. If it is allowed, other users can make an appearance request to the distributing user, and if it is not allowed, other users cannot make an appearance request to the distributing user. In this specification, the state in which other users appear in the distributing user's video is sometimes referred to as "collaboration." More details on collaboration will be provided later.

第一の動画へ出演可能な人数は、前述した第一の動画への他のユーザの出演が可の場合にのみ設定が可能であり、許容される上限までの人数の範囲において配信ユーザが自由に決定することができるものである。 The number of people who can appear in the first video can only be set if other users are allowed to appear in the first video as described above, and can be freely determined by the distributor user within the range of the maximum number of people allowed.

パスワードは、前述した第一の動画への他のユーザの出演が可の場合にのみ任意で設定が可能であり、指定された桁数の数字を配信ユーザが自由に決定することができるものである。他のユーザが第一の動画への出演申請を行う際、かかるパスワードの入力が要求される。なお、誰でもコラボ可否設定欄D26がOFFの場合にのみ、パスワード設定欄D24がアクティブとなる構成としてもよい。 The password can be set arbitrarily only if other users are allowed to appear in the first video described above, and the distribution user can freely decide the number of digits specified. When other users apply to appear in the first video, they are required to enter the password. Note that the password setting field D24 may be configured to be active only if the collaboration permission setting field D26 is OFF.

配信開始部は、配信設定部により設定された条件に基づいて、第一の動画に関する情報を、視聴ユーザの視聴ユーザ端末2200に配信する。 The distribution start unit distributes information about the first video to the viewing user terminal 2200 of the viewing user based on the conditions set by the distribution setting unit.

かかる配信の開始指示は、図7に示した配信開始ボタンD25の選択により送信される。 The instruction to start such distribution is sent by selecting the distribution start button D25 shown in FIG. 7.

一例として、配信開始部は、配信ユーザのキャラクタオブジェクトのアニメーションを含む動画(第一の動画)に関する情報を、視聴ユーザの視聴ユーザ端末2200に配信する(アバタ配信する)。 As an example, the distribution starting unit distributes (avatar distributes) information about a video (first video) including animation of the distribution user's character object to the viewing user terminal 2200 of the viewing user.

第一の動画に関する情報には、例えばキャラクタオブジェクトの動作を示すモーション情報や、配信ユーザの音声情報や、他の視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報は、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。 The information about the first video includes, for example, motion information showing the movement of the character object, audio information of the broadcasting user, and gift object information showing gifts sent by other viewing users. The gift object information includes at least gift object identification information that specifies the type of gift object, and position information that indicates the position where the gift object is displayed.

そして、配信開始部は、上述した動画配信プラットフォームを介して動画をライブ配信することができる。 Then, the distribution start unit can live-stream the video via the video distribution platform described above.

図8は、配信ユーザ端末2100に表示されるアバタ配信画面D30を示したものである。 Figure 8 shows the avatar distribution screen D30 displayed on the distribution user terminal 2100.

アバタ配信画面D30には、キャラクタオブジェクトCOが表示される他、配信ユーザがコメントを入力するためのコメント入力ボタンD31、画面の静止画を保存するためのフォトボタンD32、後述するゲームをプレイするためのプレイ開始ボタンD33、外部サービスにより提供される動画を視聴するための外部サービス連携ボタンD34、アバタパーツを入手するためのガチャボタンD12が表示されることができる。 The avatar distribution screen D30 displays the character object CO, as well as a comment input button D31 for the distribution user to input a comment, a photo button D32 for saving a still image of the screen, a start play button D33 for playing a game described below, an external service linkage button D34 for watching videos provided by an external service, and a gacha button D12 for obtaining avatar parts.

また、アバタ配信画面D30の上部には累計視聴者数表示D35、累計いいね数表示D36、コラボ人数表示D37、外部SNSへのシェアボタンD38、ゲスト詳細ボタンD39、ランキング表示ボタンD40、設定ボタンD41,音声のON/OFを切り替えるための音声切替ボタンD42が表示されることができる。また、配信を終了するための終了ボタンD43も表示される。 In addition, the top of the avatar distribution screen D30 can display a cumulative viewer count D35, a cumulative like count D36, a collaborator count D37, a share button for external SNS D38, a guest details button D39, a ranking display button D40, a settings button D41, and an audio switch button D42 for switching audio ON/OFF. Also displayed is an end button D43 for ending the distribution.

これらの表示およびボタンの詳細な説明は省略するが、設定ボタンD41の選択により、配信設定画面D20で設定した配信設定の変更を行うことが可能である。 A detailed description of these displays and buttons will be omitted, but by selecting the settings button D41, it is possible to change the distribution settings set on the distribution settings screen D20.

なお、図8は、配信設定画面D20において、第一の動画への他のユーザの出演を可、第一の動画へ出演可能な人数を3人として配信を開始した例を示したものであるため、キャラクタオブジェクトCOは左下に寄った状態で表示されている。空いている空間には他のユーザのキャラクタオブジェクトが3人まで出演可能な状態である。 Note that FIG. 8 shows an example in which distribution has been started with the distribution setting screen D20 set to allow other users to appear in the first video and the number of people who can appear in the first video set to three, so character object CO is displayed shifted to the bottom left. Up to three character objects of other users can appear in the empty space.

以上が、本開示における発明のアバタ配信を行う際の画面遷移の説明である。 The above is an explanation of the screen transitions that occur when delivering an avatar according to the invention disclosed herein.

続いて、配信ユーザが配信中にゲームを行う際の画面遷移について説明を行う。 Next, we will explain the screen transitions that occur when a broadcaster plays a game while broadcasting.

本開示における一又は複数のコンピュータプロセッサは、ゲーム要求受付部と、ゲーム動画配信部と、ゲーム表示処理部とを備えることができる。 The one or more computer processors in the present disclosure may include a game request receiving unit, a game video distribution unit, and a game display processing unit.

配信ユーザは、図8に示したようなアバタ配信の最中に、プレイ開始ボタンD33を選択することによりゲームのプレイ開始要求を行うことが可能である。 During avatar distribution as shown in FIG. 8, the broadcasting user can request to start playing the game by selecting the start play button D33.

なお、プレイ開始ボタンD33の選択により表示されるゲームは、本開示における情報処理システムにより実現されるアプリケーションに実装される専用のゲームであり、外部サービスにより提供される汎用的なゲームとは異なるものとすることができる。よって、本開示におけるゲーム配信は、外部サービスにより提供される汎用的なゲームのプレイ動画を配信ユーザの実況と共に配信するものとは区別されるものとしてもよい。 The game displayed by selecting the play start button D33 is a dedicated game implemented in an application realized by the information processing system of the present disclosure, and may be different from a general-purpose game provided by an external service. Therefore, game distribution in the present disclosure may be distinguished from distribution of a gameplay video of a general-purpose game provided by an external service along with a live commentary by the distribution user.

あるいは、プレイ開始要求は、配信ユーザの配信ユーザ端末2100に表示される所定の画面に配置されるプレイ開始ボタンを選択することにより、配信ユーザ端末2100から情報処理装置2400に送信されるものとすることができる。 Alternatively, the start play request can be transmitted from the broadcast user terminal 2100 to the information processing device 2400 by selecting a start play button located on a specified screen displayed on the broadcast user terminal 2100 of the broadcast user.

図9は、上記所定の画面として、プレイ開始ボタンG11が配置された画面G10の一例を示したものである。図9に示す画面G10は、本開示における情報処理システムにより実現されるアプリケーションを起動したユーザ端末に表示されるトップ画面T10(図5)から、ゲームタブT15の選択により遷移してきた画面である。 Figure 9 shows an example of a screen G10 on which a play start button G11 is arranged as the above-mentioned predetermined screen. The screen G10 shown in Figure 9 is a screen transitioned to by selecting the game tab T15 from the top screen T10 (Figure 5) displayed on a user terminal that has launched an application realized by the information processing system of the present disclosure.

画面G10には、少なくとも、所定のゲームのプレイ開始要求を送信可能なプレイ開始ボタンG11が表示される。 Screen G10 displays at least a play start button G11 that can send a request to start playing a specific game.

そして、ゲーム要求受付部が所定のゲームのプレイ開始要求を受け付けた場合、ゲーム動画配信部は、第二の動画に関する情報を視聴ユーザ端末に配信する。 Then, when the game request receiving unit receives a request to start playing a specific game, the game video distribution unit distributes information about the second video to the viewing user terminal.

ここで、第二の動画は、所定のゲームのプレイ動画である。本明細書において、かかる動画が視聴ユーザ端末2200の画面に表示されるよう配信を行うことを「ゲーム配信」と呼ぶ。 Here, the second video is a gameplay video of a specific game. In this specification, the distribution of such a video so that it is displayed on the screen of the viewing user terminal 2200 is referred to as "game distribution."

また、ユーザは、本開示の発明により実現されるアプリケーションの起動後、ゲーム一覧画面およびゲーム詳細画面に配置されるプレイ開始オブジェクトを選択することにより、配信ユーザとして、第二の動画の配信開始要求を情報処理装置2400に送信することができる。 In addition, after launching the application realized by the invention of the present disclosure, the user can, as a distribution user, send a request to start distribution of the second video to the information processing device 2400 by selecting a play start object placed on the game list screen and the game details screen.

これらゲーム一覧画面またはゲーム詳細画面は、次に詳説する第一の画面である。 These game list screens and game details screens are the first screens, which will be explained in detail below.

すなわち、ゲーム表示処理部は、配信開始要求を送信可能な配信開始オブジェクト、所定のゲームのプレイ開始要求を送信可能なプレイ開始オブジェクト、および、所定のゲームのプレイ動画を配信中の動画のサムネイル画像を含む第一の画面の表示処理を行う。 In other words, the game display processing unit performs display processing of a first screen including a distribution start object capable of sending a request to start distribution, a play start object capable of sending a request to start playing a specific game, and a thumbnail image of a video of a gameplay video of a specific game being distributed.

図9において示した画面G10は、当該第一の画面のうちゲーム一覧画面に相当する。ゲーム一覧画面である第一の画面は、トップ画面T10から、ゲームタブT15の選択により遷移してきた画面である。 The screen G10 shown in FIG. 9 corresponds to the game list screen among the first screens. The first screen, which is the game list screen, is a screen transitioned to by selecting the game tab T15 from the top screen T10.

かかる第一の画面には、配信開始オブジェクトとしての配信準備ボタンT22、プレイ開始オブジェクトとしてのプレイ開始ボタンG11、および、動画の配信チャンネルを示すサムネイル画像が含まれる。 This first screen includes a distribution preparation button T22 as a distribution start object, a play start button G11 as a play start object, and a thumbnail image indicating the video distribution channel.

第一の画面には、プレイ可能な複数のゲームごとに、プレイ開始ボタンG11、ゲームアイコンG12、ゲーム名G13、当該ゲームの配信チャンネルの総視聴者数G14、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG15がそれぞれ表示されている。 For each of the multiple playable games, the first screen displays a play start button G11, a game icon G12, the game name G13, the total number of viewers of the game's distribution channel G14, and a distribution list G15 that includes thumbnail images of the distribution channels currently distributing the game.

なお、ここで表示される配信リストG15に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG15のサムネイル画像は横スクロールにより表示範囲の変更が可能であるものとする。 The order of thumbnail images displayed in the distribution list G15 displayed here can be different depending on the viewing user. As an example, the order is arranged in the following order of priority: most frequently viewed by the viewing user who is following the content, most frequently viewed by the viewing user, most frequently viewed by the cumulative number of viewers, and oldest distribution start date. The display range of thumbnail images in this distribution list G15 can be changed by scrolling horizontally.

また、このゲーム一覧画面に表示されるゲームは、以下の優先度の上位10タイトルを読み込むものとする。一例として、優先度は、ゲーム配信開始日時から48時間以内、視聴ユーザが30日以内で最後にプレイした日付の新しい順、期間IDの優先度の高い順、期間IDの降順、により定められている。 The games displayed on this game list screen are the top 10 titles with the following priorities: As an example, the priorities are determined within 48 hours of the game distribution start date and time, in descending order of the date when the viewing user last played the game within the last 30 days, in descending order of the priority of the period ID.

この配信リストG15は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。 This distribution list G15 is updated when you return from another tab screen or when you perform a pull-to-refresh operation.

そして、図10は、第一の画面のうちゲーム詳細画面に相当する。ゲーム詳細画面である第一の画面は、図9に示したゲーム一覧画面に表示されたゲームアイコンG12またはゲーム名G13を選択することにより遷移してきた画面でG20である。 Figure 10 corresponds to the game details screen of the first screen. The first screen, which is the game details screen, is G20, which is the screen transitioned to by selecting the game icon G12 or game name G13 displayed on the game list screen shown in Figure 9.

かかる第一の画面には、配信開始オブジェクトである配信準備ボタンT22、プレイ開始オブジェクトであるプレイ開始ボタンG21、および、動画の配信チャンネルを示すサムネイル画像が含まれる。 This first screen includes a distribution preparation button T22, which is a distribution start object, a play start button G21, which is a play start object, and a thumbnail image indicating the distribution channel for the video.

また、第一の画面には、ゲームアイコンG22、ゲーム名G23、当該ゲームの配信チャンネルの総視聴者数G24、そしてゲーム配信中の配信チャンネルのサムネイル画像を含む配信リストG25がそれぞれ表示されている。 The first screen also displays a game icon G22, a game name G23, the total number of viewers of the game's distribution channel G24, and a distribution list G25 that includes thumbnail images of the distribution channels currently distributing the game.

なお、ここで表示される配信リストG25に表示されるサムネイル画像の順序は、視聴ユーザによって表示を異ならせることができる。一例として、順序は、視聴ユーザがフォローしている、かつ、その視聴ユーザによる視聴回数が多い順、累計視聴者数が多い順、配信開始が古い順、の優先順位で並べられている。なお、この配信リストG25のサムネイル画像は縦スクロールにより表示範囲の変更が可能であるものとする。 The order of thumbnail images displayed in the distribution list G25 displayed here can be different depending on the viewing user. As an example, the order is arranged in the following order of priority: most frequently viewed by the viewing user who is following the content, most frequently viewed by the viewing user, most frequently viewed by the cumulative number of viewers, and oldest distribution start date. The display range of thumbnail images in this distribution list G25 can be changed by vertical scrolling.

この配信リストG25は、他のタブの画面から戻ってきた場合、および、更新操作(Pull-to-Refresh)を行った際に更新されるものとする。 This distribution list G25 is updated when you return from another tab screen or when you perform a pull-to-refresh operation.

上述したように、配信開始オブジェクトまたはプレイ開始オブジェクトを選択したユーザは、配信開始要求またはプレイ開始要求を行う配信ユーザとなる。 As described above, a user who selects a broadcast start object or a play start object becomes a broadcast user who makes a broadcast start request or a play start request.

また、サムネイル画像を選択したユーザは、第二の動画を視聴する視聴ユーザとなる。 In addition, the user who selects the thumbnail image becomes the viewing user who will watch the second video.

また、第一の画面は、スクロール操作が不可能な第一の領域と、スクロール操作が可能な第二の領域とを含む。 The first screen also includes a first area in which scrolling is not possible and a second area in which scrolling is possible.

ここでいう第一の画面は図10に示す第一の画面とする。そして、第一の画面は、第一の領域R1と第二の領域R2とを含む。具体的には、第一の領域R1には、ゲームタイトルが表示され、第二の領域R2には上述したプレイ開始ボタンG21、ゲームアイコンG22、ゲーム名G23、視聴者数G24、そして配信リストG25が表示されている。 The first screen referred to here is the first screen shown in FIG. 10. The first screen includes a first area R1 and a second area R2. Specifically, the game title is displayed in the first area R1, and the above-mentioned play start button G21, game icon G22, game name G23, number of viewers G24, and distribution list G25 are displayed in the second area R2.

そして、第一の領域R1はスクロール操作が不可能な、表示画面上で固定表示される部分であり、第二の領域R2はユーザによってスクロール操作が可能な部分である。第二の領域R2をスクロールすることにより、ユーザは画面外に隠れたサムネイル画像を確認することができるようになる。 The first region R1 is a portion that is fixedly displayed on the display screen and cannot be scrolled, while the second region R2 is a portion that can be scrolled by the user. By scrolling the second region R2, the user can check thumbnail images that are hidden outside the screen.

ところが、第二の領域のスクロールによってプレイ開始ボタンG21が画面外へ隠れてしまうおそれがあるため、本開示における表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクト(プレイ開始ボタンG21)の表示状態に応じて、第一の領域R1にプレイ開始オブジェクト(プレイ開始ボタンG21)を表示させることができる。 However, since there is a risk that the play start button G21 may be hidden off-screen by scrolling the second area, the display processing unit in this disclosure can display the play start object (play start button G21) in the first area R1 depending on the display state of the play start object (play start button G21) displayed in the second area R2.

一例として、図10ではプレイ開始ボタンG21は第二の領域R2に表示されるが、図11では第一の領域R1に表示される。すなわち、プレイ開始ボタンG21の一部またはすべてが第二の領域R2に表示されなくなると、プレイ開始ボタンG21が第一の領域に出現するようにしたものである。 As an example, in FIG. 10, the play start button G21 is displayed in the second region R2, but in FIG. 11, it is displayed in the first region R1. In other words, when part or all of the play start button G21 is no longer displayed in the second region R2, the play start button G21 appears in the first region.

また、ゲーム表示処理部は、第二の領域R2に表示されたプレイ開始オブジェクトの表示状態に応じて、第一の領域R1にプレイ開始オブジェクトを段階的に表示させてもよい。 The game display processing unit may also cause the play start object to be displayed in stages in the first area R1 depending on the display state of the play start object displayed in the second area R2.

かかる表現は、第二の領域R2のスクロール量に合わせてプレイ開始オブジェクトの透明度を変化させることにより実現することができる。 This representation can be achieved by changing the transparency of the play start object in accordance with the amount of scrolling of the second region R2.

一例として、スクロール量(単位はピクセル)0~50をボタンの透明度0.0(完全に透明)~1.0(完全に不透明)に対応させる。すると、初期表示状態ではオブジェクトは完全に透明なので見えず、50ピクセル以上スクロールするとオブジェクトが完全に表示されるようになる。その間(0~50)はオブジェクトの透明度を線形に変化させるのが好ましい。なお、スクロール量の単位は論理ピクセルであって、ディスプレイの実際のピクセルとは異なってもよい。 As an example, a scroll amount (unit: pixels) of 0 to 50 can correspond to a button transparency of 0.0 (completely transparent) to 1.0 (completely opaque). In this way, in the initial display state, the object is completely transparent and cannot be seen, but when the object is scrolled 50 pixels or more, it becomes completely visible. It is preferable to change the object's transparency linearly in this range (0 to 50). Note that the unit of the scroll amount is logical pixels, which may differ from the actual pixels on the display.

また、ゲーム要求受付部は、ゲーム動画配信部による第二の動画に関する情報の配信後、配信ユーザ端末100からの所定のゲームのプレイ終了要求を受け付け可能であるものとする。 The game request receiving unit is also capable of receiving a request to end play of a specified game from the broadcast user terminal 100 after the game video distribution unit has distributed information about the second video.

プレイ終了要求は、ゲーム画面に配置された終了ボタンの選択により送信することができる。 A request to end play can be sent by selecting the end button located on the game screen.

そして、ゲーム要求受付部が所定のゲームのプレイ終了要求を受け付けた場合、動画配信部は、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信することができる。 Then, when the game request receiving unit receives a request to end play of a specific game, the video distribution unit can end distribution of information about the second video and distribute information about the first video.

すなわち、ここで配信されるのは第一の動画の情報の一部ではなく、第一の動画の情報の全てである。 In other words, what is distributed here is not just a portion of the information in the first video, but all of the information in the first video.

そして、動画配信部が、第二の動画に関する情報の配信を終了し、第一の動画に関する情報を配信した場合に、視聴ユーザ端末2200に表示されるのは、第一の動画であるものとする。 Then, when the video distribution unit finishes distributing information about the second video and distributes information about the first video, it is assumed that the first video is displayed on the viewing user terminal 2200.

続いて、動画の視聴を開始するためのフローについて説明を行う。 Next, we will explain the flow for starting to watch a video.

本開示における一または複数のプロセッサは、さらに、視聴受付部を備えることができる。 One or more processors in the present disclosure may further include a viewing reception unit.

視聴受付部は、ユーザからの動画の視聴要求を受け付ける。 The viewing reception unit accepts video viewing requests from users.

上記動画配信部は、視聴要求に応じて、ユーザの情報処理端末に、動画情報として映像および音声に関する情報を配信する。 The video distribution unit distributes video and audio information as video information to the user's information processing terminal in response to a viewing request.

図12は、視聴ユーザ端末2200に表示されるアバタ動画の視聴画面V10を示した例である。 Figure 12 shows an example of a viewing screen V10 of an avatar video displayed on the viewing user terminal 2200.

視聴ユーザは、コメント投稿欄V11にテキストの入力を行い、送信ボタンV12を押すことでコメントを投稿することができる。 A viewing user can post a comment by entering text in the comment posting field V11 and pressing the send button V12.

また、ギフトボタンV13を押すことで視聴ユーザにはギフト一覧(図13の画面V30)が表示され、選択により指定したギフトの表示要求を送信することができる。 In addition, by pressing the gift button V13, the viewing user can display a list of gifts (screen V30 in FIG. 13) and send a display request for the specified gift by selecting it.

このとき、本開示における一又は複数のプロセッサは、判定部を備えることができる。判定部は、視聴ユーザ端末2200からギフトの表示要求があったか否かを判定する。 At this time, one or more processors in the present disclosure may include a determination unit. The determination unit determines whether or not a gift display request has been made from the viewing user terminal 2200.

表示要求には、ギフトオブジェクト情報が含まれることができる。ギフトオブジェクト情報は、少なくともギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。 The display request may include gift object information. The gift object information includes at least gift object identification information that identifies the type of gift object, and location information that indicates the location where the gift object is to be displayed.

また、図13に示されるように、ギフトは分類(無料(有料)ギフト、アクセサリ、応援グッズ、アピール、バラエティ等)ごとに分けて表示されることができる。 In addition, as shown in FIG. 13, gifts can be displayed by category (free (paid) gifts, accessories, cheering goods, appeals, variety, etc.).

ここで、有料ギフトとは、視聴ユーザが購入したマイコインの消費により購入可能なギフトであり、無料ギフトとは、視聴ユーザが無料で入手したマイポイントの消費または消費なしで入手可能なギフトである。 Here, paid gifts are gifts that can be purchased by spending My Coins purchased by the viewing user, and free gifts are gifts that can be obtained by the viewing user with or without spending My Points obtained for free.

なお、本出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。したがって、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本件出願に記載された技術を理解することも可能である。 The term "gift" used in this application has the same concept as the term "token." Therefore, it is possible to understand the technology described in this application by replacing the term "gift" with the term "token."

また、視聴ユーザは、いいねボタンV14を押すことで好意を示す評価を投稿することができる。なお、いいねボタンV14に加えて/代えて、否定的な評価やその他の感情を投稿するボタンを表示することも可能である。 In addition, the viewing user can post a rating showing a favorable opinion by pressing the like button V14. Note that in addition to or instead of the like button V14, it is also possible to display a button for posting a negative rating or other emotions.

また、配信ユーザが配信設定で他のユーザの出演可否を可に設定している場合、コラボ申請ボタンV15を選択することで動画への出演申請を送信することができる。 In addition, if the broadcasting user has set the option to allow other users to appear in the video in their broadcast settings, they can send a request to appear in the video by selecting the collaboration request button V15.

また、視聴ユーザが未だフォローしていない配信ユーザが配信する動画の画面には、視聴ユーザが配信ユーザをフォローするためのフォローボタンV16が表示される。このフォローボタンは、視聴ユーザが既にフォローしている配信ユーザが配信する動画の画面では、フォロー解除ボタンとして機能する。 In addition, on the screen of a video distributed by a distributor user who is not yet being followed by the viewing user, a follow button V16 is displayed that allows the viewing user to follow the distributor user. This follow button functions as an unfollow button on the screen of a video distributed by a distributor user who is already being followed by the viewing user.

なお、この「フォロー」は視聴ユーザから視聴ユーザへ、配信ユーザから視聴ユーザへ、配信ユーザから配信ユーザへ行われるものであってもよい。ただし、フォローは一方向のみの関連付けとして管理され、逆方向の関連付けはフォロワーとして別に管理されるものとする。 Note that this "following" may occur from viewing user to viewing user, from broadcasting user to viewing user, or from broadcasting user to broadcasting user. However, following is managed as a one-way association only, and associations in the reverse direction are managed separately as followers.

また、画面の静止画を保存するためのフォトボタンV25も表示されることができる。 A photo button V25 for saving a still image of the screen may also be displayed.

また、視聴画面V10には、応援ランキング表示ボタンV17、シェアボタンV18、ランキング表示ボタンV19も表示される。 The viewing screen V10 also displays a support ranking display button V17, a share button V18, and a ranking display button V19.

応援ランキングは、配信ユーザを応援している視聴ユーザのランキングを表示するものであり、ランキングはギフトの額(ポイント/コイン)等に応じて算出されることができる。 The support ranking displays a ranking of viewing users who are supporting a broadcasting user, and the ranking can be calculated based on the amount of the gift (points/coins), etc.

また、動画のシェアに関し、視聴ユーザはシェアボタンV18を押すことでシェア可能なSNS(ソーシャル・ネットワーキング・サービス)一覧を確認し、選択により指定したSNSの指定した場所に固定リンクを送信することができる。 In addition, when sharing a video, the viewing user can press the share button V18 to check a list of SNS (social networking services) on which the video can be shared, and can send a fixed link to a specified location on a specified SNS by selecting it.

また、コラボ申請ボタンV15を押すことで配信ユーザに対してコラボ配信をリクエストすることができる。コラボ配信とは、配信ユーザの配信動画に視聴ユーザのキャラクタオブジェクトを登場させることをいう。 You can also request a collaboration broadcast from the broadcasting user by pressing the collaboration request button V15. A collaboration broadcast means having the viewing user's character object appear in the broadcasting user's video.

視聴画面V10の上部には、配信ユーザアイコンV21、配信ユーザ名(キャラクタオブジェクト名)V22、累計視聴者数表示V23、累計いいね数表示V24が表示されることができる。 The upper part of the viewing screen V10 can display the broadcast user icon V21, the broadcast user name (character object name) V22, a cumulative number of viewers display V23, and a cumulative number of likes display V24.

また、視聴終了ボタンV20を選択すると、視聴を終了するための画面が展開し、視聴終了要求を送信することができるようになる。 In addition, when the End Viewing button V20 is selected, a screen for ending viewing appears, allowing the user to send a request to end viewing.

かかる視聴を終了するための画面について、詳細に説明する。かかる画面は、「小窓音声配信」と呼ばれ、動画の映像は表示させに音声のみを再生する態様での視聴を行うためのものである。 The screen for ending such viewing will be explained in detail below. This screen is called "small window audio distribution" and is used for viewing in a mode where only the audio is played without displaying the video image.

上記視聴終了ボタンV20の選択は、動画の視聴終了要求として視聴受付部によって受け付けられる。 Selection of the above-mentioned viewing end button V20 is accepted by the viewing acceptance unit as a request to end viewing of the video.

このとき、動画配信部は、視聴終了要求に応じて、映像に関する情報の配信を終了する一方で、音声に関する情報の配信は終了させない。 At this time, the video distribution unit ends the distribution of information about the video in response to the request to end viewing, but does not end the distribution of information about the audio.

そして、ユーザ端末において、映像および音声に関する情報が配信されている場合には、ユーザ端末には映像が主画面に表示され、音声に関する情報のみが配信されている場合には、ユーザ端末には映像は表示されず動画を視聴中であることを示す副画面が表示されることを特徴とする。 When information about video and audio is distributed to the user terminal, the video is displayed on the main screen of the user terminal, and when information about audio only is distributed, the video is not displayed on the user terminal, but a sub-screen indicating that a video is being viewed is displayed.

図14は、上記副画面V51が表示された画面V50のイメージを示したものである。 Figure 14 shows an image of screen V50 on which the above-mentioned sub-screen V51 is displayed.

この副画面V51が表示される際、バックに表示される主画面は動画を視聴する前の画面へと遷移する。例えば、おすすめタブから視聴枠へ移動した場合にはおすすめタブの表示へと戻り、フォロータブから視聴枠へ移動した場合にはフォロータブへと遷移する。 When this sub-screen V51 is displayed, the main screen displayed in the background transitions to the screen before watching the video. For example, if you move from the recommendation tab to the viewing frame, it will return to displaying the recommendation tab, and if you move from the follow tab to the viewing frame, it will transition to the follow tab.

この副画面V51が表示されている場合、主画面での操作が可能となり、他の画面への遷移が可能となる。 When this sub-screen V51 is displayed, operations can be performed on the main screen, and transitions to other screens are possible.

副画面V51には、プロフィール画像、名前、タイトルおよび、音声が流れていることが視覚的に識別可能な音声アイコンが表示される。 The sub-screen V51 displays a profile picture, name, title, and an audio icon that visually indicates that audio is being played.

そして、副画面V51に表示された終了アイコンV52の選択により、視聴を完全に終了させることができる。 Then, viewing can be completely ended by selecting the end icon V52 displayed on the sub-screen V51.

なお、映像の表示の終了については、サーバ装置から情報は送信するものの端末側で表示をしないものとしてもよいし、サーバ装置から情報の送信自体を停止するものとしてもよい。 When the video display is to be terminated, the server device may transmit information but not display it on the terminal, or the server device may stop transmitting information altogether.

かかる構成によれば、音声のみ聞きながら他の配信を探したり、他のユーザとのチャットを楽しんだりすることができるようになる。 With this configuration, you can search for other broadcasts or chat with other users while listening to only the audio.

続いて、配信ユーザの動画に他のユーザが出演する「コラボ」について説明する。 Next, we will explain "collaborations," where other users appear in a streaming user's videos.

上述したとおり、視聴ユーザは、図12に示すコラボ申請ボタンV15を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信することができる。 As described above, the viewing user can send a request to join the video by pressing the collaboration request button V15 shown in FIG. 12 and going through the collaboration distribution participation request confirmation screen that is displayed.

本開示における一又は複数のコンピュータプロセッサが備えるコラボアバタ表示部は、受付部が受け付けた参加要求に応じて、当該参加要求を行った視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトを動画に表示させる。 In the present disclosure, the collaboration avatar display unit provided in one or more computer processors displays in the video a character object that is generated based on the movement of the viewing user who has made the participation request in response to the participation request received by the reception unit.

図15は、一例として、ホストユーザのキャラクタオブジェクトである第1のアバタA1が表示された動画に、ゲストユーザのキャラクタオブジェクトである第2のアバタA2が参加している場合の視聴または配信画面を示したものである。なお、図15ではアバタ以外のオブジェクトの表示については省略されている。 Figure 15 shows, as an example, a viewing or distribution screen in which a second avatar A2, which is a character object of a guest user, is participating in a video in which a first avatar A1, which is a character object of a host user, is displayed. Note that in Figure 15, the display of objects other than the avatars is omitted.

また、図16に示すように、さらに、別の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第3のアバタA3が動画に参加してもよい。なお、図16では第3のアバタA3が、第1のアバタA1および第2のアバタA2の後方に配置されているが、3人が横一列に並ぶように配置されてもよい。また、アバタの配置位置は配信ユーザが指定できるようにしてもよい。 As shown in FIG. 16, a third avatar A3, which is a character object generated based on the movement of another viewing user, may also participate in the video. Note that in FIG. 16, the third avatar A3 is placed behind the first avatar A1 and the second avatar A2, but the three may be placed in a horizontal line. The placement positions of the avatars may be specified by the distribution user.

図17は、図5に示したトップ画面のフォロータブの選択により表示される、相互フォロー関係を有するユーザの一覧画面T30を示したものである。相互フォローとは、互いに相手のフォロワーとなっている関係をいう。 Figure 17 shows a list screen T30 of users who have mutual follow relationships, which is displayed by selecting the Follow tab on the top screen shown in Figure 5. Mutual follow refers to a relationship in which each user is a follower of the other.

この一覧画面T30には、相互フォロー関係を有するユーザのプロフィール画像および名前が表示されている。 This list screen T30 displays the profile images and names of users with whom you have a mutual follow relationship.

図17に示されるように、一覧画面T30には、相互フォロー関係を有するユーザの各々に対して第一のオブジェクトT31が表示されるものとする。また、第一のオブジェクトT31とともに、チャットオブジェクトT32が表示されるものとしてもよい。このチャットオブジェクトを選択することにより、第二ユーザとの個別のチャット画面へと遷移することができる。 As shown in FIG. 17, the list screen T30 displays a first object T31 for each user who has a mutual follow relationship. In addition, a chat object T32 may be displayed together with the first object T31. By selecting this chat object, it is possible to transition to an individual chat screen with the second user.

第一のオブジェクトT31は、当該第一のオブジェクトT31に関連付けられたユーザの端末に対して、所定の通知を送信する。 The first object T31 sends a specified notification to the terminal of the user associated with the first object T31.

所定の通知は、一例として、呼び出し通知とすることができる。 The specified notification may be, for example, a call notification.

<第一の実施形態>
続いて、本開示における第一の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
First Embodiment
Next, various functions executable by the first user terminal 100, the second user terminal 200 and/or the server device 400 provided in the information processing system 3000 according to the first embodiment of the present disclosure will be described with reference to the drawings.

本開示の第一の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図18に示されるように、送信部411、受付部412、第一の動画生成部413、第二の動画生成部414および動画切替部415を備える。 The one or more computer processors included in the information processing system 3000 according to the first embodiment of the present disclosure include a transmission unit 411, a reception unit 412, a first video generation unit 413, a second video generation unit 414, and a video switching unit 415, as shown in FIG. 18.

ここでは、上記送信部411、受付部412、第一の動画生成部413、第二の動画生成部414および動画切替部415はいずれもサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。 Here, the sending unit 411, the receiving unit 412, the first video generating unit 413, the second video generating unit 414, and the video switching unit 415 are all described as being provided in the server device 400, but are not limited to this.

送信部411は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。 The transmission unit 411 transmits information about the video including the character object of the first user to the second user terminal 200 of the second user.

動画は、図19に一例として示されるように、第一ユーザのキャラクタオブジェクトCOを含む動画とすることができる。 The video may include the first user's character object CO, as shown as an example in FIG. 19.

動画に関する情報は、第二ユーザ端末200において動画を視聴可能とするための情報であればよく、動画のレンダリングはサーバ装置400または第一ユーザ端末100で行われるものであってもよいし、第二ユーザ端末200において行われるものであってもよい。 The information regarding the video may be information that enables the video to be viewed on the second user terminal 200, and rendering of the video may be performed on the server device 400 or the first user terminal 100, or may be performed on the second user terminal 200.

動画に含まれるキャラクタオブジェクトCOの少なくとも顔部には、第一ユーザ端末100が備えるカメラ(ここでは一例としてインカメラ)で撮影された第一ユーザの顔の動きが反映されるものとしてもよい。 At least the facial portion of the character object CO included in the video may reflect the facial movements of the first user captured by a camera (here, the in-camera as an example) provided on the first user terminal 100.

受付部412は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。 The reception unit 412 receives a request to display the first object from the second user terminal 200.

第一のオブジェクトは、一例として、上述したギフトオブジェクトとすることができる。図13および図20に示されるように、第二ユーザは、第二ユーザ端末200に表示されたギフト一覧画面V30から所望のギフトオブジェクトの表示要求を送信することができる。図中に示されるポイント(P,pt)は、ユーザが本システムにおける報酬やイベントなどで無料で入手可能なものであり、図中に示されるコイン(C)は、ユーザが購入することにより有料で入手可能なものである。 The first object may be, as an example, the gift object described above. As shown in FIG. 13 and FIG. 20, the second user may send a display request for a desired gift object from the gift list screen V30 displayed on the second user terminal 200. The points (P, pt) shown in the figure are available to the user free of charge as rewards or in events in the system, and the coins (C) shown in the figure are available to the user for a fee by purchasing them.

第一の動画生成部413は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。 The first video generation unit 413 generates first information for displaying the first user's character object and the first object in a first area in the virtual space as a first video.

上記第一情報は、動画の内容によって異なるが、一例として上述したような配信ユーザのキャラクタオブジェクトが出演する動画の場合には、キャラクタオブジェクトの動作を示すモーション情報、配信ユーザの音声情報、視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報には、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とが含まれるものとする。 The first information will vary depending on the content of the video, but as an example, in the case of a video in which the distributing user's character object appears as described above, it will include motion information showing the character object's movements, audio information of the distributing user, gift object information showing gifts sent by viewing users, etc. The gift object information will include at least gift object identification information that specifies the type of gift object, and location information that indicates the location where the gift object is displayed.

図19は、第一ユーザ端末100および/または第二ユーザ端末200の表示部に表示される第一の動画を表示した画面V10のイメージを示したものである。図19に示される画面V10には、少なくともキャラクタオブジェクトCOおよび第一のオブジェクトG1が含まれる。なお、図19では省略されているが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。 Figure 19 shows an image of a screen V10 displaying a first video displayed on the display unit of the first user terminal 100 and/or the second user terminal 200. The screen V10 shown in Figure 19 includes at least a character object CO and a first object G1. Although omitted in Figure 19, various displays and operation UIs may be displayed in a superimposed manner, as shown in Figures 8 and 12.

第二の動画生成部414は、第二の動画として、第一のオブジェクトG1とは異なる第二のオブジェクトS1を仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトCOを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。 The second video generation unit 414 generates second information for displaying a second object S1 different from the first object G1 in a second area in the virtual space as a second video, and displaying the first user's character object CO movably between the first area and the second area.

第二のオブジェクトS1は、第一のオブジェクトG1のように第二ユーザ端末200からの表示要求に応じて表示されるものではなく、サーバ装置400(システム側)で表示位置およびタイミングを制御するものである。 The second object S1 is not displayed in response to a display request from the second user terminal 200, as is the first object G1, but rather the display position and timing are controlled by the server device 400 (system side).

図21は、第一ユーザ端末100および/または第二ユーザ端末200の表示部に表示される第二の動画を表示した画面V40のイメージを示したものである。図21に示される画面V40には、少なくともキャラクタオブジェクトCO、第二のオブジェクトS1が含まれる。なお、図21では省略されているが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。 Figure 21 shows an image of a screen V40 displaying a second video displayed on the display unit of the first user terminal 100 and/or the second user terminal 200. The screen V40 shown in Figure 21 includes at least a character object CO and a second object S1. Although omitted in Figure 21, various displays and operation UIs may be displayed superimposed, as shown in Figures 8 and 12.

ここで、本開示における仮想空間の広がりのイメージについて図22を参照しながら詳細に説明する。 Here, we will explain in detail the image of the expansion of virtual space in this disclosure with reference to Figure 22.

図22に一例として示されるように、本実施形態における仮想空間は、円盤状の島(ワールド)が宙に浮いているように配置されている。この島は、タワー状のケーキの天地を逆にした態様のオブジェクトであり、円盤状の地面に様々なオブジェクトが配置される構成とすることができる。なお、この島や地面は一例として示されたものであり、これらの表示態様は特に限定されない。 As shown as an example in FIG. 22, the virtual space in this embodiment is arranged so that a disk-shaped island (world) appears floating in the air. This island is an object that resembles an upside-down tower-shaped cake, and various objects can be arranged on the disk-shaped ground. Note that this island and ground are shown as examples, and their display forms are not particularly limited.

オブジェクトとしては、少なくとも、上述したキャラクタオブジェクトCO、第一のオブジェクトG1および第二のオブジェクトS1が表示されることができる。 At least the above-mentioned character object CO, first object G1, and second object S1 can be displayed as objects.

このように、第二の動画のコンテンツとして提供されるのは「ワールド」であり、かかる「ワールド」は上述した「ワールド機能」を実行することにより展開する。 In this way, the "world" is provided as the content of the second video, and this "world" is expanded by executing the "world function" described above.

図23は、図22に示した地面の上面図であって、上記の構成における第一の領域と第二の領域を説明するためのイメージ図である。なお、各オブジェクトは見易さのために正面視の状態で描かれている。 Figure 23 is a top view of the ground shown in Figure 22, and is an image diagram for explaining the first and second areas in the above configuration. Note that each object is drawn as seen from the front for ease of viewing.

図23に示されるように、キャラクタオブジェクトCOが移動可能な領域は、仮想空間における第一の領域R10と第二の領域R20とすることができる。 As shown in FIG. 23, the areas in which the character object CO can move can be a first area R10 and a second area R20 in the virtual space.

第一の領域R10と第二の領域R20とは連続的な領域であればよく、これらの位置関係および形状については特に限定されない。 The first region R10 and the second region R20 need only be continuous regions, and there are no particular limitations on their positional relationship or shape.

一例として、第一の動画は、図24に示す仮想カメラVC1の位置から第一の領域R10を撮影した画像として生成される(図19)。なお、この仮想カメラVC1の位置および向き等は、第一ユーザの操作によって所定範囲内で変更が可能であるものとする。 As an example, the first video is generated as an image of the first region R10 captured from the position of the virtual camera VC1 shown in FIG. 24 (FIG. 19). Note that the position and orientation of this virtual camera VC1 can be changed within a predetermined range by the operation of the first user.

また、一例として、第二の動画は、図25に示す仮想カメラVC2の位置から第一の領域R10および/または第二の領域R20を撮影した画像として生成される(図21)。なお、この仮想カメラVC2の位置および向き等は、第一ユーザの操作によって変更が可能であるが、基本的にはキャラクタオブジェクトCOの移動に追従して仮想カメラは移動するものとする。仮想カメラVC2の操作手法の詳細については後述する。 As another example, the second video is generated as an image of the first region R10 and/or the second region R20 captured from the position of the virtual camera VC2 shown in FIG. 25 (FIG. 21). Note that the position and orientation of this virtual camera VC2 can be changed by the operation of the first user, but the virtual camera basically moves in accordance with the movement of the character object CO. The method of operating the virtual camera VC2 will be described in detail later.

このように、第一の動画および第二の動画は、同一の仮想空間(ワールド)内で撮影された動画とすることができる。あるいは、第一の動画および第二の動画は、別の仮想空間で撮影された動画とすることもできる。この場合には、第二の動画を上記ワールドで撮影された動画とする。 In this way, the first video and the second video can be videos taken in the same virtual space (world). Alternatively, the first video and the second video can be videos taken in different virtual spaces. In this case, the second video is a video taken in the world.

また、仮想空間に設けられた第一ユーザのプライベートスペースである自分の部屋を第一の領域、パブリックスペースである部屋の外を第二の領域とし、これらの領域を行き来できるような構成としてもよい。 In addition, the first user's room, which is the first user's private space in the virtual space, may be set as the first area, and the area outside the room, which is the public space, may be set as the second area, and the user may be able to move between these areas.

そして、動画切替部415は、第一ユーザの第一ユーザ端末100からの指示に応じて、第二ユーザ端末200に表示させる動画を、第一の動画と第二の動画とで切り替えることを特徴とする。 The video switching unit 415 is characterized in that it switches the video displayed on the second user terminal 200 between the first video and the second video in response to an instruction from the first user terminal 100 of the first user.

上記指示は、第一ユーザ端末100に表示された第一の動画および第二の動画に表示された所定の操作UIに対する操作によりサーバ装置400に送信されるものとすることができる。 The above instruction can be transmitted to the server device 400 by operating a specific operation UI displayed on the first video and the second video displayed on the first user terminal 100.

一例として、第一の動画から第二の動画へ/第二の動画から第一の動画への切り替えは、第一の動画および第二の動画に表示される切替ボタンの選択により行うことができる。 As an example, switching from a first video to a second video/from the second video to the first video can be performed by selecting a switching button displayed on the first video and the second video.

第二の動画としてのワールド機能が上述したゲームの一つとして提供される場合、上述したゲーム配信の開始および終了手順を適用することができる。 If the world function as the second video is provided as one of the games described above, the above-mentioned game distribution start and end procedures can be applied.

具体的には、第一の動画から第二の動画への切り替えは、第一の動画に表示されたゲームのプレイ開始ボタンD33(図8)または当該プレイ開始ボタンD33の選択により遷移した先の画面において表示されるゲーム一覧の中から選択した一のゲームのプレイボタンG11,G21(図9,図10)を選択することにより行うことができる。 Specifically, switching from the first video to the second video can be performed by selecting the play button D33 (Figure 8) of the game displayed in the first video, or the play button G11, G21 (Figures 9, 10) of a game selected from a list of games displayed on the screen transitioned to by selecting the play button D33.

また、第二の動画から第一の動画への切り替えは、第二の動画に表示されたプレイ終了ボタンV41(図21等)を選択することにより行うことができる。 In addition, switching from the second video to the first video can be performed by selecting the play end button V41 (Figure 21, etc.) displayed on the second video.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

具体的には、まず、第一の動画および第二の動画の2種類の動画の存在により、動画の興趣性が向上する。 Specifically, first, the presence of two types of videos, a first video and a second video, increases the interest of the videos.

特に、第二の動画の舞台となる仮想空間「ワールド」には、テーマに沿って魅力的な第二のオブジェクトが配置されており、キャラクタオブジェクトは自由に移動して好きな場所・好きな視点で動画を生成することができるため、第一の動画よりもユーザの個性を出した動画を生成することができるようになる。 In particular, the virtual space "world" where the second video is set is populated with attractive second objects that fit the theme, and the character objects can be moved freely to generate videos from any location and perspective, allowing users to create videos that reflect their individuality more than the first video.

また、上記ワールドを探索している動画を生成することで、トークやコメントにおける話題作りが容易になる。 In addition, by generating videos of people exploring the world, it will be easier to create topics for conversation and comments.

また、これら2種類の動画を切り替え可能とすることにより、必然的に配信時間も長くすることができるようになる。 In addition, by being able to switch between these two types of video, it will inevitably be possible to extend the distribution time.

このように、第一の動画および第二の動画の2種類の動画の存在、および、切替によって、動画のコンテンツとしての質が従来よりも向上する。 In this way, the existence of two types of video, the first video and the second video, and the ability to switch between them, improves the quality of the video content compared to the past.

また、動画のコンテンツとしての質が向上することにより、動画を視聴するユーザの視聴意欲も向上し、視聴するユーザの数が増加することに伴って配信するユーザの配信意欲も向上することになる。 In addition, as the quality of video content improves, users will be more willing to watch the videos, and as the number of viewers increases, so will the willingness of broadcasters to continue broadcasting.

そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザとの交流、さらには、配信ユーザ同士、視聴ユーザ同士の交流が活性化することにつながる。 And as the willingness to broadcast and watch increases, so will the interaction between broadcast users and viewer users, and even between broadcast users themselves and between viewer users themselves.

なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することができる。 The virtual space displayed by executing the world function described above has been described as a space for distributing the second video, but it can also be used as a virtual space in which multiple avatars corresponding to multiple users can roam freely and communicate with each other, rather than being limited to a space for distributing the second video.

そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(第一ユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、本開示の情報処理システムによれば、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。 And one of the multiple avatars in the virtual space (first user) may be configured to distribute a first video as a distribution user. In other words, according to the information processing system disclosed herein, one-to-many video distribution can be performed in a many-to-many metaverse virtual space.

続いて、第一の実施形態における他の適用例について説明を行う。 Next, we will explain other application examples of the first embodiment.

動画切替部415により動画が第一の動画から第二の動画へ切り替えられた場合、第二の動画生成部414は、既に表示されている第一のオブジェクトG1の第一の領域への表示は維持したまま、第二情報を生成することができる。 When the video switching unit 415 switches the video from the first video to the second video, the second video generating unit 414 can generate the second information while maintaining the display of the already-displayed first object G1 in the first area.

具体的には、図19に示された第一の動画の画面V10に表示された第一のオブジェクトG1(りんごオブジェクト)は、図21に示された第二の動画の画面V40へと変化しても引き続き表示される。 Specifically, the first object G1 (apple object) displayed on the first video screen V10 shown in FIG. 19 continues to be displayed even when it changes to the second video screen V40 shown in FIG. 21.

動画切替部415により動画が第二の動画から第一の動画へ切り替えられた場合、第一の動画生成部413は、既に表示されている第一のオブジェクトG1の第一の領域への表示は維持したまま、第一情報を生成することができる。 When the video switching unit 415 switches the video from the second video to the first video, the first video generating unit 413 can generate the first information while maintaining the display of the already-displayed first object G1 in the first area.

具体的には、図21に示された第二の動画の画面V40に表示された第一のオブジェクトG1(りんごオブジェクト)は、図19に示された第一の動画の画面V10へと変化しても引き続き表示される。このとき、第一の領域へ表示されていた第一のオブジェクトG1のみならず、第二の領域へ表示されていた第一のオブジェクトG1についても表示位置を変更して引き続き表示される構成とすることができる。 Specifically, the first object G1 (apple object) displayed on the second video screen V40 shown in FIG. 21 continues to be displayed even when the screen changes to the first video screen V10 shown in FIG. 19. At this time, not only the first object G1 displayed in the first area, but also the first object G1 displayed in the second area can be configured to change its display position and continue to be displayed.

なお、第一のオブジェクトG1の表示は、第一のオブジェクトG1毎に設定された表示時間に基づいて制御されるため、表示開始から表示時間の経過により第一のオブジェクトG1の表示は終了する。第一のオブジェクトG1の表示要求は、第一の動画の表示中でも第二の動画の表示中でも行うことが可能であり、いずれの場合であっても、途中の動画の切り替えの有無にかかわらず、第一のオブジェクトG1の表示は表示時間の経過まで継続する。言い換えると、配信ユーザの操作(行為)によって視聴ユーザが投じたギフトの表示時間が変更されることがないため、コイン等を消費することによりギフトを投じた視聴ユーザに不満を生じさせない。 Note that the display of the first object G1 is controlled based on the display time set for each first object G1, and therefore the display of the first object G1 ends when the display time has elapsed from the start of display. A request to display the first object G1 can be made while the first video or the second video is being displayed, and in either case, the display of the first object G1 continues until the display time has elapsed, regardless of whether the video is switched in between. In other words, the display time of the gift deposited by the viewing user is not changed by the operation (action) of the distribution user, and therefore the viewing user who deposited the gift by consuming coins or the like is not dissatisfied.

第二の動画生成部414は、所定条件に基づいて少なくとも第二のオブジェクトS1を別の第二のオブジェクトS1に変更することができる。 The second video generating unit 414 can change at least the second object S1 to another second object S1 based on a predetermined condition.

図21および図22に示した例では、第二のオブジェクトS1は一例として犬オブジェクト、かぼちゃオブジェクト、タワーケーキオブジェクト等であるが、これら第二のオブジェクトS1は、一例として図26および図27に示すように少なくとも犬オブジェクトとかぼちゃオブジェクトをクラゲオブジェクトと魚オブジェクトに変更することができる。また、タワーケーキオブジェクトのように、変更されない第二のオブジェクトS1があってもよい。本開示においてかかる第二のオブジェクトS1が変更されることを、テーマの変更と呼ぶ。 In the examples shown in Figures 21 and 22, the second objects S1 are, for example, a dog object, a pumpkin object, a tower cake object, etc., but as for these second objects S1, as for example, at least the dog object and the pumpkin object can be changed to a jellyfish object and a fish object, as shown in Figures 26 and 27. Also, there may be second objects S1 that do not change, such as tower cake objects. In this disclosure, changing such second objects S1 is referred to as changing the theme.

所定条件は、予定時刻の到来、予定時間の経過、または、第一ユーザまたは他のユーザからの変更指示を受信したこととすることができる。 The predetermined condition may be the arrival of a scheduled time, the passage of a scheduled time, or the receipt of a change instruction from the first user or another user.

所定条件が予定時刻の到来である場合、第二の動画生成部414は、動画の配信開始時間に関わらず、予定時刻が到来した際に第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、予定時刻は10時20分、10時40分、11時00分等の一定間隔の時刻とすることができる。また、予定時刻は、朝(6時00分)、昼(12時00分)、夜(18時00分)とすることもできる。なお、この時間は現実の日の出日の入りの時間に応じて変更されるものとしてもよい。 When the specified condition is the arrival of the scheduled time, the second video generation unit 414 changes the second object to another second object when the scheduled time arrives, regardless of the start time of video distribution. As an example, the scheduled time can be set to regular intervals such as 10:20, 10:40, and 11:00. The scheduled time can also be set to morning (6:00), midday (12:00), and night (18:00). Note that this time may be changed according to the actual times of sunrise and sunset.

また、予定時刻の到来には予定日時の到来も含まれる。この場合、第二の動画生成部414は、動画の配信開始時間に関わらず、予定日時が到来した際に第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、予定日時は10月31日0時00分(ハロウィン)、12月25日0時00分(クリスマス)、1月1日0時00分(元旦)等のイベント開始の日時とすることができる。 The arrival of the scheduled time also includes the arrival of the scheduled date and time. In this case, the second video generation unit 414 changes the second object to another second object when the scheduled date and time arrives, regardless of the distribution start time of the video. As an example, the scheduled date and time can be the start date and time of an event, such as October 31st, 0:00 (Halloween), December 25th, 0:00 (Christmas), January 1st, 0:00 (New Year's Day), etc.

所定条件が予定時間の経過である場合、第二の動画生成部414は、動画の配信開始時間から予定時間が経過した際に第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、予定時間は配信開始から20分、40分、60分等の一定間隔の時間とすることができる。 If the specified condition is the passage of a scheduled time, the second video generation unit 414 changes the second object to another second object when the scheduled time has elapsed from the start time of distribution of the video. As an example, the scheduled time can be a regular interval such as 20 minutes, 40 minutes, or 60 minutes from the start of distribution.

所定条件が第一ユーザまたは他のユーザからの変更指示を受信したことである場合、第二の動画生成部414は、動画の配信中に第一ユーザまたは他のユーザからの変更指示を受信した際に、第二のオブジェクトを別の第二のオブジェクトに変更するものとする。一例として、変更指示は、画面に表示された変更指示オブジェクトの選択により行われることができる。なお、ここでいう他のユーザとは、視聴ユーザのみならず、後述するゲストユーザも含まれる。 If the predetermined condition is that a change instruction has been received from the first user or another user, the second video generating unit 414 changes the second object to another second object when a change instruction is received from the first user or another user during distribution of the video. As an example, the change instruction can be given by selecting a change instruction object displayed on the screen. Note that the other users mentioned here include not only viewing users but also guest users, which will be described later.

なお、所定条件が、予定時刻の到来や予定時間の経過である場合、予定時刻や第二のオブジェクトが変更されるまでの時間を動画内に表示してもよい。 If the specified condition is the arrival of a scheduled time or the passage of a scheduled time, the scheduled time or the time until the second object is changed may be displayed in the video.

また、第二の動画生成部414は、第二のオブジェクトS2を別の第二のオブジェクトS2に変更した場合であっても、既に表示されている第一のオブジェクトG1の第一の領域または第二の領域への表示は維持したまま、第二情報を生成することができる。 In addition, even if the second object S2 is changed to another second object S2, the second video generating unit 414 can generate the second information while maintaining the display of the already displayed first object G1 in the first area or the second area.

具体的には、図21に示された第二の動画の画面V40に表示された第一のオブジェクトG1(りんごオブジェクト)は、図26に示された第二の動画の画面V40へと変化しても引き続き表示される。 Specifically, the first object G1 (apple object) displayed on the second video screen V40 shown in FIG. 21 continues to be displayed even when the screen changes to the second video screen V40 shown in FIG. 26.

なお、第一のオブジェクトG1の表示は、第一のオブジェクトG1毎に設定された表示時間に基づいて制御されるため、表示開始から表示時間の経過により第一のオブジェクトG1の表示は終了する。第一のオブジェクトG1の表示は、第二のオブジェクトS1の変更の有無にかかわらず、表示時間の経過まで継続する。 The display of the first object G1 is controlled based on the display time set for each first object G1, so the display of the first object G1 ends when the display time has elapsed since the start of display. The display of the first object G1 continues until the display time has elapsed, regardless of whether the second object S1 has been changed.

また、図28に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、効果発生部416を備えることができる。 Furthermore, as shown in FIG. 28, one or more computer processors in this disclosure may further include an effect generation unit 416.

効果発生部416は、既に表示されている第一のオブジェクトG1または新たに表示された第一のオブジェクトG1が、第二のオブジェクトS1と特定の関係を有する場合に、所定の効果を発生させる。 The effect generation unit 416 generates a predetermined effect when an already displayed first object G1 or a newly displayed first object G1 has a specific relationship with a second object S1.

具体的には、予め所定の記憶部に記憶された組み合わせデータに基づいて、上記特定の関係の有無が判定される。一例として、第一のオブジェクトおよび第二のオブジェクトの各々には、識別番号および/または属性情報が対応付けられており、これらが一致または関連付けられている場合に、特定の関係を有すると判定される。 Specifically, the presence or absence of the specific relationship is determined based on combination data previously stored in a predetermined storage unit. As an example, each of the first object and the second object is associated with an identification number and/or attribute information, and if these match or are associated, it is determined that there is a specific relationship.

属性情報とは、例えば、季節(夏、冬等)に関する属性、イベント(ハロウィン、クリスマス、年末年始等)に関する属性、ロケーション(海、宇宙、空等)に関する属性などである。 Attribute information includes, for example, attributes related to seasons (summer, winter, etc.), attributes related to events (Halloween, Christmas, New Year's holidays, etc.), attributes related to locations (sea, space, sky, etc.), etc.

上記判定のタイミングは、第一のオブジェクトの表示要求を受信したタイミング、第一のオブジェクトが表示されたタイミング、または、第二のオブジェクトが別の第二のオブジェクトに変更されたタイミングとすることができる。 The timing of the above determination can be when a request to display the first object is received, when the first object is displayed, or when the second object is changed to another second object.

所定の効果は、例えば、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは、例えば、紙吹雪オブジェクト、クラッカーオブジェクト、くす玉オブジェクトなどの演出オブジェクトとすることができる。 The predetermined effect may be, for example, but is not limited to, displaying another object or generating a sound effect. The other object may be, for example, a presentation object such as a confetti object, a cracker object, or a paper balloon object.

また、図28に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、移動操作受付部417と、仮想カメラ制御部418とを備えることができる。 Furthermore, as shown in FIG. 28, one or more computer processors in the present disclosure may further include a movement operation receiving unit 417 and a virtual camera control unit 418.

移動操作受付部417は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。移動操作の詳細については後述する。 The movement operation receiving unit 417 receives a movement operation of the first user's character object in the virtual space. Details of the movement operation will be described later.

仮想カメラ制御部418は、仮想空間内を撮影する仮想カメラの動作を制御する。動作制御の詳細については後述する。 The virtual camera control unit 418 controls the operation of the virtual camera that captures images in the virtual space. Details of operation control will be described later.

また、本開示の実施形態において、第一ユーザのキャラクタオブジェクトの顔部の動きは、第一ユーザ端末100のインカメラによって撮影された第一ユーザの顔部の動きに基づいて生成されることができる。 Furthermore, in an embodiment of the present disclosure, the facial movement of the first user's character object can be generated based on the facial movement of the first user captured by the in-camera of the first user terminal 100.

そして、第一の動画生成部413は、第一ユーザのキャラクタオブジェクトの顔部の動きを、第一ユーザの顔部の動きと反転した反転状態で生成することができる。 The first video generation unit 413 can then generate the facial movement of the first user's character object in an inverted state that is the inverse of the facial movement of the first user.

具体的には、第一ユーザが右目でウインクをすると、第一ユーザのキャラクタオブジェクトは左目でウインクをする。第一ユーザは第一ユーザ端末100に表示されたキャラクタオブジェクトの顔を見ながら配信を行うため、反転状態(ミラー表示)にすることで第一ユーザは鏡を見ているように直感的な感覚(操作)で配信を行うことができるようになる。なお、左右を反転しない非反転状態(すなわち、第一ユーザが右目でウインクしたときにキャラクタオブジェクトが右目でウインクする状態)では違和感が生じ、直感的な感覚で操作をすることが難しい。 Specifically, when the first user winks with his/her right eye, the first user's character object winks with his/her left eye. Since the first user broadcasts while looking at the face of the character object displayed on the first user terminal 100, the inverted state (mirror display) allows the first user to broadcast with an intuitive feeling (operation) as if looking in a mirror. Note that a non-inverted state where the left and right are not inverted (i.e., a state in which the character object winks with its right eye when the first user winks with its right eye) creates an awkward feeling and makes it difficult to operate with an intuitive feeling.

そして、第二の動画生成部414は、第一ユーザのキャラクタオブジェクトと仮想カメラとの位置関係に応じて、第一ユーザのキャラクタオブジェクトの顔部の動きを、反転状態または非反転状態で生成することができる。 The second video generation unit 414 can generate the facial movement of the first user's character object in an inverted or non-inverted state depending on the positional relationship between the first user's character object and the virtual camera.

一例として、仮想カメラが第一ユーザのキャラクタオブジェクトの正面範囲の位置の場合(一例としてキャラクタオブジェクトの正面から左右90度の範囲)には、キャラクタオブジェクトの顔部の動きを反転状態で生成し、仮想カメラが第一ユーザのキャラクタの正面範囲から外れる位置の場合(一例としてキャラクタオブジェクトの正面から左右90度を超える範囲)には、キャラクタオブジェクトの顔部の動きを非反転状態で生成する。 As one example, when the virtual camera is positioned within the range in front of the first user's character object (for example, within a range of 90 degrees left or right from the front of the character object), the facial movement of the character object is generated in an inverted state, and when the virtual camera is positioned outside the range in front of the first user's character (for example, within a range exceeding 90 degrees left or right from the front of the character object), the facial movement of the character object is generated in a non-inverted state.

具体的には、仮想カメラが第一ユーザのキャラクタオブジェクトの正面範囲の位置と判定される場合には、第一ユーザが右目でウインクをすると、第一ユーザのキャラクタオブジェクトは左目でウインクをする。逆に、仮想カメラが第一ユーザのキャラクタオブジェクトの正面範囲を超える位置と判定される場合には、第一ユーザが右目でウインクをすると、第一ユーザのキャラクタオブジェクトは右目でウインクをする。 Specifically, if the virtual camera is determined to be located within the front range of the first user's character object, when the first user winks with his/her right eye, the first user's character object will wink with his/her left eye. Conversely, if the virtual camera is determined to be located beyond the front range of the first user's character object, when the first user winks with his/her right eye, the first user's character object will wink with his/her right eye.

上記例では顔部の動きについて説明を行ったが、頭部や腕部の動きについても同様の制御方法とすることができる。 In the above example, we have explained the movement of the face, but the same control method can be used for the movement of the head and arms.

これによれば、仮想カメラとキャラクタオブジェクトの位置関係によって生じる表示上の違和感を解消することができる。 This can eliminate the awkwardness that can arise from the positional relationship between the virtual camera and the character object.

なお、上記反転状態および非反転状態は第一ユーザの指示によって切り替えられるものとしてもよい。 The inverted and non-inverted states may be switched at the command of the first user.

また、第二の動画生成部414は、第一ユーザのキャラクタオブジェクトが移動可能な領域を超えて移動した場合、仮想空間内の他の位置から再出現させることができる。 In addition, if the first user's character object moves beyond the movable area, the second video generation unit 414 can make it reappear from another position in the virtual space.

仮想空間が図22および図27に示したような空間である場合、円盤状の地面の端を超えてキャラクタオブジェクトが移動した場合、キャラクタオブジェクトをタワーの下へ落下させ、円盤状の地面の中央上部から降ってくるように再出現させることができる。再出現の位置を中央とすることにより、キャラクタオブジェクトがワールド内のどの方向に行くのにも都合がよい。また、ワールド内で道に迷った場合にも、基準となる中央位置へ戻ることができる。 When the virtual space is a space as shown in Figures 22 and 27, if a character object moves beyond the edge of the disk-shaped ground, it is possible to make the character object fall below the tower and reappear by descending from the upper center of the disk-shaped ground. By making the reappearance position the center, it is convenient for the character object to go in any direction within the world. Also, if the character object gets lost within the world, it can return to the reference central position.

以上、第一の実施形態の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 As described above, the configuration of the first embodiment can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the configuration described above can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

<第二の実施形態>
続いて、本開示における第二の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
Second Embodiment
Next, various functions executable by the first user terminal 100, the second user terminal 200 and/or the server device 400 provided in the information processing system 3000 according to the second embodiment of the present disclosure will be described with reference to the drawings.

本開示の第二の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図29に示されるように、送信部421、受付部422、第一の動画生成部423、第二の動画生成部424を備える。 The one or more computer processors included in the information processing system 3000 according to the second embodiment of the present disclosure include a transmission unit 421, a reception unit 422, a first video generation unit 423, and a second video generation unit 424, as shown in FIG. 29.

ここでは、上記送信部421、受付部422、第一の動画生成部423、第二の動画生成部424はいずれもサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。 Here, the transmitting unit 421, the receiving unit 422, the first video generating unit 423, and the second video generating unit 424 are all described as being provided in the server device 400, but are not limited to this.

送信部421は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。送信部421は、上述した送信部411と同様の構成とすることができる。 The transmission unit 421 transmits information about the video including the character object of the first user to the second user terminal 200 of the second user. The transmission unit 421 can be configured in the same manner as the transmission unit 411 described above.

受付部422は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。受付部422は、上述した受付部422と同様の構成とすることができる。 The reception unit 422 receives a display request for the first object from the second user terminal 200. The reception unit 422 may have a configuration similar to that of the reception unit 422 described above.

第一の動画生成部423は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。第一の動画生成部423は、上述した第一の動画生成部413と同様の構成とすることができる。 The first video generating unit 423 generates first information for displaying the character object and the first object of the first user in a first area in the virtual space as a first video. The first video generating unit 423 may have a configuration similar to that of the first video generating unit 413 described above.

第二の動画生成部424は、第二の動画として、第一のオブジェクトG1とは異なる第二のオブジェクトS1を仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトCOを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。第二の動画生成部424は、上述した第二の動画生成部424と同様の構成とすることができる。 The second video generating unit 424 generates second information for displaying a second object S1 different from the first object G1 in a second area in the virtual space as the second video, and displaying the first user's character object CO movably in the first area and the second area. The second video generating unit 424 may have a configuration similar to that of the second video generating unit 424 described above.

そして、第二の動画生成部440は、第一のオブジェクトG1に関連付けられた配置位置情報に基づいて、当該第一のオブジェクトG1を第一の領域R10の所定位置(図23等)、または、第一ユーザのキャラクタオブジェクトCOに関連付けられた位置に表示させることを特徴とする。 The second video generating unit 440 is characterized in that, based on the placement position information associated with the first object G1, the first object G1 is displayed at a predetermined position in the first region R10 (e.g., FIG. 23) or at a position associated with the first user's character object CO.

第一のオブジェクトG1の第一のオブジェクト情報には、ギフトオブジェクトについての説明個所に記載したとおり、第一のオブジェクトG1が表示される位置を示す位置情報(配置位置情報)が含まれる。 The first object information of the first object G1 includes position information (placement position information) indicating the position where the first object G1 is displayed, as described in the explanation of the gift object.

第一のオブジェクトG1の配置位置情報には、一例として、第一の領域R10の中の所定位置(所定領域)の座標、または、第一ユーザのキャラクタオブジェクトCOの部位が定められているものとする。 The placement position information of the first object G1 may, for example, include the coordinates of a specific position (specific area) within the first region R10, or a part of the first user's character object CO.

本開示において、前者の配置位置情報を有する第一のオブジェクトG1を非装着オブジェクトと呼び、後者の配置位置情報を有する第一のオブジェクトG1を装着オブジェクトと呼ぶものとする。 In this disclosure, the first object G1 having the former placement position information is referred to as a non-attached object, and the first object G1 having the latter placement position information is referred to as an attached object.

なお、第一のオブジェクトG1の出現位置(表示開始位置)は上記配置位置とは異なるものとしてもよい。 The appearance position (display start position) of the first object G1 may be different from the above placement position.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

具体的には、まず、第一の動画および第二の動画の2種類の動画の存在により、動画の興趣性が向上する。 Specifically, first, the presence of two types of videos, a first video and a second video, increases the interest of the videos.

特に、第二の動画の舞台となる仮想空間「ワールド」には、テーマに沿って魅力的な第二のオブジェクトが配置されており、キャラクタオブジェクトは自由に移動して好きな場所・好きな視点で動画を生成することができるため、第一の動画よりもユーザの個性を出した動画を生成することができるようになる。 In particular, the virtual space "world" where the second video is set is populated with attractive second objects that fit the theme, and the character objects can be moved freely to generate videos from any location and perspective, allowing users to create videos that reflect their individuality more than the first video.

また、上記ワールドを探索している動画を生成することで、トークやコメントにおける話題作りが容易になる。 In addition, by generating videos of people exploring the world, it will be easier to create topics for conversation and comments.

また、第一の動画だけでなく第二の動画にも第一のオブジェクトを表示可能とすることにより、視聴ユーザのギフティング意欲を不必要に削ぐことなく第一の動画および第二の動画を提供することができるようになる。 In addition, by making it possible to display the first object not only in the first video but also in the second video, it becomes possible to provide the first video and the second video without unnecessarily reducing the viewing user's motivation to gift.

このように、第一の動画および第二の動画の2種類の動画の存在、および、ギフティングによって、動画のコンテンツとしての質が従来よりも向上する。 In this way, the existence of two types of videos, the first video and the second video, and gifting improve the quality of the video content more than ever before.

また、動画のコンテンツとしての質が向上することにより、動画を視聴するユーザの視聴意欲も向上し、視聴するユーザの数が増加することに伴って配信するユーザの配信意欲も向上することになる。 In addition, as the quality of video content improves, users will be more willing to watch the videos, and as the number of viewers increases, so will the willingness of broadcasters to continue broadcasting.

そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザとの交流、さらには、配信ユーザ同士、視聴ユーザ同士の交流が活性化することにつながる。 And as the willingness to broadcast and watch increases, so will the interaction between broadcast users and viewer users, and even between broadcast users themselves and between viewer users themselves.

なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することができる。 The virtual space displayed by executing the world function described above has been described as a space for distributing the second video, but it can also be used as a virtual space in which multiple avatars corresponding to multiple users can roam freely and communicate with each other, rather than being limited to a space for distributing the second video.

そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(一のユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、本開示の情報処理システムによれば、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。 And one of the multiple avatars (one user) in the virtual space may be configured to be able to distribute a first video as a distribution user. In other words, according to the information processing system disclosed herein, one-to-many video distribution can be performed in a many-to-many metaverse virtual space.

第二の動画生成部424は、第一のオブジェクトG1を表示する際に、第二の動画に第一のオブジェクトG1が表示されている旨のシステムコメントを表示させることができる。 When displaying the first object G1, the second video generating unit 424 can display a system comment indicating that the first object G1 is being displayed in the second video.

あるいは、第二の動画生成部424は、第一のオブジェクトG1の表示要求を受信した際に、第二の動画に第一のオブジェクトG1の表示要求がなされた旨(ギフティングを受けた旨)のシステムコメントを表示させることができる。 Alternatively, when the second video generating unit 424 receives a display request for the first object G1, it can display a system comment in the second video indicating that a display request for the first object G1 has been made (that a gift has been received).

図30および図31は、第一ユーザ端末100および/または第二ユーザ端末200に表示される第二の動画を表示した画面V40に、第一ユーザ、第二ユーザおよび/またはシステム側からのコメントが表示されている様子を示したものである。なお、図30および図31では省略されているが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。 Figures 30 and 31 show a state in which comments from the first user, the second user and/or the system are displayed on a screen V40 displaying a second video displayed on the first user terminal 100 and/or the second user terminal 200. Although omitted in Figures 30 and 31, various displays and operation UIs may be displayed in a superimposed manner, as shown in Figures 8 and 12.

図30および図31に示す例では、第一のオブジェクトG1(バナナオブジェクト)が表示されている旨のシステムコメントとして「〇〇〇さん バナナ×3をあげました」というコメントが表示されている。 In the example shown in Figures 30 and 31, the comment "XXXX, I gave you 3 bananas" is displayed as a system comment to indicate that the first object G1 (banana object) is being displayed.

なお、システムコメントは第一ユーザおよび第二ユーザからのコメントとは異なる態様で表示されるものとしてもよい。例えば、第一のオブジェクトG1が表示されている旨のシステムコメントとして所定のマーク(図31の「出たよ!」という吹き出しマーク)が表示される構成としてもよい。 The system comment may be displayed in a manner different from the comments from the first user and the second user. For example, a predetermined mark (the speech bubble mark saying "It's here!" in FIG. 31) may be displayed as a system comment indicating that the first object G1 is being displayed.

そして、本開示の実施形態において、第一ユーザのキャラクタオブジェクトCOは第一の領域R10および第二の領域R20を移動可能である。例えば図31に示されるように、第一ユーザのキャラクタオブジェクトCOが第一の領域R10から遠く離れた第二の領域R20を移動中に、第一のオブジェクトG1が第一の領域R10に配置された場合、画面には第一のオブジェクトG1が表示されない可能性があるため、かかるシステムコメントの表示は有益である。 In an embodiment of the present disclosure, the first user's character object CO is capable of moving through the first region R10 and the second region R20. For example, as shown in FIG. 31, if the first object G1 is placed in the first region R10 while the first user's character object CO is moving through the second region R20, which is far away from the first region R10, the first object G1 may not be displayed on the screen, and therefore displaying such a system comment is beneficial.

また、図32に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、移動操作受付部425と、仮想カメラ制御部426とを備えることができる。 Furthermore, as shown in FIG. 32, one or more computer processors in the present disclosure may further include a movement operation receiving unit 425 and a virtual camera control unit 426.

移動操作受付部425は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。移動操作の詳細については後述する。 The movement operation receiving unit 425 receives a movement operation of the first user's character object in the virtual space. Details of the movement operation will be described later.

仮想カメラ制御部426は、仮想空間内を撮影する仮想カメラの動作を制御する。動作制御の詳細については後述する。 The virtual camera control unit 426 controls the operation of the virtual camera that captures images in the virtual space. Details of operation control will be described later.

仮想カメラ制御部426は、第一のオブジェクトG1が第一の領域R10の所定位置に表示される際に、所定位置と仮想カメラとの位置関係に応じて、仮想カメラの動作を制御することができる。 When the first object G1 is displayed at a predetermined position in the first region R10, the virtual camera control unit 426 can control the operation of the virtual camera according to the positional relationship between the predetermined position and the virtual camera.

一例として、仮想カメラ制御部426は、図33に示されるように、第一の領域R10の所定位置に表示された第一のオブジェクトG1が撮影範囲に入るように仮想カメラの向きおよび位置を調整する。これは、仮想カメラが後述するようにユーザ操作中であったとしても、自動的に適用される。 As an example, the virtual camera control unit 426 adjusts the orientation and position of the virtual camera so that the first object G1 displayed at a predetermined position in the first region R10 is within the shooting range, as shown in FIG. 33. This is automatically applied even if the virtual camera is being operated by the user, as described below.

このとき、仮想カメラは、撮影範囲に第一のオブジェクトG1とキャラクタオブジェクトCOとの両方が収まるように制御される。 At this time, the virtual camera is controlled so that both the first object G1 and the character object CO are within the shooting range.

一方で、仮想カメラ制御部426は、所定位置と仮想カメラとの位置関係から、第一のオブジェクトとキャラクタオブジェクトとを同画面に含めることができない場合、第一のオブジェクトを画面に含めるよう仮想カメラの動作を制御することができる。 On the other hand, if the first object and the character object cannot be included on the same screen due to the positional relationship between the specified position and the virtual camera, the virtual camera control unit 426 can control the operation of the virtual camera to include the first object on the screen.

一例として、仮想カメラ制御部426は、図34に示されるように、第一の領域R10の所定位置に表示された第一のオブジェクトG1のみが撮影範囲に入るように仮想カメラの向きおよび位置を調整する。これは、仮想カメラが後述するようにユーザ操作中であったとしても、自動的に適用される。 As an example, the virtual camera control unit 426 adjusts the orientation and position of the virtual camera so that only the first object G1 displayed at a specific position in the first region R10 is within the shooting range, as shown in FIG. 34. This is automatically applied even if the virtual camera is being operated by the user, as described below.

また、第二の動画生成部224は、第一のオブジェクトG1を第一の領域R10の所定位置に表示する際に、キャラクタオブジェクトCOの仮想空間内の位置に応じて、仮想空間内に第一のオブジェクトの位置を示す目印オブジェクトM1を表示することができる。 In addition, when the second video generating unit 224 displays the first object G1 at a predetermined position in the first region R10, it can display a marker object M1 indicating the position of the first object in the virtual space according to the position of the character object CO in the virtual space.

一例として、第二の動画生成部424は、図35に示されるように、仮想カメラが現在いる位置および向きに関わらず、第一の領域R10の所定位置に表示された第一のオブジェクト(の方向)を指し示すように、目印オブジェクトM1を表示する。 As an example, as shown in FIG. 35, the second video generation unit 424 displays a marker object M1 to point to (the direction of) a first object displayed at a specific position in the first region R10, regardless of the current position and orientation of the virtual camera.

また、第二の動画生成部424は、第一のオブジェクトG1に関連付けられた配置位置情報が当該第一のオブジェクトを第一の領域R10の所定位置に表示させるべきものであっても、第一ユーザのキャラクタオブジェクトCOに関連付けられた位置に表示させることができる。 In addition, even if the placement position information associated with the first object G1 indicates that the first object should be displayed at a specified position in the first region R10, the second video generation unit 424 can display the first object at a position associated with the first user's character object CO.

一例として、第二の動画生成部424は、図36に示されるように、第一ユーザのキャラクタオブジェクトCOに関連付けられた位置(頭上)に第一のオブジェクトG1を表示させる。本例によれば、第一ユーザのキャラクタオブジェクトCOが仮想空間内のどの位置にいようとも第一のオブジェクトG1が撮影範囲に含まれる可能性を高くすることができる。これにより、広い仮想空間のすべてを表示することができない、限られた大きさの表示画面において、配信ユーザおよび視聴ユーザにとって重要なギフトを効果的に知らせることができる。 As an example, the second video generation unit 424 displays the first object G1 at a position (above the head) associated with the first user's character object CO, as shown in FIG. 36. According to this example, it is possible to increase the likelihood that the first object G1 will be included in the shooting range regardless of where the first user's character object CO is located in the virtual space. This makes it possible to effectively inform the distribution user and viewing user of important gifts on a display screen of limited size that cannot display the entirety of the large virtual space.

以上、第二の実施形態の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 As described above, the configuration of the second embodiment can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the configuration described above can improve the willingness of broadcasting users to broadcast, the willingness of viewing users to watch, and/or the willingness of users to interact with each other.

<第三の実施形態>
続いて、本開示における第三の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
Third Embodiment
Next, various functions executable by the first user terminal 100, the second user terminal 200 and/or the server device 400 provided in the information processing system 3000 according to the third embodiment of the present disclosure will be described with reference to the drawings.

本開示の第三の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図37に示されるように、送信部431、受付部432、第一の動画生成部433、第二の動画生成部434および関連付部435を備える。 The one or more computer processors included in the information processing system 3000 according to the third embodiment of the present disclosure include a transmission unit 431, a reception unit 432, a first video generation unit 433, a second video generation unit 434, and an association unit 435, as shown in FIG. 37.

ここでは、送信部431、受付部432、第一の動画生成部433、第二の動画生成部434および関連付部435はいずれもサーバ装置400が備えるものとして説明を行うが、これに限られるものではない。 Here, the sending unit 431, the receiving unit 432, the first video generating unit 433, the second video generating unit 434, and the association unit 435 are all described as being included in the server device 400, but this is not limited to the above.

送信部431は、第一ユーザのキャラクタオブジェクトCOを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。送信部431は、上述した送信部411と同様の構成とすることができる。 The transmission unit 431 transmits information about the video including the character object CO of the first user to the second user terminal 200 of the second user. The transmission unit 431 can be configured in the same manner as the transmission unit 411 described above.

受付部432は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。受付部432は、上述した受付部412と同様の構成とすることができる。 The reception unit 432 receives a request to display the first object from the second user terminal 200. The reception unit 432 may be configured in the same manner as the reception unit 412 described above.

第一の動画生成部433は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。第一の動画生成部433は、上述した第一の動画生成部413と同様の構成とすることができる。 The first video generating unit 433 generates first information for displaying the character object and the first object of the first user in a first area in the virtual space as a first video. The first video generating unit 433 may have a configuration similar to that of the first video generating unit 413 described above.

第二の動画生成部434は、第二の動画として、第一のオブジェクトG1とは異なる第二のオブジェクトS1を仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトCOを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。第二の動画生成部434は、上述した第二の動画生成部414と同様の構成とすることができる。 The second video generating unit 434 generates second information for displaying a second object S1 different from the first object G1 in a second area in the virtual space as the second video, and displaying the first user's character object CO movably in the first area and the second area. The second video generating unit 434 may be configured in the same manner as the second video generating unit 414 described above.

また、図38に示されるように、第二の動画生成部434は、第二の領域R20に、第一のオブジェクトG1および第二のオブジェクトS1とは異なる第三のオブジェクトP1を表示させるものとする。 Furthermore, as shown in FIG. 38, the second video generating unit 434 displays a third object P1, which is different from the first object G1 and the second object S1, in the second region R20.

図39は、第三のオブジェクトP1のイメージを示したものである。図39では、第三のオブジェクトP1として2次元のパネル状のオブジェクトP11~14が示されている。なお、第三のオブジェクトは2次元のパネル状のオブジェクトには限定されず、3次元のオブジェクトとしてもよい。 Figure 39 shows an image of the third object P1. In Figure 39, two-dimensional panel-like objects P11 to P14 are shown as the third object P1. Note that the third object is not limited to a two-dimensional panel-like object, and may be a three-dimensional object.

オブジェクトP11~14には、それぞれ、装着オブジェクトがキャラクタ画像とともに表示されている。画像オブジェクトに表示されるキャラクタ画像は、第一ユーザのキャラクタオブジェクトの画像であってもよいし、別の画像であってもよい。 Each of the objects P11 to P14 displays an attached object together with a character image. The character image displayed on the image object may be an image of the first user's character object, or it may be a different image.

関連付部435は、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが所定の関係になった場合に、第一ユーザのキャラクタオブジェクトCOに第三のオブジェクトP1に対応付けられた第四のオブジェクトW1を関連付ける。 When a predetermined relationship is established between the first user's character object CO and the third object P1, the association unit 435 associates the first user's character object CO with the fourth object W1 that is associated with the third object P1.

所定の関係とは、キャラクタオブジェクトCOの少なくとも一部(手や足等)が第三のオブジェクトP1に触れたこと、キャラクタオブジェクトCOと第三のオブジェクトP1との距離が所定距離となったこと、キャラクタオブジェクトCOが第三のオブジェクトP1に対応付けられたボタンオブジェクトを押したことなどとすることができる。なお、上記第三のオブジェクトP1に触れたことには、キャラクタオブジェクトCOが第三のオブジェクトP1に所定時間に亘って接触していたこと、所定時間に亘って所定距離内にいたこと、所定時間に亘って押していたことが含まれるものとする。 The specified relationship may be at least a part of the character object CO (hands, feet, etc.) touching the third object P1, the distance between the character object CO and the third object P1 becoming a specified distance, the character object CO pressing a button object associated with the third object P1, etc. Note that touching the third object P1 includes the character object CO being in contact with the third object P1 for a specified period of time, being within a specified distance for a specified period of time, and pressing for a specified period of time.

これら所定の関係は特に限定されるものではないが、動画を視聴している第二ユーザが、第一ユーザのキャラクタオブジェクトCOが第四のオブジェクトW1を関連付けようとしていることが視覚的に分かるような態様とすることができる。 These predetermined relationships are not particularly limited, but can be such that the second user watching the video can visually understand that the first user's character object CO is attempting to associate with the fourth object W1.

また、第二の動画生成部434は、関連付部435により第一ユーザのキャラクタオブジェクトCOに第四のオブジェクトW1が関連付けられた場合に、第一ユーザのキャラクタオブジェクトCOに第四のオブジェクトW1を関連付けて表示する。 In addition, when the association unit 435 associates the fourth object W1 with the character object CO of the first user, the second video generation unit 434 displays the fourth object W1 in association with the character object CO of the first user.

すなわち、キャラクタオブジェクトCOに、第三のオブジェクトP1に表示された装着オブジェクトを装着させて第四のオブジェクトW1として表示する。図39に示す例では、第一ユーザのキャラクタオブジェクトCOが第三のオブジェクトP14と所定の関係になり、第三のオブジェクトP14に表示された装着オブジェクトである第四のオブジェクト(キラキラオブジェクト)W14がキャラクタオブジェクトCOの頭部の周りに装着した例が表示されている。 That is, the attachment object displayed on the third object P1 is attached to the character object CO and displayed as the fourth object W1. In the example shown in FIG. 39, the character object CO of the first user is in a predetermined relationship with the third object P14, and the fourth object (sparkly object) W14, which is the attachment object displayed on the third object P14, is attached around the head of the character object CO.

この第四のオブジェクトW1は、後述するように第二ユーザがギフトとして表示要求することができるギフトオブジェクトと同一のオブジェクトとしてもよいし、ギフトとしては投じることができない特別なオブジェクトとしてもよい。 This fourth object W1 may be the same object as a gift object that the second user can request to be displayed as a gift, as described below, or it may be a special object that cannot be thrown as a gift.

前者の場合、第四のオブジェクトW1は価値の高いギフトに対応する。これは、価値の高いギフトは第二ユーザによって投じられるのは稀であるため、第一ユーザおよび第二ユーザは当該オブジェクトをなかなか見る/装着することができないが、このワールド機能においては特別に無料で装着できるようにすることにより、ワールド機能が活性化するとともに、第一の動画でも投じてみようという動機につながる。 In the former case, the fourth object W1 corresponds to a high-value gift. This is because high-value gifts are rarely given by the second user, and so the first and second users have little opportunity to see/wear the object, but by making it specially available for free in the world function, the world function is activated and users are motivated to give it in the first video as well.

また、第三のオブジェクトP1は、全てのユーザに同じものが表示されるものとしてもよいし、表示されるワールドのテーマに応じて異なるものが表示されてもよい。また、表示される第三のオブジェクトP1は、第一ユーザの情報に基づいて決定されるものとしてもよい。 The third object P1 may be the same for all users, or may be different depending on the theme of the world being displayed. The third object P1 to be displayed may be determined based on information about the first user.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

具体的には、まず、第一の動画および第二の動画の2種類の動画の存在により、動画の興趣性が向上する。 Specifically, first, the presence of two types of videos, a first video and a second video, increases the interest of the videos.

特に、第二の動画の舞台となる仮想空間「ワールド」には、テーマに沿って魅力的な第二のオブジェクトが配置されており、キャラクタオブジェクトは自由に移動して好きな場所・好きな視点で動画を生成することができるため、第一の動画よりもユーザの個性を出した動画を生成することができるようになる。 In particular, the virtual space "world" where the second video is set is populated with attractive second objects that fit the theme, and the character objects can be moved freely to generate videos from any location and perspective, allowing users to create videos that reflect their individuality more than the first video.

また、上記ワールドを探索している動画を生成することで、トークやコメントにおける話題作りが容易になる。 In addition, by generating videos of people exploring the world, it will be easier to create topics for conversation and comments.

また、第二の動画に表示された第三のオブジェクトを表示し、キャラクタオブジェクトが対応する第四のオブジェクトを自由に装着可能とすることにより、トークやコメントにおける話題作りがより容易になり、ユーザ同士の交流がより活性化する。 In addition, by displaying a third object that appears in the second video and allowing the character object to freely wear a corresponding fourth object, it becomes easier to create topics of conversation and comments, and interactions between users become more active.

また、上記第四のオブジェクトを装着するまでの工程を動画内で視覚的に表現することにより、第一ユーザおよび/または第二ユーザに期待感を与えることもできる。 In addition, by visually showing the process of putting on the fourth object in the video, it is possible to create a sense of anticipation in the first user and/or the second user.

また、第四のオブジェクトを価値の高いギフトに対応するものとした場合、価値の高いギフトは第二ユーザによって投じられるのは稀であるため、第一ユーザおよび第二ユーザは当該オブジェクトをなかなか見る/装着することができないが、このワールド機能においては特別に装着できるようにすることにより、ワールド機能が活性化するとともに、第一の動画でも投じてみようという動機につながる。 In addition, if the fourth object corresponds to a high-value gift, since high-value gifts are rarely cast by the second user, the first and second users will have difficulty seeing/wearing that object. However, by making it possible to specially wear the object in the world function, the world function will be activated and this will motivate users to try casting it in the first video as well.

このように、第一の動画および第二の動画の2種類の動画の存在、および、第四のオブジェクトによって、動画のコンテンツとしての質が従来よりも向上する。 In this way, the presence of two types of video, the first video and the second video, and the fourth object improves the quality of the video content compared to the past.

また、動画のコンテンツとしての質が向上することにより、動画を視聴するユーザの視聴意欲も向上し、視聴するユーザの数が増加することに伴って配信するユーザの配信意欲も向上することになる。 In addition, as the quality of video content improves, users will be more willing to watch the videos, and as the number of viewers increases, so will the willingness of broadcasters to continue broadcasting.

そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザとの交流、さらには、配信ユーザ同士、視聴ユーザ同士の交流が活性化することにつながる。 And as the willingness to broadcast and watch increases, so will the interaction between broadcast users and viewer users, and even between broadcast users themselves and between viewer users themselves.

なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することができる。 The virtual space displayed by executing the world function described above has been described as a space for distributing the second video, but it can also be used as a virtual space in which multiple avatars corresponding to multiple users can roam freely and communicate with each other, rather than being limited to a space for distributing the second video.

そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(一のユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、本開示の情報処理システムによれば、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。 And one of the multiple avatars (one user) in the virtual space may be configured to be able to distribute a first video as a distribution user. In other words, according to the information processing system disclosed herein, one-to-many video distribution can be performed in a many-to-many metaverse virtual space.

上記第二の動画生成部434は、関連付部435が関連付けを行う際に、ローディング画像を所定時間表示することができる。 The second video generating unit 434 can display a loading image for a predetermined period of time when the association unit 435 performs the association.

図40は、上記ローディング画像L1の例を示したものである。図40では、キャラクタオブジェクトCOが第三のオブジェクトP1(P11)を踏むと同時にローディング画像L1が表示され、円状のメータが0%から増加して100%となった際に、キャラクタオブジェクトCOに第四のオブジェクトW1(W11)が装着される。 Figure 40 shows an example of the loading image L1. In Figure 40, the loading image L1 is displayed at the same time as the character object CO steps on the third object P1 (P11), and when the circular meter increases from 0% to 100%, the fourth object W1 (W11) is attached to the character object CO.

これは、あえてローディング時間をとることで、視聴している第二ユーザに対してキャラクタオブジェクトが第四のオブジェクトを関連付けようとしていることがわかるような表示としている。これにより、第一ユーザおよび/または第二ユーザの期待感をより増加させることができる。 By taking the time to load, the display makes it clear to the second user watching that the character object is attempting to associate with a fourth object. This can further increase the sense of anticipation of the first user and/or the second user.

なお、メータが満ちるまでの時間(ローディング時間)については特に限定されないが、第四のオブジェクトの価値が高いほどローディング時間を長くする構成としてもよい。 The time it takes for the meter to fill up (loading time) is not particularly limited, but the loading time may be longer as the value of the fourth object increases.

図41に示されるように、本開示における一又は複数のコンピュータプロセッサは、さらに、選択画面生成部436を備えることができる。 As shown in FIG. 41, one or more computer processors in the present disclosure may further include a selection screen generation unit 436.

選択画面生成部436は、第二ユーザ端末200に、第一のオブジェクトG1の表示要求を行うための選択画面V30を表示させるための情報を生成する。 The selection screen generation unit 436 generates information for displaying a selection screen V30 on the second user terminal 200 for making a display request for the first object G1.

図20で示されたように、選択画面V30には、第一のオブジェクトG1の表示要求を行うための複数の画像が選択可能に表示される。 As shown in FIG. 20, the selection screen V30 displays multiple selectable images for requesting the display of the first object G1.

そして、画像のうち、第四のオブジェクトに関連する第一のオブジェクトG1の表示要求を行うための画像は、図42に示されるように、他の画像とは異なる態様で表示されることができる。 The image for requesting the display of the first object G1 related to the fourth object among the images can be displayed in a manner different from the other images, as shown in FIG. 42.

例えば、第一ユーザが第二の動画において第四のオブジェクトとして三角ぼうしを自由に装着できる状態において、第二ユーザが三角ぼうしのギフトを投じることの表示上のメリットは少ない(ただし、第一ユーザが得た(第二ユーザが投じた)ギフトの額(ポイント)には寄与するため、その点のメリットはある。)。 For example, in a state where the first user can freely wear a triangular hat as a fourth object in the second video, there is little display benefit to the second user giving a gift of a triangular hat (however, it does contribute to the amount (points) of the gift obtained by the first user (given by the second user), so there is a benefit in that respect).

そのため、第二ユーザは、第四のオブジェクトに関連する第一のオブジェクトG1の画像については他の画像とは異なる態様で表示し、上記事情を理解した上で選択できるようになる。 Therefore, the image of the first object G1 related to the fourth object is displayed in a manner different from the other images, allowing the second user to make a selection after understanding the above circumstances.

なお、第四のオブジェクトに関連するとは、第四のオブジェクトと同一の場合に限られず、第四のオブジェクトとは異なるものの表示位置が略同一である場合なども含まれるものとする。 Note that "related to the fourth object" does not necessarily mean that the object is the same as the fourth object, but also includes cases where the object is different from the fourth object but is displayed in approximately the same position.

上記異なる態様の例として、図42では枠を強調させた例を示したが、バッチを付けたり、色を変えたりするなどしてもよい。 As an example of the different aspect, Figure 42 shows an example in which the frame is highlighted, but it is also possible to add a badge or change the color.

また、第二ユーザによって第四のオブジェクトに関連する第一のオブジェクトG1の表示要求が行われた場合には、動画内に特別な効果が生じるようにしてもよい。 In addition, when a request is made by the second user to display a first object G1 related to the fourth object, a special effect may be generated in the video.

特別な効果は、例えば、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは例えば、紙吹雪オブジェクト、クラッカーオブジェクトなどの演出オブジェクトとすることができる。 Special effects include, but are not limited to, displaying a different object or generating a sound effect. The different object can be, for example, a presentation object such as a confetti object or a cracker object.

かかる構成によれば、表示上のデメリットを補うことができるようになる。 This configuration makes it possible to compensate for the disadvantages in terms of display.

また、図41に示されるように、本開示の一又は複数のコンピュータプロセッサは、さらに、判定部437を備えることができる。 Furthermore, as shown in FIG. 41, one or more computer processors of the present disclosure may further include a determination unit 437.

判定部437は、第一ユーザのキャラクタオブジェクトCOの特定の位置に関連付けて表示されるべき第一のオブジェクトG1の表示要求があった場合に、既に第一ユーザのキャラクタオブジェクトCOの特定の位置に関連付けて第四のオブジェクトW1が表示されているか否かを判定する。 When there is a display request for a first object G1 to be displayed in association with a specific position of the first user's character object CO, the determination unit 437 determines whether or not a fourth object W1 is already being displayed in association with a specific position of the first user's character object CO.

図43は、かかる判定部437による判定ステップを含む処理フローの一例を示したものである。 Figure 43 shows an example of a process flow including a determination step by the determination unit 437.

図43に示されるように、一又は複数のコンピュータプロセッサは、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて表示されるべき第一のオブジェクトの表示要求があったか否かを判定するステップを実行する(S401)。 As shown in FIG. 43, one or more computer processors execute a step of determining whether or not there has been a display request for a first object to be displayed in association with a particular position of a character object of a first user (S401).

第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて表示されるべき第一のオブジェクトの表示要求があったと判定された場合、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されているか否かを判定するステップを実行する(S402)。特定の位置とは、同一の位置であってもよいし、略同一の位置も含むものとする。 When it is determined that there is a display request for a first object to be displayed in association with a specific position of the first user's character object, a step of determining whether or not a fourth object is displayed in association with the specific position of the first user's character object is executed (S402). The specific position may be the same position, and also includes a substantially same position.

そして、既に第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていると判定された場合、第二の動画生成部440は、第四のオブジェクトに代えて第一のオブジェクトを表示するか、または、第四のオブジェクトおよび第一のオブジェクトの両方を特定の位置に関連付けて表示することができる。 If it is determined that the fourth object is already being displayed in association with a specific position of the first user's character object, the second video generating unit 440 can either display the first object in place of the fourth object, or display both the fourth object and the first object in association with a specific position.

すなわち、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていると判定された場合、第二の動画生成部440は、第四のオブジェクトに代えて第一のオブジェクトを表示するか、または、第四のオブジェクトおよび第一のオブジェクトの両方を特定の位置に関連付けて表示するステップ(S403)を実行する。 That is, if it is determined that the fourth object is displayed in association with a specific position of the character object of the first user, the second video generating unit 440 executes a step (S403) of displaying the first object in place of the fourth object, or displaying both the fourth object and the first object in association with a specific position.

第四のオブジェクトに代えて第一のオブジェクトを表示するか、第四のオブジェクトおよび第一のオブジェクトの両方を表示するか、については、第一のオブジェクトの性質によって決定されることができる。例えば、第一のオブジェクトの価値が基準よりも高い場合には第四のオブジェクトに代えて第一のオブジェクトを表示させ、第一のオブジェクトの価値が基準よりも低い場合には両方を表示させるなどである。なお、基準については、第四のオブジェクトがギフトである場合の価値としてもよいし、第一ユーザまたは運営側が設定できるものとしてもよい。 Whether to display the first object in place of the fourth object or both the fourth object and the first object can be determined based on the properties of the first object. For example, if the value of the first object is higher than a standard, the first object is displayed in place of the fourth object, and if the value of the first object is lower than the standard, both are displayed. The standard may be the value of the fourth object when it is a gift, or may be set by the first user or the management side.

なお、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていないと判定された場合、第二の動画生成部440は、第一のオブジェクトを特定の位置に関連付けて表示するステップを実行する(S404)。 If it is determined that the fourth object is not displayed in association with a specific position of the first user's character object, the second video generating unit 440 executes a step of displaying the first object in association with a specific position (S404).

別の例として、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて表示されるべき第一のオブジェクトの表示要求があった場合に、既に第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第四のオブジェクトが表示されていると判定部437により判定された場合、第二の動画生成部434は、第一ユーザ端末からの指示に基づいて、第四のオブジェクトに代えて第一のオブジェクトを表示することができる。 As another example, when there is a display request for a first object to be displayed in association with a specific position of the first user's character object, if the determination unit 437 determines that a fourth object is already being displayed in association with a specific position of the first user's character object, the second video generation unit 434 can display the first object instead of the fourth object based on an instruction from the first user terminal.

このとき、第一ユーザの画面には、上記指示を行うための表示指示オブジェクトが表示されるものとすることができる。これにより、第一ユーザは自分の好きなタイミングで第二ユーザからのギフトである第一オブジェクトを表示することができるようになる。 At this time, a display instruction object for performing the above instruction may be displayed on the first user's screen. This allows the first user to display the first object, which is a gift from the second user, at a time of his or her choosing.

上記の例では、既に第四のオブジェクトが表示されているか否かを判定するものとしたが、逆も同様である。 In the above example, we determined whether the fourth object was already displayed, but the reverse is also true.

すなわち、図44に示されるように、一又は複数のコンピュータプロセッサは、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが所定の関係になったか否かを判定するステップを実行する(S405)。 That is, as shown in FIG. 44, one or more computer processors execute a step of determining whether or not a predetermined relationship has been established between the first user's character object CO and the third object P1 (S405).

そして、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが所定の関係になったと判定された場合、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されているか否かを判定するステップを実行する(S406)。特定の位置とは、同一の位置であってもよいし、略同一の位置も含むものとする。 Then, if it is determined that the first user's character object CO and the third object P1 have a predetermined relationship, a step is executed (S406) of determining whether the first object is displayed in association with a specific position of the first user's character object. The specific position may be the same position, and also includes a substantially same position.

そして、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されていると判定された場合、第二の動画生成部440は、第一のオブジェクトに代えて第四のオブジェクトを表示するか、または、第四のオブジェクトおよび第一のオブジェクトの両方を特定の位置に関連付けて表示するステップを実行する(S407)。 Then, if it is determined that the first object is displayed in association with a specific position of the character object of the first user, the second video generating unit 440 executes a step of displaying a fourth object in place of the first object, or displaying both the fourth object and the first object in association with a specific position (S407).

第一のオブジェクトに代えて第四のオブジェクトを表示するか、第四のオブジェクトおよび第一のオブジェクトの両方を表示するか、については、第四のオブジェクトの性質によって決定されることができる。例えば、第四のオブジェクトの価値が第一のオブジェクトの価値よりも高い場合には第一のオブジェクトに代えて第四のオブジェクトを表示させ、第四のオブジェクトの価値が第一のオブジェクトの価値よりも低い場合には両方を表示させるなどである。なお、第四のオブジェクトの価値については、第四のオブジェクトがギフトである場合の価値とすることができる。 Whether to display a fourth object in place of the first object, or to display both the fourth object and the first object, can be determined based on the properties of the fourth object. For example, if the value of the fourth object is higher than the value of the first object, the fourth object is displayed in place of the first object, and if the value of the fourth object is lower than the value of the first object, both are displayed. The value of the fourth object can be set to the value it would be if the fourth object were a gift.

なお、第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されていないと判定された場合、第二の動画生成部440は、第四のオブジェクトを特定の位置に関連付けて表示するステップを実行する(S408)。 If it is determined that the first object is not displayed in association with a specific position of the first user's character object, the second video generating unit 440 executes a step of displaying a fourth object in association with a specific position (S408).

別の例として、既に第一ユーザのキャラクタオブジェクトの特定の位置に関連付けて第一のオブジェクトが表示されていると判定部437により判定された場合、第二の動画生成部434は、第一ユーザ端末からの指示に基づいて、第一のオブジェクトに代えて第四のオブジェクトを表示することができる。 As another example, if the determination unit 437 determines that a first object is already being displayed in association with a specific position of the first user's character object, the second video generation unit 434 can display a fourth object in place of the first object based on an instruction from the first user terminal.

このとき、第一ユーザの画面には、上記指示を行うための表示指示オブジェクトが表示されるものとすることができる。これにより、第一ユーザは自分の好きなタイミングで第四のオブジェクトを表示することができるようになる。 At this time, a display instruction object for performing the above instruction may be displayed on the first user's screen. This allows the first user to display the fourth object at a timing of his or her choice.

また、図38に示されるように、第二の動画生成部440は、第二の領域R20に、第一のオブジェクトG1、第二のオブジェクトS1および第三のオブジェクトP1とは異なる第五のオブジェクトP2を表示させることができる。 Also, as shown in FIG. 38, the second video generating unit 440 can display a fifth object P2, which is different from the first object G1, the second object S1, and the third object P1, in the second region R20.

第五のオブジェクトP2は、一例として図45に示されるような解除オブジェクトである。 The fifth object P2 is, as an example, a release object as shown in FIG. 45.

そして、関連付部435は、第一ユーザのキャラクタオブジェクトと第五のオブジェクトP2とが所定の関係になった場合に、第一ユーザのキャラクタオブジェクトに関連付けられた第四のオブジェクトの関連付けを解除することができる。 The association unit 435 can then disassociate the fourth object associated with the first user's character object when a predetermined relationship is established between the first user's character object and the fifth object P2.

すなわち、第五のオブジェクトP2は、第四のオブジェクトW1とキャラクタオブジェクトCOとの関連付けを解除し、非表示とするためのオブジェクトである。所定の関係については第三のオブジェクトの説明において記載したのと同様の関係とすることができる。 In other words, the fifth object P2 is an object that disassociates the fourth object W1 from the character object CO and makes them invisible. The specified relationship can be the same as that described in the explanation of the third object.

また、第一ユーザのキャラクタオブジェクトCOに第四のオブジェクトW1が関連付けられている場合において、関連付部435は、第一ユーザのキャラクタオブジェクトCOと第三のオブジェクトP1とが再度所定の関係になった場合に、第一ユーザのキャラクタオブジェクトCOに関連付けられた第四のオブジェクトW1の関連付けを解除することができる。 In addition, when a fourth object W1 is associated with the first user's character object CO, the association unit 435 can release the association of the fourth object W1 associated with the first user's character object CO when the first user's character object CO and the third object P1 once again have a predetermined relationship.

すなわち、キャラクタオブジェクトCOが第三のオブジェクトP1を一度踏んだ場合には第四のオブジェクトW1が関連付けられ、二度目に踏んだ場合には第四のオブジェクトW1の関連付けが解除されて非表示となる。なお、三度目に踏んだ場合には再度第四のオブジェクトW1がキャラクタオブジェクトに関連付けられるものとするが、関連付け可能な回数には上限を設けても良い。 That is, when the character object CO steps on the third object P1 once, the fourth object W1 is associated with it, and when the character object CO steps on the third object P1 a second time, the association with the fourth object W1 is released and the object is hidden. Note that when the character object CO steps on the third time, the fourth object W1 is again associated with the character object, but there may be an upper limit on the number of times that the object can be associated.

また、図45に示されるように、例えば第三のオブジェクトP11を踏むことにより第四のオブジェクトW11が関連付けられ表示されている状態で、別の第三のオブジェクトP12を踏んだ場合には、第四のオブジェクトW11の関連付けが解除され、別の第三のオブジェクトP12に対応する第四のオブジェクトW12が装着されるものとする。 Also, as shown in FIG. 45, for example, when a fourth object W11 is displayed in association with a third object P11 by stepping on it, if another third object P12 is then stepped on, the association of the fourth object W11 is released and a fourth object W12 corresponding to the other third object P12 is attached.

あるいは、例えば第三のオブジェクトP11を踏むことにより第四のオブジェクトW11が関連付けられ表示されている状態で、別の第三のオブジェクトP12を踏んだ場合には、第四のオブジェクトW11の関連付けは解除されず、別の第三のオブジェクトP12に対応する第四のオブジェクトW12がさらに装着されるものとしてもよい。 Alternatively, for example, when a fourth object W11 is displayed in association with a third object P11 by stepping on it, if another third object P12 is then stepped on, the association of the fourth object W11 is not released, and a fourth object W12 corresponding to the other third object P12 may be further attached.

また、上述したように、キャラクタオブジェクトCOが領域外へ移動して再出現した場合にも、すべての第四のオブジェクトの関連付けが解除されるものとしてもよい。 Also, as described above, if the character object CO moves outside the area and reappears, the association with all fourth objects may be released.

なお、第四のオブジェクトW1に表示時間が定められていない場合には、上記の行動がなければ関連付けは解除されないものとすることができる。 If no display time is set for the fourth object W1, the association may not be released unless the above action is taken.

なお、上記第三のオブジェクトP1はワールドのテーマが変更された場合(第二のオブジェクトS1が変更された場合)に、ワールドのテーマに沿って別の第三のオブジェクトP1へと変更されるものとすることができる。第三のオブジェクトP1が複数である場合には、そのすべてまたは一部が変更されるものとしてもよい。 When the theme of the world is changed (when the second object S1 is changed), the third object P1 can be changed to another third object P1 in line with the theme of the world. When there are multiple third objects P1, all or part of them may be changed.

そして、ワールドのテーマが変更されても、装着済みの第四のオブジェクトW1は引き続き表示が継続する。 Even if the world theme is changed, the fourth object W1 that is already attached will continue to be displayed.

かかる構成を利用し、第四のオブジェクトを用いたミッションを生成し、ミッションをクリアした場合に所定の効果を発生させるものとしてもよい。 Using this configuration, a mission using a fourth object may be generated, and a specified effect may be generated when the mission is cleared.

ミッションの例としては、テーマが変更される前に装着した第四のオブジェクトと、特定の関係を有する第四のオブジェクトを、テーマ変更後に装着すること、などである。複数回のテーマ変更にわたってかかるミッションを継続させることも可能である。 An example of a mission would be to equip, after a theme change, a fourth object that has a specific relationship to the fourth object that was equipped before the theme was changed. Such a mission can also continue across multiple theme changes.

例えば、各テーマにおいて、アイスクリームオブジェクトである第四のオブジェクトが装着可能な場合において、テーマが変更されるごとにキャラクタオブジェクトの頭部に、アイスクリームをどんどん詰みあげさせることをミッションとすることができる。 For example, if a fourth object that is an ice cream object can be equipped in each theme, the mission could be to pile ice cream onto the character object's head each time the theme changes.

所定の効果は、例えば、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは例えば、紙吹雪オブジェクト、クラッカーオブジェクト、くす玉オブジェクトなどの演出オブジェクトとすることができる。 The predetermined effect may be, for example, but is not limited to, displaying another object or generating a sound effect. The other object may be, for example, a presentation object such as a confetti object, a cracker object, or a paper balloon object.

かかる所定の効果は、テーマが変更される度に豪華になる構成とすることができる。 These predetermined effects can be configured to become more spectacular each time the theme is changed.

以上の構成によれば、第一ユーザの配信時間をより長くすることができるとともに、動画の興趣性も向上するため第二ユーザの視聴意欲も向上させることができる。 The above configuration allows the first user to enjoy a longer broadcast time, and also increases the interest of the video, thereby increasing the second user's desire to watch.

以上、第一の実施形態の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 As described above, the configuration of the first embodiment can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the configuration described above can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

<第四の実施形態>
続いて、本開示における第四の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
<Fourth embodiment>
Next, various functions executable by the first user terminal 100, the second user terminal 200 and/or the server device 400 provided in the information processing system 3000 according to the fourth embodiment of the present disclosure will be described with reference to the drawings.

本開示の第四の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図46に示されるように、送信部141、移動操作受付部142、仮想カメラ制御部143および動画生成部144を備える。 The one or more computer processors included in the information processing system 3000 according to the fourth embodiment of the present disclosure include a transmission unit 141, a movement operation reception unit 142, a virtual camera control unit 143, and a video generation unit 144, as shown in FIG. 46.

ここでは、上記送信部141、移動操作受付部142、仮想カメラ制御部143および動画生成部144はいずれも第一ユーザ端末100が備えるものとして説明を行うが、これに限られるものではない。 Here, the transmission unit 141, movement operation reception unit 142, virtual camera control unit 143, and video generation unit 144 are all described as being provided in the first user terminal 100, but this is not limited to the above.

送信部141は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。 The transmission unit 141 transmits information about the video including the character object of the first user to the second user terminal 200 of the second user.

動画は、一例として、第一ユーザによってリアルタイムに配信される動画とすることができる。 As an example, the video may be a video streamed in real time by the first user.

動画に関する情報は、一例として、第二ユーザ端末200において動画を視聴可能とするための情報であればよく、動画のレンダリングは第一ユーザ端末100またはサーバ装置400で行われるものであってもよいし、第二ユーザ端末200において行われるものであってもよい。 The information regarding the video may be, for example, information for enabling the video to be viewed on the second user terminal 200, and rendering of the video may be performed on the first user terminal 100 or the server device 400, or may be performed on the second user terminal 200.

動画に含まれるキャラクタオブジェクトの少なくとも顔部には、第一ユーザ端末が備えるカメラで撮影された第一ユーザの顔の動きが反映されるものとしてもよい。 At least the facial portion of the character object included in the video may reflect the facial movements of the first user captured by a camera provided on the first user terminal.

移動操作受付部142は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。仮想空間は、図22で示した空間とすることができる。移動操作の受け付け手法については後述する。 The movement operation receiving unit 142 receives a movement operation of the first user's character object in the virtual space. The virtual space can be the space shown in FIG. 22. The method of receiving the movement operation will be described later.

仮想カメラ制御部143は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。カメラ操作の受け付け手法については後述する。 The virtual camera control unit 143 accepts camera operations for the virtual camera that takes pictures in the virtual space. The method for accepting camera operations will be described later.

動画生成部144は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。 The video generation unit 144 generates information to enable the first user's character object to move within the virtual space based on the movement operation and camera operation.

ここで生成される情報は上述した第二情報であり、第二情報に基づいて上記動画が表示されるものとする。すなわち、第二ユーザ端末200に送信される動画は第二の動画とする。 The information generated here is the second information described above, and the video is displayed based on the second information. In other words, the video sent to the second user terminal 200 is the second video.

そして、本実施形態において、第一ユーザの第一ユーザ端末100に表示された第一の操作UIに対する所定の操作に応じて、第一ユーザのキャラクタオブジェクトに第一の移動動作を適用する。 In this embodiment, a first movement action is applied to the character object of the first user in response to a predetermined operation on the first operation UI displayed on the first user terminal 100 of the first user.

また、第一ユーザ端末100に表示された第二の操作UIに対する所定の操作に応じて、第一ユーザのキャラクタオブジェクトに第二の移動動作を適用する。 In addition, a second movement action is applied to the first user's character object in response to a specified operation on the second operation UI displayed on the first user terminal 100.

また、第一ユーザ端末100に表示された第三の操作UIに対する所定の操作に応じて、仮想カメラの視点を一人称視点または三人称視点に切り替えることができる。 In addition, the viewpoint of the virtual camera can be switched between a first-person viewpoint and a third-person viewpoint in response to a specific operation on the third operation UI displayed on the first user terminal 100.

図47は、第一ユーザ端末100に表示された画面D50に第一の操作UI51、第二の操作UI52および第三の操作UI53が表示されたイメージを示したものである。 Figure 47 shows an image of a screen D50 displayed on a first user terminal 100, in which a first operation UI 51, a second operation UI 52, and a third operation UI 53 are displayed.

第一の操作UI51は、仮想的なジョイスティックであり、第一の操作UI51の外円領域内のタッチの初期位置からのスワイプ方向に応じて対象を仮想空間内の水平方向に移動させるものとすることができる。外円領域内の内円は、タッチ位置に応じて外円領域内を移動するよう表示される。なお、初期位置からの移動距離に応じてキャラクタオブジェクトの移動速度を変化させてもよい。また、初期位置からの移動距離に応じてキャラクタオブジェクトの移動速度を変化させなくてもよい。この場合には、一定速度の変化となり見やすい画面を提供することができる。 The first operation UI51 is a virtual joystick, and can move an object horizontally in a virtual space according to the swipe direction from an initial position of a touch within an outer circular area of the first operation UI51. The inner circle within the outer circular area is displayed to move within the outer circular area according to the touch position. The moving speed of the character object may be changed according to the moving distance from the initial position. Also, the moving speed of the character object does not need to be changed according to the moving distance from the initial position. In this case, the change in speed is constant, and an easy-to-view screen can be provided.

第二の操作UI52は、第二の操作UI52の円領域内のタップに応じてキャラクタオブジェクトを仮想空間内の垂直方向に移動させるものとすることができる。 The second operation UI 52 can move the character object vertically in the virtual space in response to a tap within a circular area of the second operation UI 52.

第三の操作UI53は、タップ操作により一人称視点と三人称視点とを切り替えるものである。図47は三人称視点の動画を表示した画面のイメージであり、図48の一人称視点の動画を表示した画面のイメージを示したものである。 The third operation UI 53 switches between a first-person perspective and a third-person perspective by a tap operation. FIG. 47 shows an image of a screen displaying a video from a third-person perspective, and FIG. 48 shows an image of a screen displaying a video from a first-person perspective.

そして、第一ユーザ端末100における、第一の操作UI51、第二の操作UI52および第三の操作UI53が表示されていない領域(第五の領域)に対する所定の操作に応じて、仮想カメラの移動、回転および/または拡縮の操作を適用する。 Then, the virtual camera is moved, rotated and/or scaled in response to a predetermined operation performed on an area (fifth area) in the first user terminal 100 where the first operation UI 51, the second operation UI 52 and the third operation UI 53 are not displayed.

具体的には、第五の領域に対する一本指でのスワイプ操作に応じて、仮想カメラに回転操作を適用する。 Specifically, a rotation operation is applied to the virtual camera in response to a one-finger swipe operation on the fifth area.

また、第五の領域に対する二本指でのスワイプ操作に応じて、仮想カメラに移動操作を適用する。 In addition, a movement operation is applied to the virtual camera in response to a two-finger swipe operation on the fifth area.

また、第五の領域に対する二本指でのピンチイン/ピンチアウト操作に応じて、仮想カメラに拡縮操作を適用する。 In addition, a zoom operation is applied to the virtual camera in response to a two-finger pinch-in/pinch-out operation on the fifth area.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

具体的には、第二の動画の存在により、動画のコンテンツとしての質が向上する。 Specifically, the existence of a second video improves the quality of the video's content.

また、上記構成により、第二の動画におけるキャラクタオブジェクトの操作性が向上する。 The above configuration also improves the operability of the character object in the second video.

また、動画の質が向上することにより、視聴ユーザの視聴意欲が向上し、視聴ユーザ数が増加することに伴って配信ユーザの配信意欲も向上することになる。 In addition, improved video quality will increase viewing users' motivation to watch, and as the number of viewing users increases, broadcasting users' motivation to broadcast will also increase.

そして、これら配信意欲および視聴意欲の向上に伴い、配信ユーザと視聴ユーザの交流、さらには、視聴ユーザ同士の交流が活性化することにつながる。 And as the willingness to broadcast and watch increases, it leads to more interaction between broadcast users and viewing users, and even between viewing users themselves.

なお、上述したワールド機能の実行により表示される仮想空間は、第二の動画(ワールド機能)を配信するための空間として説明を行ったが、第二の動画を配信するためだけの空間に留まらず、複数のユーザに対応する複数のアバタが自由に歩きまわり互いにコミュニケーションをとるための仮想空間として利用することもできる。 The virtual space displayed by executing the world function described above has been explained as a space for distributing the second video (world function), but it can also be used as a virtual space in which multiple avatars corresponding to multiple users can roam freely and communicate with each other, rather than being limited to a space for distributing the second video.

そして、かかる仮想空間にいる複数のアバタの中の一のアバタ(一のユーザ)が、配信ユーザとして第一の動画を配信できる構成としてもよい。すなわち、多対多のメタバースな仮想空間において一対多の動画配信を行うことができる。 A single avatar (single user) among multiple avatars in the virtual space may be configured to be able to distribute a first video as a distribution user. In other words, one-to-many video distribution can be performed in a many-to-many metaverse virtual space.

第一ユーザ端末に対する所定の操作に応じて、第一ユーザ端末に表示された動画へのコメントに関する表示の有無を切り替えることができる。 Depending on a specific operation on the first user terminal, it is possible to switch between displaying and not displaying comments on a video displayed on the first user terminal.

図49は、図48に示した画面D50にコメント欄D54を表示させたものである。 Figure 49 shows the comment section D54 displayed on the screen D50 shown in Figure 48.

そして、一又は複数のコンピュータプロセッサは、動画へのコメントに関する表示の有無を切り替えた際、第一の操作UIおよび第二の操作UIの表示位置を変更、または、第一の操作UI51、第二の操作UI52および第三の操作UI53を非表示とすることができる。 Then, when switching between displaying and not displaying comments on the video, the one or more computer processors can change the display positions of the first operation UI and the second operation UI, or can hide the first operation UI 51, the second operation UI 52, and the third operation UI 53.

具体的には、図48と図49に示す例では表示位置を変更しているが、図48と図50に示す例では非表示としている。 Specifically, in the examples shown in Figures 48 and 49, the display position is changed, while in the examples shown in Figures 48 and 50, it is not displayed.

また、上述したように、第一の移動動作は水平移動(歩行等)であり、第二の移動動作は垂直移動(ジャンプ等)とすることができる。 Also, as described above, the first movement motion can be horizontal movement (e.g., walking) and the second movement motion can be vertical movement (e.g., jumping).

また、一又は複数のコンピュータプロセッサは、領域(第五の領域)に対する一本指でのスワイプ操作に応じて、仮想カメラに回転操作を適用する。 The one or more computer processors also apply a rotation operation to the virtual camera in response to a single-finger swipe operation on the area (fifth area).

また、一又は複数のコンピュータプロセッサは、領域(第五の領域)に対する二本指でのスワイプ操作に応じて、仮想カメラに移動操作を適用する。 The one or more computer processors also apply a movement operation to the virtual camera in response to a two-finger swipe operation on the area (fifth area).

また、一又は複数のコンピュータプロセッサは、領域(第五の領域)に対する二本指でのピンチイン/ピンチアウト操作に応じて、仮想カメラに拡縮操作を適用する。 The one or more computer processors also apply a zoom operation to the virtual camera in response to a two-finger pinch-in/pinch-out operation on the area (fifth area).

これらの操作により、仮想空間内を自由自在に映すことが可能となる。 These operations allow you to freely project images within the virtual space.

また、仮想カメラ制御部143は、第一ユーザまたは当該第一ユーザから許可されたユーザからのカメラ操作を受け付けることができる。 In addition, the virtual camera control unit 143 can accept camera operations from the first user or a user authorized by the first user.

第一ユーザから許可されたユーザとは、一例としてゲストユーザの中の一のユーザとすることができるが、詳細については後述する。 The user authorized by the first user can be, for example, one of the guest users, but details will be given later.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

<第五の実施形態>
続いて、本開示における第五の実施形態にかかる情報処理システム3000が備える第一ユーザ端末100、第二ユーザ端末200および/またはサーバ装置400において実行可能な各種機能について図面を参照しながら説明する。
Fifth embodiment
Next, various functions executable by the first user terminal 100, the second user terminal 200 and/or the server device 400 provided in the information processing system 3000 according to the fifth embodiment of the present disclosure will be described with reference to the drawings.

本開示の第五の実施形態にかかる情報処理システム3000が備える一又は複数のコンピュータプロセッサは、図51に示されるように、送信部151、移動操作受付部152、仮想カメラ制御部153および動画生成部154を備える。 The one or more computer processors included in the information processing system 3000 according to the fifth embodiment of the present disclosure include a transmission unit 151, a movement operation reception unit 152, a virtual camera control unit 153, and a video generation unit 154, as shown in FIG. 51.

送信部151は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。送信部151は、上述した送信部141と同様の構成とすることができる。 The transmission unit 151 transmits information about the video including the character object of the first user to the second user terminal 200 of the second user. The transmission unit 151 may have a configuration similar to that of the transmission unit 141 described above.

移動操作受付部152は、仮想空間内における第一ユーザのキャラクタオブジェクトの移動操作を受け付ける。移動操作受付部152は、上述した移動操作受付部142と同様の構成とすることができる。 The movement operation receiving unit 152 receives a movement operation of the first user's character object in the virtual space. The movement operation receiving unit 152 can be configured in the same manner as the movement operation receiving unit 142 described above.

仮想カメラ制御部153は、仮想空間内を撮影する仮想カメラのカメラ操作を受け付ける。仮想カメラ制御部153は、上述した仮想カメラ制御部143と同様の構成とすることができる。 The virtual camera control unit 153 accepts camera operations for a virtual camera that captures images in a virtual space. The virtual camera control unit 153 can be configured in the same manner as the virtual camera control unit 143 described above.

動画生成部154は、移動操作およびカメラ操作に基づいて、第一ユーザのキャラクタオブジェクトが仮想空間内で移動可能にするための情報を生成する。動画生成部154は、上述した動画生成部144と同様の構成とすることができる。 The video generation unit 154 generates information for enabling the first user's character object to move within the virtual space based on the movement operation and the camera operation. The video generation unit 154 can be configured in the same way as the video generation unit 144 described above.

そして、本開示における動画生成部154は、動画に、さらに、一以上の他のユーザのキャラクタオブジェクトを表示させるための情報を生成可能とする。 The video generation unit 154 in this disclosure is further capable of generating information for displaying character objects of one or more other users in the video.

このように生成された動画はコラボ動画と呼ばれるものであり、第一ユーザが「ホストユーザ」、他のユーザが「ゲストユーザ」となる。コラボ動画の詳細については前述したとおりであるが、視聴ユーザ(第二ユーザ)は、図12に示すコラボ申請ボタンV15を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信し、動画生成部154は、受付部が受け付けた参加要求に応じて、当該参加要求を行った視聴ユーザ(他のユーザ)のキャラクタオブジェクトを動画に表示させる。なお、この他のユーザのキャラクタオブジェクトは、他のユーザの動きに基づいて生成されるものであってもよいし、他のユーザの操作に基づくものであってもよい。以降、コラボに参加中のゲストユーザは「他のユーザ」と呼び、コラボに参加していない視聴ユーザを「第二ユーザ」と呼ぶものとする。 The video generated in this manner is called a collaboration video, in which the first user is the "host user" and the other users are the "guest users". The details of the collaboration video have been described above, but the viewing user (second user) sends a request to participate in the video via a collaboration distribution participation request confirmation screen that is displayed by pressing the collaboration application button V15 shown in FIG. 12, and the video generation unit 154 displays a character object of the viewing user (other user) who made the participation request in the video in response to the participation request accepted by the acceptance unit. Note that this character object of the other user may be generated based on the movement of the other user, or may be based on the operation of the other user. Hereinafter, guest users participating in the collaboration will be referred to as "other users", and viewing users not participating in the collaboration will be referred to as "second users".

図52は、第一ユーザ(ホストユーザ)のキャラクタオブジェクトC1、他のユーザ(ゲストユーザ)のキャラクタオブジェクトC2、C3が表示された動画を表示した画面V50のイメージを示したものである。 Figure 52 shows an image of a screen V50 displaying a video showing a character object C1 of a first user (host user) and character objects C2 and C3 of other users (guest users).

なお、他のユーザのキャラクタオブジェクトの表示開始位置は第一の領域とする。表示要求が第一の動画の表示中になされた場合には、キャラクタオブジェクト全員が第一の領域にいるために、キャラクタオブジェクトは整列した状態で表示される(図15、図16)が、表示要求が第二の動画の表示中になされた場合には、表示要求を行った他のユーザ以外のユーザは第一の領域または第二の領域を自由に移動可能な状態であるために、バラバラの状態で表示されうる。 The display start position of the character objects of other users is the first area. If a display request is made while the first video is being displayed, all of the character objects are in the first area, so the character objects are displayed in an aligned state (Figures 15 and 16). However, if a display request is made while the second video is being displayed, users other than the other user who made the display request are able to move freely within the first area or the second area, so the character objects may be displayed in a scattered state.

また、第一の動画におけるコラボ中に第二の動画へと切り替わった場合には、キャラクタオブジェクト全員が第一の領域にいる状態から第二の動画がスタートする。具体的には、第一の動画では仮想空間の中央側からキャラクタオブジェクトを撮影する仮想カメラVC1が適用され(図24)、第二の動画では仮想空間の縁側(仮想カメラVC1と対向する側)からキャラクタオブジェクト撮影する仮想カメラVC2が適用される(図25)。よって、第二の動画の開始時には、キャラクタオブジェクトの背後から仮想カメラVC2が撮影している状態の動画が表示される。 Furthermore, when switching to the second video during collaboration in the first video, the second video starts with all of the character objects in the first area. Specifically, in the first video, virtual camera VC1 is applied which shoots the character objects from the center of the virtual space (FIG. 24), while in the second video, virtual camera VC2 is applied which shoots the character objects from the edge of the virtual space (the side opposite virtual camera VC1) (FIG. 25). Therefore, at the start of the second video, a video in which virtual camera VC2 is shooting from behind the character objects is displayed.

そして、本開示における送信部151は、第一ユーザのキャラクタオブジェクトC1の一人称視点または三人称視点の動画を第二ユーザ端末200に送信することを特徴とする。 The transmission unit 151 in this disclosure is characterized by transmitting a video of the first user's character object C1 from a first-person perspective or a third-person perspective to the second user terminal 200.

ここで第二ユーザ端末200に送信される動画は第二の動画とする。すなわち、第五の実施形態におけるコラボ動画は、ワールド機能を実行中の動画である。 Here, the video sent to the second user terminal 200 is the second video. In other words, the collaboration video in the fifth embodiment is a video in which the world function is being executed.

図52は、第一ユーザのキャラクタオブジェクトC1の三人称視点の動画を示した例であり、第一ユーザのキャラクタオブジェクトC1の後頭部と、他のユーザのキャラクタオブジェクトC2、C3とが表示されている。一方で、図53は他のユーザのキャラクタオブジェクトC2の一人称視点の動画を示した例であり、第一ユーザのキャラクタオブジェクトC1と、他のユーザのキャラクタオブジェクトC3とが表示されている。なお、図52と図53とでキャラクタオブジェクトや他のオブジェクトの位置は関連していないものとする。 Figure 52 is an example showing a video of a first user's character object C1 from a third-person perspective, in which the back of the head of the first user's character object C1 and the other users' character objects C2 and C3 are displayed. On the other hand, Figure 53 is an example showing a video of the other user's character object C2 from a first-person perspective, in which the first user's character object C1 and the other user's character object C3 are displayed. Note that the positions of the character objects and other objects are not related between Figure 52 and Figure 53.

上記一人称視点と三人称視点の切り替えは、図47で示した第三の操作UI53への操作により行われることができる。なお、他のユーザは、自身のキャラクタオブジェクトがコラボに参加中は自身のキャラクタオブジェクトを操作可能であり、画面D50に示した第一の操作UI51、第二の操作UI52および第三の操作UI53が自身の端末の画面に表示されるものとする。 The above-mentioned switching between the first-person viewpoint and the third-person viewpoint can be performed by operating the third operation UI 53 shown in FIG. 47. Note that the other users can operate their own character objects while their own character objects are participating in a collaboration, and the first operation UI 51, second operation UI 52, and third operation UI 53 shown in screen D50 are displayed on the screen of their own terminals.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

具体的には、第二の動画においてもコラボ機能を設けることにより、動画のコンテンツとしての質がより向上する。また、コラボに参加しているユーザ同士の交流、コラボに参加しているユーザと視聴ユーザの交流、さらには、視聴ユーザ同士の交流が活性化することにつながる。 Specifically, by providing a collaboration function for the second video as well, the quality of the video as content will be improved. It will also lead to more active interaction between users participating in the collaboration, between users participating in the collaboration and viewing users, and even between viewing users themselves.

また、動画の質が向上することにより、視聴ユーザの視聴意欲が向上し、視聴ユーザ数が増加することに伴って配信ユーザの配信意欲も向上することになる。 In addition, improved video quality will increase viewing users' motivation to watch, and as the number of viewing users increases, broadcasting users' motivation to broadcast will also increase.

また、送信部151は、第一ユーザのキャラクタオブジェクトの一人称視点または三人称視点、および、他のユーザのキャラクタオブジェクトの一人称視点または三人称視点の複数の動画に関する情報を、第二ユーザ端末200に送信することができる。 The transmission unit 151 can also transmit information about multiple videos of the first-person or third-person perspective of the first user's character object and the first-person or third-person perspective of the other users' character objects to the second user terminal 200.

図54は、一例として、第一ユーザのキャラクタオブジェクトC1の三人称視点の動画の表示欄V61、他のユーザのキャラクタオブジェクトC2の三人称視点の動画の表示欄V62、他のユーザのキャラクタオブジェクトC3の一人称視点の動画の表示欄V63が一つの画面V60に表示された例を示したものである。 Figure 54 shows, as an example, a display area V61 for a video of a third-person perspective of a first user's character object C1, a display area V62 for a video of a third-person perspective of a character object C2 of another user, and a display area V63 for a video of a first-person perspective of a character object C3 of another user, all displayed on a single screen V60.

図52および図53で示した例のように、第一ユーザのキャラクタオブジェクトの視点の画面だけを表示するのか、図54で示した例のように、すべてのユーザのキャラクタオブジェクトの視点の画面を分割して表示するのかについては、後述するように、第一ユーザまたは第二ユーザの選択により決定することができる。なお、図54では、コラボに参加中のゲストが2人のため空欄ができているが、ここには3人目のゲストを表示することができる。 Whether to display only the screen from the viewpoint of the first user's character object as in the examples shown in Figures 52 and 53, or to split and display the screens from the viewpoints of all users' character objects as in the example shown in Figure 54 can be determined by the selection of the first user or the second user, as described below. Note that in Figure 54, there is a blank space because there are two guests participating in the collaboration, but a third guest can be displayed here.

また、図54では表示欄が四角形で等分される例を示したが、表示欄の形状は特に限定されず、表示欄の大きさも、第一ユーザを大きくし、他のユーザを小さくするような配分としてもよい。 In addition, while Figure 54 shows an example in which the display area is divided equally into rectangles, the shape of the display area is not particularly limited, and the size of the display area may be distributed so that the first user is larger and the other users are smaller.

また、図54は各種表示および操作UIが非表示の状態を示したものであるが、図8および図12に示したように、各種表示および操作UIが重畳して表示されるものとしてもよい。 Although FIG. 54 shows a state in which the various displays and operation UIs are not displayed, the various displays and operation UIs may be displayed in a superimposed manner, as shown in FIG. 8 and FIG. 12.

また、コラボ参加中のユーザ(第一ユーザおよび他のユーザ)の画面にはそれぞれ自身の一人称/三人称画面のみが表示されるものとしてもよいし、図54に示したような全員の一人称/三人称画面が表示されるものとしてもよい。これらは、コラボ参加中のユーザの各々の選択により切替可能としてもよい。 In addition, the screens of users participating in the collaboration (the first user and other users) may display only their own first-person/third-person screens, or may display the first-person/third-person screens of all users as shown in FIG. 54. These may be switchable by the individual selection of the users participating in the collaboration.

また、本開示における一又は複数のコンピュータプロセッサは、図55に示されるように、選択受付部155を備えることができる。 Furthermore, one or more computer processors in the present disclosure may include a selection receiving unit 155, as shown in FIG. 55.

選択受付部155は、第一ユーザまたは第二ユーザによる、第一ユーザおよび一以上の他のユーザの中からの一のユーザの選択を受け付ける。 The selection receiving unit 155 receives a selection by the first user or the second user of a user from among the first user and one or more other users.

すなわち、ホストユーザである第一ユーザ、または、視聴ユーザである第二ユーザは、コラボ参加中のユーザの中から一のユーザの選択を行うことができる。 In other words, the first user who is the host user, or the second user who is the viewing user, can select one user from among the users participating in the collaboration.

このとき、送信部151は、選択受付部155により受け付けられた選択に応じて、動画に関する情報を送信することができる。 At this time, the transmission unit 151 can transmit information about the video in accordance with the selection accepted by the selection acceptance unit 155.

具体的には、選択受付部155が第一ユーザによる一以上の他のユーザの中からの一の他のユーザの選択を受け付けた場合、送信部151は、一の他のユーザの一人称視点の動画に関する情報を送信する。 Specifically, when the selection receiving unit 155 receives a selection by the first user of one other user from one or more other users, the transmission unit 151 transmits information related to the first-person perspective video of the one other user.

これは、例えば、第一ユーザのキャラクタオブジェクトが出演者、選択された他のユーザがカメラマンという状態を想定したものである。通常、第一ユーザは、自身の動きおよび/またはキャラクタオブジェクトの操作を行いながら、仮想カメラの操作も同時に行う必要がある。しかしながら、より質の高い動画を生成するためには、他のユーザにカメラ操作の権限を委任する方が容易である。このとき、選択された他のユーザのキャラクタオブジェクトは裏方のスタッフとなるため、動画は三人称視点ではなく一人称視点として自動的に設定されるものとする。 This assumes, for example, that the character object of the first user is a performer and the selected other user is a cameraman. Normally, the first user needs to operate the virtual camera while simultaneously controlling his or her own movements and/or the character object. However, to generate a higher quality video, it is easier to delegate camera operation authority to another user. In this case, the character object of the selected other user becomes a backstage staff member, so the video is automatically set to a first-person perspective rather than a third-person perspective.

また、選択受付部155が第二ユーザによる第一ユーザおよび一以上の他のユーザの中からの一のユーザの選択を受け付けた場合、送信部151は、当該選択されたユーザのキャラクタオブジェクトの一人称視点または三人称視点の動画に関する情報を第二ユーザ端末に送信してもよい。 In addition, when the selection receiving unit 155 receives a selection by the second user of a user from among the first user and one or more other users, the transmission unit 151 may transmit information regarding a first-person perspective or third-person perspective video of the character object of the selected user to the second user terminal.

そして、第二ユーザの画面には、自分が選択したユーザのキャラクタオブジェクトの視点の動画が表示されるものであってもよいし、自分および他の第二ユーザを含む複数の第二ユーザによって選択(投票)された数が一番多いユーザのキャラクタオブジェクトの視点の動画が表示されるものであってもよい。なお、このとき表示される視点の種類(一人称視点/三人称視点)は、当該視点の動画を提供するユーザによって選択された視点の種類が適用されるものであってもよいし、第一ユーザまたは第二ユーザによってさらに選択されるものであってもよい。 The second user's screen may display a video from the viewpoint of the character object of the user selected by the second user, or may display a video from the viewpoint of the character object of the user who has been selected (voted) the most by multiple second users, including the second user and other second users. The type of viewpoint (first person viewpoint/third person viewpoint) displayed at this time may be the type of viewpoint selected by the user providing the video from that viewpoint, or may be further selected by the first user or the second user.

また、上記例では複数の第二ユーザが公平に投票するものであったが、特定の第二ユーザがすべての他の第二ユーザに表示させる動画を決定できる構成としてもよい。特定の第二ユーザとは、例えば、ギフトの表示要求および表示要求がなされたギフトの価値等に基づいて算出されるポイントが多いユーザ(一例としてギフティング額が多いユーザ)、第一ユーザが配信する動画を視聴した回数の多いユーザなどとすることができる。 In addition, while in the above example, multiple second users vote fairly, a specific second user may be configured to determine the video to be displayed to all other second users. A specific second user may be, for example, a user who has many points calculated based on gift display requests and the value of the gifts requested to be displayed (as an example, a user who has given a large amount of gifting), a user who has viewed a large number of videos distributed by first users, etc.

また、選択受付部155が第一ユーザによる一以上の他のユーザの中からの一の他のユーザの選択を受け付けた場合、本開示における一又は複数のコンピュータプロセッサは、図55に示されるように、さらに、演出受付部156および効果発生部157を備えることができる。 In addition, when the selection receiving unit 155 receives a selection by the first user of one other user from one or more other users, one or more computer processors in the present disclosure may further include a performance receiving unit 156 and an effect generating unit 157, as shown in FIG. 55.

演出受付部156は、他のユーザからの動画への演出効果の表示要求を受け付ける。 The effect reception unit 156 receives requests from other users to display effect effects on videos.

効果発生部157は、演出受付部156が受け付けた表示要求に応じて、動画へ演出効果を発生させる。 The effect generation unit 157 generates a visual effect for the video in response to the display request received by the effect reception unit 156.

演出効果は、一例として図56に示されるように、別のオブジェクトを表示させたり、効果音を発生させたりするなどが挙げられるが、これに限られるものではない。別のオブジェクトは例えば、紙吹雪オブジェクト、クラッカーオブジェクト、くす玉オブジェクトなどの演出オブジェクトとすることができる。 Examples of the presentation effects include, but are not limited to, displaying another object or generating a sound effect, as shown in FIG. 56. The other object can be, for example, a presentation object such as a confetti object, a cracker object, or a paper balloon object.

そして、送信部151は、演出効果が発生された動画に関する情報を送信することを特徴とする。 The transmitting unit 151 is characterized by transmitting information about the video in which the dramatic effect is generated.

これは、例えば、第一ユーザのキャラクタオブジェクトが出演者、選択された他のユーザが特殊効果スタッフという状態を想定したものである。通常、第一ユーザは、自身の動きおよび/またはキャラクタオブジェクトの操作を行いながら、演出効果の発動操作も同時に行う必要がある。しかしながら、より質の高い動画を生成するためには、他のユーザに発動操作の権限を委任する方が容易である。 This assumes, for example, that the first user's character object is a performer, and the other selected users are special effects staff. Typically, the first user needs to activate special effects while simultaneously controlling their own movements and/or the character object. However, in order to generate a higher quality video, it is easier to delegate the authority to activate effects to other users.

また、選択受付部155が第一ユーザによる一以上の他のユーザの中からの一の他のユーザの選択を受け付けた場合、本開示における一又は複数のコンピュータプロセッサは、さらに、切替受付部158を備えることができる。 In addition, when the selection receiving unit 155 receives a selection by the first user of one other user from one or more other users, one or more computer processors in the present disclosure may further include a switching receiving unit 158.

切替受付部158は、他のユーザからの動画へのオブジェクトの切替要求を受け付けるものである。 The switching reception unit 158 receives requests from other users to switch objects in a video.

オブジェクトの切替要求とは、上述した第二のオブジェクトを別の第二のオブジェクトへと変更する要求である。上述した例では、第二のオブジェクトの変更の条件は予定時刻の到来、予定時間の経過、または、第一ユーザまたは他のユーザからの変更指示として説明したが、この他のユーザからの変更指示が本例に相当する。 An object switching request is a request to change the above-mentioned second object to another second object. In the above example, the conditions for changing the second object were described as the arrival of a scheduled time, the passage of a scheduled time, or a change instruction from the first user or another user, and this example corresponds to a change instruction from another user.

動画生成部154は、切替受付部158が受け付けた切替要求に応じて、仮想空間に表示された第一ユーザのキャラクタオブジェクトC1および他のユーザのキャラクタオブジェクトC2以外のオブジェクトを別のオブジェクトに変更することができる(図57、図58)。 In response to a switching request received by the switching receiving unit 158, the video generating unit 154 can change objects other than the first user's character object C1 and the other user's character object C2 displayed in the virtual space to other objects (Figures 57 and 58).

図57および図58に示されるように、一部変更されないオブジェクト(タワーケーキオブジェクト等)があってもよい。 As shown in Figures 57 and 58, there may be some objects that remain unchanged (such as tower cake objects).

また、視聴ユーザから装着ギフトの表示要求があった場合、かかる表示要求に応じて当該装着ギフトに対応するギフトオブジェクトを動画に表示させるための表示指示オブジェクトを、選択受付部155によって第一ユーザまたは第二ユーザによる選択が受け付けられた一の他のユーザの画面に表示させてもよい。これにより、他のユーザは、自分の好きなタイミングで、第一のユーザに対して(あるいは他のユーザ以外のゲストユーザに対して)装着ギフトオブジェクトを装着させて表示させることができるようになる。 In addition, when a viewing user makes a request to display a wearing gift, a display instruction object for displaying a gift object corresponding to the wearing gift in the video in response to the display request may be displayed on the screen of one other user whose selection by the first user or the second user is accepted by the selection accepting unit 155. This allows the other user to have the first user (or a guest user other than the other user) wear and display the wearing gift object at a time of their choice.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

上述した第一の実施形態から第五の実施形態は、相互に組み合わせることができ、また、これら実施形態の一部を相互に組み合わせることも可能である。 The first to fifth embodiments described above can be combined with each other, and parts of these embodiments can also be combined with each other.

続いて、本開示の実施形態における情報処理方法について説明を行う。 Next, we will explain the information processing method in an embodiment of the present disclosure.

本開示の実施形態における情報処理方法は、図3に示した情報処理システム3000における情報処理方法である。情報処理システム3000は、一以上の第一ユーザ端末100、第二ユーザ端末200およびサーバ装置400を備える。 The information processing method in the embodiment of the present disclosure is an information processing method in the information processing system 3000 shown in FIG. 3. The information processing system 3000 includes one or more first user terminals 100, second user terminals 200, and a server device 400.

本開示における情報処理方法は、図59に一例として示されるように、情報処理システム3000が備える一又は複数のコンピュータプロセッサに、送信ステップS421、受付ステップS422、第一の動画生成ステップS423および第二の動画生成ステップS424を実行させる。 As shown as an example in FIG. 59, the information processing method of the present disclosure causes one or more computer processors included in the information processing system 3000 to execute a sending step S421, a receiving step S422, a first video generating step S423, and a second video generating step S424.

送信ステップS421は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。かかる送信ステップS421は、上述した送信部421により実行されることができる。 The transmission step S421 transmits information about the video including the character object of the first user to the second user terminal 200 of the second user. Such a transmission step S421 can be executed by the transmission unit 421 described above.

送信ステップS421は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。 The sending step S421 may be executed on the server side (server device 400) or on the client side (first user terminal 100).

受付ステップS422は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。かかる受付ステップS422は、上述した受付部422により実行されることができる。 The reception step S422 receives a request to display the first object from the second user terminal 200. Such reception step S422 can be executed by the reception unit 422 described above.

受付ステップS422は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。 The reception step S422 may be executed on the server side (server device 400) or on the client side (first user terminal 100).

第一の動画生成ステップS423は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。かかる第一の動画生成ステップS423は、上述した第一の動画生成部423により実行されることができる。 The first video generation step S423 generates first information for displaying the character object and the first object of the first user in a first area in the virtual space as the first video. Such a first video generation step S423 can be executed by the first video generation unit 423 described above.

第一の動画生成ステップS423は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。 The first video generation step S423 may be executed on the server side (server device 400) or on the client side (first user terminal 100).

第二の動画生成ステップS424は、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。かかる第二の動画生成ステップS424は、上述した第二の動画生成部424により実行されることができる。 The second video generation step S424 generates second information for displaying a second object different from the first object in a second area in the virtual space as the second video, and displaying the character object of the first user movably in the first area and the second area. Such second video generation step S424 can be executed by the second video generation unit 424 described above.

第二の動画生成ステップS424は、サーバ側(サーバ装置400)で実行されるものであってもよいし、クライアント側(第一ユーザ端末100)で実行されるものであってもよい。 The second video generation step S424 may be executed on the server side (server device 400) or on the client side (first user terminal 100).

そして、第二の動画生成ステップS424では、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, in a second video generation step S424, the first object is displayed at a predetermined position in the first area or at a position associated with the first user's character object based on the placement position information associated with the first object.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。 Next, we will explain the computer program in an embodiment of the present disclosure.

本開示の実施形態におけるコンピュータプログラムは、図3に示したように、動画を配信する情報処理システム3000において実行されるコンピュータプログラムである。情報処理システム3000は、一以上の第一ユーザ端末100、第二ユーザ端末200およびサーバ装置400を備える。 The computer program in the embodiment of the present disclosure is a computer program executed in an information processing system 3000 that distributes videos, as shown in FIG. 3. The information processing system 3000 includes one or more first user terminals 100, second user terminals 200, and a server device 400.

本開示におけるコンピュータプログラムは、情報処理システム3000が備える一又は複数のコンピュータプロセッサに、送信機能、受付機能、第一の動画生成機能および第二の動画生成機能を実現させることを特徴とする。 The computer program in the present disclosure is characterized in that it causes one or more computer processors provided in the information processing system 3000 to realize a transmission function, a reception function, a first video generation function, and a second video generation function.

送信機能は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末200に送信する。 The transmission function transmits information about the video including the character object of the first user to the second user terminal 200 of the second user.

受付機能は、第二ユーザ端末200から、第一のオブジェクトの表示要求を受け付ける。 The reception function accepts a request to display the first object from the second user terminal 200.

第一の動画生成機能は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。 The first video generation function generates first information for displaying the first user's character object and the first object in a first area in the virtual space as a first video.

第二の動画生成機能は、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。 The second video generation function displays a second object different from the first object in a second area in the virtual space as a second video, and generates second information for displaying the character object of the first user movably in the first area and the second area.

そして、第二の動画生成機能は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, the second video generation function displays the first object at a predetermined position in the first area or at a position associated with the first user's character object based on the placement position information associated with the first object.

上記機能は、図60に示す送信回路1421、受付回路1422、第一の動画生成回路1423および第二の動画生成回路1424により実現されることができる。送信回路1421、受付回路1422、第一の動画生成回路1423および第二の動画生成回路1424は、それぞれ上述した送信部421、受付部422、第一の動画生成部423および第二の動画生成部424により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the transmission circuit 1421, reception circuit 1422, first video generation circuit 1423, and second video generation circuit 1424 shown in FIG. 60. The transmission circuit 1421, reception circuit 1422, first video generation circuit 1423, and second video generation circuit 1424 are realized by the transmission unit 421, reception unit 422, first video generation unit 423, and second video generation unit 424 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第一ユーザ端末100に相当するものである。 Next, an information processing device in an embodiment of the present disclosure will be described. The information processing device corresponds to the first user terminal 100 in the information processing system 3000 described above.

情報処理装置は、図61に示されるように、送信部121、第一の動画生成部122、第二の動画生成部123を備える。 As shown in FIG. 61, the information processing device includes a transmission unit 121, a first video generation unit 122, and a second video generation unit 123.

送信部121は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400に送信する。 The transmission unit 121 transmits information about the video including the character object of the first user to the server device 400.

第一の動画生成部122は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末200から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。第一の動画生成部122は、上述した第一の動画生成部423と同様の構成とすることができる。 The first video generating unit 122 generates first information for displaying, as a first video, the character object of the first user and a first object requested to be displayed by the second user terminal 200 in a first area in the virtual space. The first video generating unit 122 may be configured in the same manner as the first video generating unit 423 described above.

第二の動画生成部123は、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。第二の動画生成部123は、上述した第二の動画生成部424と同様の構成とすることができる。 The second video generating unit 123 generates second information for displaying a second object different from the first object in a second area in the virtual space as the second video, and displaying the character object of the first user movably in the first area and the second area. The second video generating unit 123 may have a configuration similar to that of the second video generating unit 424 described above.

そして、第二の動画生成部123は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, the second video generation unit 123 displays the first object at a predetermined position in the first area or at a position associated with the character object of the first user based on the placement position information associated with the first object.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

続いて、本開示の実施形態における情報処理方法について説明を行う。かかる情報処理方法は、上述した情報処理装置(第一ユーザ端末100)において実行される情報処理方法である。 Next, an information processing method according to an embodiment of the present disclosure will be described. This information processing method is executed in the information processing device (first user terminal 100) described above.

本開示における情報処理方法は、図62に一例として示されるように、情報処理装置が備える一又は複数のコンピュータプロセッサに、送信ステップS121、第一の動画生成ステップS122および第二の動画生成ステップS123を実行させることを特徴とする。 The information processing method of the present disclosure is characterized in that, as shown as an example in FIG. 62, one or more computer processors included in an information processing device execute a transmission step S121, a first video generation step S122, and a second video generation step S123.

送信ステップS121は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400に送信する。かかる送信ステップS121は、上述した送信部121により実行されることができる。 The transmission step S121 transmits information about the video including the character object of the first user to the server device 400. Such a transmission step S121 can be executed by the transmission unit 121 described above.

第一の動画生成ステップS122は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末200から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。かかる第一の動画生成ステップS122は、上述した第一の動画生成部122により実行されることができる。 The first video generation step S122 generates first information for displaying, as a first video, the character object of the first user and the first object requested to be displayed by the second user terminal 200 in a first area in the virtual space. Such a first video generation step S122 can be executed by the first video generation unit 122 described above.

第二の動画生成ステップS123は、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。かかる第二の動画生成ステップS123は、上述した第二の動画生成部123により実行されることができる。 The second video generation step S123 generates second information for displaying a second object different from the first object in a second area in the virtual space as the second video, and displaying the character object of the first user movably in the first area and the second area. Such second video generation step S123 can be executed by the second video generation unit 123 described above.

そして、第二の動画生成ステップS123は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, the second video generation step S123 displays the first object at a predetermined position in the first area or at a position associated with the first user's character object based on the placement position information associated with the first object.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第一ユーザ端末)において実行されるコンピュータプログラムである。 Next, a computer program according to an embodiment of the present disclosure will be described. Such a computer program is executed in the information processing device (first user terminal) described above.

本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のプロセッサに、送信機能、第一の動画生成機能および第二の動画生成機能を実現させることを特徴とする。 The computer program disclosed herein is characterized in that it causes one or more processors included in an information processing system to realize a transmission function, a first video generation function, and a second video generation function.

送信機能は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400に送信する。 The transmission function transmits information about the video including the first user's character object to the server device 400.

第一の動画生成機能は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末200から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する。 The first video generation function generates first information for displaying, as a first video, the character object of the first user and a first object requested to be displayed by the second user terminal 200 in a first area in the virtual space.

第二の動画生成機能は、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示するための第二情報を生成する。 The second video generation function displays a second object different from the first object in a second area in the virtual space as a second video, and generates second information for displaying the character object of the first user movably in the first area and the second area.

そして、第二の動画生成機能は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, the second video generation function displays the first object at a predetermined position in the first area or at a position associated with the first user's character object based on the placement position information associated with the first object.

上記機能は、図63に示す送信回路1121、第一の動画生成回路1122および第二の動画生成回路1123により実現されることができる。送信回路1121、第一の動画生成回路1122および第二の動画生成回路1123は、それぞれ上述した送信部121、第一の動画生成部122および第二の動画生成部123により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the transmission circuit 1121, first video generation circuit 1122, and second video generation circuit 1123 shown in FIG. 63. The transmission circuit 1121, first video generation circuit 1122, and second video generation circuit 1123 are realized by the transmission unit 121, first video generation unit 122, and second video generation unit 123 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

続いて、本開示の実施形態における情報処理装置について説明を行う。情報処理装置は、上述した情報処理システム3000における第二ユーザ端末200に相当するものである。 Next, an information processing device in an embodiment of the present disclosure will be described. The information processing device corresponds to the second user terminal 200 in the information processing system 3000 described above.

情報処理装置は、図64に示されるように、受信部221、送信部222および表示部223を備える。 As shown in FIG. 64, the information processing device includes a receiving unit 221, a transmitting unit 222, and a display unit 223.

受信部221は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400から受信する。 The receiving unit 221 receives information about the video including the character object of the first user from the server device 400.

送信部222は、第一のオブジェクトの表示要求をサーバ装置400に送信する。 The transmission unit 222 transmits a display request for the first object to the server device 400.

表示部223は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末200から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示する。 The display unit 223 displays, as a first video, the character object of the first user and a first object requested to be displayed by the second user terminal 200 in a first area in the virtual space, and displays, as a second video, a second object different from the first object in a second area in the virtual space, and displays the character object of the first user movable between the first area and the second area.

そして、表示部223は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを仮想空間内の第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, based on the placement position information associated with the first object, the display unit 223 displays the first object at a predetermined position in the first area in the virtual space or at a position associated with the character object of the first user.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

続いて、本開示の実施形態における情報処理方法について説明を行う。かかる情報処理方法は、上述した情報処理装置(第二ユーザ端末200)において実行される情報処理方法である。 Next, an information processing method according to an embodiment of the present disclosure will be described. This information processing method is executed in the information processing device (second user terminal 200) described above.

本開示における情報処理方法は、図65に一例として示されるように、情報処理装置が備える一又は複数のコンピュータプロセッサに、受信ステップS221、送信ステップS222および表示ステップS223を実行させることを特徴とする。 The information processing method of the present disclosure is characterized in that, as shown as an example in FIG. 65, one or more computer processors provided in an information processing device execute a receiving step S221, a transmitting step S222, and a displaying step S223.

受信ステップS221は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400から受信する。かかる受信ステップS221は、上述した受信部221により実行されることができる。 The receiving step S221 receives information about the video including the character object of the first user from the server device 400. Such receiving step S221 can be executed by the receiving unit 221 described above.

送信ステップS222は、第一のオブジェクトの表示要求をサーバ装置400に送信する。かかる送信ステップS222は、上述した送信部222により実行されることができる。 The sending step S222 sends a display request for the first object to the server device 400. Such a sending step S222 can be executed by the sending unit 222 described above.

表示ステップS223は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示する。かかる表示ステップS223は、上述した表示部223により実行されることができる。 The display step S223 displays, as a first video, the character object of the first user and a first object requested to be displayed from the second user terminal in a first area in the virtual space, and displays, as a second video, a second object different from the first object in a second area in the virtual space, and displays the character object of the first user movably in the first area and the second area. Such a display step S223 can be executed by the display unit 223 described above.

そして、表示ステップS223は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを仮想空間内の第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, in the display step S223, the first object is displayed at a predetermined position in the first area in the virtual space or at a position associated with the character object of the first user based on the placement position information associated with the first object.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

最後に、本開示の実施形態におけるコンピュータプログラムについて説明を行う。かかるコンピュータプログラムは、上述した情報処理装置(第二ユーザ端末200)において実行されるコンピュータプログラムである。 Finally, we will explain the computer program in an embodiment of the present disclosure. Such a computer program is a computer program executed in the above-mentioned information processing device (second user terminal 200).

本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のプロセッサに、受信機能、送信機能および表示機能を実現させることを特徴とする。 The computer program disclosed herein is characterized in that it causes one or more processors provided in an information processing system to realize a receiving function, a transmitting function, and a display function.

受信機能は、第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置400から受信する。 The receiving function receives information about a video including the first user's character object from the server device 400.

送信機能は、第一のオブジェクトの表示要求をサーバ装置400に送信する。 The transmission function transmits a display request for the first object to the server device 400.

表示機能は、第一の動画として、第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末200から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、第一のオブジェクトとは異なる第二のオブジェクトを仮想空間内の第二の領域に表示させ、第一ユーザのキャラクタオブジェクトを第一の領域および第二の領域を移動可能に表示する。 The display function displays, as a first video, a character object of the first user and a first object requested to be displayed by the second user terminal 200 in a first area in the virtual space, and displays, as a second video, a second object different from the first object in a second area in the virtual space, and displays the character object of the first user movable between the first area and the second area.

そして、表示機能は、第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを仮想空間内の第一の領域の所定位置、または、第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる。 Then, the display function displays the first object at a predetermined position in the first area in the virtual space or at a position associated with the first user's character object based on the placement position information associated with the first object.

上記機能は、図66に示す受信回路1221、送信回路1222および表示回路1223により実現されることができる。受信回路1221、送信回路1222および表示回路1223は、それぞれ上述した受信部221、送信部222および表示部223により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the receiving circuit 1221, the transmitting circuit 1222, and the display circuit 1223 shown in FIG. 66. The receiving circuit 1221, the transmitting circuit 1222, and the display circuit 1223 are realized by the receiving unit 221, the transmitting unit 222, and the display unit 223 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の課題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、上記構成によれば、配信ユーザの配信意欲、視聴ユーザの視聴意欲および/またはユーザ同士の交流意欲を向上させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems with the conventional technology described above. Specifically, the above configuration can improve the distribution user's willingness to distribute, the viewing user's willingness to watch, and/or the willingness of users to interact with each other.

また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。 In addition, an information processing device such as a computer or a mobile phone can be suitably used to function as the server device or terminal device according to the above-mentioned embodiments. Such an information processing device can be realized by storing a program describing the processing contents for realizing each function of the server device or terminal device according to the embodiments in a memory unit of the information processing device, and reading and executing the program by the CPU of the information processing device.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。 The method described in the embodiment can be stored as a program that can be executed by a calculator (computer) on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, MO, etc.), semiconductor memory (ROM, RAM, flash memory, etc.), and can also be distributed by transmitting it via a communication medium. The program stored on the medium also includes a setting program that configures the software means (including not only execution programs but also tables and data structures) that the calculator executes. The computer that realizes this device reads the program recorded on the recording medium, and in some cases, configures the software means using the setting program, and executes the above-mentioned processing by controlling the operation of the software means. Note that the recording medium referred to in this specification is not limited to a storage medium for distribution, but also includes a storage medium such as a magnetic disk or semiconductor memory provided inside the computer or in a device connected via a network. The storage unit may function as a main storage device, an auxiliary storage device, or a cache memory, for example.

また、上述した「ギフト」や「コメント」など、本開示における情報処理システムにおいて送受信される対象はすべて、電子的な「データ」である。 In addition, all items sent and received in the information processing system of this disclosure, such as the above-mentioned "gifts" and "comments," are electronic "data."

上記[発明の概要]の欄は、選択された様々な概念を簡略化された形式により導入するために記載されており、これらの様々な概念については[発明を実施するための形態]の欄において後述する。本明細書において用いられるすべての商標は、これらの商標の保有者の財産である。この[発明の概要]の欄の記載は、特許請求の範囲に記載された発明の重要な特徴又は不可欠な特徴を特定することを意図するものでもなく、特許請求の範囲に記載された発明の技術的範囲を限定することを意図するものでもない。特許請求の範囲に記載された発明の、上述した又は他の目的、特徴及び効果は、添付図面を参照して示された[発明を実施するための形態]の欄の記載からより明らかとなる。 The Summary section above is provided to introduce in a simplified form selected concepts that are described below in the Detailed Description section. All trademarks used herein are the property of their respective owners. The statements in this Summary section are not intended to identify key features or essential features of the claimed inventions, nor are they intended to limit the scope of the claimed inventions. The above and other objects, features, and advantages of the claimed inventions will become more apparent from the Detailed Description section presented in conjunction with the accompanying drawings.

上述したネットワークを実現するための通信回線は、携帯電話網、無線ネットワーク(例えば、Bluetooth、(IEEE 802.11a/b/nといったような)WiFi、WiMax、セルラー、衛星、レーザー、赤外線、を介したRF接続)、固定電話網、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及び/又は、イーサネットネットワークを、これらに限定することなく含むことができる。 The communication lines for implementing the above-mentioned network may include, but are not limited to, a cellular network, a wireless network (e.g., Bluetooth, WiFi (such as IEEE 802.11a/b/n), WiMax, cellular, satellite, laser, infrared, RF connection), a landline network, the Internet, an intranet, a local area network (LAN), a wide area network (WAN), and/or an Ethernet network.

上述したメモリは揮発性メモリ(例えば、レジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(例えば、リードオンリーメモリ(ROM)、EEPROM、フラッシュメモリ)、及び、ストレージ(例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、磁気テープ、光学媒体)、といったようなコンピュータにより読み取り可能な媒体を、これらに限定することなく含むことができる。容易に理解されるように、「コンピュータにより読み取り可能な記録媒体」という用語は、変調されたデータ信号すなわち一時的な信号といったような送信媒体ではなく、メモリ及びストレージといったようなデータストレージのための媒体を含むことができる。 The memory mentioned above may include, but is not limited to, computer readable media such as volatile memory (e.g., registers, cache, random access memory (RAM)), non-volatile memory (e.g., read only memory (ROM), EEPROM, flash memory), and storage (e.g., hard disk drive (HDD), solid state drive (SSD), magnetic tape, optical media). As will be readily understood, the term "computer readable recording medium" may include media for data storage such as memory and storage, as well as transmission media such as modulated data signals or transitory signals.

本明細書は、いかなる方法によっても限定されることを意図していない、代表的な様々な実施形態という意味により記載される。本件出願において用いられるように、「1つの」、「前記」、「上記」、「当該」、「該」、「この」、「その」といった単数形は、複数形でないことを明確に示さない限り、複数形を含むことができる。また、「含む」という用語は、「具備する」こと又は「備える」ことを意味し得る。さらに、「結合された」、「結合した」、「結び付けられた」、「結び付けた、「接続された」又は「接続した」という用語は、対象物を相互に結合する、接続する又は結び付ける、機械的、電気的、磁気的及び光学的な方法を他の方法とともに包含し、このように結合された、結合した、結び付けられた、結び付けた、接続された又は接続した対象物の間にある中間要素の存在を排除しない。 This specification is described in terms of representative embodiments that are not intended to be limiting in any manner. As used in this application, singular forms such as "a," "the," "said," "above," "the," "the," "this," and "it" can include the plural, unless the plural is clearly not indicated. Also, the term "comprises" can mean "comprises" or "has." Furthermore, the terms "coupled," "coupled," "connected," "connected," and "connected" encompass mechanical, electrical, magnetic, and optical methods of coupling, connecting, or joining objects together, as well as other methods, and do not exclude the presence of intermediate elements between objects so coupled, coupled, connected, connected, or connected.

本明細書において記載される、様々なシステム、方法及び装置は、いかなる方法によっても限定されるものとして解釈されるべきではない。実際には、本開示は、開示された様々な実施形態の各々、これら様々な実施形態を相互に組み合わせたもの、及び、これら様々な実施形態の一部を相互に組み合わせたもの、のうちのあらゆる新規な特徴及び態様に向けられている。本明細書において記載される、様々なシステム、方法及び装置は、特定の態様、特定の特徴、又は、このような特定の態様と特定の特徴とを組み合わせたものに限定されないし、本明細書に記載される物及び方法は、1若しくはそれ以上の特定の効果が存在すること又は課題が解決されることを、要求するものでもない。さらには、本明細書において記載された様々な実施形態のうちの様々な特徴若しくは態様、又は、そのような特徴若しくは態様の一部は、相互に組み合わせて用いられ得る。 The various systems, methods, and devices described herein should not be construed as being limited in any manner. Indeed, the present disclosure is directed to all novel features and aspects of each of the various disclosed embodiments, combinations of these various embodiments with each other, and combinations of portions of these various embodiments with each other. The various systems, methods, and devices described herein are not limited to specific aspects, specific features, or combinations of such specific aspects with specific features, nor do the products and methods described herein require that one or more specific advantages be present or problems be solved. Moreover, various features or aspects of the various embodiments described herein, or portions of such features or aspects, may be used in combination with each other.

本明細書において開示された様々な方法のうちの幾つかの方法の動作が、便宜上、特定の順序に沿って記載されているが、このような手法による記載は、特定の順序が以下特定の文章によって要求されていない限り、上記動作の順序を並び替えることを包含する、と理解すべきである。例えば、順番に記載された複数の動作は、幾つかの場合には、並び替えられるか又は同時に実行される。さらには、簡略化を目的として、添付図面は、本明細書に記載された様々な事項及び方法が他の事項及び方法とともに用いられ得るような様々な方法を示していない。加えて、本明細書は、「生成する」、「発生させる」、「表示する」、「受信する」、「評価する」及び「配信する」のような用語を用いることがある。これらの用語は、実行される実際の様々な動作のハイレベルな記載である。これらの用語に対応する実際の様々な動作は、特定の実装に依存して変化し得るし、本明細書の開示の利益を有する当業者によって容易に認識され得る。 Although the operations of some of the various methods disclosed herein have been described in a particular order for convenience, it should be understood that description in this manner encompasses rearranging the order of the operations, unless a particular order is required by specific text below. For example, operations described in a particular order may in some cases be rearranged or performed simultaneously. Furthermore, for purposes of simplicity, the accompanying drawings do not show the various ways in which the various items and methods described herein may be used with other items and methods. In addition, this specification may use terms such as "generate," "generate," "display," "receive," "evaluate," and "deliver." These terms are high-level descriptions of the various actual operations that are performed. The actual operations that correspond to these terms may vary depending on the particular implementation and can be readily recognized by one of ordinary skill in the art having the benefit of the disclosure herein.

本開示の装置又は方法に関連して本明細書に提示される、動作理論、科学的原理又は他の理論的な記載は、よりよい理解を目的として提供されており、技術的範囲を限定することを意図していない。添付した特許請求の範囲における装置及び方法は、このような動作理論により記載される方法により動作する装置及び方法に限定されない。 Any theory of operation, scientific principles, or other theoretical descriptions presented herein in connection with the devices or methods of the present disclosure are provided for purposes of better understanding and are not intended to limit the scope of the technology. The devices and methods of the appended claims are not limited to devices and methods that operate in a manner described by such theories of operation.

本明細書に開示された様々な方法のいずれもが、コンピュータにより読み取り可能な1又はそれ以上の媒体(例えば、1又はそれ以上の光学媒体ディスク、複数の揮発性メモリ部品、又は、複数の不揮発性メモリ部品といったような、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶された、コンピュータにより実行可能な複数の命令を用いて実装され、さらに、コンピュータにおいて実行され得る。ここで、上記複数の揮発性メモリ部品は、例えばDRAM又はSRAMを含む。また、上記複数の不揮発性メモリ部品は、例えばハードドライブ及びソリッドステートドライブ(SSD)を含む。さらに、上記コンピュータは、例えば、計算を行うハードウェアを有するスマートフォン及び他のモバイル装置を含む、市場において入手可能な任意のコンピュータを含む。 Any of the various methods disclosed herein may be implemented and executed on a computer using computer-executable instructions stored on one or more computer-readable media (e.g., non-transitory computer-readable storage media, such as one or more optical media disks, volatile memory components, or non-volatile memory components). Here, the volatile memory components may include, for example, DRAM or SRAM. Also, the non-volatile memory components may include, for example, hard drives and solid-state drives (SSDs). Furthermore, the computer may include any computer available on the market, including, for example, smartphones and other mobile devices having hardware to perform computations.

本明細書において開示された技術を実装するためのこのようなコンピュータにより実行可能な複数の命令のいずれもが、本明細書において開示された様々な実施形態の実装の間において生成され使用される任意のデータとともに、1又はそれ以上のコンピュータにより読み取り可能な媒体(例えば、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶され得る。このようなコンピュータにより実行可能な複数の命令は、例えば、個別のソフトウェアアプリケーションの一部であり得るか、又は、ウェブブラウザ若しくは(リモート計算アプリケーションといったような)他のソフトウェアアプリケーションを介してアクセス又はダウンロードされるソフトウェアアプリケーションの一部であり得る。このようなソフトウェアは、例えば、(例えば市場において入手可能な任意の好適なコンピュータにおいて実行されるエージェントとしての)単一のローカルコンピュータにおいて、又は、1又はそれ以上のネットワークコンピュータを用いて、ネットワーク環境(例えば、インターネット、ワイドエリアネットワーク、ローカルエリアネットワーク、(クラウド計算ネットワークといったような)クライアントサーバネットワーク、又は、他のそのようなネットワーク)において、実行され得る。 Any such computer-executable instructions for implementing the techniques disclosed herein, along with any data generated and used during the implementation of the various embodiments disclosed herein, may be stored on one or more computer-readable media (e.g., non-transitory computer-readable storage media). Such computer-executable instructions may be, for example, part of a separate software application, or part of a software application accessed or downloaded via a web browser or other software application (such as a remote computing application). Such software may be executed, for example, on a single local computer (e.g., as an agent executing on any suitable computer available on the market) or in a network environment (e.g., the Internet, a wide area network, a local area network, a client-server network (such as a cloud computing network), or other such network) using one or more networked computers.

明確化のために、ソフトウェアをベースとした様々な実装のうちの特定の選択された様々な態様のみが記載される。当該分野において周知である他の詳細な事項は省略される。例えば、本明細書において開示された技術は、特定のコンピュータ言語又はプログラムに限定されない。例えば、本明細書において開示された技術は、C、C++、Java、又は、他の任意の好適なプログラミング言語で記述されたソフトウェアにより実行され得る。同様に、本明細書において開示された技術は、特定のコンピュータ又は特定のタイプのハードウェアに限定されない。好適なコンピュータ及びハードウェアの特定の詳細な事項は、周知であって、本明細書において詳細に説明する必要はない。 For clarity, only certain selected aspects of various software-based implementations are described. Other details that are well known in the art are omitted. For example, the techniques disclosed herein are not limited to a particular computer language or program. For example, the techniques disclosed herein may be implemented by software written in C, C++, Java, or any other suitable programming language. Similarly, the techniques disclosed herein are not limited to a particular computer or type of hardware. Specific details of suitable computers and hardware are well known and need not be described in detail herein.

さらには、このようなソフトウェアをベースとした様々な実施形態(例えば、本明細書において開示される様々な方法のいずれかをコンピュータに実行させるための、コンピュータにより実行可能な複数の命令を含む)のいずれもが、好適な通信手段により、アップロードされ、ダウンロードされ、又は、リモート方式によりアクセスされ得る。このような好適な通信手段は、例えば、インターネット、ワールドワイドウェブ、イントラネット、ソフトウェアアプリケーション、ケーブル(光ファイバケーブルを含む)、磁気通信、電磁気通信(RF通信、マイクロ波通信、赤外線通信を含む)、電子通信、又は、他のそのような通信手段を含む。
〔付記事項〕
原出願の出願当初の特許請求の範囲に記載された事項を付記する。
[請求項1]
一又は複数のコンピュータプロセッサは、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末に送信する送信部と、
前記第二ユーザ端末から、第一のオブジェクトの表示要求を受け付ける受付部と、
第一の動画として、前記第一ユーザのキャラクタオブジェクトおよび前記第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成部と、
第二の動画として、前記第一のオブジェクトとは異なる第二のオブジェクトを前記仮想空間内の第二の領域に表示させ、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成部と
を備え、
前記第二の動画生成部は、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる情報処理システム。
[請求項2]
前記第二の動画生成部は、前記第一のオブジェクトを表示する際に、前記第二の動画に前記第一のオブジェクトが表示されている旨のシステムコメントを表示させることを特徴とする請求項1に記載の情報処理システム。
[請求項3]
前記一又は複数のコンピュータプロセッサは、さらに、
前記仮想空間内における前記第一ユーザのキャラクタオブジェクトの移動操作を受け付ける移動操作受付部と、
前記仮想空間内を撮影する仮想カメラの動作を制御する仮想カメラ制御部と
を備えることを特徴とすることを特徴とする請求項1または2に記載の情報処理システム。
[請求項4]
前記仮想カメラ制御部は、前記第一のオブジェクトが前記第一の領域の所定位置に表示される際に、前記所定位置と前記仮想カメラとの位置関係に応じて、前記仮想カメラの動作を制御することを特徴とする請求項3に記載の情報処理システム。
[請求項5]
前記仮想カメラ制御部は、前記所定位置と前記仮想カメラとの位置関係から、前記第一のオブジェクトと前記キャラクタオブジェクトとを同画面に含めることができない場合、前記第一のオブジェクトを画面に含めるよう前記仮想カメラの動作を制御することを特徴とする請求項4に記載の情報処理システム。
[請求項6]
前記第二の動画生成部は、前記第一のオブジェクトを前記第一の領域の所定位置に表示する際に、前記キャラクタオブジェクトの前記仮想空間内の位置に応じて、前記仮想空間内に前記第一のオブジェクトの位置を示す目印オブジェクトを表示することを特徴とする請求項1から4のいずれか一項に記載の情報処理システム。
[請求項7]
前記第二の動画生成部は、前記第一のオブジェクトに関連付けられた配置位置情報が当該第一のオブジェクトを前記第一の領域の所定位置に表示させるべきものであっても、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする請求項1から6のいずれか一項に記載の情報処理システム。
[請求項8]
前記第一ユーザのキャラクタオブジェクトの顔部の動きは、第一ユーザ端末のインカメラによって撮影された前記第一ユーザの顔部の動きに基づいて生成され、
前記第一の動画生成部は、前記第一ユーザのキャラクタオブジェクトの顔部の動きを、前記第一ユーザの顔部の動きと反転した反転状態で生成し、
前記第二の動画生成部は、前記第一ユーザのキャラクタオブジェクトと前記仮想カメラとの位置関係に応じて、前記第一ユーザのキャラクタオブジェクトの顔部の動きを、前記反転状態または非反転状態で生成することを特徴とする請求項3、4または5に記載の情報処理システム。
[請求項9]
前記第二の動画生成部は、前記第一ユーザのキャラクタオブジェクトが移動可能な領域を超えて移動した場合、前記仮想空間内の他の位置から再出現させることを特徴とする請求項1から8のいずれか一項に記載の情報処理システム。
[請求項10]
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報を第二ユーザの第二ユーザ端末に送信する送信ステップと、
前記第二ユーザ端末から、第一のオブジェクトの表示要求を受け付ける受付ステップと、
第一の動画として、前記第一ユーザのキャラクタオブジェクトおよび前記第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成ステップと、
第二の動画として、前記第一のオブジェクトとは異なる第二のオブジェクトを前記仮想空間内の第二の領域に表示させ、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成ステップと
を実行させ、
前記第二の動画生成ステップでは、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる情報処理方法。
[請求項11]
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する送信ステップと、
第一の動画として、前記第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成ステップと、
第二の動画として、前記第一のオブジェクトとは異なる第二のオブジェクトを前記仮想空間内の第二の領域に表示させ、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成ステップと
を実行させ、
前記第二の動画生成ステップは、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる情報処理方法。
[請求項12]
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する送信機能と、
第一の動画として、前記第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示するための第一情報を生成する第一の動画生成機能と、
第二の動画として、前記第一のオブジェクトとは異なる第二のオブジェクトを前記仮想空間内の第二の領域に表示させ、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成機能と
を実現させ、
前記第二の動画生成機能は、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させるコンピュータプログラム。
[請求項13]
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信ステップと、
第一のオブジェクトの表示要求を前記サーバ装置に送信する送信ステップと、
第一の動画として、前記第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、前記第一のオブジェクトとは異なる第二のオブジェクトを前記仮想空間内の第二の領域に表示させ、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示する表示ステップと
を実行させ、
前記表示ステップでは、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記仮想空間内の第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させる情報処理方法。
[請求項14]
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信機能と、
第一のオブジェクトの表示要求を前記サーバ装置に送信する送信機能と、
第一の動画として、前記第一ユーザのキャラクタオブジェクトおよび第二ユーザ端末から表示要求がなされた第一のオブジェクトを仮想空間内の第一の領域に表示させ、第二の動画として、前記第一のオブジェクトとは異なる第二のオブジェクトを前記仮想空間内の第二の領域に表示させ、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示する表示機能と
を実現させ、
前記表示機能は、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記仮想空間内の第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させるコンピュータプログラム。
Moreover, any of the various such software-based embodiments (e.g., including computer-executable instructions for causing a computer to perform any of the various methods disclosed herein) may be uploaded, downloaded, or accessed in a remote manner by any suitable communication means, including, for example, the Internet, the World Wide Web, an intranet, a software application, cable (including fiber optic cable), magnetic communication, electromagnetic communication (including RF, microwave, and infrared communication), electronic communication, or other such communication means.
[Additional Notes]
The matters described in the claims as originally filed in the original application are appended hereto.
[Claim 1]
The one or more computer processors
a transmission unit that transmits information about a moving image including a character object of a first user to a second user terminal of a second user;
a reception unit that receives a display request for a first object from the second user terminal;
a first moving image generating unit that generates first information for displaying a character object of the first user and the first object in a first area in a virtual space as a first moving image;
a second moving image generating unit that generates second information for displaying, as a second moving image, a second object different from the first object in a second area in the virtual space and displaying a character object of the first user movably in the first area and the second area;
The second video generation unit is an information processing system that displays the first object at a predetermined position in the first area or at a position associated with the first user's character object based on placement position information associated with the first object.
[Claim 2]
The information processing system according to claim 1, characterized in that, when displaying the first object, the second video generation unit displays a system comment indicating that the first object is displayed in the second video.
[Claim 3]
The one or more computer processors further include:
a movement operation receiving unit that receives a movement operation of a character object of the first user in the virtual space;
3. The information processing system according to claim 1, further comprising a virtual camera control unit for controlling an operation of a virtual camera that captures images of the virtual space.
[Claim 4]
The information processing system according to claim 3, characterized in that the virtual camera control unit controls the operation of the virtual camera when the first object is displayed at a predetermined position in the first area in accordance with a positional relationship between the predetermined position and the virtual camera.
[Claim 5]
The information processing system according to claim 4, characterized in that when the first object and the character object cannot be included on the same screen due to the positional relationship between the specified position and the virtual camera, the virtual camera control unit controls the operation of the virtual camera to include the first object on the screen.
[Claim 6]
An information processing system according to any one of claims 1 to 4, characterized in that when displaying the first object at a predetermined position in the first area, the second video generation unit displays a marker object indicating the position of the first object in the virtual space depending on the position of the character object in the virtual space.
[Claim 7]
An information processing system as described in any one of claims 1 to 6, characterized in that the second video generation unit displays the first object at a position associated with the character object of the first user, even if the placement position information associated with the first object indicates that the first object should be displayed at a predetermined position in the first area.
[Claim 8]
the movement of a facial part of the character object of the first user is generated based on the movement of a facial part of the first user captured by an in-camera of a first user terminal;
the first video generation unit generates a facial movement of the character object of the first user in an inverted state with respect to a facial movement of the first user;
The information processing system described in claim 3, 4 or 5, characterized in that the second video generation unit generates the facial movement of the first user's character object in the inverted state or the non-inverted state depending on the positional relationship between the first user's character object and the virtual camera.
[Claim 9]
The information processing system according to any one of claims 1 to 8, characterized in that the second video generation unit causes the character object of the first user to reappear from another position within the virtual space when the character object moves beyond the movable area.
[Claim 10]
one or more computer processors,
a transmitting step of transmitting information about the moving image including the character object of the first user to a second user terminal of a second user;
a receiving step of receiving a display request for a first object from the second user terminal;
a first moving image generating step of generating first information for displaying a character object of the first user and the first object in a first area in a virtual space as a first moving image;
a second moving image generating step of displaying, as a second moving image, a second object different from the first object in a second area in the virtual space, and generating second information for displaying a character object of the first user movably in the first area and the second area;
The second video generation step is an information processing method for displaying the first object at a predetermined position in the first area or at a position associated with the first user's character object based on placement position information associated with the first object.
[Claim 11]
one or more computer processors,
a transmitting step of transmitting information about a moving image including a character object of the first user to a server device;
a first moving image generating step of generating first information for displaying, as a first moving image, a character object of the first user and a first object requested to be displayed by a second user terminal in a first area in a virtual space;
a second moving image generating step of displaying, as a second moving image, a second object different from the first object in a second area in the virtual space, and generating second information for displaying a character object of the first user movably in the first area and the second area;
The second video generation step is an information processing method for displaying the first object at a predetermined position in the first area or at a position associated with the first user's character object based on placement position information associated with the first object.
[Claim 12]
one or more computer processors,
a transmission function for transmitting information regarding a moving image including a character object of the first user to a server device;
a first moving image generating function for generating first information for displaying, as a first moving image, a character object of the first user and a first object requested to be displayed by a second user terminal in a first area in a virtual space;
a second moving image generating function for generating second information for displaying, as a second moving image, a second object different from the first object in a second area in the virtual space and displaying a character object of the first user movably in the first area and the second area;
The second video generation function is a computer program that displays the first object at a predetermined position in the first area or at a position associated with the first user's character object based on placement position information associated with the first object.
[Claim 13]
one or more computer processors,
a receiving step of receiving information about a moving image including a character object of a first user from a server device;
a transmitting step of transmitting a display request for a first object to the server device;
a display step of displaying, as a first moving image, a character object of the first user and a first object requested to be displayed by a second user terminal in a first area in a virtual space, and displaying, as a second moving image, a second object different from the first object in a second area in the virtual space, and displaying the character object of the first user movably in the first area and the second area;
The display step is an information processing method for displaying the first object at a predetermined position in a first area in the virtual space or at a position associated with the first user's character object based on placement position information associated with the first object.
[Claim 14]
one or more computer processors,
a receiving function for receiving information regarding a video including a character object of a first user from a server device;
a transmission function for transmitting a display request for a first object to the server device;
a display function for displaying, as a first moving image, a character object of the first user and a first object requested to be displayed by a second user terminal in a first area in a virtual space, and for displaying, as a second moving image, a second object different from the first object in a second area in the virtual space, and for displaying the character object of the first user movably in the first area and the second area;
The display function is a computer program that displays the first object at a predetermined position in a first area in the virtual space or at a position associated with the first user's character object based on placement position information associated with the first object.

1000 情報処理システム
2000 情報処理システム
3000 情報処理システム
100 第一ユーザ端末
200 第二ユーザ端末
300 ネットワーク
400 サーバ装置

1000 Information processing system 2000 Information processing system 3000 Information processing system 100 First user terminal 200 Second user terminal 300 Network 400 Server device

Claims (16)

一又は複数のコンピュータプロセッサが、
第一ユーザのキャラクタオブジェクトを、第一の領域および第二の領域を含む仮想空間内に表示するための情報を生成する生成部と、
前記仮想空間内における前記第一ユーザのキャラクタオブジェクトの移動操作を受け付ける移動操作受付部と、
前記仮想空間内を撮影する仮想カメラの動作を制御する仮想カメラ制御部と、
前記生成部により生成された情報を、前記第一ユーザの第一ユーザ端末および/または第二ユーザの第二ユーザ端末に送信する送信部と
前記第二ユーザ端末から、第一のオブジェクトの表示要求を受け付ける受付部と、
前記受付部により受け付けられた前記表示要求に応じて、前記仮想空間内に前記第一のオブジェクトを表示するオブジェクト表示部と
を備え、
前記仮想カメラ制御部は、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係に応じて、前記仮想カメラの動作を制御する情報処理システム。
one or more computer processors,
a generation unit that generates information for displaying a character object of a first user in a virtual space including a first area and a second area;
a movement operation receiving unit that receives a movement operation of a character object of the first user in the virtual space;
a virtual camera control unit that controls an operation of a virtual camera that captures images in the virtual space;
a transmission unit that transmits the information generated by the generation unit to a first user terminal of the first user and/or a second user terminal of a second user; and a reception unit that receives a display request for a first object from the second user terminal.
an object display unit that displays the first object in the virtual space in response to the display request received by the reception unit,
The virtual camera control unit controls the operation of the virtual camera according to the relationship between the position at which the first object is displayed, the position of the character object, and the position of the virtual camera.
前記オブジェクト表示部は、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて、当該第一のオブジェクトを前記第一の領域の所定位置、または、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the object display unit displays the first object at a predetermined position in the first area or at a position associated with the character object of the first user based on placement position information associated with the first object. 前記一又は複数のコンピュータプロセッサは、さらに、
前記キャラクタオブジェクトの前記仮想空間内における位置に基づいて、前記第一のオブジェクトの前記仮想空間内における配置位置を決定する位置決定部を備え、
前記位置決定部は、
前記キャラクタオブジェクトが第一の領域に位置する場合には、前記第一のオブジェクトに関連付けられた配置位置情報に基づいて前記第一のオブジェクトを前記第一の領域の所定位置に、または、前記第一ユーザのキャラクタオブジェクトに装着させて表示するよう配置位置を決定し、
前記キャラクタオブジェクトが第二の領域に位置する場合には、
前記第一のオブジェクトに関連付けられた配置位置情報に基づいて前記第一のオブジェクトを前記第一の領域の所定位置に、または、前記第一ユーザのキャラクタオブジェクトに装着させて表示するか、あるいは、
前記第一のオブジェクトに関連付けられた配置位置情報に依らず、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置を表示開始位置として前記第一のオブジェクトを表示するよう配置位置を決定することを特徴とする請求項1に記載の情報処理システム。
The one or more computer processors further include:
a position determination unit that determines a placement position of the first object in the virtual space based on a position of the character object in the virtual space,
The position determination unit is
When the character object is located in a first area, determining a placement position based on placement position information associated with the first object so as to display the first object at a predetermined position in the first area or by attaching the first object to the character object of the first user;
When the character object is located in a second area,
Displaying the first object at a predetermined position in the first area or wearing the first object on a character object of the first user based on placement position information associated with the first object, or
The information processing system described in claim 1, characterized in that the placement position of the first object is determined so as to display the first object using a position associated with the first user's character object as a display start position, regardless of placement position information associated with the first object.
前記オブジェクト表示部は、さらに、前記第二の領域に、前記第一のオブジェクトとは異なる第二のオブジェクトを表示させることを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the object display unit further displays a second object different from the first object in the second area. 前記オブジェクト表示部は、前記第一のオブジェクトを表示する際に、前記第一ユーザ端末に前記第一のオブジェクトが表示されている旨のシステムコメントを表示させることを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that, when displaying the first object, the object display unit causes the first user terminal to display a system comment indicating that the first object is being displayed. 前記仮想カメラ制御部は、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係から、前記第一のオブジェクトと前記キャラクタオブジェクトとを同画面に含めることができない場合、前記第一のオブジェクトを画面に含めるよう前記仮想カメラの動作を制御することを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the virtual camera control unit controls the operation of the virtual camera to include the first object on the screen when the first object and the character object cannot be included on the same screen due to the relationship between the position where the first object is displayed, the position of the character object, and the position of the virtual camera. 前記オブジェクト表示部は、前記第一のオブジェクトを表示する際に、前記キャラクタオブジェクトの前記仮想空間内の位置に応じて、前記仮想空間内に前記第一のオブジェクトの位置を示す目印オブジェクトを表示することを特徴とする請求項1から6のいずれか一項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 6, characterized in that, when displaying the first object, the object display unit displays a marker object indicating the position of the first object in the virtual space according to the position of the character object in the virtual space. 前記オブジェクト表示部は、前記第一のオブジェクトに関連付けられた配置位置情報が当該第一のオブジェクトを前記第一の領域の所定位置に表示させるべきものであっても、前記第一ユーザのキャラクタオブジェクトに関連付けられた位置に表示させることを特徴とする請求項2に記載の情報処理システム。 The information processing system according to claim 2, characterized in that the object display unit displays the first object at a position associated with the character object of the first user, even if the placement position information associated with the first object indicates that the first object should be displayed at a predetermined position in the first area. 前記第一ユーザのキャラクタオブジェクトの顔部の動きは、第一ユーザ端末のインカメラによって撮影された前記第一ユーザの顔部の動きに基づいて生成され、
前記生成部は、前記第一ユーザのキャラクタオブジェクトと前記仮想カメラとの位置関係に応じて、前記第一ユーザのキャラクタオブジェクトの顔部の動きを、反転状態または非反転状態で生成することを特徴とする請求項1に記載の情報処理システム。
the movement of a facial part of the character object of the first user is generated based on the movement of a facial part of the first user captured by an in-camera of a first user terminal;
The information processing system according to claim 1, characterized in that the generation unit generates the facial movement of the first user's character object in an inverted or non-inverted state depending on the positional relationship between the first user's character object and the virtual camera.
前記生成部は、前記第一ユーザのキャラクタオブジェクトが移動可能な領域を超えて移動した場合、前記仮想空間内の他の位置から再出現させることを特徴とする請求項1に記載の情報処理システム。 The information processing system according to claim 1, characterized in that the generation unit makes the character object of the first user reappear from another position in the virtual space if the character object moves beyond a movable area. 前記一又は複数のコンピュータプロセッサは、さらに、
第一の動画として、前記第一ユーザのキャラクタオブジェクトを前記仮想空間内の前記第一の領域に表示するための第一情報を生成する第一の動画生成部と、
第二の動画として、前記第一ユーザのキャラクタオブジェクトを前記第一の領域および前記第二の領域を移動可能に表示するための第二情報を生成する第二の動画生成部と
を備えることを特徴とする請求項1に記載の情報処理システム。
The one or more computer processors further include:
a first moving image generating unit that generates first information for displaying a character object of the first user in the first area within the virtual space as a first moving image;
The information processing system according to claim 1, further comprising a second video generation unit that generates second information as a second video for displaying a character object of the first user movably in the first area and the second area.
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを、第一の領域および第二の領域を含む仮想空間内に表示するための情報を生成する生成ステップと、
前記生成ステップにおいて生成された情報を、前記第一ユーザの第一ユーザ端末および第二ユーザの第二ユーザ端末に送信する送信ステップと
前記仮想空間内における前記第一ユーザのキャラクタオブジェクトの移動操作を受け付ける移動操作受付ステップと、
前記仮想空間内を撮影する仮想カメラの動作を制御する仮想カメラ制御ステップと、
前記第二ユーザ端末から、第一のオブジェクトの表示要求を受け付ける受付ステップと、
前記受付ステップにおいて受け付けられた前記表示要求に応じて、前記仮想空間内に前記第一のオブジェクトを表示するオブジェクト表示ステップと
を実行させ、
前記仮想カメラ制御ステップでは、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係に応じて、前記仮想カメラの動作を制御する情報処理方法。
one or more computer processors,
a generating step of generating information for displaying a character object of a first user in a virtual space including a first area and a second area;
a transmission step of transmitting the information generated in the generation step to a first user terminal of the first user and a second user terminal of the second user; and a movement operation reception step of receiving a movement operation of a character object of the first user in the virtual space.
a virtual camera control step of controlling an operation of a virtual camera that captures an image of the virtual space;
a receiving step of receiving a display request for a first object from the second user terminal;
an object display step of displaying the first object in the virtual space in response to the display request accepted in the accepting step;
In the virtual camera control step, an operation of the virtual camera is controlled according to a relationship between a position at which the first object is displayed, a position of the character object, and a position of the virtual camera.
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する送信ステップと、
前記第一ユーザのキャラクタオブジェクトを仮想空間内に表示するための情報を前記サーバ装置から受信する受信ステップと、
前記仮想空間内における前記第一ユーザのキャラクタオブジェクトの移動操作を受け付ける移動操作受付ステップと、
前記仮想空間内を撮影する仮想カメラの動作を制御する仮想カメラ制御ステップと、
第二ユーザの第二ユーザ端末からの第一のオブジェクトの表示要求に応じて、前記仮想空間内に前記第一のオブジェクトを表示するオブジェクト表示ステップと
を実行させ、
前記仮想カメラ制御ステップでは、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係に応じて、前記仮想カメラの動作を制御する情報処理方法。
one or more computer processors,
a transmitting step of transmitting information about a moving image including a character object of the first user to a server device;
a receiving step of receiving information for displaying a character object of the first user in a virtual space from the server device;
a movement operation receiving step of receiving a movement operation of a character object of the first user in the virtual space;
a virtual camera control step of controlling an operation of a virtual camera that captures an image of the virtual space;
an object display step of displaying the first object in the virtual space in response to a display request for a first object from a second user terminal of a second user;
In the virtual camera control step, an operation of the virtual camera is controlled according to a relationship between a position at which the first object is displayed, a position of the character object, and a position of the virtual camera.
一又は複数のコンピュータプロセッサに、
第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置に送信する送信機能と、
前記第一ユーザのキャラクタオブジェクトを仮想空間内に表示するための情報を前記サーバ装置から受信する受信機能と、
前記仮想空間内における前記第一ユーザのキャラクタオブジェクトの移動操作を受け付ける移動操作受付機能と、
前記仮想空間内を撮影する仮想カメラの動作を制御する仮想カメラ制御機能と、
第二ユーザの第二ユーザ端末からの第一のオブジェクトの表示要求に応じて、前記仮想空間内に前記第一のオブジェクトを表示するオブジェクト表示機能と
を実現させ、
前記仮想カメラ制御機能は、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係に応じて、前記仮想カメラの動作を制御するコンピュータプログラム。
one or more computer processors,
a transmission function for transmitting information regarding a moving image including a character object of the first user to a server device;
a receiving function for receiving information for displaying a character object of the first user in a virtual space from the server device;
a movement operation receiving function that receives a movement operation of a character object of the first user in the virtual space;
a virtual camera control function for controlling an operation of a virtual camera that captures images in the virtual space;
an object display function of displaying the first object in the virtual space in response to a display request for the first object from a second user terminal of a second user;
The virtual camera control function is a computer program that controls the operation of the virtual camera according to the relationship between the position at which the first object is displayed, the position of the character object, and the position of the virtual camera.
一又は複数のコンピュータプロセッサに、
仮想空間内に表示された第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信ステップと、
第一のオブジェクトの表示要求を前記サーバ装置に送信する送信ステップと、
前記仮想空間内を撮影する仮想カメラの動作が、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係に応じて制御された動画を表示する表示ステップと
を実行させる情報処理方法。
one or more computer processors,
a receiving step of receiving information about a video including a character object of the first user displayed in a virtual space from a server device;
a transmitting step of transmitting a display request for a first object to the server device;
The information processing method includes a display step of displaying a moving image controlled by the operation of a virtual camera that photographs the virtual space according to the relationship between the position at which the first object is displayed, the position of the character object, and the position of the virtual camera.
一又は複数のコンピュータプロセッサに、
仮想空間内に表示された第一ユーザのキャラクタオブジェクトを含む動画に関する情報をサーバ装置から受信する受信機能と、
第一のオブジェクトの表示要求を前記サーバ装置に送信する送信機能と、
前記仮想空間内を撮影する仮想カメラの動作が、前記第一のオブジェクトが表示された位置、前記キャラクタオブジェクトの位置、および、前記仮想カメラの位置の関係に応じて制御された動画を表示する表示機能と
を実現させるコンピュータプログラム。

one or more computer processors,
a receiving function for receiving information regarding a video including a character object of the first user displayed in a virtual space from the server device;
a transmission function for transmitting a display request for a first object to the server device;
A computer program that realizes a display function that displays a moving image controlled by the operation of a virtual camera that takes pictures within the virtual space according to the relationship between the position where the first object is displayed, the position of the character object, and the position of the virtual camera.

JP2023048877A 2021-10-29 2023-03-24 Information processing system, information processing method, and computer program Active JP7470337B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023048877A JP7470337B2 (en) 2021-10-29 2023-03-24 Information processing system, information processing method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021177157A JP7253025B1 (en) 2021-10-29 2021-10-29 Information processing system, information processing method and computer program
JP2023048877A JP7470337B2 (en) 2021-10-29 2023-03-24 Information processing system, information processing method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021177157A Division JP7253025B1 (en) 2021-10-29 2021-10-29 Information processing system, information processing method and computer program

Publications (2)

Publication Number Publication Date
JP2023098892A JP2023098892A (en) 2023-07-11
JP7470337B2 true JP7470337B2 (en) 2024-04-18

Family

ID=85780267

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021177157A Active JP7253025B1 (en) 2021-10-29 2021-10-29 Information processing system, information processing method and computer program
JP2023048877A Active JP7470337B2 (en) 2021-10-29 2023-03-24 Information processing system, information processing method, and computer program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021177157A Active JP7253025B1 (en) 2021-10-29 2021-10-29 Information processing system, information processing method and computer program

Country Status (1)

Country Link
JP (2) JP7253025B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017243A (en) 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2020166559A (en) 2019-03-29 2020-10-08 株式会社バンダイナムコエンターテインメント Server system and video distribution system
JP2021039731A (en) 2019-08-30 2021-03-11 株式会社コロプラ Program, method and terminal device
JP6934102B1 (en) 2020-01-09 2021-09-08 ガンホー・オンライン・エンターテイメント株式会社 Processing equipment, programs, and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017243A (en) 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2020166559A (en) 2019-03-29 2020-10-08 株式会社バンダイナムコエンターテインメント Server system and video distribution system
JP2021039731A (en) 2019-08-30 2021-03-11 株式会社コロプラ Program, method and terminal device
JP6934102B1 (en) 2020-01-09 2021-09-08 ガンホー・オンライン・エンターテイメント株式会社 Processing equipment, programs, and methods

Also Published As

Publication number Publication date
JP2023098892A (en) 2023-07-11
JP2023066517A (en) 2023-05-16
JP7253025B1 (en) 2023-04-05

Similar Documents

Publication Publication Date Title
JP6941245B1 (en) Information processing system, information processing method and computer program
JP6883140B1 (en) Information processing system, information processing method and computer program
US20240221271A1 (en) Information processing system, information processing method, and computer program
US20230252706A1 (en) Information processing system, information processing method, and computer program
JP7470337B2 (en) Information processing system, information processing method, and computer program
JP7470312B2 (en) Information processing system, information processing method, and computer program
JP7253026B1 (en) Information processing system, information processing method and computer program
JP7333564B2 (en) Information processing system, information processing method and computer program
JP2022097475A (en) Information processing system, information processing method, and computer program
JP7340207B2 (en) Information processing system, information processing method and computer program
JP2023067679A (en) Information processing system, information processing method, and computer program
JP7455300B2 (en) Information processing system, information processing method and computer program
JP7421738B1 (en) Information processing system, information processing method and computer program
JP7090199B1 (en) Information processing systems, information processing methods and computer programs
JP7317325B1 (en) Information processing system, information processing method and computer program
JP7455297B2 (en) Information processing system, information processing method and computer program
US11704854B2 (en) Information processing system, information processing method, and computer program
JP2024087887A (en) Information processing system, information processing method, and computer program
JP7229400B1 (en) Information processing system, information processing method and computer program
JP2024050776A (en) Information processing system, information processing method, and computer program
JP2024046649A (en) Information processing system, information processing method, and computer program
JP2023123904A (en) Information processing system, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240328

R150 Certificate of patent or registration of utility model

Ref document number: 7470337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150