JP2024070696A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2024070696A
JP2024070696A JP2022181346A JP2022181346A JP2024070696A JP 2024070696 A JP2024070696 A JP 2024070696A JP 2022181346 A JP2022181346 A JP 2022181346A JP 2022181346 A JP2022181346 A JP 2022181346A JP 2024070696 A JP2024070696 A JP 2024070696A
Authority
JP
Japan
Prior art keywords
user
virtual space
information
communication
room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022181346A
Other languages
Japanese (ja)
Inventor
遼 深澤
剛 小野寺
行雄 薬師神
正行 井上
兼一朗 代田
元宏 遠藤
航 吉田
将生 大城
千尋 田中
響 首藤
幹太 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2022181346A priority Critical patent/JP2024070696A/en
Priority to PCT/JP2023/034046 priority patent/WO2024101001A1/en
Publication of JP2024070696A publication Critical patent/JP2024070696A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】仮想空間における所定の場所での一部ユーザ同士のコミュニケーションの利便性をさらに高めることが可能なシステム、方法およびプログラムを提供する。【解決手段】仮想空間システムにおいて、コンテンツ配信サーバは、仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する。仮想空間管理サーバは、ユーザが操作するアバターの仮想空間内における位置が、ユーザ同士のコミュニケーションが行われるコミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、コミュニケーションルームへの入室選択に関する情報をユーザが使用する端末に送信し、前記位置が、第1のエリアの外側に位置する第2のエリアに含まれる場合は、コミュニケーションに関する情報を、端末に送信する。【選択図】図11[Problem] To provide a system, method, and program capable of further improving the convenience of communication between some users at a specified location in a virtual space. [Solution] In a virtual space system, a content distribution server places virtual objects in the virtual space, including display objects that display information related to an event taking place in the real space or virtual space that is the subject of a conversation in a communication room. If the position in the virtual space of an avatar operated by a user is included in a first area that is a communication point associated with a communication room where communication between users takes place, a virtual space management server transmits information related to the selection of entering the communication room to a terminal used by the user, and if the position is included in a second area located outside the first area, transmits information related to the communication to the terminal. [Selected Figure] Figure 11

Description

本開示は、情報処理システム、情報処理方法、およびプログラムに関する。 This disclosure relates to an information processing system, an information processing method, and a program.

近年、画像、音声、または文字を用いたリアルタイムでのコミュニケーションの一つとして、3Dモデルが配置された仮想空間内において、各ユーザが操作するアバターを通してコミュニケーションをとることができるシステムが普及している。かかるシステムでは、仮想空間の映像として、例えばユーザ操作に応じた任意の視点(自由視点)からの映像が生成されてユーザに提供される。仮想空間の映像は、ユーザの視界全体を覆うHMD(Head mounted Display)、スマートフォン、タブレット端末、PC(Personal Computer)等の表示装置を用いて提供される。 In recent years, systems have become widespread that allow users to communicate through avatars operated by the users in a virtual space in which 3D models are placed, as a form of real-time communication using images, audio, or text. In such systems, images of the virtual space are generated from any viewpoint (free viewpoint) in response to user operations, for example, and provided to the user. Images of the virtual space are provided using display devices such as HMDs (Head Mounted Displays), smartphones, tablet terminals, and PCs (Personal Computers), which cover the user's entire field of vision.

仮想空間において行われるユーザ同士のコミュニケーションに関し、例えば下記特許文献1では、予定されたユーザが仮想空間上の予め決められた空間かつ決められた時間に集まった場合に各ユーザが使用する通信端末間の通信を確立させる技術が開示されている。 Regarding communication between users in a virtual space, for example, the following Patent Document 1 discloses a technology for establishing communication between communication terminals used by scheduled users when the scheduled users gather in a predetermined space and at a predetermined time in the virtual space.

国際公開第2013/054748号International Publication No. 2013/054748

しかしながら、上述した技術では、コミュニケーションの参加者、空間、および時間を予め決める必要があった。仮想空間における一部ユーザ同士によるコミュニケーションのさらなる利便性が求められる。 However, with the above-mentioned technology, it was necessary to determine in advance the participants, space, and time of communication. There is a demand for greater convenience in communication between certain users in virtual space.

そこで、本開示では、仮想空間における所定の場所での一部ユーザ同士のコミュニケーションの利便性をさらに高めることが可能な情報処理システム、情報処理方法、およびプログラムを提案する。 Therefore, this disclosure proposes an information processing system, information processing method, and program that can further improve the convenience of communication between some users at a specific location in a virtual space.

本開示によれば、仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する制御と、ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信する制御と、前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信する制御と、を行う制御部を備える、情報処理システムが提供される。 According to the present disclosure, an information processing system is provided that includes a control unit that performs the following controls: placing, in a virtual space, virtual objects including a display object that displays information related to an event taking place in a real space or virtual space that is the subject of a conversation in a communication room; transmitting information related to a selection to enter the communication room to a terminal used by a user when the position of an avatar operated by a user in the virtual space is included in a first area that is a communication point associated with the communication room where communication between users takes place; and transmitting information related to the communication to the terminal when the position of the avatar in the virtual space is included in a second area located outside the first area.

また、本開示によれば、プロセッサが、仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置することと、ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信することと、前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信することと、を含む、情報処理方法が提供される。 The present disclosure also provides an information processing method including: a processor arranging, in a virtual space, virtual objects including a display object that displays information related to an event taking place in a real space or virtual space that is the subject of a conversation in a communication room; transmitting information related to a selection to enter the communication room to a terminal used by the user when the position of an avatar operated by a user in the virtual space is included in a first area that is a communication point associated with the communication room where communication between users takes place; and transmitting information related to the communication to the terminal when the position of the avatar in the virtual space is included in a second area located outside the first area.

また、本開示によれば、コンピュータを、仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する制御と、ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信する制御と、前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信する制御と、を行う制御部として機能させる、プログラムが提供される。 According to the present disclosure, a program is provided that causes a computer to function as a control unit that performs the following operations: control to place, in a virtual space, virtual objects including a display object that displays information related to an event taking place in a real space or virtual space that is the subject of a conversation in a communication room; control to transmit information related to a selection to enter the communication room to a terminal used by the user when the position of an avatar operated by a user in the virtual space is included in a first area that is a communication point associated with the communication room where communication between users takes place; and control to transmit information related to the communication to the terminal when the position of the avatar in the virtual space is included in a second area that is located outside the first area.

本開示の一実施形態による仮想空間提供システムの全体構成について説明する図である。FIG. 1 is a diagram illustrating an overall configuration of a virtual space providing system according to an embodiment of the present disclosure. 仮想空間Sに含まれる各空間について説明する図である。2 is a diagram illustrating each space included in a virtual space S. FIG. 本実施形態によるスポーツ空間S3に含まれるジャンル別空間について説明する図である。11 is a diagram illustrating a genre-specific space included in the sports space S3 according to the present embodiment. FIG. 本実施形態による仮想空間管理サーバ200の構成の一例を示すブロック図である。2 is a block diagram showing an example of the configuration of a virtual space management server 200 according to the present embodiment. FIG. 本実施形態によるバックエンドシステム30に含まれるサービスサーバの具体例を示す図である。FIG. 2 is a diagram showing a specific example of a service server included in a back-end system 30 according to the present embodiment. 本実施形態によるクライアント端末10の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a configuration of a client terminal 10 according to the present embodiment. 本実施形態による仮想空間への接続処理の流れの一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of the flow of a connection process to a virtual space according to the present embodiment. 本実施形態による表示画面の一例を示す図である。FIG. 4 is a diagram showing an example of a display screen according to the present embodiment. 本実施形態による表示画面の一例を示す図である。FIG. 4 is a diagram showing an example of a display screen according to the present embodiment. 本実施形態によるIPコンテンツ特化エリアの簡易マップの一例を示す図である。FIG. 2 is a diagram showing an example of a simple map of an IP content specialization area according to the present embodiment. 本実施形態による選手のボーンデータを利用した試合再現の仕組みについて説明する図である。1A to 1C are diagrams illustrating a mechanism for reproducing a match using bone data of players according to an embodiment of the present invention. 本実施形態によるトーキングテーブル600が配置されるバー内部の表示画面を示す図である。FIG. 6 is a diagram showing a display screen inside a bar in which a talking table 600 according to the present embodiment is placed. トーキングテーブル600の形状の一例について説明する図である。6 is a diagram illustrating an example of the shape of a talking table 600. FIG. 本実施形態によるトーキングテーブル600との距離に応じてトーキングルーム内の様子が開示される場合について説明する図である。11 is a diagram illustrating a case where the state of the inside of a talking room is disclosed depending on the distance from a talking table 600 according to this embodiment. FIG. 本実施形態によるトーキングルーム内の盛り上がりに応じたトーキングテーブル600のエフェクト表示の一例を示す図である。11A and 11B are diagrams showing an example of an effect display on the talking table 600 according to the excitement in the talking room according to the present embodiment. 本実施形態によるトーキングテーブル600の生成から入室までの動作処理の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of an operational process from generation of the talking table 600 to entry according to this embodiment. 本実施形態によるトーキングルーム入室時におけるクライアント端末10と各サーバとの通信接続の詳細について説明する図である。1 is a diagram illustrating details of communication connections between a client terminal 10 and each server when entering a talking room according to this embodiment. FIG. 本実施形態によるトーキングルーム画面の一例を示す図である。FIG. 13 is a diagram showing an example of a talking room screen according to the present embodiment. 本実施形態によるトーキングルーム画面の他の例を示す図である。FIG. 11 is a diagram showing another example of the talking room screen according to the present embodiment. 本実施形態によるイベント連動の仕組みについて説明する図である。FIG. 2 is a diagram illustrating a mechanism for event linkage according to the present embodiment. 本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。FIG. 2 is a diagram showing an example of a display screen in a live stadium according to the present embodiment. 本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。FIG. 2 is a diagram showing an example of a display screen in a live stadium according to the present embodiment. 本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。FIG. 2 is a diagram showing an example of a display screen in a live stadium according to the present embodiment. 本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。FIG. 2 is a diagram showing an example of a display screen in a live stadium according to the present embodiment. 本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。FIG. 2 is a diagram showing an example of a display screen in a live stadium according to the present embodiment. 本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。FIG. 2 is a diagram showing an example of a display screen in a live stadium according to the present embodiment. 本実施形態によるカメラ位置の一例について説明する図である。FIG. 4 is a diagram illustrating an example of a camera position according to the present embodiment. 図27に示すカメラ位置810:Basicの場合の試合再現UIを示す図である。FIG. 28 is a diagram showing the game replay UI in the case of the camera position 810 shown in FIG. 27: Basic. 図27に示すカメラ位置811:Bird’s eyeの場合の試合再現UIを示す図である。FIG. 28 is a diagram showing a game replay UI in the case where the camera position 811 shown in FIG. 27 is Bird's eye. 本実施形態による試合再現UIの画面概要について説明する図である。11 is a diagram illustrating an outline of a screen of a match reproduction UI according to the present embodiment. FIG. 本実施形態によるチャプターリストの表示例を示す図である。FIG. 11 is a diagram showing an example of a chapter list display according to the present embodiment. 本実施形態によるアバターモードの場合の試合再現UIの表示例を示す図である。13A to 13C are diagrams illustrating an example of a display of a match reproduction UI in the avatar mode according to the present embodiment. 本実施形態による試合のハイライト再生について説明する図である。FIG. 1 is a diagram illustrating highlight playback of a match according to an embodiment of the present invention.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the attached drawings. Note that in this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による仮想空間提供システムの全体構成
2.構成例
2-1.仮想空間管理サーバ200の構成例
2-2.バックエンドシステム30の構成例
2-3.クライアント端末10の構成例
3.仮想空間への接続
4.表示画面例
5.仮想空間の具体例
5-1.IPコンテンツエリア
5-2.トーキングテーブル
5-3.イベント連動
5-4.試合再現UI
6.補足
The explanation will be given in the following order:
1. Overall configuration of a virtual space providing system according to an embodiment of the present disclosure 2. Configuration examples 2-1. Configuration example of a virtual space management server 200 2-2. Configuration example of a back-end system 30 2-3. Configuration example of a client terminal 10 3. Connection to a virtual space 4. Display screen examples 5. Specific examples of a virtual space 5-1. IP content area 5-2. Talking table 5-3. Event linkage 5-4. Match replay UI
6. Supplementary Information

<<1.本開示の一実施形態による仮想空間提供システムの全体構成>>
図1は、本開示の一実施形態による仮想空間提供システムの全体構成について説明する図である。本実施形態による仮想空間提供システム(情報処理システムの一例)は、1以上の仮想空間管理サーバ200(情報処理装置の一例)と、各ユーザに使用されるクライアント端末10(端末の一例)と、バックエンドシステム30と、を含む情報処理システムである。
<<1. Overall configuration of a virtual space providing system according to an embodiment of the present disclosure>>
1 is a diagram illustrating an overall configuration of a virtual space providing system according to an embodiment of the present disclosure. The virtual space providing system according to this embodiment (an example of an information processing system) is an information processing system including one or more virtual space management servers 200 (an example of an information processing device), client terminals 10 (an example of terminals) used by each user, and a back-end system 30.

仮想空間管理サーバ200は、仮想オブジェクトが配置される仮想空間(VR:Virtual Reality)を構築(生成)および管理し、ネットワーク40を介して通信接続する1以上のクライアント端末10に仮想空間情報を提供する。仮想空間情報とは、例えば、仮想空間に配置される仮想オブジェクトの情報、仮想空間のマップ情報、仮想空間で行われるイベント(以下、仮想イベント、とも称する。)に関する情報、仮想空間における各ユーザの位置情報等である。これらの情報に基づいて、各クライアント端末10側で仮想空間を再現(コピー)し得る。具体的には、各クライアント端末10は、仮想空間のマップ情報に基づいて、仮想オブジェクトを配置し、ユーザ視点(ユーザアバター視点)の仮想空間映像を描画する。なお、仮想空間管理サーバ200は、仮想空間における任意の視点(例えばユーザ視点)の映像を生成し、クライアント端末10に送信してもよい。 The virtual space management server 200 constructs (generates) and manages a virtual space (VR: Virtual Reality) in which virtual objects are placed, and provides virtual space information to one or more client terminals 10 that are connected for communication via a network 40. The virtual space information is, for example, information on virtual objects placed in the virtual space, map information on the virtual space, information on events held in the virtual space (hereinafter also referred to as virtual events), and position information of each user in the virtual space. Based on this information, the virtual space can be reproduced (copied) on each client terminal 10 side. Specifically, each client terminal 10 places virtual objects based on the map information of the virtual space, and draws a virtual space image from a user's viewpoint (user avatar's viewpoint). The virtual space management server 200 may generate an image from an arbitrary viewpoint (for example, a user's viewpoint) in the virtual space and transmit it to the client terminal 10.

仮想空間には、例えば3DCGモデルにより形成される仮想オブジェクトが配置される。仮想空間は、ゲームのように、予め用意された行動シナリオにユーザの行動が制限される空間であってもよいし、行動シナリオに制限されずユーザが自由に行動できる空間であってもよい。また、仮想空間は、音声または文字等を双方向に送受信することで他ユーザとの交流を行える空間であってもよい。また、仮想空間は、オリジナルの世界観によりデザインされた空間であってもよいし、実空間に存在する建物、施設、道路、都市、または街並み等を忠実に再現した所謂ミラーワールドと称される空間であってもよい。また、仮想空間では、他ユーザとの交流、教育の授受、または仕事等の社会活動、および、商品の販売または購買等の経済活動も行われ得る。仮想空間は、メタバースと称される空間であってもよい。 In the virtual space, virtual objects formed by, for example, a 3DCG model are placed. The virtual space may be a space in which the user's actions are restricted to a prepared action scenario, as in a game, or a space in which the user can act freely without being restricted by an action scenario. The virtual space may also be a space in which users can interact with other users by sending and receiving voice or text in both directions. The virtual space may also be a space designed with an original worldview, or a so-called mirror world that faithfully reproduces buildings, facilities, roads, cities, streetscapes, etc. that exist in the real space. In the virtual space, users may also interact with other users, receive and give education, or engage in social activities such as work, and economic activities such as selling or purchasing goods. The virtual space may also be a space called a metaverse.

仮想空間には、ユーザの分身となるユーザアバターが存在していてもよい。ユーザアバターは、例えばキャラクター3Dモデルにより生成される。各ユーザは、自身のキャラクター3Dモデルの外観を任意にカスタマイズすることが可能である。ユーザアバターは、ユーザにより操作され、仮想空間内を移動し得る。また、ユーザアバターのジェスチャーまたは顔の表情も、ユーザにより操作されてもよい。本明細書において、仮想空間におけるユーザの位置情報とは、ユーザアバターの位置を示す情報であってもよい。また、仮想空間におけるユーザ視点とは、ユーザアバターの視点であってもよいし、ユーザアバターを画角内に含む視点であってもよい。ユーザ視点は、ユーザ操作により任意に切り替えられ得る。 In the virtual space, a user avatar may exist, which is an avatar of the user. The user avatar is generated, for example, from a character 3D model. Each user can customize the appearance of their own character 3D model as desired. The user avatar may be operated by the user to move within the virtual space. The gestures or facial expressions of the user avatar may also be operated by the user. In this specification, the position information of the user in the virtual space may be information indicating the position of the user avatar. Furthermore, the user's viewpoint in the virtual space may be the viewpoint of the user avatar, or may be a viewpoint that includes the user avatar within the angle of view. The user's viewpoint may be arbitrarily switched by the user's operation.

ユーザアバターは、仮想空間に配置される仮想オブジェクトの1つである。各ユーザのユーザアバターの情報も、仮想空間情報として、仮想空間管理サーバ200に通信接続する多数のクライアント端末10に共有される。また、各ユーザは、仮想空間において、音声、文字、または画像によるコミュニケーションを行い得る。コミュニケーションは、仮想空間管理サーバ200を介して行われてもよいし、バックエンドシステム30を介して行われてもよい。バックエンドシステム30は、仮想空間を利用するユーザに様々なサービスを提供するサーバ(サービスサーバ31、32、33・・・)を含む。一例として、音声によるコミュニケーションを提供するサーバ、文字によるコミュニケーションを提供するサーバ、および画像(動画、静止画)によるコミュニケーションを提供するサーバが挙げられる。クライアント端末10は、仮想空間管理サーバ200からコミュニケーションチャンネル情報(接続情報の一例)を取得して、所定のサービスサーバに通信接続する。そして、クライアント端末10は、当該サービスサーバを介して、同様にコミュニケーションチャンネル情報を取得して所定のサービスサーバに通信接続した他のクライアント端末10とコミュニケーションを行い得る。 A user avatar is one of the virtual objects arranged in the virtual space. Information on the user avatar of each user is also shared as virtual space information by a large number of client terminals 10 that are connected to the virtual space management server 200 for communication. In addition, each user can communicate in the virtual space by voice, text, or image. The communication may be performed via the virtual space management server 200 or via the back-end system 30. The back-end system 30 includes servers (service servers 31, 32, 33, ...) that provide various services to users who use the virtual space. As an example, there are a server that provides communication by voice, a server that provides communication by text, and a server that provides communication by images (video, still image). The client terminal 10 acquires communication channel information (an example of connection information) from the virtual space management server 200 and connects to a specific service server for communication. Then, the client terminal 10 can communicate with other client terminals 10 that have similarly acquired communication channel information and connected to a specific service server through the service server.

また、本実施形態による仮想空間提供システムでは、仮想空間管理サーバ200の処理負荷分散のため、仮想空間の利用者、すなわち仮想空間管理サーバ200への接続端末数に応じてサーバを多重化してもよい。図1に示す例では、仮想空間システム20が、複数の仮想空間管理サーバ200(200a、200b、200c・・・)から構成されている。例えば、ある仮想空間を1000人に利用させたい場合、100端末と接続可能な仮想空間管理サーバ200を10用意し、各仮想空間管理サーバ200においてそれぞれ同じ仮想空間(同じマップ情報と同じ仮想オブジェクト)を提供する。各仮想空間管理サーバ200では、通信接続される100端末に対応するユーザの位置情報(100人の位置情報)をそれぞれ管理する。これにより、合計1000人のユーザに、100人毎ではあるが同じ仮想空間を提供することが可能となる。各仮想空間は、時間の流れおよび仮想イベントの実行等、大まかな要素は同期されるが、ユーザ同士の交流は、仮想空間毎に行われ得る。 In addition, in the virtual space providing system according to this embodiment, in order to distribute the processing load of the virtual space management server 200, the server may be multiplexed according to the number of users of the virtual space, i.e., the number of terminals connected to the virtual space management server 200. In the example shown in FIG. 1, the virtual space system 20 is composed of multiple virtual space management servers 200 (200a, 200b, 200c, ...). For example, if it is desired to allow 1000 people to use a certain virtual space, 10 virtual space management servers 200 that can be connected to 100 terminals are prepared, and each virtual space management server 200 provides the same virtual space (the same map information and the same virtual objects). Each virtual space management server 200 manages the location information of users (the location information of 100 people) corresponding to the 100 terminals connected to it for communication. This makes it possible to provide the same virtual space to a total of 1000 users, although each 100 users separately. Although the virtual spaces are roughly synchronized in terms of the flow of time and the execution of virtual events, interactions between users can be carried out for each virtual space.

接続端末数に応じたサーバの多重化、すなわちサーバの増減管理は、バックエンドシステム30で提供されるサービスにより行われてもよい。具体的には、一の仮想空間管理サーバ200への接続端末数が所定数(例えば100)を超える場合、バックエンドシステム30により、当該一の仮想空間管理サーバ200と同じ仮想空間(同じマップ情報と同じ仮想オブジェクト)を提供する新たな仮想空間管理サーバ200が構築されてもよい。なお、所定数の仮想空間管理サーバ200を予め構築しておいてもよい。 Server multiplexing according to the number of connected terminals, i.e., server increase/decrease management, may be performed by a service provided by the back-end system 30. Specifically, when the number of connected terminals to one virtual space management server 200 exceeds a predetermined number (e.g., 100), the back-end system 30 may construct a new virtual space management server 200 that provides the same virtual space (the same map information and the same virtual objects) as the one virtual space management server 200. Note that a predetermined number of virtual space management servers 200 may be constructed in advance.

サーバ環境は特に限定されない。例えば、仮想空間管理サーバ200は、物理サーバであってもよいし、物理サーバ上で実行される仮想サーバであってもよい。ここで記載の物理サーバまたは仮想サーバとは、ホスティングサービスにより提供されるサーバであってもよいし、仮想空間を提供するサービスを行う事業者が自ら用意した自社サーバであってもよい。また、一の仮想空間管理サーバ200の機能は、複数の物理サーバまたは複数の仮想サーバにより実現されてもよい。各仮想空間管理サーバ200では、通信接続される複数のクライアント端末10に対応するユーザの位置情報をそれぞれ管理する。 The server environment is not particularly limited. For example, the virtual space management server 200 may be a physical server, or a virtual server executed on a physical server. The physical server or virtual server described here may be a server provided by a hosting service, or a server prepared by a company that provides a service offering virtual space. Furthermore, the functions of one virtual space management server 200 may be realized by multiple physical servers or multiple virtual servers. Each virtual space management server 200 manages the location information of users corresponding to multiple client terminals 10 connected to it for communication.

クライアント端末10は、ユーザに利用される端末である。例えば、クライアント端末10は、スマートフォン、タブレット端末、PC(パーソナルコンピュータ)、視界全体を覆うHMD(Head mounted Display)、メガネ型デバイス、プロジェクター、またはコンソールゲーム機等により実現される。クライアント端末10は、仮想空間管理サーバ200から受信した仮想空間の情報に基づいて、仮想空間を再現する。また、クライアント端末10は、仮想空間におけるユーザ視点の映像を生成し、表示出力する。また、クライアント端末10は、仮想空間内の音声も適宜音声出力する。なお、クライアント端末10は、仮想空間管理サーバ200で生成されたユーザ視点の映像を仮想空間管理サーバ200から受信して、表示出力してもよい。 The client terminal 10 is a terminal used by a user. For example, the client terminal 10 is realized by a smartphone, a tablet terminal, a PC (personal computer), an HMD (head mounted display) that covers the entire field of view, a glasses-type device, a projector, or a console game machine. The client terminal 10 reproduces the virtual space based on the information of the virtual space received from the virtual space management server 200. The client terminal 10 also generates and displays an image from the user's viewpoint in the virtual space. The client terminal 10 also appropriately outputs audio within the virtual space. The client terminal 10 may receive from the virtual space management server 200 an image from the user's viewpoint generated by the virtual space management server 200 and display it.

クライアント端末10は、ユーザ操作に応じて、仮想空間に配置される仮想オブジェクトを制御し得る。例えば、クライアント端末10は、ユーザ操作に応じて、ユーザアバターの位置、ジェスチャー、表情等を制御する。また、クライアント端末10は、ユーザ操作に応じて変化した仮想オブジェクトの情報(例えば、ユーザアバターの位置、ジェスチャー、表情等)を、リアルタイムで仮想空間管理サーバ200に送信する。 The client terminal 10 may control virtual objects placed in a virtual space in response to user operations. For example, the client terminal 10 controls the position, gestures, facial expressions, etc. of a user avatar in response to user operations. In addition, the client terminal 10 transmits information about virtual objects that have changed in response to user operations (for example, the position, gestures, facial expressions, etc. of the user avatar) to the virtual space management server 200 in real time.

また、クライアント端末10は、ユーザ操作に応じて、各種情報を仮想空間管理サーバ200、他のクライアント端末10、またはバックエンドシステム30に送信してもよい。例えば、クライアント端末10は、ログイン情報を仮想空間管理サーバ200またはバックエンドシステム30に送信してユーザ認証を依頼してもよい。また、クライアント端末10は、ユーザの音声、入力された文字情報、選択された画像等を、コミュニケーション情報として、仮想空間管理サーバ200、他のクライアント端末10、またはバックエンドシステム30に送信してもよい。 In addition, the client terminal 10 may transmit various information to the virtual space management server 200, other client terminals 10, or the back-end system 30 in response to user operations. For example, the client terminal 10 may transmit login information to the virtual space management server 200 or the back-end system 30 to request user authentication. In addition, the client terminal 10 may transmit the user's voice, input text information, selected images, etc. as communication information to the virtual space management server 200, other client terminals 10, or the back-end system 30.

(コンテンツ別仮想空間)
仮想空間の一例として、本実施形態では、映画、音楽、スポーツ、またはアニメ等の各種コンテンツ(後述するIPコンテンツを含む)を中心としてユーザ同士が交流するための空間が挙げられる。図2は、仮想空間Sに含まれる各空間について説明する図である。本実施形態による仮想空間システム20で提供される仮想空間Sは、図2に示すように、ユーザ個人用の仮想空間であるユーザ個人空間S1と、コンテンツに関わらずユーザ同士の交流が行われる仮想空間であるパブリック空間S2と、各コンテンツに関するユーザ同士の交流が行われる各仮想空間と、が含まれる。各コンテンツに関するユーザ同士の交流が行われる各仮想空間としては、例えば、スポーツに関するユーザ同士の交流が行われる仮想空間であるスポーツ空間S3、音楽に関するユーザ同士の交流が行われる仮想空間である音楽空間S4、映画に関するユーザ同士の交流が行われる仮想空間である映画空間S5、およびアニメに関するユーザ同士の交流が行われる仮想空間であるアニメ空間S6等が挙げられる。ここで挙げるコンテンツは一例であって、本開示によるコンテンツはこれらに限定されない。
(Virtual space by content)
In the present embodiment, an example of a virtual space is a space for users to interact with each other, mainly focusing on various contents such as movies, music, sports, or animation (including IP contents to be described later). FIG. 2 is a diagram for explaining each space included in the virtual space S. As shown in FIG. 2, the virtual space S provided by the virtual space system 20 according to the present embodiment includes a user personal space S1, which is a virtual space for a personal user, a public space S2, which is a virtual space in which users interact with each other regardless of content, and each virtual space in which users interact with each content. Examples of each virtual space in which users interact with each content include a sports space S3, which is a virtual space in which users interact with each other about sports, a music space S4, which is a virtual space in which users interact with each other about music, a movie space S5, which is a virtual space in which users interact with each other about movies, and an anime space S6, which is a virtual space in which users interact with each other about anime. The contents listed here are examples, and the contents according to the present disclosure are not limited to these.

また、各コンテンツに関するユーザ同士の交流が行われる各仮想空間は、さらに階層化されたジャンル別の仮想空間であってもよい。図3は、本実施形態によるスポーツ空間S3に含まれるジャンル別空間について説明する図である。図3に示すように、特にサッカーに関するユーザ同士の交流が行われるサッカー空間S3-1、特にバスケットボールに関するユーザ同士の交流が行われるバスケットボール空間S3-2、特にテニスに関するユーザ同士の交流が行われるテニス空間S3-3等が挙げられる。また、図3に示す各スポーツのジャンル別空間の下位階層の仮想空間として、スポーツチーム毎のユーザ(ファン)同士が交流する仮想空間も考え得る。なお、仮想空間は、ジャンルごとに階層化されることに限定されない。仮想空間は、様々なIPコンテンツに対応する各空間が並列に存在する空間であってもよい。例えば、本実施形態による仮想空間は、ある野球チーム、あるサッカーチーム、および、あるアニメに各々対応する空間が並列に存在する仮想空間であってもよい。 Each virtual space in which users interact with each content may be a further hierarchical virtual space by genre. FIG. 3 is a diagram for explaining the genre-specific spaces included in the sports space S3 according to this embodiment. As shown in FIG. 3, there are a soccer space S3-1 in which users interact with each other particularly in soccer, a basketball space S3-2 in which users interact with each other particularly in basketball, and a tennis space S3-3 in which users interact with each other particularly in tennis. In addition, as a virtual space in a lower hierarchy of the genre-specific spaces of each sport shown in FIG. 3, a virtual space in which users (fans) of each sports team interact with each other may be considered. Note that the virtual space is not limited to being hierarchical by genre. The virtual space may be a space in which each space corresponding to various IP contents exists in parallel. For example, the virtual space according to this embodiment may be a virtual space in which spaces corresponding to a certain baseball team, a certain soccer team, and a certain anime exist in parallel.

このように、コンテンツ別仮想空間として、そのコンテンツに興味関心のあるユーザ同士が交流するための仮想空間が考え得る。ユーザは、同じ興味関心を持つ他ユーザとそのコンテンツについて会話し、コンテンツをより楽しむことができる。 In this way, a content-specific virtual space can be thought of as a virtual space where users who are interested in that content can interact with each other. Users can talk about the content with other users who share the same interest, and enjoy the content even more.

仮想空間システム20は、図2および図3に示すような各仮想空間を全て提供してもよいし、一部を提供してもよい。例えば、仮想空間システム20は、ユーザ個人空間S1と、パブリック空間S2と、特定のスポーツチームファン同士の交流用仮想空間とを用意してもよい。本実施形態では、一例として、仮想空間システム20により、特定のサッカーチームファン同士の交流用仮想空間を提供する。 The virtual space system 20 may provide all or some of the virtual spaces as shown in Figures 2 and 3. For example, the virtual space system 20 may provide a user's personal space S1, a public space S2, and a virtual space for interaction between fans of a specific sports team. In this embodiment, as an example, the virtual space system 20 provides a virtual space for interaction between fans of a specific soccer team.

<<2.構成例>>
<2-1.仮想空間管理サーバ200の構成例>
図4は、本実施形態による仮想空間管理サーバ200の構成の一例を示すブロック図である。図4に示すように、仮想空間管理サーバ200は、通信部210、制御部220、および記憶部230を有する。
<<2. Configuration example>>
<2-1. Example of configuration of virtual space management server 200>
4 is a block diagram showing an example of the configuration of the virtual space management server 200 according to this embodiment. As shown in FIG. 4, the virtual space management server 200 has a communication unit 210, a control unit 220, and a storage unit 230.

(通信部210)
通信部210は、有線または無線により外部装置とデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、4G(第4世代の移動体通信方式)、または5G(第5世代の移動体通信方式))等を用いて、クライアント端末10およびバックエンドシステム30とそれぞれ通信接続する。
(Communication unit 210)
The communication unit 210 transmits and receives data to and from an external device via a wired or wireless connection. The communication unit 210 is connected to the client terminal 10 and the back-end system 30 via, for example, a wired/wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), a mobile communication network (LTE (Long Term Evolution), 4G (fourth generation mobile communication method), or 5G (fifth generation mobile communication method)), etc.

(制御部220)
制御部220は、演算処理装置および制御装置として機能し、各種プログラムに従って仮想空間管理サーバ200内の動作全般を制御する。制御部220は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部220は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
(Control unit 220)
The control unit 220 functions as a calculation processing unit and a control unit, and controls the overall operation of the virtual space management server 200 according to various programs. The control unit 220 is realized by electronic circuits such as a CPU (Central Processing Unit) and a microprocessor. The control unit 220 may also include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, etc., and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.

制御部220は、外部装置から受信したデータに基づいて、適宜処理を行い、記憶部230への記憶制御、および外部装置へのデータの送信制御を行う。 The control unit 220 performs appropriate processing based on the data received from the external device, controls storage in the memory unit 230, and controls transmission of data to the external device.

制御部220は、仮想空間管理部221、コンテンツ管理部222、およびユーザ管理部223としても機能する。 The control unit 220 also functions as a virtual space management unit 221, a content management unit 222, and a user management unit 223.

仮想空間管理部221は、仮想空間の管理を行う。具体的には、仮想空間管理部221は、仮想空間を構築(生成)するための各種情報の生成、取得、追加、および更新等を行う。各種情報とは、例えば仮想空間に配置される仮想オブジェクトである3DCGモデルの情報、色設定、画像、マップ情報、仮想イベント情報、効果音、およびBGM(Back Ground Music)等の仮想空間情報である。 The virtual space management unit 221 manages the virtual space. Specifically, the virtual space management unit 221 generates, acquires, adds, and updates various information for constructing (generating) the virtual space. The various information is, for example, virtual space information such as information on 3DCG models, which are virtual objects placed in the virtual space, color settings, images, map information, virtual event information, sound effects, and BGM (Background Music).

仮想オブジェクトには、ユーザ操作可能なオブジェクト、ユーザ操作不可能なオブジェクト、背景画像、および演出用エフェクト等が含まれる。また、仮想オブジェクトには、仮想空間に配置される各ユーザアバターに関する情報も含まれる。各ユーザアバターに関する情報とは、例えば、ユーザアバターの外観情報、リアルタイムのユーザ位置情報、ユーザアバターのリアルタイムの表情またはジェスチャー情報等、および対応するユーザのプロファイル等である。各ユーザアバターに関する情報は、後述するユーザ管理部223で管理される。 The virtual objects include user-operable objects, user-non-operable objects, background images, and effects for presentation. The virtual objects also include information about each user avatar placed in the virtual space. The information about each user avatar includes, for example, appearance information about the user avatar, real-time user position information, real-time facial expression or gesture information about the user avatar, and a profile of the corresponding user. The information about each user avatar is managed by the user management unit 223, which will be described later.

仮想イベント情報には、仮想イベントの時間、進行、演出等に関する情報が含まれる。仮想空間管理部221は、予め設定された時間に所定の仮想イベントを行うようクライアント端末10に通知してもよいし、所定のトリガを仮想空間内で検知した場合に対応する仮想イベントを行うようクライアント端末10に通知してもよい。仮想イベント情報には、仮想イベントを実行する際に必要な情報が含まれる。また、仮想イベントはコンテンツであってもよい。クライアント端末10への仮想イベントの通知には、所定のコンテンツをバックエンドシステム30から取得し、仮想空間内の所定の場所で実行するよう指示する情報が含まれていてもよい。 The virtual event information includes information regarding the time, progress, and presentation of the virtual event. The virtual space management unit 221 may notify the client terminal 10 to carry out a specific virtual event at a preset time, or may notify the client terminal 10 to carry out a corresponding virtual event when a specific trigger is detected in the virtual space. The virtual event information includes information required to carry out the virtual event. The virtual event may also be content. The notification of the virtual event to the client terminal 10 may include information instructing the client terminal 10 to obtain the specific content from the backend system 30 and carry it out at a specific location in the virtual space.

仮想空間管理部221は、仮想空間情報を、適宜、クライアント端末10に送信する。また、仮想空間管理部221は、クライアント端末10から受信した文字、音声、または画像等のコミュニケーション情報を、他のクライアント端末10に送信することで、仮想空間を共有するユーザ間のコミュニケーションを実現することも可能である。 The virtual space management unit 221 transmits virtual space information to the client terminal 10 as appropriate. The virtual space management unit 221 can also realize communication between users sharing a virtual space by transmitting communication information such as text, audio, or images received from a client terminal 10 to another client terminal 10.

仮想空間管理部221は、クライアント端末10からユーザ操作の情報を受信し、他のクライアント端末10に仮想空間情報としてリアルタイムで送信する。また、仮想空間管理部221は、クライアント端末10から受信したユーザ操作の情報に応じて、当たり判定の算出処理を行い、算出結果を各クライアント端末10に随時送信する。これにより、各クライアント端末10で再現される仮想空間の状況が同期される。ユーザ操作の情報には、ユーザアバターの移動およびジャンプといったユーザアバターの動きに関する操作と、ユーザアバターにポーズまたはジェスチャー等を行わせるエモート、およびユーザアバターの頭上に表示されるスタンプといった、ユーザアバターの感情表現に関する操作が含まれ得る。 The virtual space management unit 221 receives information on user operations from the client terminal 10 and transmits it to other client terminals 10 in real time as virtual space information. The virtual space management unit 221 also performs calculation processing for collision detection according to the information on user operations received from the client terminal 10, and transmits the calculation results to each client terminal 10 as required. This synchronizes the situation of the virtual space reproduced in each client terminal 10. The information on user operations may include operations related to the movement of the user avatar, such as the movement and jumping of the user avatar, and operations related to the expression of emotions of the user avatar, such as emotes that cause the user avatar to perform poses or gestures, and stamps displayed above the user avatar's head.

コンテンツ管理部222は、仮想空間で共有されるコンテンツに関する情報を管理する。例えば、コンテンツ管理部222は、仮想空間に設けられるコンテンツ共有エリアで現在共有されているコンテンツを示す情報を管理する。コンテンツ共有エリアとは、例えば仮想空間に配置される1以上の大型ディスプレイの仮想オブジェクトであってもよいし、3Dによるコンテンツ等が再現されるステージ、広場、またはフィールド等であってもよい。コンテンツ自体は、バックエンドシステム30からクライアント端末10に送信されてもよい。かかるコンテンツの管理は、上述した仮想イベント情報の一つとして仮想空間管理部221により管理されてもよい。 The content management unit 222 manages information related to content shared in the virtual space. For example, the content management unit 222 manages information indicating content currently being shared in a content sharing area provided in the virtual space. The content sharing area may be, for example, a virtual object of one or more large displays placed in the virtual space, or a stage, plaza, or field where 3D content, etc. is reproduced. The content itself may be transmitted from the back-end system 30 to the client terminal 10. Such content may be managed by the virtual space management unit 221 as one of the virtual event information described above.

ユーザ管理部223は、仮想空間管理サーバ200により提供する仮想空間を利用しているユーザに関する情報を管理する。より具体的には、ユーザ管理部223は、通信接続するクライアント端末10に対応するユーザに関する情報を管理する。ユーザに関する情報には、例えば、ユーザのプロファイル(ユーザ名、ユーザID、アイコン画像等)、ユーザアバターの外観情報(画像、キャラクター種別、または構成要素等)、ユーザアバターのステータス情報、ユーザが所有する仮想アイテムの情報、ユーザが仮想空間内で利用できる仮想通貨またはポイント等の情報、仮想空間におけるリアルタイムのユーザ位置情報(すなわちユーザアバターの位置情報)、ユーザアバターのリアルタイムのジェスチャー、表情、姿勢、または動作状態等のモーション情報が含まれる。ユーザに関する情報は、クライアント端末10から送信される。また、ユーザに関する情報の一部がバックエンドシステム30から送信されてもよい。 The user management unit 223 manages information about users who use the virtual space provided by the virtual space management server 200. More specifically, the user management unit 223 manages information about users corresponding to the client terminal 10 that is connected to the communication connection. The information about the user includes, for example, the user's profile (user name, user ID, icon image, etc.), appearance information of the user avatar (image, character type, or component, etc.), status information of the user avatar, information about virtual items owned by the user, information such as virtual currency or points that the user can use in the virtual space, real-time user position information in the virtual space (i.e., position information of the user avatar), and motion information such as real-time gestures, facial expressions, posture, or operating state of the user avatar. The information about the user is transmitted from the client terminal 10. In addition, part of the information about the user may be transmitted from the back-end system 30.

(記憶部230)
記憶部230は、制御部220の処理に用いられるプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMにより実現される。記憶部230は、仮想空間情報を格納する。
(Memory unit 230)
The storage unit 230 is realized by a ROM that stores programs and calculation parameters used in the processing of the control unit 220, and a RAM that temporarily stores appropriately changing parameters, etc. The storage unit 230 stores virtual space information.

<2-2.バックエンドシステム30の構成例>
バックエンドシステム30は、様々なサービスを提供するサーバを含む。各サーバは、それぞれ異なる事業者により提供されてもよい。また、各サーバにより提供されるサービスを、仮想空間を提供する事業者が適宜カスタマイズして利用することも可能である。
<2-2. Example of the configuration of the back-end system 30>
The back-end system 30 includes servers that provide various services. Each server may be provided by a different business operator. In addition, the services provided by each server may be appropriately customized by a business operator that provides a virtual space.

バックエンドシステム30の各サーバは、仮想空間管理サーバ200と通信接続して情報の送受信を行ってもよいし、クライアント端末10と通信接続して情報の送受信を行ってもよい。仮想空間管理サーバ200は、各サーバと連携することで、仮想空間を利用するユーザに様々なサービスを提供し得る。 Each server in the back-end system 30 may communicate with the virtual space management server 200 to send and receive information, or may communicate with the client terminal 10 to send and receive information. By cooperating with each server, the virtual space management server 200 can provide various services to users who use the virtual space.

図5は、本実施形態によるバックエンドシステム30に含まれるサービスサーバの具体例を示す図である。図5に示したサービスサーバは一例であって、本開示はこれに限定されない。以下、各サービスサーバについて説明する。 Figure 5 is a diagram showing a specific example of a service server included in the back-end system 30 according to this embodiment. The service servers shown in Figure 5 are merely examples, and the present disclosure is not limited thereto. Each service server is described below.

ユーザ情報管理サーバ301は、仮想空間を利用するユーザに関する情報を管理する。例えば、ユーザ情報管理サーバ301は、ユーザのアカウント情報、ユーザのプロファイル、ユーザ特性(年齢、性別、国、使用言語、経歴、趣味嗜好、コンテンツの視聴履歴、仮想イベントへの参加履歴、仮想空間における交流履歴等)、ユーザが所持するアイテム情報、ユーザアバターの外観情報、およびユーザアバターのステータス情報等をデータストア(記憶部)に記憶する。また、ユーザ情報管理サーバ301は、ユーザのアカウント情報を用いて、ユーザの認証も行い得る。詳細については図7を参照して後述するが、ユーザ情報管理サーバ301は、クライアント端末10からの要求に応じてユーザ認証を行い、認証が成功した場合、ユーザのプロファイルおよびユーザアバターの外観情報等、ユーザ情報をデータストアから呼び出してクライアント端末10に送信する。 The user information management server 301 manages information about users who use the virtual space. For example, the user information management server 301 stores in a data store (storage unit) user account information, user profile, user characteristics (age, sex, country, language used, career, hobbies and preferences, content viewing history, virtual event participation history, interaction history in the virtual space, etc.), item information owned by the user, user avatar appearance information, and user avatar status information. The user information management server 301 can also authenticate users using the user account information. Details will be described later with reference to FIG. 7, but the user information management server 301 performs user authentication in response to a request from the client terminal 10, and if authentication is successful, it calls up user information, such as the user profile and user avatar appearance information, from the data store and transmits it to the client terminal 10.

ホスティングサーバ302は、仮想空間システム20における接続端末数に応じたサーバの多重化、すなわちサーバの増減管理を行う。例えば、ホスティングサーバ302は、一の仮想空間管理サーバ200への接続端末数が所定数(例えば100)を超える場合、当該一の仮想空間管理サーバ200と同じ仮想空間(同じマップ情報と同じ仮想オブジェクト)を提供する新たな仮想空間管理サーバ200を構築する。 The hosting server 302 multiplexes the servers according to the number of connected terminals in the virtual space system 20, i.e., manages the increase and decrease of servers. For example, when the number of connected terminals to one virtual space management server 200 exceeds a predetermined number (e.g., 100), the hosting server 302 constructs a new virtual space management server 200 that provides the same virtual space (the same map information and the same virtual objects) as that one virtual space management server 200.

マッチングサーバ303は、同じ仮想空間を提供する仮想空間管理サーバ200が複数ある場合に、ユーザ認証が終わって接続要求してきたクライアント端末10をどの仮想空間管理サーバ200に接続させるかを決定する。上述したように、例えば仮想空間管理サーバ200毎に接続数が限られている場合、マッチングサーバ303は、仮想空間システム20から各仮想空間管理サーバ200の現在の接続数の情報を取得し、空きがある仮想空間管理サーバ200に通信接続するようクライアント端末10に指示する。また、マッチングサーバ303は、接続数の他、ユーザ情報に応じて接続先の仮想空間管理サーバ200を決定してもよい。例えば、マッチングサーバ303は、ユーザ特性が似ているユーザが同じ仮想空間管理サーバ200に通信接続するよう指示してもよい。 When there are multiple virtual space management servers 200 that provide the same virtual space, the matching server 303 determines which virtual space management server 200 the client terminal 10 that has completed user authentication and made a connection request should be connected to. As described above, for example, when the number of connections is limited for each virtual space management server 200, the matching server 303 obtains information on the current number of connections for each virtual space management server 200 from the virtual space system 20, and instructs the client terminal 10 to connect to a virtual space management server 200 that has available connections. The matching server 303 may also determine the virtual space management server 200 to connect to based on user information in addition to the number of connections. For example, the matching server 303 may instruct users with similar user characteristics to connect to the same virtual space management server 200.

テキストチャットサーバ304は、仮想空間を利用するユーザ同士がコミュニケーション手段としてテキスト(文字情報)を用いた会話を行う仕組みを提供するサーバである。具体的には、テキストチャットサーバ304は、仮想のチャットルーム(テキストチャンネル)を作成し、当該チャットルームに入室したユーザ間で文字情報のやり取りが行えるよう制御する。チャットルームの生成は、仮想空間管理サーバ200またはクライアント端末10からの依頼に応じて行われる。また、テキストチャットサーバ304は、生成したチャットルームに接続するためのセッション情報(接続情報)を仮想空間管理サーバ200またはクライアント端末10に返答する。クライアント端末10は、セッション情報に基づいてテキストチャットサーバ304に通信接続し、テキストチャットを実行する。 The text chat server 304 is a server that provides a mechanism for users of the virtual space to converse with each other using text (character information) as a means of communication. Specifically, the text chat server 304 creates a virtual chat room (text channel) and controls the exchange of character information between users who have entered the chat room. Chat rooms are generated in response to a request from the virtual space management server 200 or the client terminal 10. The text chat server 304 also returns session information (connection information) for connecting to the generated chat room to the virtual space management server 200 or the client terminal 10. The client terminal 10 connects to the text chat server 304 for communication based on the session information and executes the text chat.

ボイスチャットサーバ305は、仮想空間を利用するユーザ同士がコミュニケーション手段としてボイス(音声情報)を用いた会話を行う仕組みを提供するサーバである。具体的には、ボイスチャットサーバ305は、仮想のチャットルーム(ボイスチャンネル)を作成し、当該チャットルームに入室したユーザ間で音声情報のやり取りが行えるよう制御する。チャットルームの生成は、仮想空間管理サーバ200またはクライアント端末10からの依頼に応じて行われる。また、ボイスチャットサーバ305は、生成したチャットルームに接続するためのセッション情報(接続情報)を仮想空間管理サーバ200またはクライアント端末10に返答する。クライアント端末10は、セッション情報に基づいてボイスチャットサーバ305に通信接続し、ボイスチャットを実行する。 The voice chat server 305 is a server that provides a mechanism for users of a virtual space to converse with each other using voice (audio information) as a means of communication. Specifically, the voice chat server 305 creates a virtual chat room (voice channel) and controls the exchange of audio information between users who have entered the chat room. Chat rooms are created in response to a request from the virtual space management server 200 or the client terminal 10. The voice chat server 305 also returns session information (connection information) for connecting to the created chat room to the virtual space management server 200 or the client terminal 10. The client terminal 10 connects to the voice chat server 305 for communication based on the session information and executes the voice chat.

仮想空間を利用するユーザ同士によるコミュニケーション手段は、上述した文字情報および音声情報に限定されず、例えば動画像(ビデオ)を用いることも想定される。図5には図示していないが、例えば動画像(ビデオ)を用いた会話を行う仕組みを提供するサーバが、バックエンドシステム30に含まれていてもよい。 The means of communication between users using the virtual space is not limited to the text information and audio information described above, and it is also envisioned that moving images (video) may be used. Although not shown in FIG. 5, the back-end system 30 may include a server that provides a mechanism for conversations using moving images (video), for example.

コンテンツ配信サーバ306は、仮想空間で視聴されるコンテンツの配信を制御する。コンテンツ配信サーバ306は、様々なコンテンツサーバ(コンテンツを格納しているサーバ)からコンテンツを取得し、配信し得る。本実施形態では、各クライアント端末10で動作するアプリケーション(クライアントアプリとも称する)により仮想空間が再現(マップ情報に基づいて仮想オブジェクトを配置する)され、ユーザ視点の仮想空間映像が生成される。コンテンツ配信サーバ306は、クライアント端末10と通信接続し、クライアント端末10で再現される仮想空間内に組み込まれるコンテンツをクライアント端末10に送信する。仮想空間内に組み込まれるコンテンツとは、例えば、仮想空間に配置される大型ディスプレイ(仮想オブジェクト)に表示される動画である。また、仮想空間内に組み込まれるコンテンツとは、例えば、仮想空間内の所定のフィールドに表示される3D映像である。 The content distribution server 306 controls the distribution of content to be viewed in the virtual space. The content distribution server 306 can obtain and distribute content from various content servers (servers that store content). In this embodiment, the virtual space is reproduced (virtual objects are placed based on map information) by an application (also called a client app) running on each client terminal 10, and a virtual space image from the user's viewpoint is generated. The content distribution server 306 communicates with the client terminal 10 and transmits to the client terminal 10 content to be incorporated in the virtual space reproduced on the client terminal 10. The content to be incorporated in the virtual space is, for example, a video displayed on a large display (virtual object) placed in the virtual space. The content to be incorporated in the virtual space is, for example, a 3D image displayed in a specified field in the virtual space.

トーキングテーブルサーバ307は、仮想空間内の任意の場所に配置されるトーキングテーブル(仮想オブジェクト)に対応付けられるトーキングルーム(コミュニケーションルーム)の管理を行う。トーキングルームでは、各ユーザが、1以上の異なる種別のコミュニケーション手段(例えば、テキストチャットおよびボイスチャット)を用いて会話することが可能である。トーキングルームの生成は、仮想空間管理サーバ200またはクライアント端末10からの依頼に応じて行われる。また、トーキングテーブルサーバ307は、生成したトーキングルームに接続するためのセッション情報(接続情報)を仮想空間管理サーバ200またはクライアント端末10に返答する。トーキングルームの詳細については、図12~図19を参照して後述する。なお、トーキングテーブルは、仮想空間内で複数のユーザが交流のために集まる場所の目印として、仮想空間内の任意の場所に設定されるコミュニケーションポイントに配置される仮想オブジェクトの一例である。目印となる何らかの仮想オブジェクトがコミュニケーションポイントに配置されていればよく、テーブルの他、例えば椅子、ポール、パラソル、またはステージ等であってもよい。 The talking table server 307 manages talking rooms (communication rooms) associated with talking tables (virtual objects) placed at any location in the virtual space. In the talking rooms, each user can talk using one or more different types of communication means (for example, text chat and voice chat). The talking rooms are generated in response to a request from the virtual space management server 200 or the client terminal 10. The talking table server 307 also returns session information (connection information) for connecting to the generated talking room to the virtual space management server 200 or the client terminal 10. Details of the talking rooms will be described later with reference to Figures 12 to 19. The talking table is an example of a virtual object that is placed at a communication point set at any location in the virtual space as a landmark for a place where multiple users gather to interact in the virtual space. Any virtual object that serves as a landmark may be placed at the communication point, and may be, in addition to a table, a chair, a pole, a parasol, or a stage, for example.

イベント連動サーバ308は、実空間で行われるイベントの展開に応じた、仮想空間における演出の制御を行う。仮想空間における演出には、仮想イベントが含まれてもよい。例えば、イベント連動サーバ308は、実空間で行われている試合の展開に応じて、対応する演出を仮想空間においてリアルタイムで実行することで、実空間のイベントに、仮想空間内の演出を連動させることができる。より具体的には、イベント連動サーバ308は、演出の実行指示をクライアント端末10に対して行う。 The event-linked server 308 controls the effects in the virtual space according to the progress of an event taking place in the real space. The effects in the virtual space may include virtual events. For example, the event-linked server 308 can link the effects in the virtual space to events in the real space by executing corresponding effects in real time in the virtual space according to the progress of a match taking place in the real space. More specifically, the event-linked server 308 issues instructions to the client terminal 10 to execute the effects.

これにより、ユーザは、例えば実空間で行われている試合(実空間のイベントの一例)を視聴しながら、同じ試合を視聴している他のユーザと仮想空間で一緒に盛り上がる体験を享受できる。ユーザは、実空間の試合を、例えばテレビ、インターネット、またはラジオ等で視聴してもよいし、仮想空間内で視聴してもよい。イベント連動の詳細については、図20~図26を参照して後述する。 This allows a user to enjoy the experience of watching, for example, a match taking place in real space (an example of a real-space event) while getting excited in virtual space with other users who are watching the same match. Users may watch the real-space match, for example, on television, the Internet, or radio, or they may watch it in virtual space. Details of event linking will be described later with reference to Figures 20 to 26.

売買管理サーバ309は、仮想空間におけるアイテム、商品、チケット等の売買を実現し、また、売買に関するデータを格納する。仮想空間内での売買には、例えば仮想通貨が利用され得る。売買管理サーバ309は、課金システムを提供するサーバであってもよい。 The trading management server 309 realizes the buying and selling of items, merchandise, tickets, etc. in the virtual space, and also stores data related to the buying and selling. For example, virtual currency may be used for buying and selling in the virtual space. The trading management server 309 may be a server that provides a billing system.

データ分析サーバ310は、仮想空間における各ユーザアバターの行動、特定の行動を行っているユーザアバターのユーザ特性等、様々なデータを分析する。分析結果は、仮想空間を提供する事業者等に提示されてもよい。 The data analysis server 310 analyzes various data, such as the behavior of each user avatar in the virtual space and the user characteristics of user avatars performing specific actions. The analysis results may be presented to businesses providing the virtual space.

<2-3.クライアント端末10の構成例>
図6は、本実施形態によるクライアント端末10の構成の一例を示すブロック図である。図6に示すように、クライアント端末10は、通信部110、制御部120、操作入力部130、センサ140、表示部150、音声出力部160、および記憶部170を有する。
<2-3. Example of configuration of client terminal 10>
Fig. 6 is a block diagram showing an example of the configuration of the client terminal 10 according to the present embodiment. As shown in Fig. 6, the client terminal 10 has a communication unit 110, a control unit 120, an operation input unit 130, a sensor 140, a display unit 150, an audio output unit 160, and a storage unit 170.

(通信部110)
通信部110は、有線または無線により、仮想空間管理サーバ200と通信接続してデータの送受信を行う。通信部110は、例えば有線/無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、または携帯通信網(4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等を用いた通信を行い得る。
(Communication unit 110)
The communication unit 110 is connected to the virtual space management server 200 via wired or wireless communication to transmit and receive data. The communication unit 110 can communicate using, for example, a wired/wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), infrared communication, or a mobile communication network (4G (fourth generation mobile communication method), 5G (fifth generation mobile communication method)), etc.

(制御部120)
制御部120は、演算処理装置および制御装置として機能し、各種プログラムに従ってクライアント端末10内の動作全般を制御する。制御部120は、例えばCPU、マイクロプロセッサ等の電子回路によって実現される。また、制御部120は、使用するプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMを含んでいてもよい。
(Control unit 120)
The control unit 120 functions as an arithmetic processing unit and a control unit, and controls the overall operation of the client terminal 10 in accordance with various programs. The control unit 120 is realized by electronic circuits such as a CPU and a microprocessor. The control unit 120 may also include a ROM for storing the programs to be used, arithmetic parameters, etc., and a RAM for temporarily storing parameters that change as appropriate.

制御部120は、仮想空間処理部121および表示制御部122としても機能する。 The control unit 120 also functions as a virtual space processing unit 121 and a display control unit 122.

仮想空間処理部121は、仮想空間管理サーバ200およびバックエンドシステム30と適宜連携して仮想空間体験をユーザに提供するための各種処理を行う。かかる処理は、クライアント端末10が予めダウンロードしたクライアントアプリにより行われてもよい。仮想空間処理部121は、例えば、仮想空間を利用するためのユーザ登録処理、およびログイン処理を行う。ユーザ登録処理およびログイン処理では、通信部110を介して、例えばユーザ情報管理サーバ301と適宜データの送受信が行われる。仮想空間処理部121は、仮想空間管理サーバ200から受信した仮想空間情報に基づいて、仮想空間を生成する。具体的には、仮想空間処理部121は、仮想空間管理サーバ200から受信したマップ情報に基づいて仮想オブジェクトを配置し、仮想空間を再現する。 The virtual space processing unit 121 performs various processes to provide the user with a virtual space experience in cooperation with the virtual space management server 200 and the back-end system 30 as appropriate. Such processes may be performed by a client application downloaded in advance to the client terminal 10. The virtual space processing unit 121 performs, for example, a user registration process and a login process for using the virtual space. In the user registration process and the login process, data is sent and received as appropriate to, for example, the user information management server 301 via the communication unit 110. The virtual space processing unit 121 generates a virtual space based on the virtual space information received from the virtual space management server 200. Specifically, the virtual space processing unit 121 arranges virtual objects based on the map information received from the virtual space management server 200 and reproduces the virtual space.

また、仮想空間処理部121は、バックエンドシステム30から取得した様々な情報を、仮想空間内に組み込んでもよい。例えば、仮想空間処理部121は、仮想空間内に配置される大型ディスプレイに、コンテンツ配信サーバ306から配信される映像を表示してもよい。 The virtual space processing unit 121 may also incorporate various information acquired from the back-end system 30 into the virtual space. For example, the virtual space processing unit 121 may display video distributed from the content distribution server 306 on a large display placed in the virtual space.

また、仮想空間処理部121は、ユーザ操作に応じて、仮想空間に配置したユーザアバターの位置、顔の表情、ジェスチャー(手や身体全体での感情表現)、動作状態(座る、立つ、ジャンプ、走る等)を制御する。仮想空間処理部121は、ユーザ操作情報を仮想空間管理サーバ200にリアルタイムで継続的に送信する。仮想空間処理部121は、仮想空間管理サーバ200から継続的に送信される他ユーザアバターの情報を、仮想空間内に配置される他ユーザアバターにリアルタイムで反映させる。仮想空間処理部121は、センサ140で取得したユーザの音声の仮想空間管理サーバ200への送信と、仮想空間管理サーバ200から受信した他ユーザの音声の音声出力部160からの出力とを行うことで、ユーザ間の音声会話を実現してもよい。 The virtual space processing unit 121 also controls the position, facial expression, gestures (expression of emotion using hands or the entire body), and motion state (sitting, standing, jumping, running, etc.) of the user avatar placed in the virtual space in response to user operations. The virtual space processing unit 121 continuously transmits user operation information to the virtual space management server 200 in real time. The virtual space processing unit 121 reflects information on other user avatars continuously transmitted from the virtual space management server 200 in real time on other user avatars placed in the virtual space. The virtual space processing unit 121 may realize voice conversation between users by transmitting the user's voice acquired by the sensor 140 to the virtual space management server 200 and outputting the voice of other users received from the virtual space management server 200 from the voice output unit 160.

また、仮想空間処理部121は、仮想空間におけるユーザ視点の映像(表示画面)を生成する。また、仮想空間処理部121は、ユーザ視点の映像に、ユーザアバターの操作ボタン、設定画面、お知らせ画面、メニュー画面等を重畳させた表示画面を生成してもよい。また、仮想空間処理部121は、バックエンドシステム30から取得した様々な情報を、表示画面に表示してもよい。例えば、仮想空間処理部121は、テキストチャットサーバ304から受信した情報に基づいて、テキストチャットサーバ304を介して行われるユーザ同士のテキストチャットの画面を表示してもよい。テキストチャット画面はリアルタイムで更新され得る。 The virtual space processing unit 121 also generates an image (display screen) from the user's viewpoint in the virtual space. The virtual space processing unit 121 may also generate a display screen in which operation buttons for a user avatar, a setting screen, a notification screen, a menu screen, etc. are superimposed on the image from the user's viewpoint. The virtual space processing unit 121 may also display various information obtained from the backend system 30 on the display screen. For example, the virtual space processing unit 121 may display a screen of a text chat between users conducted via the text chat server 304 based on information received from the text chat server 304. The text chat screen may be updated in real time.

また、仮想空間処理部121は、センサ140で取得したユーザの音声をボイスチャットサーバ305に送信し、また、ボイスチャットサーバ305から受信した他ユーザの音声を音声出力部160から出力することで、ボイスチャットサーバ305を介したユーザ間の音声会話を実現してもよい。 The virtual space processing unit 121 may also transmit the user's voice acquired by the sensor 140 to the voice chat server 305, and output the voice of other users received from the voice chat server 305 from the audio output unit 160, thereby realizing voice conversation between users via the voice chat server 305.

なお、本実施形態では、仮想空間処理部121において仮想空間を再現する場合について説明するが、本開示はこれに限定されない。例えば、仮想空間におけるユーザ視点の映像が仮想空間管理サーバ200で生成および送信(ストリーミング配信)され、仮想空間処理部121は、仮想空間管理サーバ200から受信した映像を表示部150に表示することで、仮想空間体験をユーザに提供してもよい。 In this embodiment, a case where a virtual space is reproduced in the virtual space processing unit 121 will be described, but the present disclosure is not limited to this. For example, an image from a user's viewpoint in a virtual space may be generated and transmitted (streamed) by the virtual space management server 200, and the virtual space processing unit 121 may provide the user with a virtual space experience by displaying the image received from the virtual space management server 200 on the display unit 150.

表示制御部122は、表示部150に画像を表示する制御を行う。例えば表示制御部122は、仮想空間処理部121により生成された表示画面を表示部150に表示する制御を行う。 The display control unit 122 controls the display of an image on the display unit 150. For example, the display control unit 122 controls the display of a display screen generated by the virtual space processing unit 121 on the display unit 150.

(操作入力部130)
操作入力部130は、ユーザによる操作指示を受付け、その操作内容を制御部120に出力する。操作入力部130は、例えばタッチセンサ、圧力センサ、または近接センサであってもよい。また、操作入力部130は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。ユーザは、操作入力部130を用いて、仮想空間内のユーザアバターを操作し得る。
(Operation Input Unit 130)
The operation input unit 130 accepts an operation instruction from a user and outputs the operation content to the control unit 120. The operation input unit 130 may be, for example, a touch sensor, a pressure sensor, or a proximity sensor. The operation input unit 130 may also be a physical configuration such as a button, a switch, or a lever. The user may use the operation input unit 130 to operate a user avatar in a virtual space.

(センサ140)
センサ140は、ユーザまたはユーザ周辺における各種情報を検出(取得)する機能を有する。図6に示すセンサ140には、多数のセンサが含まれ得る。例えば、センサ140は、音声を収音するマイク(マイクロホン)であってもよい。また、センサ140は、ユーザまたはユーザ周辺を撮像するカメラであってもよい。また、センサ140は、ユーザの位置(絶対位置または相対位置)を計測する位置情報計測部であってもよい。また、センサ140は、ユーザの顔の表情、感情、視線方向、姿勢、手足の動き、頭部の向き、生体情報等を検出する各種センサ(カメラ、加速度センサ、角速度センサ、地磁気センサ、赤外線センサ、深度センサ、および生体センサ)であってもよい。また、センサ140は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサの合計9軸を検出可能なセンサを有していてもよい。
(Sensor 140)
The sensor 140 has a function of detecting (obtaining) various information on the user or the user's surroundings. The sensor 140 shown in FIG. 6 may include a number of sensors. For example, the sensor 140 may be a microphone that picks up sound. The sensor 140 may also be a camera that captures an image of the user or the user's surroundings. The sensor 140 may also be a position information measuring unit that measures the user's position (absolute position or relative position). The sensor 140 may also be various sensors (camera, acceleration sensor, angular velocity sensor, geomagnetic sensor, infrared sensor, depth sensor, and biosensor) that detect the user's facial expression, emotion, gaze direction, posture, limb movement, head direction, bioinformation, etc. The sensor 140 may also have a sensor that can detect a total of nine axes, including a three-axis gyro sensor, a three-axis acceleration sensor, and a three-axis geomagnetic sensor.

なお、センサ140により検出された情報は、仮想空間処理部121においてユーザ操作の情報として用いられてもよい。例えば仮想空間処理部121は、センサ140により検出された情報に応じて、仮想空間内のユーザアバターを制御してもよい。 The information detected by the sensor 140 may be used as information on user operation in the virtual space processing unit 121. For example, the virtual space processing unit 121 may control a user avatar in the virtual space in response to the information detected by the sensor 140.

(表示部150)
表示部150は、表示制御部122の制御により画像を表示する機能を有する。例えば表示部150は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイなどの表示パネルであってもよい。
(Display unit 150)
The display unit 150 has a function of displaying an image under the control of the display control unit 122. For example, the display unit 150 may be a display panel such as a liquid crystal display (LCD) or an organic electroluminescence (EL) display.

また、表示部150は、ユーザの視界全体を覆うHMDにより実現されてもよい。この場合、表示部150は、ユーザの左右の眼にそれぞれ固定された左右の画面において、左眼用画像および右眼用画像を表示する。表示部150の画面は、例えば液晶ディスプレイ(LCD)、有機ELディスプレイなどの表示パネル、または、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部150は、表示画面を拡大投影して、ユーザの瞳に所定の画角からなる拡大虚像を結像する結像光学系を備えてもよい。 The display unit 150 may also be realized by an HMD that covers the user's entire field of vision. In this case, the display unit 150 displays an image for the left eye and an image for the right eye on left and right screens fixed to the user's left and right eyes, respectively. The screen of the display unit 150 is configured, for example, with a display panel such as a liquid crystal display (LCD) or an organic electroluminescence display, or a laser scanning display such as a retinal direct imaging display. The display unit 150 may also include an imaging optical system that enlarges and projects the display screen to form an enlarged virtual image with a predetermined angle of view on the user's pupil.

(音声出力部160)
音声出力部160は、制御部120の制御に従って、音声情報を出力する。音声出力部160は、例えばクライアント端末10がHMDの場合、ユーザの頭部に装着されるヘッドフォンとして構成されてもよいし、イヤフォン、または骨伝導スピーカにより実現されてもよい。
(Audio output unit 160)
The audio output unit 160 outputs audio information under the control of the control unit 120. For example, when the client terminal 10 is an HMD, the audio output unit 160 may be configured as headphones worn on the user's head, or may be realized by earphones or a bone conduction speaker.

(記憶部170)
記憶部170は、制御部120の処理に用いられるプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMにより実現される。記憶部170には、例えば仮想空間に関する各種処理を実行するクライアントアプリが格納される。また、記憶部170には、ユーザプロファイルとユーザアバターの情報等のユーザ情報、および仮想空間管理サーバ200から受信した仮想空間情報が格納されていてもよい。
(Storage unit 170)
The storage unit 170 is realized by a ROM that stores programs and calculation parameters used in the processing of the control unit 120, and a RAM that temporarily stores parameters that change as appropriate. The storage unit 170 stores, for example, a client application that executes various processes related to the virtual space. The storage unit 170 may also store user information such as a user profile and user avatar information, and virtual space information received from the virtual space management server 200.

以上、クライアント端末10の構成について具体的に説明したが、本開示によるクライアント端末10の構成は図6に示す例に限定されない。例えば、クライアント端末10は、複数の装置により実現されてもよい。クライアント端末10に含まれる各構成は、一の筐体に一体に設けられることに限定されず、有線または無線により各構成が通信接続されていてもよい。 The configuration of the client terminal 10 has been specifically described above, but the configuration of the client terminal 10 according to the present disclosure is not limited to the example shown in FIG. 6. For example, the client terminal 10 may be realized by multiple devices. Each component included in the client terminal 10 is not limited to being integrally provided in a single housing, and each component may be connected for communication via wires or wirelessly.

また、クライアント端末10が、HMD等により実現される出力装置(少なくとも表示部150および音声出力部160に対応)と、スマートフォン、タブレット端末、またはPC等により実現される処理装置(少なくとも制御部120に対応)とを含むシステム構成により実現されてもよい。 The client terminal 10 may also be realized by a system configuration including an output device (corresponding at least to the display unit 150 and the audio output unit 160) realized by an HMD or the like, and a processing device (corresponding at least to the control unit 120) realized by a smartphone, tablet terminal, PC, or the like.

また、クライアント端末10は、スマートフォン、タブレット端末、またはPC等の非装着型のデバイスであってもよい。 The client terminal 10 may also be a non-wearable device such as a smartphone, tablet terminal, or PC.

また、クライアント端末10は、ユーザが把持するコントローラ、ユーザに装着されるセンサ、またはユーザの周辺(環境側)に配置されるセンサ等の外部装置から受信した情報を、ユーザ操作の情報として用いてもよい。 The client terminal 10 may also use information received from an external device, such as a controller held by the user, a sensor worn by the user, or a sensor placed in the user's vicinity (environment), as information regarding the user's operation.

また、クライアント端末10は、プロジェクター、TV装置、ディスプレイ等の外部表示装置と通信接続し、表示制御部122により仮想空間の映像を表示させてもよい。 The client terminal 10 may also communicate with an external display device such as a projector, TV device, or display, and display an image of the virtual space using the display control unit 122.

<<3.仮想空間への接続>>
続いて、クライアント端末10による仮想空間への接続について、図7を参照して説明する。ここでは、予めユーザ登録は済んでいる状態を想定する。
<<3. Connecting to Virtual Space>>
Next, a connection to the virtual space by the client terminal 10 will be described with reference to Fig. 7. Here, it is assumed that the user has already completed user registration.

図7は、本実施形態による仮想空間への接続処理の流れの一例を示すシーケンス図である。図7に示すように、まず、クライアント端末10は、クライアントアプリを起動する(ステップS103)。以下に説明するクライアント端末10の動作処理は、クライアントアプリにより実行される。なお、クライアントアプリの機能は、上述した仮想空間処理部121の機能を包含する。 Figure 7 is a sequence diagram showing an example of the flow of a process for connecting to a virtual space according to this embodiment. As shown in Figure 7, first, the client terminal 10 starts up a client application (step S103). The operation process of the client terminal 10 described below is executed by the client application. Note that the function of the client application includes the function of the virtual space processing unit 121 described above.

次に、クライアント端末10は、ユーザ情報管理サーバ301に、ユーザ認証を要求する(ステップS106)。具体的には、クライアント端末10は、ユーザIDおよび認証情報等をユーザ情報管理サーバ301に送信する。 Next, the client terminal 10 requests user authentication from the user information management server 301 (step S106). Specifically, the client terminal 10 transmits the user ID, authentication information, etc. to the user information management server 301.

次いで、ユーザ情報管理サーバ301は、クライアント端末10からの要求に応じて、ユーザ認証を行う(ステップS109)。ユーザ認証が成功した場合、本動作は次の処理に進む。ユーザ認証が失敗した場合、エラー処理が実行される。 Next, the user information management server 301 performs user authentication in response to a request from the client terminal 10 (step S109). If the user authentication is successful, the operation proceeds to the next process. If the user authentication is unsuccessful, error processing is executed.

次に、ユーザ情報管理サーバ301は、データストアに格納していたユーザ情報をクライアント端末10に送信する(ステップS112)。ユーザ情報には、ユーザのプロファイル、ユーザアバターの情報(外観情報、ステータス情報)、ユーザが所有するアイテムの情報等が含まれる。 Next, the user information management server 301 transmits the user information stored in the data store to the client terminal 10 (step S112). The user information includes the user's profile, user avatar information (appearance information, status information), information on items owned by the user, etc.

次いで、クライアント端末10は、受信したユーザ情報をクライアントアプリにセットする(ステップS115)。これにより、ユーザがどのクライアント端末10を利用する場合でも、ユーザ環境を得ることができる。例えばユーザがスマートフォンからアクセスしても、自宅PCからアクセスしても、最新のユーザ環境を利用端末に反映させることができる。 Next, the client terminal 10 sets the received user information in the client application (step S115). This allows the user to obtain the user environment regardless of which client terminal 10 the user uses. For example, whether the user accesses from a smartphone or a home PC, the latest user environment can be reflected in the terminal being used.

次に、クライアント端末10は、接続先サーバをマッチングサーバ303に問い合わせる(ステップS118)。 Next, the client terminal 10 queries the matching server 303 about the destination server (step S118).

次いで、マッチングサーバ303は、クライアント端末10と接続先サーバ(仮想空間管理サーバ200)とのマッチング処理を行う(ステップS121)。具体的には、マッチングサーバ303は、現在の各仮想空間管理サーバ200の接続端末数に応じて、空きがある仮想空間管理サーバ200を接続先サーバに決定する。また、マッチングサーバ303は、ユーザIDに応じて、ユーザIDに対応するクライアント端末10が前回接続した仮想空間管理サーバ200を接続先サーバに決定してもよい。 Next, the matching server 303 performs a matching process between the client terminal 10 and the destination server (virtual space management server 200) (step S121). Specifically, the matching server 303 determines the virtual space management server 200 with available space as the destination server according to the current number of connected terminals of each virtual space management server 200. Also, the matching server 303 may determine the virtual space management server 200 previously connected by the client terminal 10 corresponding to the user ID as the destination server according to the user ID.

次に、マッチングサーバ303は、接続先サーバを示すデータ(例えばIP(Internet Protocol)アドレス)をクライアント端末10に送信する(ステップS124)。 Next, the matching server 303 transmits data indicating the destination server (e.g., an IP (Internet Protocol) address) to the client terminal 10 (step S124).

続いて、クライアント端末10は、マッチングされた仮想空間管理サーバ200に接続要求し(ステップS127)、仮想空間管理サーバ200との通信を確立し、双方向通信を開始する(ステップS130)。 Next, the client terminal 10 makes a connection request to the matched virtual space management server 200 (step S127), establishes communication with the virtual space management server 200, and starts two-way communication (step S130).

仮想空間管理サーバ200と通信確立により、クライアント端末10は、仮想空間管理サーバ200から仮想空間情報(マップ情報、仮想オブジェクト、および他ユーザアバターの情報等)を受信し、仮想空間をローカルで再現し得る。仮想空間の再現は、マップ情報に基づいて仮想オブジェクトを配置することにより行われ得る。また、クライアント端末10からは、仮想空間管理サーバ200にユーザ情報、およびユーザ操作の情報等を送信する。仮想空間管理サーバ200との通信確立を、仮想空間へのログインとしてもよい。クライアント端末10は、接続先サーバのデータを記憶し、例えば仮想空間から一時的にログオフした場合でも、再度同じ仮想空間にログインすることが可能である。 By establishing communication with the virtual space management server 200, the client terminal 10 can receive virtual space information (map information, virtual objects, information on other users' avatars, etc.) from the virtual space management server 200 and reproduce the virtual space locally. The reproduction of the virtual space can be performed by arranging virtual objects based on the map information. In addition, the client terminal 10 transmits user information, information on user operations, etc. to the virtual space management server 200. Establishing communication with the virtual space management server 200 may be considered as logging in to the virtual space. The client terminal 10 stores data of the connected server, and can log in to the same virtual space again, for example, even if the client terminal 10 temporarily logs off from the virtual space.

<<4.表示画面例>>
次に、仮想空間にログインしたクライアント端末10で表示される表示画面について説明する。仮想空間にログインした時点では、ユーザアバターが仮想空間内の所定位置(例えば図10に示すスタートエリア410)に配置される。クライアント端末10の仮想空間処理部121は、ユーザ視点の映像として、ユーザアバターを画角に含む映像を生成し、表示部150に表示する。
<<4. Display screen example>>
Next, a display screen displayed on the client terminal 10 that has logged in to the virtual space will be described. When the user logs in to the virtual space, the user avatar is placed at a predetermined position in the virtual space (for example, the start area 410 shown in FIG. 10). The virtual space processing unit 121 of the client terminal 10 generates an image including the user avatar in its angle of view as an image from the user's viewpoint, and displays the image on the display unit 150.

また、仮想空間処理部121は、ユーザアバターの設定画面、ユーザアバターを操作する各種操作ボタン、周辺で行われているテキストチャットの表示ボタン、フォローおよびフォロワー表示ボタン、ユーザへのお知らせ表示ボタン、マップ表示ボタン、および所有アイテム表示ボタン等を表示画面に含めてもよい。 The virtual space processing unit 121 may also include on the display screen a setting screen for the user avatar, various operation buttons for operating the user avatar, a button for displaying text chats taking place in the vicinity, a button for displaying following and followers, a button for displaying notifications to the user, a map display button, and a button for displaying owned items.

図8は、本実施形態による表示画面の一例を示す図である。図8に示すように、表示画面510には、仮想空間の映像511と、操作画面512が表示されている。操作画面512には、ユーザアバターの画像、ユーザアバターおよびユーザプロファイルの編集ボタン、エリア特有メニュー表示ボタン513、エリア共通メニューボタン514が表示される。 Figure 8 is a diagram showing an example of a display screen according to this embodiment. As shown in Figure 8, a display screen 510 displays a virtual space image 511 and an operation screen 512. An image of a user avatar, buttons for editing the user avatar and user profile, an area-specific menu display button 513, and an area-common menu button 514 are displayed on the operation screen 512.

エリア特有メニュー表示ボタン513は、現在ユーザアバターが居るエリア(仮想空間)特有のメニューを表示するためのボタンである。本実施形態では、コンテンツに特化したエリアを想定し、エリア特有メニューとは、対応するコンテンツに関わる体験メニューが想定される。なお、ここでのコンテンツは、IP(Interllectual Propery)コンテンツであってもよい。本実施形態では、このようなエリアの一例として、特定のサッカーチームのエリアを想定する。ここでは、特定のサッカーチームのファン同士の交流が行われる。エリアの各所には、当該サッカーチームのロゴ、グッズストア、実空間に存在するスタジアムが再現された仮想スタジアム等が配置される。ユーザは、他のコンテンツに特化したエリアに移動することも可能である。その際、クライアント端末10は、マッチングサーバ303から新たに(他のIPコンテンツに特化したエリア(仮想空間)を提供する)接続先サーバのデータを取得してもよい。また、一の仮想空間管理サーバ200で複数の異なるIPコンテンツのエリアが提供されていてもよい。この場合、クライアント端末10は、接続先サーバを切り替えることなく、エリア移動を行い得る。 The area-specific menu display button 513 is a button for displaying a menu specific to the area (virtual space) in which the user avatar is currently located. In this embodiment, an area specialized in content is assumed, and the area-specific menu is assumed to be an experience menu related to the corresponding content. The content here may be IP (Interllectual Property) content. In this embodiment, an area of a specific soccer team is assumed as an example of such an area. Here, fans of a specific soccer team interact with each other. In each place of the area, the logo of the soccer team, a goods store, a virtual stadium that reproduces a stadium existing in the real world, and the like are placed. The user can also move to an area specialized in other content. In this case, the client terminal 10 may newly obtain data of a connection destination server (providing an area (virtual space) specialized in other IP content) from the matching server 303. In addition, a single virtual space management server 200 may provide areas of multiple different IP content. In this case, the client terminal 10 can move to an area without switching the connection destination server.

エリア共通メニューボタン514は、どのIPコンテンツのエリアでも利用可能なメニューボタンである。例えば、アバターマッチングボタンは、エリア内に居る他ユーザアバターとのマッチングである。ユーザ特性が似ている他ユーザアバターが、交流相手のおすすめとして提示され得る。また、アバターの感情表現をより豊かにするためにアバターが行うアクションであるエモート、および、アバターの感情を表現するためにアバターの頭上に一時的に表示される小さい画像であるスタンプの設定ボタンが表示されている。 The area-wide menu button 514 is a menu button that can be used in any IP content area. For example, the avatar matching button is for matching with other user avatars in the area. Other user avatars with similar user characteristics can be presented as recommended interaction partners. Also displayed are setting buttons for emotes, which are actions that the avatar can take to enhance the avatar's emotional expression, and stamps, which are small images that are temporarily displayed above the avatar's head to express the avatar's emotions.

図9は、本実施形態による表示画面の一例を示す図である。図9に示すように、表示画面520には、仮想空間の映像と、各種操作ボタンが表示されている。図9に示す例では、ユーザアバターU1が、大型ディスプレイ529が配置されたステージ前に居る。大型ディスプレイ529には、例えば実空間の中継映像が表示される。かかる中継映像は、コンテンツ配信サーバ306が外部サーバ(中継映像配信サーバ)から取得し、リアルタイムで各クライアント端末10に配信される。 Figure 9 is a diagram showing an example of a display screen according to this embodiment. As shown in Figure 9, a display screen 520 displays an image of a virtual space and various operation buttons. In the example shown in Figure 9, a user avatar U1 is in front of a stage on which a large display 529 is placed. The large display 529 displays, for example, a live video of the real space. The content distribution server 306 obtains this live video from an external server (live video distribution server) and distributes it to each client terminal 10 in real time.

操作ボタンの一例として、表示画面520の左端に、仮想空間(エリア)内でのユーザアバターの移動をコントロールするコントローラ521が表示され、表示画面520の右端に、ジャンプアイコン522が表示されている。 As an example of an operation button, a controller 521 that controls the movement of a user avatar within the virtual space (area) is displayed on the left edge of the display screen 520, and a jump icon 522 is displayed on the right edge of the display screen 520.

仮想空間処理部121は、コントローラ521の中心に表示されているカーソルがユーザにより上下左右へスライドされると、スライド方向に応じて、ユーザアバターを前後左右に歩かせるよう制御する。なお、スライド量やスライド速度が設定値以上の場合、仮想空間処理部121は、ユーザアバターを前後左右に走らせるよう制御する。ジャンプアイコン522がタップされると、ユーザアバターがジャンプする。このようなユーザアバターの移動やジャンプ等の動きに関するユーザ操作の情報は、リアルタイムで仮想空間管理サーバ200を介して他ユーザのクライアント端末10に送信され、他ユーザのクライアント端末10で再現されている仮想空間に配置されるユーザアバターに反映される。これにより、ユーザアバターの動きが他ユーザと共有される。 When the user slides the cursor displayed in the center of the controller 521 up, down, left or right, the virtual space processing unit 121 controls the user avatar to walk forward, backward, left or right depending on the sliding direction. If the sliding amount or sliding speed is equal to or greater than a set value, the virtual space processing unit 121 controls the user avatar to run forward, backward, left or right. When the jump icon 522 is tapped, the user avatar jumps. Information on user operations related to such movements of the user avatar, such as movement and jumping, is transmitted in real time to the client terminal 10 of the other user via the virtual space management server 200 and is reflected in the user avatar placed in the virtual space reproduced on the client terminal 10 of the other user. In this way, the movements of the user avatar are shared with other users.

また、ユーザは、表示画面520の任意の場所(操作ボタン以外の場所)を1本の指等で上下左右にドラッグ操作することで、仮想空間のユーザ視線の移動を行い得る。また、ユーザは、表示画面520の任意の場所(操作ボタン以外の場所)を2本の指でピンチインまたはピンチアウトすることで、仮想空間の映像を縮小または拡大できる。 The user can also move the user's line of sight in the virtual space by dragging any location on the display screen 520 (any location other than the operation buttons) up, down, left or right with one finger or the like. The user can also pinch in or out with two fingers on any location on the display screen 520 (any location other than the operation buttons) to reduce or enlarge the image in the virtual space.

マイクアイコン523は、ユーザの音声の入力ONおよびOFFをタップ操作に応じて切り替えるボタンである。マイクアイコン523が入力ONの状態の場合、ユーザの音声が仮想空間管理サーバ200またはボイスチャットサーバ305を介して他ユーザに送信される。ボイスチャットは、ユーザアバター周辺に位置する他ユーザアバターとの間で行われるようにしてもよいし、ユーザが許可した特定の他ユーザアバターとの間で行われるようにしてもよいし、ボイスチャットグループの参加ユーザ間で行われるようにしてもよい。 The microphone icon 523 is a button that switches the user's voice input ON and OFF by tapping. When the microphone icon 523 is in the input ON state, the user's voice is transmitted to other users via the virtual space management server 200 or the voice chat server 305. Voice chat may be conducted between other user avatars located in the vicinity of the user avatar, between specific other user avatars authorized by the user, or between participating users in a voice chat group.

テキスト入力アイコン524は、テキストチャットの入力を受け付けるボタンである。テキスト入力アイコン524がタップされると、テキスト入力UI(ユーザインタフェース)が表示され、ユーザはテキスト入力UIにテキストを入力する。入力されたテキストは、例えば図9に示すようにユーザアバターU1の頭上に吹き出し画像T1として表示される。ユーザアバターU1の近くに居る他ユーザアバターU2の頭上にも、吹き出し画像T2が表示される。図9に示すように、ユーザアバターU1の両側に居る各他ユーザアバターU2、U3吹き出し画像の表示には、3D表現が用いられてもよい。また、仮想空間処理部121は、ユーザアバターU1から離れた位置に居る他ユーザアバターU4、U5の吹き出し画像は空白にし、ユーザに視認させないようにしてもよい。なお、テキストチャットは、ユーザアバターの頭上に表示される吹き出し画像を介す方法に限られない。仮想空間処理部121は、周辺チャットウィンドウ表示切替ボタン527のタップ操作に応じて、周辺チャットウィンドウを表示してもよい。周辺チャットウィンドウは、ユーザアバターの周辺(例えばユーザアバターが居る区画)に居るユーザアバター間でのテキストチャットを表示する画面である。これにより、ユーザは周辺に居る他ユーザとテキストチャットを行い得る。なお、テキストチャットは、仮想空間管理サーバ200またはテキストチャットサーバ304を介して行われ得る。 The text input icon 524 is a button that accepts input of text chat. When the text input icon 524 is tapped, a text input UI (user interface) is displayed, and the user inputs text into the text input UI. The input text is displayed as a speech bubble image T1 above the head of the user avatar U1, for example, as shown in FIG. 9. A speech bubble image T2 is also displayed above the head of the other user avatar U2 that is near the user avatar U1. As shown in FIG. 9, 3D expression may be used to display the speech bubble images of the other user avatars U2 and U3 on both sides of the user avatar U1. In addition, the virtual space processing unit 121 may make the speech bubble images of the other user avatars U4 and U5 that are located away from the user avatar U1 blank so that they are not visible to the user. Note that text chat is not limited to a method via a speech bubble image displayed above the head of the user avatar. The virtual space processing unit 121 may display a peripheral chat window in response to a tap operation of the peripheral chat window display switching button 527. The surrounding chat window is a screen that displays text chat between user avatars that are in the vicinity of a user avatar (for example, the area in which the user avatar is located). This allows a user to conduct text chat with other users in the vicinity. Note that text chat can be conducted via the virtual space management server 200 or the text chat server 304.

スタンプアイコン525は、スタンプメニュー画面を表示させるボタンである。ユーザは、スタンプアイコン525をタップして表示されるスタンプメニュー画面から任意のスタンプを選択し、ユーザアバターU1の頭上に表示させることができる。エモートアイコン526は、エモートメニュー画面を表示させるボタンである。ユーザは、エモートアイコン526をタップして表示されるエモートメニュー画面から任意のエモートを選択し、ユーザアバターU1の表情、ポーズ、ジェスチャー等を操作できる。 The stamp icon 525 is a button that displays a stamp menu screen. The user can select any stamp from the stamp menu screen that is displayed by tapping the stamp icon 525, and have it displayed above the head of the user avatar U1. The emote icon 526 is a button that displays an emote menu screen. The user can select any emote from the emote menu screen that is displayed by tapping the emote icon 526, and can manipulate the facial expression, pose, gestures, etc. of the user avatar U1.

以上、図9を参照して各種操作ボタンについて説明したが、各種操作ボタンの配置および機能は一例であって、本開示はこれに限定されない。 The various operation buttons have been described above with reference to FIG. 9, but the arrangement and functions of the various operation buttons are merely examples, and the present disclosure is not limited thereto.

<<5.仮想空間の具体例>>
<5-1.IPコンテンツエリア>
本実施形態による仮想空間は、一例として、IPコンテンツに特化したエリアが挙げられる。例えば、特定のサッカーチームのファン同士の交流をコンセプトとしたエリアであってもよい。この場合、エリアの各所には、例えば当該サッカーチームのロゴ、グッズストア、および実空間に存在するスタジアムを再現した仮想スタジアム等が配置される。図10は、本実施形態によるIPコンテンツ特化エリアの簡易マップの一例を示す図である。図10に示すように、エリア400には、エリアに入った際に最初にユーザアバターが配置されるスタートエリア410と、グッズストア420と、スタジアム430と、バー440が配置される。本実施形態によるエリア400は、配置される各仮想施設(グッズストア420およびスタジアム430等)が実空間と同様のミラーワールドであってもよい。ユーザは、ユーザアバターでエリア400内を移動することで、実際のスタジアム周辺の雰囲気を楽しむことができる。
<<5. Specific examples of virtual space>>
<5-1. IP Content Area>
An example of the virtual space according to the present embodiment is an area specialized in IP content. For example, the area may be based on the concept of interaction between fans of a particular soccer team. In this case, for example, the logo of the soccer team, a goods store, and a virtual stadium that reproduces a stadium existing in the real space are arranged in each place of the area. FIG. 10 is a diagram showing an example of a simple map of the IP content specialized area according to the present embodiment. As shown in FIG. 10, the area 400 includes a start area 410 where a user avatar is initially placed when entering the area, a goods store 420, a stadium 430, and a bar 440. The area 400 according to the present embodiment may be a mirror world in which each virtual facility (such as the goods store 420 and the stadium 430) is placed, similar to the real space. The user can enjoy the atmosphere around the actual stadium by moving within the area 400 with the user avatar.

また、スタジアム430内では、仮想空間におけるコンテンツ配信の一例として、サッカーチームの試合が再生される。スタジアム430内に配置された大型ディスプレイに試合映像が表示されてもよいし(2D動画のストリーミング配信)、3DCGでサッカー選手およびボールを再現し、実際の試合でのモーションデータに基づいて各サッカー選手およびボールを動かすことにより試合が再現されてもよい。 In addition, within the stadium 430, a soccer team match is played as an example of content distribution in a virtual space. Footage of the match may be displayed on a large display placed within the stadium 430 (streaming of 2D video), or the match may be reproduced by reproducing soccer players and the ball in 3D CG and moving each soccer player and the ball based on motion data from an actual match.

図11は、本実施形態による選手のボーンデータを利用した試合再現の仕組みについて説明する図である。図11に示すように、まず、仮想空間管理サーバ200aから、配信コンテンツの指定情報が各クライアント端末10に送信される。配信コンテンツの指定情報は、スタジアム430で再現する試合コンテンツを示す情報である。 Figure 11 is a diagram explaining the mechanism for recreating a match using bone data of players according to this embodiment. As shown in Figure 11, first, the virtual space management server 200a transmits designation information for the content to be distributed to each client terminal 10. The designation information for the content to be distributed is information indicating the match content to be reproduced in the stadium 430.

各クライアント端末10は、仮想空間管理サーバ200aから受信した指定情報に基づいて、バックエンドシステム30のコンテンツ配信サーバ306に対して、試合コンテンツの配信を要求する。 Each client terminal 10 requests the content distribution server 306 of the back-end system 30 to distribute match content based on the specification information received from the virtual space management server 200a.

次いで、コンテンツ配信サーバ306は、外部装置である試合データサーバ50に対して、試合コンテンツの配信を要求する。試合データサーバ50は、実空間で行われた試合において、トラッキングシステム51により収集された各選手およびボールのトラッキングデータを格納する装置である。各選手のトラッキングデータは、例えば、ボーンデータである。試合データサーバ50には、各選手の3DCGが格納されていてもよい。試合データサーバ50は、トラッキングシステム51から取得したトラッキングデータのフォーマットを整えたり、不要なデータを適宜削除したりした上で、試合コンテンツデータを生成する。試合データサーバ50は、コンテンツ配信サーバ306からの要求に応じて、試合コンテンツデータをコンテンツ配信サーバ306に送信する。 Then, the content distribution server 306 requests the distribution of match content from the match data server 50, which is an external device. The match data server 50 is a device that stores tracking data of each player and the ball collected by the tracking system 51 during a match held in real space. The tracking data of each player is, for example, bone data. The match data server 50 may also store 3DCG of each player. The match data server 50 generates match content data after formatting the tracking data acquired from the tracking system 51 and deleting unnecessary data as appropriate. The match data server 50 transmits the match content data to the content distribution server 306 in response to a request from the content distribution server 306.

次に、コンテンツ配信サーバ306は、試合コンテンツデータを各クライアント端末10に送信する。試合コンテンツデータには、各選手の3DCG(選手オブジェクトとも称する)、試合における各選手のボーンデータ、ボールの3DCG、試合におけるボールのトラッキングデータ等が含まれる。クライアント端末10は、試合コンテンツデータに基づいて、スタジアム430内で、選手オブジェクトを、ボーンデータに基づいて動かし、よりリアルに試合を3Dで再現し得る。ユーザは、ユーザアバターを操作してスタジアム430に入り、スタジアム430内で試合を楽しむことができる。また、ユーザは、ユーザアバターをフィールド内(ここでは、サッカーコート内)に移動させ、各選手の動きを近くで様々な角度から観戦することも可能である。コンテンツ配信サーバ306は、各クライアント端末10で再現される当該試合コンテンツデータのタイミング(スタジアム430で再現される試合の再生時間)を同期させることも可能である。実空間で行われた試合のトラッキングデータを用いて仮想空間で試合を再現する際のUIについては、図27~図32を参照して後述する。 Next, the content distribution server 306 transmits the match content data to each client terminal 10. The match content data includes 3DCG (also called player object) of each player, bone data of each player in the match, 3DCG of the ball, tracking data of the ball in the match, etc. The client terminal 10 can move the player object in the stadium 430 based on the bone data based on the match content data, and reproduce the match in 3D more realistically. The user can enter the stadium 430 by operating the user avatar and enjoy the match in the stadium 430. The user can also move the user avatar in the field (here, in the soccer court) and watch the movements of each player from various angles up close. The content distribution server 306 can also synchronize the timing of the match content data reproduced in each client terminal 10 (the playback time of the match reproduced in the stadium 430). The UI when reproducing the match in the virtual space using the tracking data of the match played in the real space will be described later with reference to Figures 27 to 32.

<5-2.トーキングテーブル>
仮想空間内の任意の場所には、ユーザ同士のコミュニケーションが行われるコミュニケーションルームが対応付けられるコミュニケーションポイントが設定されている。コミュニケーションポイントの設定は、仮想空間管理サーバ200により行われてもよいし、ユーザにより行われてもよい。
<5-2. Talking Table>
At any location in the virtual space, a communication point is set to correspond to a communication room where users can communicate with each other. The communication point may be set by the virtual space management server 200 or by the user.

コミュニケーションルームでは、1以上の異なるコミュニケーション手段によるコミュニケーションが行われ得る。1以上の異なるコミュニケーション手段とは、例えば、音声、文字、または画像等の情報を用いたコミュニケーション手段である。コミュニケーションルームは、バックエンドシステム30(例えば、トーキングテーブルサーバ307)により提供されてもよい。ユーザは、ユーザアバターを、仮想オブジェクトであるトーキングテーブルが表示されるコミュニケーションポイントに移動させることでコミュニケーションルームに入室(コミュニケーションに参加)することが可能である。コミュニケーションルームに入室すると、表示画面が、コミュニケーションルームの画面に遷移する。また、コミュニケーションルームにおいて行われるコミュニケーションは、それぞれ対応するコミュニケーション用サーバ(例えばテキストチャットサーバ304、ボイスチャットサーバ305)により行われ得る。 In a communication room, communication can be carried out using one or more different communication means. The one or more different communication means are, for example, communication means using information such as voice, text, or images. The communication room may be provided by the back-end system 30 (for example, the talking table server 307). A user can enter a communication room (participate in communication) by moving a user avatar to a communication point where a talking table, which is a virtual object, is displayed. When entering a communication room, the display screen transitions to the communication room screen. Furthermore, communication in a communication room can be carried out by a corresponding communication server (for example, the text chat server 304, the voice chat server 305).

コミュニケーションポイントには、目印となる仮想オブジェクトが配置されていてもよい。本実施形態では、目印となる仮想オブジェクトの一例として、テーブルを用いる。かかるテーブルを、本明細書において、トーキングテーブルとも称する。 A virtual object serving as a landmark may be placed at the communication point. In this embodiment, a table is used as an example of a virtual object serving as a landmark. In this specification, such a table is also referred to as a talking table.

トーキングテーブルは、ユーザが操作するクライアント端末10への入力操作、または仮想空間管理サーバ200により、仮想空間内の任意の場所(コミュニケーションポイントの設定箇所)に配置される。一例として、図10を参照して上述したバー440の中に配置されていてもよい。図12は、本実施形態によるトーキングテーブル600が配置されるバー内部の表示画面を示す図である。図12に示す表示画面530は、バー440の内部にユーザアバターが移動した際のユーザ視線の映像の一例である。バー440は、図10を参照して上述したように、ユーザ同士(ここでは、サッカーチームのファン同士)が交流する場として設けられる。バー440の内部には、図12の表示画面530に示すように、複数のトーキングテーブル600が設けられている。各トーキングテーブル600には、それぞれ、トーキングルームが対応付けられる。トーキングルームは、トーキングテーブルサーバ307により提供される。 The talking table is placed at any location (where a communication point is set) in the virtual space by an input operation to the client terminal 10 operated by the user or by the virtual space management server 200. As an example, the talking table may be placed in the bar 440 described above with reference to FIG. 10. FIG. 12 is a diagram showing a display screen inside the bar in which the talking table 600 according to this embodiment is placed. The display screen 530 shown in FIG. 12 is an example of an image of the user's line of sight when the user avatar moves inside the bar 440. As described above with reference to FIG. 10, the bar 440 is provided as a place for users (here, fans of soccer teams) to interact with each other. As shown in the display screen 530 of FIG. 12, multiple talking tables 600 are provided inside the bar 440. Each talking table 600 is associated with a talking room. The talking rooms are provided by the talking table server 307.

トーキングテーブル600の形状は一例である。ユーザが、ユーザアバターをトーキングテーブル600に近付けることで、トーキングテーブル600に対応付けられるトーキングルームへの入室選択に関する情報が、仮想空間管理サーバ200からクライアント端末10に送信される。ユーザは、クライアント端末10において入室要求の操作を行うことで、ユーザアバターをトーキングルーム(コミュニケーションルーム)に入室(換言すると、トーキングテーブルに参加)させることができる。 The shape of the talking table 600 is an example. When a user brings a user avatar close to the talking table 600, information regarding the selection of entry into the talking room associated with the talking table 600 is transmitted from the virtual space management server 200 to the client terminal 10. The user can cause the user avatar to enter the talking room (communication room) (in other words, participate in the talking table) by performing an entry request operation on the client terminal 10.

トーキングテーブル600は、ユーザ同士のコミュニケーションが行われるコミュニケーションルームが対応付けられるコミュニケーションポイントに表示される。コミュニケーションポイントは、仮想空間上の特定の領域に設定されており、コミュニケーションポイントにアバターが含まれる場合に、入室選択に関する情報が送信される。 The talking table 600 is displayed at a communication point that corresponds to a communication room where users can communicate with each other. The communication point is set in a specific area in the virtual space, and when an avatar is included in the communication point, information regarding the selection of entering the room is transmitted.

図13は、トーキングテーブル600の形状の一例について説明する図である。図13に示すように、例えばトーキングテーブル600は、テーブル601およびディスプレイ602を含む。ディスプレイ602は、トーキングテーブル600に対応付けられるトーキングルーム内(コミュニケーションルーム内)の会話対象である「実空間または仮想空間で行われるイベントに関連する情報」を表示する表示オブジェクトの一例である。トーキングルーム内の会話対象は、仮想空間管理サーバ200に予め設定されてもよいし、トーキングルーム内の現在の議題またはトーキングルーム内で現在視聴されている映像(例えば図18に示すトピックウィンドウ542)であってもよい。ディスプレイ602の表示内容は、トーキングルーム内における会話の対象に関連する情報であり、トーキングルーム内における会話の対象の変化に応じて適宜変化してもよい。ディスプレイ602とテーブル601は、仮想オブジェクトとして仮想空間に配置される。 13 is a diagram for explaining an example of the shape of the talking table 600. As shown in FIG. 13, for example, the talking table 600 includes a table 601 and a display 602. The display 602 is an example of a display object that displays "information related to an event taking place in a real space or a virtual space" that is a conversation target in a talking room (communication room) associated with the talking table 600. The conversation target in the talking room may be preset in the virtual space management server 200, or may be the current agenda in the talking room or a video currently being viewed in the talking room (for example, the topic window 542 shown in FIG. 18). The display content of the display 602 is information related to the conversation target in the talking room, and may change appropriately according to changes in the conversation target in the talking room. The display 602 and the table 601 are placed in the virtual space as virtual objects.

例えば、トーキングテーブル600に対応付けられるトーキングルーム内の会話対象として「実空間において直近に開催された試合」が設定された場合、当該試合の映像、当該試合に出場した選手のインタビュー映像、または当該試合の試合結果のような当該試合に関連する情報が、ディスプレイ602に表示される。ディスプレイ602に表示される2D動画は、コンテンツ配信サーバ306からストリーミング配信される動画であってもよい。ディスプレイ602に表示される2D動画の指定は、仮想空間管理サーバ200により行われ得る。仮想空間管理サーバ200は、当該エリアに対応付けられるIPコンテンツに応じて、ディスプレイ602に表示する2D動画を指定してもよい。バー440の内部に配置される複数のトーキングテーブル600には、同じ2D動画が再生されていてもよい。 For example, when "the most recent match held in the real world" is set as the conversation subject in the talking room associated with the talking table 600, the video of the match, the interview video of the players who participated in the match, or information related to the match such as the match result is displayed on the display 602. The 2D video displayed on the display 602 may be a video streamed from the content distribution server 306. The 2D video displayed on the display 602 may be specified by the virtual space management server 200. The virtual space management server 200 may specify the 2D video to be displayed on the display 602 according to the IP content associated with the area. The same 2D video may be played on multiple talking tables 600 arranged inside the bar 440.

トーキングテーブル600は、さらに、トーキングテーブル600に関する情報を表示する表示603を含んでいてもよい。例えば、表示603には、トーキングテーブル600の識別番号および現在トーキングルームに入室している人数が表示される。ユーザは、表示603を視認することで、トーキングルームに何人入室できるのか、および現在何人入室しているかを確認することができる。 The talking table 600 may further include a display 603 that displays information about the talking table 600. For example, the display 603 displays the identification number of the talking table 600 and the number of people currently in the talking room. By visually checking the display 603, the user can check how many people can enter the talking room and how many people are currently in the room.

(入室方法)
ユーザは、トーキングテーブル600に近付くことで、スピーカとして参加(入室)するか、オーディエンスとして参加(入室)するかを選択できる。「スピーカとして参加」とは、トーキングルーム内での発言(例えばボイスチャット、テキストチャット)が可能な状態での参加である。オーディエンスとして参加とは、トーキングルーム内での発言は不可能であるがトーキングルーム内の視聴は可能な状態での参加である。
(How to enter)
By approaching the talking table 600, a user can select whether to participate (enter) as a speaker or as an audience member. "Participating as a speaker" means participating in a state in which the user can make comments in the talking room (e.g., voice chat, text chat). "Participating as an audience" means participating in a state in which the user cannot make comments in the talking room but can view the talking room.

仮想空間管理サーバ200は、ユーザアバターがトーキングテーブル600に近付くと、トーキングテーブル600に対応付けられるトーキングルームに入室するか否かをユーザが選択するための入室選択に関する情報をクライアント端末10に送信する。入室選択に関する情報は、ユーザがスピーカまたはオーディエンスのいずれかの形態で入室(参加)できることを示す情報である。クライアント端末10においてユーザが入室(参加)要求の操作を行う際に、ユーザは、スピーカまたはオーディエンスのいずれの形態で参加するかを選択できる。 When the user avatar approaches the talking table 600, the virtual space management server 200 transmits information regarding entry selection to the client terminal 10 so that the user can select whether or not to enter the talking room associated with the talking table 600. The information regarding entry selection is information indicating that the user can enter (participate) as either a speaker or an audience member. When the user operates the client terminal 10 to request entry (participation), the user can select whether to participate as a speaker or an audience member.

仮想空間処理部121は、仮想空間管理サーバ200から受信した入室選択に関する情報に基づいて、例えばトーキングテーブル600の位置から一定の距離の範囲内にユーザアバターが移動した場合に、トーキングルームにスピーカとして入室するか、オーディエンスとして入室するかをユーザに選択させる選択画面を表示する。なお、オーディエンスとしての参加の可否は、トーキングルーム作成時に設定されてもよい。スピーカまたはオーディエンスでの入室が選択されると、入室要求がクライアント端末10から仮想空間管理サーバ200に送信され、仮想空間管理サーバ200から、トーキングテーブル600に対応する各セッション情報(接続情報)が返信される。クライアント端末10は、受信した各セクション情報に基づいて、トーキングテーブルサーバ307、テキストチャットサーバ304、およびボイスチャットサーバ305等と、通信接続し得る。 When the user avatar moves within a certain distance from the position of the talking table 600, for example, based on the information regarding the entry selection received from the virtual space management server 200, the virtual space processing unit 121 displays a selection screen that allows the user to select whether to enter the talking room as a speaker or as an audience member. Whether or not to participate as an audience member may be set when creating the talking room. When entry as a speaker or an audience member is selected, an entry request is sent from the client terminal 10 to the virtual space management server 200, and each session information (connection information) corresponding to the talking table 600 is returned from the virtual space management server 200. Based on each section information received, the client terminal 10 can communicate with the talking table server 307, the text chat server 304, the voice chat server 305, and the like.

なお、上記入室選択に関する情報に、トーキングテーブル600に対応する各セッション情報(接続情報)が予め含まれていてもよい。これにより、クライアント端末10は、ユーザによる入室選択の操作に応じて、仮想空間管理サーバ200に対して入室要求を出す一方で、各セクション情報に基づいて、トーキングテーブルサーバ307、テキストチャットサーバ304、およびボイスチャットサーバ305等と、通信接続し得る。 The information regarding the entry selection may include in advance each session information (connection information) corresponding to the talking table 600. This allows the client terminal 10 to issue an entry request to the virtual space management server 200 in response to the user's entry selection operation, while also establishing a communication connection with the talking table server 307, the text chat server 304, the voice chat server 305, etc., based on each section information.

また、複数のトーキングテーブル600がある場合、ユーザは、どのトーキングテーブル600に参加すると望ましいコミュニケーションができるかわからない場合もある。そこで、例えば下記のような方法が考え得る。 Also, when there are multiple talking tables 600, the user may not know which talking table 600 to join in order to have the desired communication. In this case, the following method, for example, may be considered.

一例として、トーキングテーブル600とユーザアバターの距離に応じてトーキングルーム内の様子を開示するレベルを異ならせる方法が挙げられる。図14は、本実施形態によるトーキングテーブル600との距離に応じてトーキングルーム内の様子が開示される場合について説明する図である。 One example is a method of varying the level at which the state of the inside of the talking room is disclosed depending on the distance between the talking table 600 and the user avatar. Figure 14 is a diagram illustrating a case in which the state of the inside of the talking room is disclosed depending on the distance from the talking table 600 according to this embodiment.

図14に示すように、トーキングテーブル600の位置から第1の距離内(コミュニケーションポイントを中心とする第1の距離内)であるエリアE1(第2のエリア)内にユーザアバターが位置すると仮想空間管理サーバ200が判断する場合、仮想空間管理サーバ200は、クライアント端末10に、トーキングテーブル600のコミュニケーションに関する情報を送信する。トーキングテーブル600のコミュニケーションに関する情報の一例として、トーキングテーブル600に対応付けられるコミュニケーションルーム内の音声情報が挙げられる。これにより、ユーザは、トーキングルームへ入室することなく、トーキングルーム内での会話量および雰囲気等を把握することができる。図14に示す例では、ユーザアバターU4、U5のユーザが、トーキングルーム内の会話が聞こえている状態である。また、仮想空間管理サーバ200は、ユーザアバターが中心(トーキングテーブル600)に近付くほど、トーキングルーム内の会話が聞こえるよう音量を上げるよう、クライアント端末10に対して指示してもよい。 As shown in FIG. 14, when the virtual space management server 200 determines that the user avatar is located in area E1 (second area) within a first distance from the position of the talking table 600 (within a first distance centered on the communication point), the virtual space management server 200 transmits information about the communication of the talking table 600 to the client terminal 10. An example of information about the communication of the talking table 600 is audio information in the communication room associated with the talking table 600. This allows the user to understand the amount of conversation and the atmosphere in the talking room without entering the talking room. In the example shown in FIG. 14, the users of user avatars U4 and U5 can hear the conversation in the talking room. In addition, the virtual space management server 200 may instruct the client terminal 10 to increase the volume so that the conversation in the talking room can be heard as the user avatar approaches the center (talking table 600).

一方、図14に示すように、トーキングテーブル600の位置から第1の距離より短い第2の距離内であるエリアE2(第1のエリア)にユーザアバターが位置すると仮想空間管理サーバ200が判断する場合、仮想空間管理サーバ200は、トーキングテーブル600に対応付けられるトーキングルームへの入室選択に関する情報を、クライアント端末に送信する。ユーザは、クライアント端末10において、入室要求の操作を行い得る。この際、ユーザは、スピーカまたはオーディエンスのいずれの形態でトーキングルームに参加(入室)するかを選択し得る(入室選択に関する情報に対するユーザ入力、とも言える)。 On the other hand, as shown in FIG. 14, when the virtual space management server 200 determines that the user avatar is located in area E2 (first area) that is within a second distance from the position of the talking table 600 that is shorter than the first distance, the virtual space management server 200 transmits information regarding the selection of entry into the talking room associated with the talking table 600 to the client terminal. The user may operate the client terminal 10 to request entry. At this time, the user may select whether to participate (enter) the talking room as a speaker or an audience member (this can also be considered a user input regarding the information regarding the selection of entry).

ユーザがトーキングルームに入室した際、仮想空間管理サーバ200は、トーキングルーム内の会話(例えば、ボイスチャットの情報、テキストチャットの情報)、トーキングルーム内の映像(例えば図18に示すユーザアバターの様子)、トーキングルーム内で共有(視聴)されている映像、またはトーキングルーム内の議題を、クライアント端末10に送信してもよい。議題は、トーキングルーム内でのボイスチャットまたはテキストチャットの解析結果から抽出されてもよい。かかる議題の抽出は、バックエンドシステム30により行われてもよい。また、議題として、後述するトーキングルーム内でピックアップされているトピックウィンドウ542(図18参照)のカテゴリが抽出されてもよい。また、トーキングルーム内の会話、トーキングルーム内の映像(例えば図18に示すユーザアバターの様子)、トーキングルーム内で共有(視聴)している映像、またはトーキングルーム内の議題は、エリアE1に位置するユーザアバターに対応するクライアント端末10に送信されてもよい。 When a user enters a talking room, the virtual space management server 200 may transmit the conversation in the talking room (e.g., voice chat information, text chat information), video in the talking room (e.g., the appearance of the user avatar shown in FIG. 18), video shared (viewed) in the talking room, or the agenda in the talking room to the client terminal 10. The agenda may be extracted from the analysis results of the voice chat or text chat in the talking room. Such an agenda extraction may be performed by the back-end system 30. In addition, the category of the topic window 542 (see FIG. 18) picked up in the talking room described later may be extracted as the agenda. In addition, the conversation in the talking room, video in the talking room (e.g., the appearance of the user avatar shown in FIG. 18), video shared (viewed) in the talking room, or the agenda in the talking room may be transmitted to the client terminal 10 corresponding to the user avatar located in the area E1.

図14に示す例では、エリアE2に位置するアバターのうち、ユーザアバターU1およびユーザアバターU2がスピーカとしてトーキングルームに入室し、ユーザアバターU3がオーディエンスとしてトーキングルームに入室している状態を想定する。この際、エリアE1に位置するユーザアバターU4およびユーザアバターU5は、ディスプレイ602の表示内容を視認してトーキングルーム内で行われている会話の話題を把握することができる。また、ユーザアバターU4およびユーザアバターU5を操作する各ユーザのクライアント端末10には、トーキングルーム内におけるコミュニケーションに関する情報(例えばトーキングルーム内の音声情報)が仮想空間管理サーバ200から送信されてもよい。そして、エリアE2に新たに入ったユーザアバターまたはさらにトーキングテーブル600に近付いたユーザアバターを操作するユーザのクライアント端末10において、トーキングルームに入室するか否かの選択画面が提示される。 In the example shown in FIG. 14, it is assumed that among the avatars located in area E2, user avatar U1 and user avatar U2 have entered the talking room as speakers, and user avatar U3 has entered the talking room as an audience member. At this time, user avatar U4 and user avatar U5 located in area E1 can visually confirm the contents displayed on display 602 and understand the topic of the conversation taking place in the talking room. In addition, information related to communication in the talking room (e.g., audio information in the talking room) may be transmitted from the virtual space management server 200 to the client terminal 10 of each user who operates user avatar U4 and user avatar U5. Then, a selection screen for whether or not to enter the talking room is presented on the client terminal 10 of the user who operates the user avatar that has newly entered area E2 or the user avatar that has approached the talking table 600.

以上のように、本システムでは、仮想空間管理サーバ200によって、トーキングルーム内(コミュニケーションルーム内)の会話対象である「実空間または仮想空間で行われるイベントに関連する情報」を表示する表示オブジェクト(ディスプレイ602)を含む仮想オブジェクト(トーキングテーブル600)が、仮想空間内に配置される。これにより、仮想オブジェクトの周辺に存在するユーザアバターを操作するユーザは、表示オブジェクトの表示内容を視認してトーキングルーム内で行われている会話の話題を把握することができる。 As described above, in this system, the virtual space management server 200 places in the virtual space a virtual object (talking table 600) including a display object (display 602) that displays "information related to an event taking place in real space or virtual space," which is the subject of conversation in the talking room (communication room). This allows a user operating a user avatar present in the vicinity of the virtual object to visually check the display content of the display object and understand the topic of the conversation taking place in the talking room.

また、仮想空間管理サーバ200は、ユーザが操作するユーザアバターの仮想空間内における位置が、ユーザ同士のコミュニケーションが行われるコミュニケーションルームが対応付けられるコミュニケーションポイントであるエリアE2(第1のエリア)に含まれる場合、コミュニケーションルームへの入室選択に関する情報を、当該ユーザが使用する端末(クライアント端末10)に送信する。 In addition, when the position in the virtual space of the user avatar operated by the user is included in area E2 (first area), which is a communication point associated with a communication room where communication between users takes place, the virtual space management server 200 transmits information regarding the selection to enter the communication room to the terminal used by the user (client terminal 10).

また、仮想空間管理サーバ200は、ユーザアバターの位置が、エリアE2(第1のエリア)の外側に位置するエリアE1(第2のエリア)に含まれる場合、コミュニケーションに関する情報を、当該ユーザアバターを操作するユーザが使用する端末(クライアント端末10)に送信する。 In addition, when the position of the user avatar is included in area E1 (second area) located outside area E2 (first area), the virtual space management server 200 transmits information regarding communication to the terminal (client terminal 10) used by the user who operates the user avatar.

これによりユーザは、仮想空間内でアバターを操作しながら、表示オブジェクト(ディスプレイ602)を視認してトーキングルーム内の話題を把握したり、ユーザが操作するユーザアバターと仮想オブジェクト(トーキングテーブル600)との距離に応じてトーキングルーム内の音声を確認したり、ユーザアバターを一定以上仮想オブジェクトに近付けることで、トーキングルームに参加したりと、トーキングルームに対する関係性を、アバター操作により決定することができる。 As a result, while operating an avatar in the virtual space, the user can visually check the display object (display 602) to understand the topic in the talking room, check the audio in the talking room depending on the distance between the user avatar operated by the user and the virtual object (talking table 600), and join the talking room by bringing the user avatar closer to the virtual object than a certain amount, and can determine their relationship with the talking room by operating the avatar.

他の例として、仮想空間処理部121は、ユーザアバターがトーキングテーブル600に対して一定距離以内に近付くと、ユーザの趣味嗜好情報に応じて、トーキングルーム内の様子の開示レベルを変更してもよい。例えば、仮想空間処理部121は、トーキングルーム内の会話(議題)がユーザの趣味嗜好に合う場合、トーキングルーム内の会話を大きい音で再生したり、より詳細な議題をタブ表示605に表示したりしてもよい。一方、トーキングルーム内の会話(議題)がユーザの趣味嗜好に合わない場合、仮想空間処理部121は、トーキングルーム内の会話を小さい音で再生または再生しないようにしたり、議題をタブ表示605に表示しないようしてもよい。 As another example, when the user avatar approaches within a certain distance of the talking table 600, the virtual space processing unit 121 may change the disclosure level of the situation in the talking room according to the user's hobby and preference information. For example, if the conversation (topic) in the talking room matches the user's hobby and preference, the virtual space processing unit 121 may play the conversation in the talking room at a loud volume or display a more detailed topic in the tab display 605. On the other hand, if the conversation (topic) in the talking room does not match the user's hobby and preference, the virtual space processing unit 121 may play the conversation in the talking room at a low volume or not play it, or not display the topic in the tab display 605.

また、他の例として、仮想空間処理部121は、ユーザの趣味嗜好に合う議題のトーキングテーブル600をハイライト表示してもよい。また、仮想空間処理部121は、ユーザが今まで会話で言及したことがある議題のトーキングテーブル600をハイライト表示してもよい。 As another example, the virtual space processing unit 121 may highlight the talking table 600 of a topic that matches the user's hobbies and preferences. The virtual space processing unit 121 may also highlight the talking table 600 of a topic that the user has mentioned in conversations in the past.

また、他の例として、仮想空間処理部121は、ユーザと趣味嗜好が合うと推定される他ユーザが参加しているトーキングテーブル600をハイライト表示してもよい。 As another example, the virtual space processing unit 121 may highlight talking tables 600 in which other users who are presumed to have similar hobbies and tastes to the user are participating.

また、他の例として、仮想空間処理部121は、トーキングルーム内の盛り上がりに応じて、テーブルの下にエフェクトを提示してもよい。図15は、本実施形態によるトーキングルーム内の盛り上がりに応じたトーキングテーブル600のエフェクト表示の一例を示す図である。仮想空間処理部121は、図15に示すように、トーキングテーブル600に含まれるテーブル601の下方に、ライトエフェクトを提示してもよい。仮想空間処理部121は、トーキングルーム内の盛り上がりに応じて、エフェクトの色、点滅、濃度等を制御してもよい。これにより、ユーザは、トーキングルーム内の盛り上がりを把握することができる。 As another example, the virtual space processing unit 121 may present an effect below the table depending on the level of excitement in the talking room. FIG. 15 is a diagram showing an example of an effect display on the talking table 600 depending on the level of excitement in the talking room according to this embodiment. The virtual space processing unit 121 may present a light effect below the table 601 included in the talking table 600, as shown in FIG. 15. The virtual space processing unit 121 may control the color, blinking, intensity, etc. of the effect depending on the level of excitement in the talking room. This allows the user to grasp the level of excitement in the talking room.

また、仮想空間処理部121は、トーキングテーブル600への参加人数(トーキングルームへの入室人数)に応じて、トーキングテーブル600の形状を変化させてもよい。例えば、参加人数が増えるほど、より大きなテーブルに変化させてもよい。 The virtual space processing unit 121 may also change the shape of the talking table 600 depending on the number of participants in the talking table 600 (the number of people entering the talking room). For example, the table may be changed to a larger size as the number of participants increases.

また、本システムでは、トーキングルームへの入室制限は特になく、誰でも自由に入室できるようにする。ただし、トーキングルームの入室者が任意に他の参加者を退出させることが可能な機能を設けてもよい。 In addition, this system does not impose any restrictions on entry to the talking room, allowing anyone to enter freely. However, a function may be provided that allows participants in the talking room to voluntarily expel other participants.

また、本システムでは、トーキングルームのホストは特に設定しなくともよいし、最初に入室したユーザをホストとしてもよい。ユーザからの依頼でトーキングルームが作成された場合、作成者をホストとしてもよい。ホストがトーキングルームへの入室制限を設けてもよいし、トーキングルームへの入室をホストによる許可制にしてもよい。ホストの設定は、トーキングルームを管理するトーキングテーブルサーバ307により行われ得る。また、ホストのみに、上記他の参加者を退出させる権限を与えてもよい。また、ホストの権限は任意に他の参加者に譲渡できるようにしてもよい。 In addition, in this system, the host of a talking room does not need to be specifically set, or the first user to enter the room may be the host. If a talking room is created at the request of a user, the creator may be the host. The host may set entry restrictions to the talking room, or entry to the talking room may require permission from the host. The host may be set by the talking table server 307 that manages the talking room. Furthermore, only the host may be given the authority to make the other participants exit. Furthermore, the host's authority may be freely transferred to other participants.

また、仮想空間管理サーバ200は、実空間または仮想空間のイベントに関連する情報として、実空間または仮想空間で行われる試合の特定のシーンを、ディスプレイ602に表示してもよい。実空間で行われるイベントに関連する情報は、試合の特定のシーンに限らず、例えば、実空間で行われた音楽ライブの特定のシーンのように、何らかのイベントの特定のシーンであればよい。仮想空間で行われるイベントの場合、仮想空間内で行われる音楽ライブやeスポーツ大会などのイベントの特定のシーンであってもよい。 The virtual space management server 200 may also display on the display 602 a specific scene of a match taking place in the real space or virtual space as information related to an event in the real space or virtual space. The information related to an event taking place in the real space is not limited to a specific scene of a match, but may be any specific scene of an event, such as a specific scene of a live music concert held in the real space. In the case of an event taking place in a virtual space, the information may be a specific scene of an event, such as a live music concert or an e-sports tournament, held in the virtual space.

イベントの特定のシーンは、例えば、実空間の試合のハイライト映像であってもよい。仮想空間管理サーバ200は、実空間のイベントに関連する情報として、実空間で行われた試合のハイライト映像をディスプレイ602(表示オブジェクト)に表示するよう制御してもよい。試合のハイライト映像として、例えば、ゴールシーンやファウルシーンなどが想定される。また、イベントの特定のシーンは、仮想空間で行われるイベントのハイライト映像であってもよい。 The specific scene of the event may be, for example, a highlight video of a match held in real space. The virtual space management server 200 may control the display 602 (display object) to display highlight video of a match held in real space as information related to the event in real space. Examples of highlight video of a match include goal scenes and foul scenes. The specific scene of the event may also be a highlight video of an event held in virtual space.

また、仮想空間管理サーバ200は、ディスプレイ602(表示オブジェクト)に表示させる「実空間のイベントに関連する情報」を、イベントにおける特定のユーザグループが応援するチームに関する情報のみとしてもよい。例えば、特定チームによる試合のハイライト映像が挙げられる。これにより、ユーザは、当該ディスプレイ602を含むトーキングテーブル600に対応付けられるトーキングルーム内で、どのチームについてのコミュニケーションが行われるかを入室前に把握することができる。本システムでは、例えば特定のチームに関する情報のみディスプレイ602に表示させることで、トーキングルームに特定のチームのファンが集まるようにすることができる。 The virtual space management server 200 may display on the display 602 (display object) "information related to a real-space event" only information related to a team that a specific user group supports at the event. For example, highlight footage of a match featuring a specific team. This allows the user to know before entering the talking room associated with the talking table 600 including the display 602 which communication will be held about which team. In this system, for example, by displaying only information related to a specific team on the display 602, it is possible to attract fans of a specific team to the talking room.

また、仮想空間管理サーバ200は、トーキングテーブル600に近付いたユーザアバターを操作するユーザのうち、イベントにおける特定のユーザグループに所属するユーザのみに、トーキングルームへの入室選択に関する情報を送信するようにしてもよい。これにより、本システムでは、トーキングルームに入室できるユーザグループに制限をかけることができる。 The virtual space management server 200 may also transmit information regarding the selection to enter the talking room only to users who belong to a specific user group in the event, among the users who operate user avatars approaching the talking table 600. This allows the system to place restrictions on the user groups that can enter the talking room.

(動作処理)
図16は、本実施形態によるトーキングテーブル600の生成から入室までの動作処理の一例を示すシーケンス図である。
(Operation Processing)
FIG. 16 is a sequence diagram showing an example of an operational process from generation of the talking table 600 to entry according to this embodiment.

図16に示すように、まず、トーキングテーブルサーバ307は、仮想空間管理サーバ200からのトーキングルームの生成依頼(ステップS203)に応じて、トーキングルームを生成する(ステップS206)。そして、トーキングテーブルサーバ307は、生成したトーキングルームへのセッション情報を仮想空間管理サーバ200に送信する(ステップS209)。仮想空間管理サーバ200は、仮想空間内に設定したコミュニケーションポイントに、当該セッション情報を対応付ける。なお、ここでは一例として、仮想空間管理サーバ200からの生成依頼について説明するが、本開示はこれに限定されず、クライアント端末10から生成依頼が行われてもよい。この場合、トーキングテーブルサーバ307は、生成したトーキングルームへのセッション情報をクライアント端末10に送信する。クライアント端末10は、仮想空間内に設定したコミュニケーションポイントに、当該セッション情報を対応付ける。また、クライアント端末10は、仮想空間内に設定したコミュニケーションポイントおよび当該セッション情報を、仮想空間管理サーバ200に送信し、他ユーザと共有する。 As shown in FIG. 16, first, the talking table server 307 generates a talking room (step S206) in response to a talking room generation request from the virtual space management server 200 (step S203). Then, the talking table server 307 transmits session information for the generated talking room to the virtual space management server 200 (step S209). The virtual space management server 200 associates the session information with a communication point set in the virtual space. Note that, as an example, a generation request from the virtual space management server 200 is described here, but the present disclosure is not limited to this, and a generation request may be made from the client terminal 10. In this case, the talking table server 307 transmits session information for the generated talking room to the client terminal 10. The client terminal 10 associates the session information with a communication point set in the virtual space. In addition, the client terminal 10 transmits the communication point set in the virtual space and the session information to the virtual space management server 200 to share with other users.

次に、仮想空間管理サーバ200は、テキストチャットルームの生成依頼をテキストチャットサーバ304に送信する(ステップS212)。テキストチャットサーバ304は、テキストチャットルームを生成し(ステップS215)、当該テキストチャットルームへのセッション情報を仮想空間管理サーバ200に送信する(ステップS218)。 Next, the virtual space management server 200 sends a request to create a text chat room to the text chat server 304 (step S212). The text chat server 304 creates a text chat room (step S215) and sends session information for the text chat room to the virtual space management server 200 (step S218).

次いで、仮想空間管理サーバ200は、ボイスチャットルームの生成依頼をボイスチャットサーバ305に送信する(ステップS221)。ボイスチャットサーバ305は、ボイスチャットルームを生成し(ステップS224)、当該ボイスチャットルームへのセッション情報を仮想空間管理サーバ200に送信する(ステップS227)。 Next, the virtual space management server 200 sends a request to create a voice chat room to the voice chat server 305 (step S221). The voice chat server 305 creates a voice chat room (step S224) and sends session information for the voice chat room to the virtual space management server 200 (step S227).

次に、仮想空間管理サーバ200は、各セッション情報を保存する(ステップS230)。 Next, the virtual space management server 200 stores each session information (step S230).

次いで、クライアント端末10は、ユーザアバターがトーキングテーブル600の近く(トーキングテーブル600から一定の距離内)に移動し、ユーザ操作によりトーキングルームへの入室(および入室の形態)が選択されると(入室選択に関する情報に対するユーザ入力が行われると)、入室要求を仮想空間管理サーバ200に送信する(ステップS233)。なお、ユーザアバターがトーキングテーブル600の近くに移動した時点で、仮想空間管理サーバ200から、コミュニケーションルームへの入室選択に関する情報がクライアント端末10に送信されてもよい。クライアント端末10は、当該入室選択に関する情報に基づいて、入室選択画面を表示してもよい。 Next, when the user avatar moves near the talking table 600 (within a certain distance from the talking table 600) and entry into the talking room (and the mode of entry) is selected by user operation (when the user inputs information related to the entry selection), the client terminal 10 transmits an entry request to the virtual space management server 200 (step S233). Note that when the user avatar moves near the talking table 600, information related to the selection of entry into the communication room may be transmitted from the virtual space management server 200 to the client terminal 10. The client terminal 10 may display an entry selection screen based on the information related to the entry selection.

次に、仮想空間管理サーバ200は、クライアント端末10からの入室要求の受信によりユーザの入室意思を認識し(ステップS236)、トーキングテーブル600に対応する各セッション情報(接続情報)をクライアント端末10に送信する(ステップS239)。また、仮想空間管理サーバ200は、ユーザがトーキングルームに入室した際には、トーキングルーム画面(コミュニケーションルーム画面の一例)に遷移するようクライアント端末10を制御してもよい。 Next, the virtual space management server 200 recognizes the user's intention to enter the room by receiving an entry request from the client terminal 10 (step S236), and transmits each session information (connection information) corresponding to the talking table 600 to the client terminal 10 (step S239). In addition, the virtual space management server 200 may control the client terminal 10 to transition to a talking room screen (an example of a communication room screen) when the user enters the talking room.

なお、ここでは一例としてユーザが入室を選択した場合に仮想空間管理サーバ200に対して入室要求を送信する旨を説明するが、本開示はこれに限定されない。上述したように、クライアント端末10は、ユーザアバターのトーキングテーブル600との距離等に応じてトーキングルーム内の様子を開示する制御を行う場合、ユーザの入室の意思を得る前に、仮想空間管理サーバ200に対して各セッション情報の送信を要求してもよい。また、クライアント端末10は、ユーザの位置(ユーザアバターの位置)を継続的に仮想空間管理サーバ200に送信しているため、仮想空間管理サーバ200は、トーキングテーブル600(コミュニケーションポイント)から一定の距離内にユーザアバターが位置した場合に、入室意思有りと認識して、各セッション情報をクライアント端末10に送信してもよい。若しくは、仮想空間管理サーバ200は、クライアント端末10に送信する上記入室選択に関する情報に、トーキングテーブル600に対応する各セッション情報を含めてもよい。クライアント端末10では、仮想空間管理サーバ200から各セッション情報を受信した後に、入室するか否かをユーザに選択させてもよい。これにより、クライアント端末10は、トーキングルームへの入室意思をユーザから得る前にトーキングテーブル600とユーザアバターとの距離等に応じてトーキングルーム内の様子を開示する制御を行い得る。 Note that, as an example, a case where a user selects to enter the room is described here, but the present disclosure is not limited thereto. As described above, when controlling the disclosure of the state inside the talking room according to the distance between the user avatar and the talking table 600, the client terminal 10 may request the virtual space management server 200 to transmit each session information before obtaining the user's intention to enter the room. In addition, since the client terminal 10 continuously transmits the user's position (the position of the user avatar) to the virtual space management server 200, when the user avatar is located within a certain distance from the talking table 600 (communication point), the virtual space management server 200 may recognize that there is an intention to enter the room and transmit each session information to the client terminal 10. Alternatively, the virtual space management server 200 may include each session information corresponding to the talking table 600 in the information regarding the above-mentioned entry selection transmitted to the client terminal 10. In the client terminal 10, after receiving each session information from the virtual space management server 200, the user may select whether or not to enter the room. This allows the client terminal 10 to control the disclosure of the state of the talking room depending on factors such as the distance between the talking table 600 and the user avatar before obtaining the user's intention to enter the talking room.

そして、クライアント端末10は、トーキングルーム画面を表示し、また、各セッション情報に基づいて各サーバとの通信接続を開始する(ステップS242)。各サーバとの通信接続の詳細については、図17を参照して次に説明する。 Then, the client terminal 10 displays the talking room screen and starts a communication connection with each server based on each session information (step S242). Details of the communication connection with each server are described below with reference to FIG. 17.

図17は、本実施形態によるトーキングルーム入室時におけるクライアント端末10と各サーバとの通信接続の詳細について説明する図である。図17に示すように、トーキングルームに入室した各クライアント端末10は、トーキングテーブルサーバ307と双方向通信を行い、入室ユーザ情報を取得する。入室ユーザ情報には、入室ユーザのユーザID、ユーザ名、およびユーザアバターの情報等が含まれる。 Figure 17 is a diagram explaining the details of the communication connection between the client terminal 10 and each server when entering a talking room in this embodiment. As shown in Figure 17, each client terminal 10 that has entered a talking room performs two-way communication with the talking table server 307 to obtain entering user information. The entering user information includes the entering user's user ID, user name, user avatar information, etc.

各クライアント端末10は、テキストチャットサーバ304と双方向通信を行い、テキストチャットを送受信する。これにより、トーキングルーム内でテキストチャットが行われ得る。 Each client terminal 10 communicates bidirectionally with the text chat server 304 to send and receive text chat. This allows text chat to take place within the talking room.

各クライアント端末10は、ボイスチャットサーバ305と双方向通信を行い、ボイスチャットを送受信する。これにより、トーキングルーム内でボイスチャットが行われ得る。 Each client terminal 10 communicates bidirectionally with the voice chat server 305 to send and receive voice chats. This allows voice chats to take place within the talking room.

各クライアント端末10は、仮想空間管理サーバ200aと双方向通信を行い、エモートおよびスタンプ等をリアルタイムで送受信する。これにより、トーキングルーム内に表示される各ユーザアバターのエモートおよびスタンプがリアルタイムで制御される。 Each client terminal 10 communicates bidirectionally with the virtual space management server 200a, sending and receiving emotes, stamps, etc. in real time. This allows the emotes and stamps of each user avatar displayed in the talking room to be controlled in real time.

各クライアント端末10は、コンテンツ配信サーバ306と通信接続し、コンテンツ(動画等)のストリーミング配信を受信する。これにより、トーキングルーム内でコンテンツ(動画等)を視聴できる。なお、コンテンツの指定情報は、トーキングテーブルサーバ307または仮想空間管理サーバ200aから受信され得る。コンテンツは、トーキングテーブルサーバ307または仮想空間管理サーバ200aにより設定されてもよいし、入室ユーザが設定してもよい。 Each client terminal 10 communicates with the content distribution server 306 and receives streaming distribution of content (videos, etc.). This allows the content (videos, etc.) to be viewed within the talking room. Content designation information can be received from the talking table server 307 or the virtual space management server 200a. The content may be set by the talking table server 307 or the virtual space management server 200a, or may be set by the user who has entered the room.

(トーキングルーム画面例)
図18は、本実施形態によるトーキングルーム画面の一例を示す図である。クライアント端末10の仮想空間処理部121は、ユーザがトーキングテーブルに参加(すなわち、トーキングルームに入室)すると、図14に示すような表示画面から、図18に示すようなトーキングルーム画面540に画面遷移させる。
(Talking room screen example)
Fig. 18 is a diagram showing an example of a talking room screen according to the present embodiment. When a user joins a talking table (i.e., enters a talking room), the virtual space processing unit 121 of the client terminal 10 transitions the display screen shown in Fig. 14 to a talking room screen 540 shown in Fig. 18.

トーキングルーム画面540では、入室しているユーザアバターが横並びで表示される。また、各種操作ボタン(スタンプアイコン546、エモートアイコン547、定型スタンプアイコン548、テキスト入力ボタン549、マイクONOFFボタン550、メニューボタン541)と、トピックウィンドウ542が表示される。 On the talking room screen 540, the avatars of users who have joined the room are displayed side-by-side. In addition, various operation buttons (stamp icon 546, emote icon 547, fixed stamp icon 548, text input button 549, microphone ON/OFF button 550, menu button 541) and a topic window 542 are displayed.

各ユーザアバターの頭上には、入力されたテキストを表示する吹き出し画像544、およびユーザに選択されたスタンプ画像545が表示され得る。仮想空間処理部121は、吹き出し画像544およびスタンプ画像545を数秒だけ表示し、ログは見られないようにしてもよい。また、各ユーザアバターは、ユーザに選択されたエモートに応じて表情、ポーズまたはジェスチャー等(拍手、万歳、挨拶、ガッツポーズ、落胆のジェスチャー等)が制御される。 Above the head of each user avatar, a speech bubble image 544 displaying the entered text and a stamp image 545 selected by the user may be displayed. The virtual space processing unit 121 may display the speech bubble image 544 and the stamp image 545 for only a few seconds, without allowing the log to be seen. In addition, the facial expression, pose, gesture, etc. of each user avatar (applause, hurrah, greeting, fist pump, gesture of disappointment, etc.) is controlled according to the emote selected by the user.

トピックウィンドウ542は、トーキングルーム内で視聴されるコンテンツを表示する仮想オブジェクトである。トピックウィンドウ542は複数あってもよい。各ユーザは、複数のトピックウィンドウ542a~542cをスライドしてピックアップするコンテンツを選択し得る。トーキングルーム内では、ピックアップされたトピックウィンドウ542(例えば真ん中に位置するウィンドウ)の再生が開始される。なお、ピックアップする権利(チャンネル権)は、入室ユーザ全員に与えられ得る。 Topic window 542 is a virtual object that displays the content being viewed in the talking room. There may be multiple topic windows 542. Each user may slide through multiple topic windows 542a-542c to select the content to pick up. In the talking room, playback of the picked topic window 542 (e.g., the window located in the middle) begins. The right to pick up (channel right) may be given to all users who have entered the room.

トピックウィンドウ542に表示されるコンテンツのカテゴリは、例えば、IPコンテンツ(ここでは、特定のサッカーチーム)に関連するニュース(直近3日間のPV(ページビュー)トップ5等)、IPコンテンツに関連する動画のうち反響のあった映像(視聴回数が多い動画、ユーザが盛り上がった動画等)、直近の試合のハイライト映像、対戦経歴等が想定される。また、トピックウィンドウ542に、入室ユーザがプライベートの写真およびビデオを表示させたり、ユーザのローカル画面を共有させたりすることも可能である。また、トピックウィンドウ542に表示されるコンテンツのカテゴリは、トーキングテーブル600が設置されている場所や、現在時刻に応じて、仮想空間管理サーバ200またはトーキングテーブルサーバ307により決定されてもよい。 The categories of content displayed in the topic window 542 are, for example, news related to the IP content (here, a specific soccer team) (such as the top 5 PV (page views) for the last 3 days), videos related to the IP content that have received a lot of attention (such as videos with the most views or videos that users are excited about), highlights of the most recent match, match history, etc. In addition, it is also possible for a user who has entered the room to display private photos and videos in the topic window 542, or to share the user's local screen. The categories of content displayed in the topic window 542 may be determined by the virtual space management server 200 or the talking table server 307 depending on the location where the talking table 600 is installed and the current time.

図19は、本実施形態によるトーキングルーム画面の他の例を示す図である。図19のトーキングルーム画面560のように、ピックアップしたトピックウィンドウ561のみを大きく表示したり、テキストチャットウィンドウ562を表示してもよい。テキストチャットウィンドウ562の表示ONOFF切替は、表示切替ボタン564へのタップ操作により行われ得る。また、トーキングルーム内でのマイクのONOFF切替は、ボイス切替ボタン565へのタップ操作により行われ得る。 FIG. 19 is a diagram showing another example of a talking room screen according to this embodiment. As in the talking room screen 560 of FIG. 19, only the picked topic window 561 may be displayed large, or a text chat window 562 may be displayed. The display of the text chat window 562 may be switched on and off by tapping the display switch button 564. Furthermore, the microphone in the talking room may be switched on and off by tapping the voice switch button 565.

以上、トーキングルーム画面例について説明したが、本開示によるトーキングルーム画面は図面に示す例に限定されない。 The above describes an example of a talking room screen, but the talking room screen according to this disclosure is not limited to the example shown in the drawings.

<5-3.イベント連動>
続いて、イベント連動サーバ308と連携して行われる、実空間で行われるイベントの展開に応じた、仮想空間での演出(仮想イベントを含む)の制御について説明する。実空間で行われるイベントの配信映像は、仮想空間に配置されてもよい。また、ユーザは、実空間で行われるイベントの配信映像を、テレビ、または仮想空間が表示されるウィンドウとは別のウィンドウ等、仮想空間外で視聴してもよい。また、仮想空間での演出は、実空間で行われるイベントの展開と、複数ユーザのリアクションとに応じて、決定される。
<5-3. Event Linkage>
Next, a description will be given of the control of the presentation (including virtual events) in the virtual space in response to the development of an event taking place in the real space, which is performed in cooperation with the event linking server 308. The distributed video of the event taking place in the real space may be placed in the virtual space. In addition, the user may watch the distributed video of the event taking place in the real space outside the virtual space, such as on a television or in a window other than the window in which the virtual space is displayed. In addition, the presentation in the virtual space is determined in response to the development of the event taking place in the real space and the reactions of multiple users.

図20は、本実施形態によるイベント連動の仕組みについて説明する図である。図20に示す例では、所定の事象として、実空間においてリアルタイムで行われているサッカーの試合を想定して説明する。 Figure 20 is a diagram explaining the mechanism of event linkage according to this embodiment. In the example shown in Figure 20, a soccer match taking place in real time in the real space is assumed as the specified event.

まず、バックエンドシステム30のイベント連動サーバ308は、リアルタイムの試合データを随時取得し、試合展開を解析する。また、イベント連動サーバ308は、試合展開として試合前、試合中、および試合後のいずれにおける試合展開であるかを特定する。例えば、イベント連動サーバ308は、試合展開をテキストでライブストリーミングしているサービスから、試合データとして試合展開のテキストを取得し、特定のワードを自動抽出してもよい。試合展開をテキストで生配信しているサービスとしては、例えば、試合中継の解説者のコメント(音声)をテキスト化して配信しているサービスが挙げられる。自動抽出する特定のワードとは、例えば、「フリーキック」、「ファウル」、「シュートが外れた」、「シュートが止められた」、「コーナー」、「敵のフリーキック」、「◇◇(敵チーム)のゴール」、「ハーフタイム開始」、「選手交代」、「後半開始」、「イエローカード」、「オフサイド」、「○○(味方チーム)のゴール」、「試合終了」等が挙げられる。試合展開のテキストは、各チームの公式サイトで独自に配信されている場合もある。 First, the event-linked server 308 of the back-end system 30 acquires real-time match data at any time and analyzes the progress of the match. The event-linked server 308 also identifies whether the match progress is before, during, or after the match. For example, the event-linked server 308 may acquire text of the match progress as match data from a service that live-streams the match progress in text, and automatically extract specific words. An example of a service that live-streams the match progress in text is a service that converts the comments (audio) of a commentator during a match broadcast into text and distributes it. Examples of specific words that are automatically extracted include "free kick," "foul," "missed shot," "shot blocked," "corner," "opponent's free kick," "◇◇ (opponent team) goal," "halftime begins," "player substitution," "second half begins," "yellow card," "offside," "○○ (teammate) goal," and "end of the match." The text of the match progress may also be distributed independently on the official website of each team.

試合展開の解析は、上述した例に限定されず、例えばイベント連動サーバ308は、試合の中継映像をリアルタイムで画像認識し、プレイを判別してもよい。 Analysis of the game progress is not limited to the above example. For example, the event-linked server 308 may perform image recognition on live broadcast footage of the game in real time to distinguish plays.

次いで、仮想空間管理サーバ200aは、イベント連動サーバ308から随時取得する試合展開の解析結果と、複数ユーザのリアクションとに応じて、対応する所定の演出を指定し、仮想空間内で当該演出を即時行うよう、各クライアント端末10に指示する。本実施形態では、一例として、実空間で行われている試合の展開に応じた演出がスタジアム430においてリアルタイムで行われ得る。これにより、本システムでは、仮想空間内に存在するスタジアム430に集まったユーザは、試合展開と複数ユーザのリアクションとに応じた、スタジアム430内での演出を他ユーザと体験することで、仮想空間内での試合観戦を盛り上がることができる。なお、仮想空間管理サーバ200aは、実空間で行われる試合の配信映像を、バックエンドシステム30(例えばコンテンツ配信サーバ306)から取得して各クライアント端末10に送信し、仮想空間内(具体的には、スタジアム430内)に配置するよう指示してもよい。また、各クライアント端末10が、仮想空間管理サーバ200aに指定された試合の配信映像を、コンテンツ配信サーバ306から取得してもよい。ユーザは、テレビ装置またはPC等の外部装置で試合の生中継を視聴しながら、スマートフォンまたはタブレット端末等のクライアント端末10で起動するクライアントアプリにより、仮想空間におけるユーザ視点でスタジアム430での演出を視聴してもよい。クライアント端末10は、表示部150に表示される一のウィンドウに試合の生中継を表示する一方、表示部150に表示される他のウィンドウに仮想空間の映像(スタジアム430での演出の様子)を表示してもよい。 Next, the virtual space management server 200a designates a corresponding predetermined performance according to the analysis results of the game development acquired from the event linkage server 308 at any time and the reactions of the multiple users, and instructs each client terminal 10 to immediately perform the corresponding performance in the virtual space. In this embodiment, as an example, a performance according to the development of the game taking place in the real space can be performed in real time in the stadium 430. As a result, in this system, users who have gathered at the stadium 430 existing in the virtual space can experience the performance in the stadium 430 according to the game development and the reactions of the multiple users with other users, thereby making the game viewing in the virtual space more exciting. In addition, the virtual space management server 200a may acquire a distribution video of the game taking place in the real space from the back-end system 30 (for example, the content distribution server 306) and transmit it to each client terminal 10, and instruct them to place it in the virtual space (specifically, in the stadium 430). In addition, each client terminal 10 may acquire a distribution video of the game designated by the virtual space management server 200a from the content distribution server 306. While watching a live broadcast of a match on an external device such as a television device or PC, a user may watch the performance in stadium 430 from the user's viewpoint in the virtual space using a client application running on client terminal 10 such as a smartphone or tablet terminal. Client terminal 10 may display the live broadcast of the match in one window displayed on display unit 150, while displaying an image of the virtual space (the performance in stadium 430) in another window displayed on display unit 150.

また、仮想空間管理サーバ200aは、各クライアント端末10からユーザのリアクションを取得し、その内容に基づいて試合展開を推定し、対応する演出を決定する。ユーザのリアクションには、ユーザ操作の情報(スタンプ、エモートの実行数、および種類等)が挙げられる。また、ユーザのリアクションは、ボイスチャットの送信数、内容、頻度、および音声ボリュームといった情報であってもよい。また、ユーザのリアクションは、テキストチャットの送信数、内容、および頻度といった情報であってもよい。仮想空間管理サーバ200aは、ボイスチャットまたはテキストチャットの送信数等から試合展開を推定することも可能である。なお、ユーザのリアクションに基づく試合展開の推定は、イベント連動サーバ308で行われてもよい。 The virtual space management server 200a also acquires user reactions from each client terminal 10, estimates the progress of the game based on the content of the reactions, and determines the corresponding presentation. User reactions include information on user operations (such as the number and type of stamps and emotes executed). User reactions may also be information such as the number, content, frequency, and voice volume of voice chat transmissions. User reactions may also be information such as the number, content, and frequency of text chat transmissions. The virtual space management server 200a can also estimate the progress of the game from the number of voice chat or text chat transmissions, etc. The estimation of the progress of the game based on user reactions may be performed by the event linkage server 308.

試合展開に対応する演出としては、例えば、試合前であればフィールドに配置されたステージ上にDJを登場させて音楽で会場を盛り上げる演出、フィールドに配置された大型ディスプレイに試合前のチームの練習または移動中の映像の表示、試合会場に登場するシーンの中継映像の表示が挙げられる。また、フィールドに配置された大型ディスプレイを用いてスターティングメンバー発表演出が行われてもよい。 Examples of performances that correspond to the progress of the game include having a DJ appear on a stage on the field before the game to liven up the venue with music, showing footage of the team practicing or traveling before the game on a large display on the field, and showing live footage of scenes that appear at the game venue. In addition, a performance announcing the starting lineup may be held using a large display on the field.

また、試合開始時には、キックオフ演出、試合中には、自チーム選手または相手チーム選手のファウル演出、失点演出(チームキャラクターのアバターを登場させて励ます演出等)、得点演出(音楽を流し、花火打ち上げ、紙吹雪および風船を出現させ、喜ぶチームキャラクターのアバター等による喜びの演出)、ハーフタイムの抽選イベント演出(プレゼントを降らせる)、注目選手のプロフィール表示演出(フィールドに配置された大型ディスプレイに表示)、自チーム選手または相手チーム選手のイエローカード演出、自チーム選手または相手チーム選手のオフサイド演出が挙げられる。また、試合終了時には、試合終了演出、試合後には、勝利演出(DJを登場させて音楽で会場を盛り上げる演出等)、または敗北演出が挙げられる。 At the start of the match, there is a kick-off performance, and during the match, there are performances for fouls by players on the team or the opposing team, performances for conceding a goal (such as having a team character avatar appear to encourage the team), performances for scoring (such as playing music, setting off fireworks, making confetti and balloons appear, and showing happy team character avatars), performances for a lottery event at halftime (raining presents down), performances displaying the profiles of notable players (displayed on a large display placed on the field), performances for yellow cards for players on the team or the opposing team, and performances for offsides by players on the team or the opposing team. At the end of the match, there is an end-of-match performance, and after the match, there are performances for victory (such as having a DJ appear to liven up the venue with music) or performances for defeat.

また、仮想空間管理サーバ200aは、ユーザのリアクションが一定数を超えた時に、試合の展開と、複数ユーザのリアクションとに応じて、対応する演出を実行してもよい。例えば、仮想空間管理サーバ200aは、多くのユーザ(一定数または一定割合を超えるユーザ)が「GO」スタンプを押しているとき、応援演出として、フィールドに配置したNPC(Non Player Character)にも応援エモートを実行させる演出や、応援用の音楽を再生する演出を実行する。また、仮想空間管理サーバ200aは、ユーザのリアクションの多さを盛り上がりとし、盛り上がりの大きさに応じて、フィールドに飛ばす風船の大きさや数を多くしてもよい。また、仮想空間管理サーバ200aは、ユーザの盛り上がりに応じて、フィールドで再生する応援用音楽のボリュームを大きくしてもよい。また、仮想空間管理サーバ200aは、ユーザの盛り上がりが続いている場合、応援演出の長さを既定の時間より延長してもよい。また、仮想空間管理サーバ200aは、ユーザのリアクションの中でも最も量が多いリアクションに基づいて、演出を決定してもよい。 In addition, when the number of user reactions exceeds a certain number, the virtual space management server 200a may execute a corresponding performance according to the progress of the game and the reactions of multiple users. For example, when many users (users exceeding a certain number or a certain percentage) press the "GO" stamp, the virtual space management server 200a executes a performance in which the NPC (Non Player Character) placed on the field also executes a cheering emote or a performance in which cheering music is played as a cheering performance. In addition, the virtual space management server 200a may regard the number of user reactions as excitement, and increase the size and number of balloons to be flown on the field according to the level of excitement. In addition, the virtual space management server 200a may increase the volume of the cheering music to be played on the field according to the level of excitement of the users. In addition, the virtual space management server 200a may extend the length of the cheering performance beyond the default time if the users continue to be excited. Additionally, the virtual space management server 200a may determine the presentation based on the most common reaction among the user reactions.

仮想空間管理サーバ200aは、ユーザのリアクションとして仮想空間管理サーバ200aが管理している仮想空間に存在するユーザアバターを操作するユーザのリアクションを取得してもよい。かかるユーザのリアクションは、例えば、ユーザ操作の情報(スタンプ、エモートの実行数、および種類等)である。また、ユーザのリアクションは、ボイスチャットの送信数、内容、頻度、および音声ボリュームといった情報であってもよい。また、ユーザのリアクションは、テキストチャットの送信数、内容、および頻度といった情報であってもよい。 The virtual space management server 200a may acquire, as the user's reaction, the reaction of a user operating a user avatar that exists in the virtual space managed by the virtual space management server 200a. Such a user's reaction is, for example, information on the user's operation (the number and type of stamps and emotes executed, etc.). The user's reaction may also be information such as the number, content, frequency, and voice volume of voice chat transmissions. The user's reaction may also be information such as the number, content, and frequency of text chat transmissions.

また、仮想空間管理サーバ200aは、ユーザのリアクションとして、仮想空間管理サーバ200aが対象としている試合と同じ試合を対象として試合展開に応じた演出を行っている他の仮想空間管理サーバが管理する他の仮想空間に存在するユーザアバターを操作するユーザのリアクションをさらに取得してもよい。かかるユーザのリアクションも、ユーザ操作の情報、ボイスチャットの情報、またはテキストチャットの情報であってもよい。なお、仮想空間管理サーバ200aが試合の配信映像をクライアント端末10aに送信している場合、仮想空間管理サーバ200aは、同じ配信映像を送信している他の仮想空間管理サーバが管理する他の仮想空間に存在するユーザアバターを操作するユーザのリアクションをさらに取得してもよい。 The virtual space management server 200a may further acquire, as user reactions, reactions of users who operate user avatars that exist in other virtual spaces managed by other virtual space management servers that perform presentations according to the progress of the same match as the match that the virtual space management server 200a is targeting. Such user reactions may also be user operation information, voice chat information, or text chat information. Note that, when the virtual space management server 200a is transmitting a broadcast video of the match to the client terminal 10a, the virtual space management server 200a may further acquire reactions of users who operate user avatars that exist in other virtual spaces managed by other virtual space management servers that are transmitting the same broadcast video.

また、ユーザのリアクションは、ユーザアバターを操作するユーザのリアクションに限られず、実空間において試合を現地で観戦している観客のリアクション、または、テレビ等で試合を視聴している視聴者のリアクションであってもよい。かかるリアクションは、例えば、表情、動き、または歓声等であってもよい。また、かかるリアクションは、カメラ、加速度センサ、またはマイクロホン等の各種センサによりセンシングされる。仮想空間管理サーバ200aは、観客のリアクション、または視聴者のリアクションの情報を、リアルタイムで適宜取得し得る。 Furthermore, the user's reactions are not limited to the reactions of the user operating the user avatar, but may also be the reactions of spectators watching the game on-site in real space, or the reactions of viewers watching the game on television or the like. Such reactions may be, for example, facial expressions, movements, cheers, etc. Furthermore, such reactions are sensed by various sensors such as cameras, acceleration sensors, or microphones. The virtual space management server 200a may appropriately acquire information on the spectators' reactions or viewers' reactions in real time.

また、仮想空間管理サーバ200aは、試合の展開と複数ユーザのリアクションとに応じて決定する演出として、仮想空間内に存在するアバターのエモートを決定してもよい。例えば、仮想空間管理サーバ200aは、試合展開として試合中であることを特定し、さらに、「GO」スタンプ選択のような試合を勢い付かせる応援を多くのユーザが行っていることを特定した場合、仮想空間に存在する複数のアバターに、タオルを振り回して応援する等のエモートを反映させる。この際、仮想空間管理サーバ200aは、仮想空間内の無操作状態のアバターに対してエモートを反映させてもよいし、NPCにエモートを反映させてもよいし、アバター全員に反映させてもよい。また、仮想空間管理サーバ200aは、無操作状態の全アバターと全NPCに反映させてもよいし、無操作状態の一部アバターと一部NPCに反映させてもよい。 The virtual space management server 200a may also determine emotes for avatars present in the virtual space as a performance determined according to the progress of the match and the reactions of multiple users. For example, when the virtual space management server 200a identifies that a match is currently in progress and further identifies that many users are cheering to boost the momentum of the match, such as by selecting the "GO" stamp, it reflects emotes such as cheering by waving towels on multiple avatars present in the virtual space. At this time, the virtual space management server 200a may reflect emotes on avatars in a non-operated state in the virtual space, may reflect emotes on NPCs, or may reflect emotes on all avatars. The virtual space management server 200a may also reflect emotes on all avatars and all NPCs in a non-operated state, or may reflect emotes on some avatars and some NPCs in a non-operated state.

(イベント連動の具体例)
試合展開には、大きく、試合前、試合中(前半)、ハーフタイム、試合中(後半)、および試合後がある。以下、試合展開の大きな流れにおける各演出の具体例について順次説明する。
(Examples of event linkage)
The game progress can be broadly divided into pre-game, game (first half), halftime, game (second half), and post-game. Specific examples of each part of the game progress will be described below.

・試合前
試合45分前になると、ライブスタジアム(スタジアム430において、実空間のリアルタイムの試合の展開に応じて行われる演出イベント。本実施形態では「ライブスタジアム」とも称する。)の開始が、各ユーザアバターに通知される。エリアにいるユーザアバターはスタジアム430に移動する。
Before the match 45 minutes before the match, the start of the live stadium (a production event that takes place in the stadium 430 in response to the progress of the match in real time in the real space. In this embodiment, this is also called the "live stadium.") is notified to each user avatar. User avatars in the area move to the stadium 430.

スタジアム430に入り、他のユーザアバター(フレンド登録している他ユーザ)と合流し、ユーザは、例えばグループチャットでフレンドと話しながら試合開始を待つ。 The user enters the stadium 430, meets up with other user avatars (other users who are registered as friends), and waits for the match to start while talking with friends, for example, in a group chat.

スタジアム430のフィールドに配置されたステージにはDJが登場し、音楽で会場を盛り上げる演出が実行される。また、ステージの上方には、大型ディスプレイが配置されていてもよい。大型ディスプレイには、チームの試合前の練習映像、またはチームバス到着の様子の映像が表示される。図21は、本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。図21に示すように、表示画面710には、仮想空間のスタジアム内のフィールド(ピッチ)に配置される大型ディスプレイ711には、スタメン情報および試合前のチームの様子の映像等が表示される。 A DJ appears on a stage located on the field of stadium 430 and creates a musical performance to liven up the venue. A large display may also be placed above the stage. The large display shows footage of the team's practice before the match, or footage of the team bus arriving. FIG. 21 is a diagram showing an example of a display screen in a live stadium according to this embodiment. As shown in FIG. 21, a display screen 710 shows starting lineup information and footage of the team's state before the match on a large display 711 placed on the field (pitch) in the stadium in the virtual space.

また、フィールドでは、スタメン発表の演出、およびステージ上にスタメン選手のアバターを登場させる演出が行われてもよい。フィールドに集まっているユーザは、さらに盛り上がる。次いで、実空間での試合会場に選手が入場する際、大型ディスプレイ711に、試合会場に入場する選手の中継が表示され、フィールドに集まっているユーザの盛り上がりは最高潮となる。 In addition, on the field, the starting lineup may be announced, and avatars of the starting players may appear on stage. This will further excite the users gathered on the field. Next, when the players enter the match venue in real space, a live broadcast of the players entering the match venue is displayed on the large display 711, and the excitement of the users gathered on the field reaches a climax.

・試合中
試合中は、大型ディスプレイ711には、試合状況、フィールドに集まっているユーザのリアクションに合わせた演出、またはユーザにリアクションを促す演出が表示される。図22は、本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。図22に示す表示画面720では、大型ディスプレイ711の表示ウィンドウ721、722と、テキストチャットウィンドウ723が前面に表示されている。このような表示の切り替えは、ユーザ操作により適宜行われ得る。ユーザは、テキストチャットウィンドウ723を用いて、エリア内にいる他ユーザとテキストチャットできる。また、ユーザは、フレンド登録した他ユーザと生成したグループメンバーでボイスチャットを行うことも可能である。これらのテキストチャット、およびボイスチャットは、バックエンドシステム30を用いて行われ得る。
During a match During a match, the large display 711 displays the match status, effects according to the reactions of users gathered on the field, or effects that prompt users to react. FIG. 22 is a diagram showing an example of a display screen in a live stadium according to this embodiment. In the display screen 720 shown in FIG. 22, the display windows 721 and 722 of the large display 711 and the text chat window 723 are displayed in the foreground. Such display switching can be performed appropriately by user operation. The user can use the text chat window 723 to text chat with other users in the area. In addition, the user can also perform voice chat with other users who have been registered as friends and with group members that have been generated. These text chats and voice chats can be performed using the backend system 30.

表示ウィンドウ721には、仮想空間のフィールドに配置されたステージ上に登場して会場を盛り上げているチームキャラクターのアバターの映像が表示されている。また、表示ウィンドウ722には、フィールドにいる大多数のユーザが選択した応援スタンプと同じ応援スタンプが表示されたり、ユーザに選択を促す応援スタンプが表示されたりする。かかる演出により、ユーザに一体感を持たせ、会場を盛り上げることができる。仮想空間処理部121は、仮想空間管理サーバ200からの演出指示に応じて、適宜音楽や音声を再生してもよい。応援スタンプには、例えば、NICE、BOO、GOAL等がある。 Display window 721 displays images of team character avatars appearing on a stage arranged in the field of the virtual space to liven up the venue. Display window 722 also displays cheer stamps that are the same as those selected by the majority of users in the field, or cheer stamps that encourage users to make a selection. This effect creates a sense of unity among users and livens up the venue. The virtual space processing unit 121 may play music or sound as appropriate in response to effect instructions from the virtual space management server 200. Cheering stamps include, for example, NICE, BOO, GOAL, etc.

図23は、本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。図23に示す表示画面730では、失点演出の一例が示される。敵チームにゴールされた場合、例えばチームキャラクターが落胆のポーズを取る演出が実施される。また、ユーザが、「OMG」の応援スタンプボタン450をタップすると、ユーザアバターUの頭上に、「OMG」の応援スタンプが表示される。多くのユーザが「OMG」の応援スタンプを選択している場合、大型ディスプレイ731には、OMG!の応援スタンプが表示される演出が実施される。 Fig. 23 is a diagram showing an example of a display screen in a live stadium according to this embodiment. The display screen 730 shown in Fig. 23 shows an example of a conceded goal presentation. When the opposing team scores a goal, for example, a presentation in which the team characters pose in despair is implemented. Furthermore, when the user taps the "OMG" cheering stamp button 450, an "OMG" cheering stamp is displayed above the head of the user avatar U. When many users have selected the "OMG" cheering stamp, a presentation in which an OMG! cheering stamp is displayed on the large display 731 is implemented.

また、ユーザは、チームキャラクターと同じ応援エモートをユーザアバターUに行わせることも可能である。図24は、本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。図24に示すように、表示画面740に示すSNYC(Synchronization)の応援ボタン742が選択されると、仮想空間処理部121は、チームキャラクター741と同じ応援エモートをユーザアバターUに行わせる。これにより、会場にいるユーザがチームキャラクターおよび他ユーザと一体となって応援エモートを行うことができる。 The user can also have the user avatar U perform the same cheering emote as the team character. FIG. 24 is a diagram showing an example of a display screen in a live stadium according to this embodiment. As shown in FIG. 24, when the SNYC (Synchronization) cheering button 742 shown on the display screen 740 is selected, the virtual space processing unit 121 causes the user avatar U to perform the same cheering emote as the team character 741. This allows users at the venue to perform cheering emotes together with the team characters and other users.

ハーフタイムに入ると、例えば抽選イベントの演出が行われる。図25は、本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。図25の表示画面750に示すように、例えば空から多数の箱が降ってきて、ユーザがユーザアバターUを操作して拾うと、抽選でサインボールまたはユニフォーム等のプレゼントが当たる。 When halftime begins, for example, a lottery event is held. FIG. 25 is a diagram showing an example of a display screen in a live stadium according to this embodiment. As shown on display screen 750 in FIG. 25, for example, a large number of boxes fall from the sky, and if a user operates user avatar U to pick them up, they will be entered into a lottery to win a gift such as an autographed ball or a uniform.

試合中に、味方チームのゴールが決まると、得点演出が行われる。得点演出では、例えば、音楽が流れたり、花火が打ちあがったり、紙吹雪および風船が降ってきたり、チームキャラクターが踊ったりする。図26は、本実施形態によるライブスタジアムにおける表示画面の一例を示す図である。図26の表示画面760に示すように、フィールド上では、花火が打ちあがったり、紙吹雪が降ったりする演出が行われる。また、大型ディスプレイ761では、得点を決めた選手の情報、相手チームの選手の情報、点数、応援スタンプ、およびチームキャラクターの映像等が表示される。また、ステージ上には、得点を決めた選手の巨大アバター762を登場させる演出も行われ得る。このようにして、チームに点が入った時に会場を盛り上げる演出が行われる。 When a goal is scored by a team during a match, a scoring performance is performed. In the scoring performance, for example, music is played, fireworks are set off, confetti and balloons fall, and team characters dance. FIG. 26 is a diagram showing an example of a display screen in a live stadium according to this embodiment. As shown in the display screen 760 of FIG. 26, a performance is performed on the field where fireworks are set off and confetti falls. In addition, a large display 761 displays information about the player who scored, information about the players on the opposing team, scores, cheering stamps, and images of team characters. In addition, a performance may be performed in which a giant avatar 762 of the player who scored appears on the stage. In this way, a performance is performed to liven up the venue when a team scores a point.

なお、フィールドの周囲の観客席およびフィールド上には、NPCが配置され、適宜、仮想空間処理部121により演出エモートが実行されてもよい。例えば、仮想空間処理部121は、味方選手が攻めている、シュート、フリーキックする際には、NPCに応援エモートを実行する。また、仮想空間処理部121は、味方選手がゴールしたときには、NPCに喜びエモートを実行する。また、仮想空間処理部121は、敵選手がファウルしたときには、NPCにブーイングエモートを実行する。また、仮想空間処理部121は、敵選手がゴールしたときには、NPCに落胆エモートを実行する。 NPCs may be placed in the spectator seats around the field and on the field, and the virtual space processing unit 121 may execute emote effects as appropriate. For example, the virtual space processing unit 121 executes a cheering emote on the NPCs when a teammate player is attacking, shooting, or taking a free kick. The virtual space processing unit 121 also executes a joyful emote on the NPCs when a teammate player scores a goal. The virtual space processing unit 121 also executes a booing emote on the NPCs when an opposing player commits a foul. The virtual space processing unit 121 also executes a dejected emote on the NPCs when an opposing player scores a goal.

また、仮想空間管理サーバ200は、仮想空間の盛り上がりを演出するため、無操作状態のユーザアバターに全体の演出に合わせて自動でエモートまたはスタンプ等の演出を実行させる指示を、各クライアント端末10に対して行ってもよい。 In addition, in order to create excitement in the virtual space, the virtual space management server 200 may instruct each client terminal 10 to have a user avatar that is not being operated automatically perform an emote or stamp or other effect in accordance with the overall effect.

・試合後
試合が終わると、終了時演出が実行される。味方チームが試合に勝った場合は、勝利演出(DJの再登場等)により会場をさらに盛り上げてもよいし、負けた場合、選手を称える演出が行われても良い。また、フィールドの大型ディスプレイには、試合後の監督および選手のインタビュー映像が表示されてもよい。また、ステージ上にチームキャラクターを登場させ、勝利のエモートを行わせたり、チームの応援歌を流したりしてもよい。
After the match When the match ends, a final performance is executed. If the team wins the match, a victory performance (such as the DJ reappearing) may be performed to liven up the venue, and if the team loses, a performance praising the players may be performed. Also, a large display on the field may show interviews with the coach and players after the match. Also, a team character may appear on the stage and perform a victory emote or play the team's cheer song.

その後、各ユーザは、図10および図12を参照して説明したバー440のようなファン同士が交流できる場所に移動し、トーキングテーブル600を利用して今日の試合について語り合ってもよい。トーキングテーブル600内では、今日の試合映像が共有されてもよい。 After that, each user may move to a place where fans can interact with each other, such as the bar 440 described with reference to Figures 10 and 12, and use the talking table 600 to talk about today's game. Video of today's game may be shared within the talking table 600.

以上、試合展開に応じた具体的な演出について説明した。なお、本開示による演出は、上述した具体例に限定されず、様々な演出が考え得る。また、ここでは一例として試合展開に応じた演出としたが、これに限られず、例えば、実空間で行われている音楽のライブコンサート、講演会、発表会等の展開に応じた演出であってもよい。 The above describes specific effects that correspond to the progress of the game. Note that the effects according to the present disclosure are not limited to the specific examples described above, and various effects are possible. Also, while effects that correspond to the progress of the game have been used as an example here, the present invention is not limited to this, and may be effects that correspond to the progress of, for example, a live music concert, lecture, presentation, etc. taking place in real space.

<5-4.試合再現UI>
続いて、実空間で行われた試合のトラッキングデータを用いて仮想空間で試合を再現する際のUIについて説明する。図11を参照して上述したように、クライアント端末10は、コンテンツ配信サーバ306から受信した試合コンテンツデータに基づいて、仮想空間のスタジアム430(図10参照)に各選手オブジェクトおよびボールを配置し、試合中にトラッキングされた各選手のボーンデータに従って各選手オブジェクトを動かし、また、ボールのトラッキングデータに基づいて仮想のボールを動かすことで試合を再現する。
<5-4. Match Replay UI>
Next, a UI for reproducing a match in a virtual space using tracking data of a match played in a real space will be described. As described above with reference to Fig. 11, the client terminal 10 reproduces a match by arranging each player object and a ball in the stadium 430 (see Fig. 10) in the virtual space based on the match content data received from the content distribution server 306, moving each player object according to the bone data of each player tracked during the match, and moving the virtual ball based on the ball tracking data.

(カメラ位置について)
クライアント端末10は、再現した試合を表示部150に表示する際、多数のカメラ位置のうち任意のカメラ位置からの映像を表示し得る。任意のカメラ位置はユーザにより選択されてもよいし、クライアント端末10により自動で選択してもよい。
(About camera position)
When displaying the reproduced game on the display unit 150, the client terminal 10 may display an image from an arbitrary camera position among a number of camera positions. The arbitrary camera position may be selected by the user or may be automatically selected by the client terminal 10.

図27は、本実施形態によるカメラ位置の一例について説明する図である。図27に示すように、例えば、カメラ位置810、カメラ位置811、カメラ位置812、およびカメラ位置813が挙げられる。 Figure 27 is a diagram illustrating an example of a camera position according to this embodiment. As shown in Figure 27, examples include camera position 810, camera position 811, camera position 812, and camera position 813.

カメラ位置810:Basicでは、ゴールとボールを結んだ延長線上に仮想カメラCが配置される。追随する。カメラ位置811:Bird’s eyeでは、ボールの上空後方で広く画角が取れる位置に仮想カメラCが配置される。これらのカメラ位置およびカメラの向きは、ユーザにより操作できるようにしてもよい。 Camera position 810: In Basic, virtual camera C is placed on an extension line connecting the goal and the ball. It follows the ball. Camera position 811: In Bird's eye, virtual camera C is placed in a position above and behind the ball, where a wide angle of view can be obtained. These camera positions and camera orientations may be made controllable by the user.

上述した各カメラ位置は、選手を俯瞰して見る位置であるが、これに限定されず、クライアント端末10は、特定の選手の位置(視点)をカメラ位置とし、選手の主観映像を提供してもよい。例えば、図27下段に示すようにカメラ位置812:GKでは、ゴールキーパーの視点をカメラ位置とし、ゴールキーパーから見える景色が提供される。また、カメラ位置813:Shooterでは、各シーン(チャプターとも称する)の最後にシュートを打つ選手の視点をカメラ位置とし、当該選手から見える景色が提供される。 Each of the camera positions described above is a position from which the player can be viewed from above, but is not limited to this, and the client terminal 10 may set the position (viewpoint) of a specific player as the camera position and provide a subjective image of the player. For example, as shown in the lower part of FIG. 27, at camera position 812: GK, the goalkeeper's viewpoint is set as the camera position, and the view seen from the goalkeeper's perspective is provided. Also, at camera position 813: Shooter, the viewpoint of the player who will shoot at the end of each scene (also called chapter) is set as the camera position, and the view seen from that player is provided.

図28は、図27に示すカメラ位置810:Basicの場合の試合再現UIを示す図である。図28に示すように、試合再現UI820では、ゴールとボールを結んだ延長線上に配置された仮想カメラCにより取得した映像が表示される。なお、図28に示す試合再現UI820の画面概要については後述する。 Figure 28 is a diagram showing the game reproduction UI in the case of the camera position 810: Basic shown in Figure 27. As shown in Figure 28, the game reproduction UI 820 displays an image captured by a virtual camera C placed on an extension line connecting the goal and the ball. The screen overview of the game reproduction UI 820 shown in Figure 28 will be described later.

図29は、図27に示すカメラ位置811:Bird’s eyeの場合の試合再現UIを示す図である。図29に示すように、試合再現UI830では、ボールの上空後方で広く画角が取れる位置に配置された仮想カメラCにより取得した映像が表示される。なお、図29に示す試合再現UI830の画面概要は図28に示す試合再現UI820に共通する。 Figure 29 is a diagram showing the game reproduction UI when camera position 811: Bird's eye shown in Figure 27 is used. As shown in Figure 29, the game reproduction UI 830 displays an image captured by virtual camera C placed in a position that provides a wide angle of view above and behind the ball. Note that the screen overview of the game reproduction UI 830 shown in Figure 29 is the same as that of the game reproduction UI 820 shown in Figure 28.

(試合再現UIの画面概要について) 図28を参照して、試合再現UI820の画面概要について説明する。図28に示すように、試合再現UI820には、例えば、退出アイコン821、通知アイコン822、アングル変更可能ラベル823、カメラ位置切り替えアイコン824、アバターモード切り替えアイコン825、ハイライトラベル826、試合経過情報表示827、および表示切り替えアイコン828が表示される。なお、各表示の配置および形状は、図28に示す例に限定されない。 (Overview of the Match Replay UI Screen) With reference to FIG. 28, a screen overview of the match replay UI 820 will be described. As shown in FIG. 28, the match replay UI 820 displays, for example, an exit icon 821, a notification icon 822, an angle changeable label 823, a camera position switching icon 824, an avatar mode switching icon 825, a highlight label 826, a match progress information display 827, and a display switching icon 828. Note that the arrangement and shape of each display are not limited to the example shown in FIG. 28.

退出アイコン821は、本実施形態による各選手のトラッキングデータ(具体的にはボーンデータ)等に基づく選手オブジェクトの表示制御による試合再現モードを終了するための操作ボタンである。本実施形態による試合再現モードは、一試合のトラッキングデータのうち1以上の特定のシーンのトラッキングデータを用いて再現を行うハイライト再現であってもよい。仮想空間のスタジアム430で行われる、このようなハイライト再現による試合再現モードを、本明細書では、「ハイライトスタジアム」とも称する。 The exit icon 821 is an operation button for ending the match replay mode in which display control of player objects is performed based on the tracking data (specifically, bone data) of each player according to this embodiment. The match replay mode according to this embodiment may be a highlight replay in which a replay is performed using tracking data of one or more specific scenes from the tracking data of a single match. In this specification, this type of match replay mode using highlight replay, which is performed in the stadium 430 in the virtual space, is also referred to as a "highlight stadium."

通知アイコン822は、ユーザへの通知の有無を示す。例えば、通知アイコン822に通知数を示す表示が表示され、通知アイコン822がタップされると、通知一覧がポップアップ表示される。 The notification icon 822 indicates whether or not a notification has been sent to the user. For example, the notification icon 822 displays a display showing the number of notifications, and when the notification icon 822 is tapped, a list of notifications is displayed in a pop-up.

アングル変更可能ラベル823は、カメラアングルをユーザが任意に操作可能か否かを示す表示である。例えば、図27に示すカメラ位置810:Basic、およびカメラ位置810:Basicの場合、カメラアングル(すなわち視線方向)はユーザ操作可能に設定される。一方、図27に示すカメラ位置812:GK、およびカメラ位置813:Shooterの場合、カメラアングルはユーザ操作不可能に設定される。ユーザ操作可能な場合、ユーザは、画面の任意の場所を1本の指等で上下左右にドラッグまたはフリックすることで、カメラアングルを上下左右の方向に変更し得る。 The angle changeable label 823 is an indication of whether the user can arbitrarily manipulate the camera angle. For example, in the case of camera position 810: Basic and camera position 810: Basic shown in FIG. 27, the camera angle (i.e., the line of sight direction) is set to be user-operable. On the other hand, in the case of camera position 812: GK and camera position 813: Shooter shown in FIG. 27, the camera angle is set to be user-inoperable. If the camera angle is user-operable, the user can change the camera angle in the up, down, left, or right direction by dragging or flicking any location on the screen with one finger or the like in any direction.

カメラ位置切り替えアイコン824は、図27を参照して説明した多数のカメラ位置の切り替えを行うための操作ボタンである。例えば、ユーザは、カメラ位置切り替えアイコン824に含まれる、Basic、Bird’s eye、GK、およびShooterのアイコンのうち任意のアイコンをタップすることで、試合再現UI820の映像を、タップしたアイコンに対応するカメラ位置の映像に切り替えることができる。 The camera position switching icon 824 is an operation button for switching between the multiple camera positions described with reference to FIG. 27. For example, the user can tap any icon among the icons included in the camera position switching icon 824, Basic, Bird's eye, GK, and Shooter, to switch the image in the match reproduction UI 820 to an image from the camera position corresponding to the icon tapped.

アバターモード切り替えアイコン825は、試合再現の視聴モードをアバターモードに変更するための操作ボタンである。本実施形態による視聴モードには、例えば、Viewモードおよびアバターモードがある。アバターモード切り替えアイコン825が選択されていない場合、デフォルトとしてViewモードで表示される。Viewモードの場合、図28および図29に示すように、ユーザアバターは表示されない。アバターモードの場合、ユーザアバターがフィールド内に表示され、ユーザはユーザアバターを操作して自由視点で試合を視聴できる。アバターモードの表示例については、図32を参照して後述する。 The avatar mode switching icon 825 is an operation button for changing the viewing mode of the match replay to avatar mode. The viewing modes in this embodiment include, for example, View mode and avatar mode. If the avatar mode switching icon 825 is not selected, the default is displayed in View mode. In View mode, as shown in Figures 28 and 29, the user avatar is not displayed. In avatar mode, the user avatar is displayed within the field, and the user can operate the user avatar to view the match from a free viewpoint. An example of the display in avatar mode will be described later with reference to Figure 32.

ハイライトラベル826は、仮想空間のスタジアム430(図10参照)でユーザが現在利用している機能が、ハイライトスタジアム(ハイライト再現の試合再現モード)であることを示す表示である。なお、本実施形態による仮想空間のスタジアム430では、図20~図26を参照して説明した、実空間のリアルタイムの試合の展開に応じて行われる演出イベント「ライブスタジアム」の機能も利用できる。この場合、画面には例えば「LIVE VIEW」と示すラベルが表示される。 The highlight label 826 is a display indicating that the function currently being used by the user in the virtual stadium 430 (see FIG. 10) is highlight stadium (match replay mode for highlight replay). Note that in the virtual stadium 430 of this embodiment, the function of the "live stadium" presentation event, which is carried out in response to the progress of the match in real time in the real space, as described with reference to FIGS. 20 to 26, can also be used. In this case, a label indicating, for example, "LIVE VIEW" is displayed on the screen.

試合経過情報表示827は、再現している試合の得点、対戦相手、および経過時間等を示す表示である。 The match progress information display 827 shows the score, opponent, and elapsed time of the match being reproduced.

表示切り替えアイコン828は、再生インジケータ表示の切り替えを行うための操作ボタンである。表示切り替えアイコン828がタップされる度に、再生インジケータの表示ONと表示OFFが切り替えられる。再生インジケータの表示例について、図30を参照して説明する。 The display switching icon 828 is an operation button for switching the playback indicator display. Each time the display switching icon 828 is tapped, the playback indicator display is switched between ON and OFF. An example of the playback indicator display will be described with reference to FIG. 30.

図30は、本実施形態による再生インジケータの表示例を示す図である。図30に示す試合再現UI830では、表示切り替えアイコン828がタップされたことにより、画面下部に、再生インジケータ840が表示されている。なお、再生インジケータ840の表示位置は特に限定しない。再生インジケータ840は、シークバー841、5秒戻しボタン842、前チャプタージャンプボタン843、再生および停止ボタン844、スロー再生ボタン845、次チャプタージャンプボタン846、5秒送りボタン847、およびチャプターリスト表示ボタン848を含む。 Figure 30 is a diagram showing an example of the display of a playback indicator according to this embodiment. In the match replay UI 830 shown in Figure 30, when the display switch icon 828 is tapped, a playback indicator 840 is displayed at the bottom of the screen. Note that the display position of the playback indicator 840 is not particularly limited. The playback indicator 840 includes a seek bar 841, a 5-second rewind button 842, a previous chapter jump button 843, a play and stop button 844, a slow play button 845, a next chapter jump button 846, a 5-second forward button 847, and a chapter list display button 848.

シークバー841は、再現試合の再生位置を示す。また、本実施形態で再現される試合は、1以上の特定のシーン(以下、チャプター、とも称する)の集合体から成る。このため、シークバー841は、図30に示すように、チャプター毎に切れ目が示されていてもよい。 The seek bar 841 indicates the playback position of the reenacted match. Furthermore, the match reenacted in this embodiment is made up of a collection of one or more specific scenes (hereinafter also referred to as chapters). For this reason, the seek bar 841 may indicate breaks for each chapter, as shown in FIG. 30.

チャプターリスト表示ボタン848がタップされた際、チャプターリストが表示される。図31は、本実施形態によるチャプターリストの表示例を示す図である。図31に示す試合再現UI850には、チャプターリスト852が表示されている。チャプターリスト852は、本実施形態で再現される試合における、1以上の特定のシーン(チャプター)のリストを含む。ユーザは、いずれかのチャプターを選択することで、試合再現UI850で表示されている試合映像の再生時間を、選択したチャプターの再生開始時間にジャンプさせることができる。 When the chapter list display button 848 is tapped, a chapter list is displayed. FIG. 31 is a diagram showing an example of a chapter list display according to this embodiment. A chapter list 852 is displayed on the match replay UI 850 shown in FIG. 31. The chapter list 852 includes a list of one or more specific scenes (chapters) in a match replayed in this embodiment. By selecting any one of the chapters, the user can jump the playback time of the match video displayed on the match replay UI 850 to the playback start time of the selected chapter.

(アバターモード)
続いて、アバターモード切り替えアイコン825がタップされた際に実行されるアバターモードについて図32を参照して説明する。図32は、本実施形態によるアバターモードの場合の試合再現UIの表示例を示す図である。
(Avatar mode)
Next, the avatar mode executed when the avatar mode switching icon 825 is tapped will be described with reference to Fig. 32. Fig. 32 is a diagram showing an example of the display of a match reproduction UI in the avatar mode according to this embodiment.

図32に示すように、アバターモードの試合再現UI860には、ユーザアバターUが表示される。ユーザは、コントローラ521またはジャンプアイコン522を操作し、ユーザアバターUをフィールド内で動かすことができる。この際、カメラ位置(すなわちユーザ視点)は、ユーザアバターUを画角に含む位置となり、ユーザアバターUの動きに追随する。また、アバターモードの場合、カメラアングルはユーザが任意に操作可能であるため、図32に示すように、アングル変更可能ラベル823の表示態様が変化する。 As shown in FIG. 32, the match reproduction UI 860 in avatar mode displays a user avatar U. The user can operate the controller 521 or the jump icon 522 to move the user avatar U around the field. At this time, the camera position (i.e., the user's viewpoint) is a position that includes the user avatar U in its angle of view, and follows the movement of the user avatar U. In addition, in avatar mode, the user can arbitrarily operate the camera angle, so the display manner of the angle changeable label 823 changes, as shown in FIG. 32.

なお、ユーザアバターUと、選手オブジェクトおよびボール等のフィールド内の仮想オブジェクトとの当たり判定は行われない。クライアント端末10は、アバターモードの場合は、一時停止または早送り等のシーンコントロールが行えないようにしてもよい。 Note that no collision detection is performed between the user avatar U and virtual objects in the field, such as player objects and the ball. The client terminal 10 may be configured not to allow scene control, such as pausing or fast-forwarding, in the avatar mode.

(ハイライト再生)
続いて、クライアント端末10による試合の1以上の特定シーン(チャプター)を再生するハイライト再生について、図33を参照して説明する。図33は、本実施形態による試合のハイライト再生について説明する図である。
(Highlight playback)
Next, highlight playback for playing back one or more specific scenes (chapters) of a match by the client terminal 10 will be described with reference to Fig. 33. Fig. 33 is a diagram for explaining highlight playback of a match according to this embodiment.

クライアント端末10は、まず、一試合における各チャプターのInおよびOut点情報を取得する。InおよびOut点情報は、例えば、コンテンツ配信サーバ306から配信される試合コンテンツデータに含まれる。各シーンのInおよびOut点情報は、予め試合データサーバ50において試合状況から自動的に設定されてもよい。 The client terminal 10 first acquires In and Out point information for each chapter in a match. The In and Out point information is included in the match content data distributed from the content distribution server 306, for example. The In and Out point information for each scene may be automatically set in advance in the match data server 50 based on the match situation.

次いで、クライアント端末10は、試合コンテンツデータに含まれる選手およびボールのトラッキングデータのうち、シーン1のIn点を探索して再生(選手オブジェクトを動かすことによる試合再現)を開始し、シーン1のOut点まで再生を行った後に、次のシーン(シーン2)のIn点を探索して次のシーンの再生を開始する。そして、クライアント端末10は、一試合の中で設定された全てのシーン(図33に示す例ではシーン1~シーン4)を再生するまで同上のステップを繰り返す。 Next, the client terminal 10 searches for the In point of scene 1 in the tracking data of the players and the ball included in the match content data, and starts playing (recreating the match by moving the player objects), and after playing up to the Out point of scene 1, searches for the In point of the next scene (scene 2) and starts playing the next scene. The client terminal 10 then repeats the above steps until it has played all the scenes set in one match (scenes 1 to 4 in the example shown in FIG. 33).

<<6.補足>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<<6. Supplementary Information>>
Although the preferred embodiment of the present disclosure has been described in detail above with reference to the accompanying drawings, the present technology is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can conceive of various modified or amended examples within the scope of the technical ideas described in the claims, and it is understood that these also naturally belong to the technical scope of the present disclosure.

上述したクライアント端末10または仮想空間管理サーバ200に内蔵されるCPU、ROM、およびRAM等のハードウェアに、クライアント端末10または仮想空間管理サーバ200の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。 A computer program can also be created to cause the hardware, such as the CPU, ROM, and RAM, built into the client terminal 10 or the virtual space management server 200 to perform the functions of the client terminal 10 or the virtual space management server 200. A computer-readable storage medium storing the computer program is also provided.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Furthermore, the effects described in this specification are merely descriptive or exemplary and are not limiting. In other words, the technology disclosed herein may achieve other effects that are apparent to a person skilled in the art from the description in this specification, in addition to or in place of the above effects.

なお、本技術は以下のような構成も取ることができる。
(1)
仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する制御と、
ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信する制御と、
前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信する制御と、
を行う制御部を備える、情報処理システム。
(2)
前記表示オブジェクトは、実空間で行われるイベントの特定のシーンを表示する表示オブジェクトである、前記(1)に記載の情報処理システム。
(3)
前記表示オブジェクトは、実空間で行われる試合のハイライト映像を表示する表示オブジェクトである、前記(2)に記載の情報処理システム。
(4)
前記表示オブジェクトは、前記イベントにおける特定のユーザグループが応援するチームに関する情報を表示する表示オブジェクトである、前記(1)に記載の情報処理システム。
(5)
前記表示オブジェクトは、前記イベントにおける特定のユーザグループが応援するチームに関する表示オブジェクトであり、
前記特定のユーザグループに所属するユーザが使用する端末に、前記入室選択に関する情報を送信する、前記(4)に記載の情報処理システム。
(6)
前記制御部は、前記入室選択に関する情報に対するユーザ入力に基づく、前記コミュニケーションルームへのユーザの入室要求を前記端末から受信した場合、前記コミュニケーションルームで用いられる1以上の異なるコミュニケーション手段による情報を取得するための接続情報を、前記ユーザが使用する端末に送信する、前記(1)~(5)のいずれか1項に記載の情報処理システム。
(7)
前記コミュニケーション手段による情報は、前記コミュニケーションルームに入室している各ユーザの端末から発信される音声、文字、または画像の情報である、前記(6)に記載の情報処理装置。
(8)
前記コミュニケーションルームへの入室選択に関する情報は、前記コミュニケーションルームの生成を行うサーバに接続するための情報を含む、前記(1)~(7)のいずれか1項に記載の情報処理システム。
(9)
前記サーバは、前記コミュニケーションルームに入室しているユーザに関する情報を、各ユーザの端末に送信する制御を行う、前記(8)に記載の情報処理システム。
(10)
前記制御部は、前記コミュニケーションルームで視聴される配信コンテンツに関する情報を、前記ユーザの端末に送信する制御を行う、前記(1)~(9)のいずれか1項に記載の情報処理システム。
(11)
前記配信コンテンツに関する情報は、前記配信コンテンツを指定する情報、および前記配信コンテンツが配信されているコンテンツ配信サーバに接続するための情報を含む、前記(10)に記載の情報処理システム。
(12)
前記制御部は、前記ユーザの端末で表示されるコミュニケーションルーム画面に表示されるユーザアバターの表示に関する情報を、前記ユーザの端末から受信し、前記コミュニケーションルームに入室している他のユーザの端末にリアルタイムで送信する、前記(1)~(11)のいずれか1項に記載の情報処理システム。
(13)
前記ユーザアバターの表示に関する情報は、前記ユーザアバターを動かすエモート情報、または前記ユーザアバターの近くに表示され、感情表現を示す画像であるスタンプ情報を含む、前記(12)に記載の情報処理システム。
(14)
前記制御部は、前記コミュニケーションポイントから所定距離内に、前記ユーザに対応するユーザアバターが移動した場合、前記コミュニケーションルームへの入室意思を認識し、前記コミュニケーションルームへ入室するための接続情報を、前記ユーザの端末に送信する制御を行う、前記(1)~(13)のいずれか1項に記載の情報処理システム。
(15)
前記制御部は、前記ユーザが前記コミュニケーションルームに入室した際に、コミュニケーションルーム画面に遷移するよう前記ユーザの端末に指示する制御を行う、前記(1)~(14)のいずれか1項に記載の情報処理システム。
(16)
前記コミュニケーションルーム画面には、前記コミュニケーションルームに入室しているユーザのユーザアバターが表示される、前記(15)に記載の情報処理システム。
(17)
前記ユーザアバターの付近に、当該ユーザアバターに対応するユーザが入力した文字またはスタンプ画像が表示される、前記(16)に記載の情報処理システム。
(18)
前記コミュニケーションルーム画面には、コンテンツが表示される、前記(15)~(17)のいずれか1項に記載の情報処理システム。
(19)
プロセッサが、
仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置することと、
ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信することと、
前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信することと、
を含む、情報処理方法。
(20)
コンピュータを、
仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する制御と、
ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信する制御と、
前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信する制御と、
を行う制御部として機能させる、プログラム。
(21)
ユーザがイベントの配信映像を視聴可能な仮想空間内に、実空間で行われるイベントの配信映像を配置し、
前記実空間で行われるイベントの展開と、複数ユーザのリアクションとに応じて、前記仮想空間内において、前記複数ユーザが体験するイベント連動した演出を決定する制御部、を備える、情報処理システム。
(22)
前記演出は、前記複数ユーザのリアクションの量に応じて決定される、前記(21)に記載の情報処理システム。
(23)
前記演出は、前記複数ユーザのリアクションの中でも、リアクション量が最も多いリアクションに基づいて決定される、前記(21)~(22)のいずれか1項に記載の情報処理システム。
(24)
前記演出は、アバターのエモートであって、前記仮想空間に存在する1以上のアバターに前記エモートが反映される、前記(21)に記載の情報処理システム。
(25)
前記アバターのエモートは、前記仮想空間に存在する無操作状態のアバターに反映される、前記(24)に記載の情報処理システム。
(26)
前記アバターのエモートは、前記仮想空間に存在するNPCに反映される、前記(24)に記載の情報処理システム。
(27)
前記複数ユーザのリアクションは、一つの仮想空間に存在するアバターを操作するユーザのリアクション情報、複数の仮想空間に各々存在する各アバターを操作するユーザのリアクション情報、イベントを実空間で体験しているユーザのリアクション情報のうち、少なくともいずれかのリアクションを含む、前記(21)~(26)のいずれか1項に記載の情報処理システム。
The present technology can also be configured as follows.
(1)
Control of arranging, within the virtual space, virtual objects including a display object that displays information related to an event taking place in the real space or the virtual space that is the subject of a conversation within the communication room;
a control for transmitting information regarding a selection to enter the communication room to a terminal used by the user when a position of an avatar operated by a user in the virtual space is included in a first area that is a communication point associated with the communication room where communication between users takes place;
a control for transmitting information related to the communication to the terminal when a position of the avatar in the virtual space is included in a second area located outside the first area;
An information processing system comprising a control unit that performs the above.
(2)
The information processing system according to (1), wherein the display object is a display object that displays a specific scene of an event taking place in a real space.
(3)
The information processing system according to (2), wherein the display object is a display object that displays highlight footage of a match taking place in real space.
(4)
The information processing system according to (1), wherein the display object is a display object that displays information about a team that a specific user group supports in the event.
(5)
the display object is a display object related to a team supported by a specific user group in the event;
The information processing system according to (4), further comprising transmitting information regarding the selection of entry to a terminal used by a user belonging to the specific user group.
(6)
The information processing system described in any one of (1) to (5), wherein when the control unit receives from the terminal a user's request to enter the communication room based on user input regarding information regarding the entry selection, the control unit sends connection information to the terminal used by the user to obtain information via one or more different communication means used in the communication room.
(7)
The information processing device according to (6), wherein the information by the communication means is voice, text, or image information transmitted from the terminals of the users present in the communication room.
(8)
The information processing system according to any one of (1) to (7), wherein the information regarding the selection of entry into the communication room includes information for connecting to a server that generates the communication room.
(9)
The information processing system according to (8), wherein the server controls the transmission of information about users who have entered the communication room to the terminals of each user.
(10)
The information processing system according to any one of (1) to (9), wherein the control unit controls the transmission of information regarding the distribution content being viewed in the communication room to the user's terminal.
(11)
The information processing system according to (10), wherein the information relating to the distribution content includes information for specifying the distribution content and information for connecting to a content distribution server to which the distribution content is distributed.
(12)
The information processing system described in any one of (1) to (11), wherein the control unit receives information regarding the display of a user avatar displayed on a communication room screen displayed on the user's terminal from the user's terminal and transmits it in real time to the terminals of other users who have entered the communication room.
(13)
The information processing system according to (12), wherein the information relating to the display of the user avatar includes emote information for moving the user avatar, or stamp information which is an image displayed near the user avatar and indicates an emotional expression.
(14)
The information processing system described in any one of (1) to (13), wherein the control unit recognizes the intention to enter the communication room when a user avatar corresponding to the user moves within a predetermined distance from the communication point, and controls the transmission of connection information for entering the communication room to the user's terminal.
(15)
The information processing system described in any one of (1) to (14), wherein the control unit controls the user's terminal to instruct the user to transition to a communication room screen when the user enters the communication room.
(16)
The information processing system according to (15), wherein the communication room screen displays user avatars of users who have entered the communication room.
(17)
The information processing system according to (16), wherein characters or a stamp image input by a user corresponding to the user avatar are displayed near the user avatar.
(18)
The information processing system according to any one of (15) to (17), wherein content is displayed on the communication room screen.
(19)
The processor:
Placing virtual objects in the virtual space, the virtual objects including display objects that display information related to an event taking place in the real space or the virtual space that is the subject of a conversation in the communication room;
When a position of an avatar operated by a user in the virtual space is included in a first area which is a communication point associated with the communication room where communication between users takes place, transmitting information regarding a selection to enter the communication room to a terminal used by the user;
When a position of the avatar in the virtual space is included in a second area located outside the first area, transmitting information related to the communication to the terminal;
An information processing method comprising:
(20)
Computer,
Control of arranging, within the virtual space, virtual objects including a display object that displays information related to an event taking place in the real space or the virtual space that is the subject of a conversation within the communication room;
a control for transmitting information regarding a selection to enter the communication room to a terminal used by the user when a position of an avatar operated by a user in the virtual space is included in a first area which is a communication point associated with the communication room where communication between users takes place;
a control for transmitting information related to the communication to the terminal when a position of the avatar in the virtual space is included in a second area located outside the first area;
A program that functions as a control unit to perform the above.
(21)
A streaming video of an event taking place in a real space is placed in a virtual space where a user can view the streaming video of the event;
An information processing system comprising: a control unit that determines an event-linked presentation to be experienced by the multiple users in the virtual space in accordance with the development of an event taking place in the real space and the reactions of the multiple users.
(22)
The information processing system described in (21), wherein the performance is determined according to the amount of reaction from the multiple users.
(23)
The information processing system according to any one of (21) to (22), wherein the performance is determined based on the reaction having the largest amount of reaction among the reactions of the multiple users.
(24)
The information processing system according to (21), wherein the effect is an emote of an avatar, and the emote is reflected in one or more avatars existing in the virtual space.
(25)
The information processing system according to (24), wherein the emote of the avatar is reflected in an avatar in a non-operated state existing in the virtual space.
(26)
The information processing system described in (24), wherein the avatar's emote is reflected in an NPC present in the virtual space.
(27)
The information processing system described in any one of (21) to (26), wherein the reactions of the multiple users include at least any of the following reactions: reaction information of a user operating an avatar existing in one virtual space, reaction information of users operating avatars existing in multiple virtual spaces, and reaction information of a user experiencing an event in real space.

20 仮想空間システム
200(200a、200b、200c・・・) 仮想空間管理サーバ
210 通信部
220 制御部
221 仮想空間管理部
222 コンテンツ管理部
223 ユーザ管理部
230 記憶部
10 クライアント端末
110 通信部
120 制御部
121 仮想空間処理部
122 表示制御部
130 操作入力部
140 センサ
150 表示部
160 音声出力部
170 記憶部
30 バックエンドシステム
301 ユーザ情報管理サーバ
302 ホスティングサーバ
303 マッチングサーバ
304 テキストチャットサーバ
305 ボイスチャットサーバ
306 コンテンツ配信サーバ
307 トーキングテーブルサーバ
308 イベント連動サーバ
309 売買管理サーバ
310 データ分析サーバ
20 Virtual space system 200 (200a, 200b, 200c, ...) Virtual space management server 210 Communication unit 220 Control unit 221 Virtual space management unit 222 Content management unit 223 User management unit 230 Memory unit 10 Client terminal 110 Communication unit 120 Control unit 121 Virtual space processing unit 122 Display control unit 130 Operation input unit 140 Sensor 150 Display unit 160 Audio output unit 170 Memory unit 30 Back-end system 301 User information management server 302 Hosting server 303 Matching server 304 Text chat server 305 Voice chat server 306 Content distribution server 307 Talking table server 308 Event linkage server 309 Trading management server 310 Data analysis server

Claims (20)

仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する制御と、
ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信する制御と、
前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信する制御と、
を行う制御部を備える、情報処理システム。
Control of arranging, within the virtual space, virtual objects including a display object that displays information related to an event taking place in the real space or the virtual space that is the subject of a conversation within the communication room;
a control for transmitting information regarding a selection to enter the communication room to a terminal used by the user when a position of an avatar operated by a user in the virtual space is included in a first area that is a communication point associated with the communication room where communication between users takes place;
a control for transmitting information related to the communication to the terminal when a position of the avatar in the virtual space is included in a second area located outside the first area;
An information processing system comprising a control unit that performs the above.
前記表示オブジェクトは、実空間で行われるイベントの特定のシーンを表示する表示オブジェクトである、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the display object is a display object that displays a specific scene of an event taking place in real space. 前記表示オブジェクトは、実空間で行われる試合のハイライト映像を表示する表示オブジェクトである、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the display object is a display object that displays highlight footage of a match taking place in real space. 前記表示オブジェクトは、前記イベントにおける特定のユーザグループが応援するチームに関する情報を表示する表示オブジェクトである、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the display object is a display object that displays information about a team that a specific user group supports in the event. 前記表示オブジェクトは、前記イベントにおける特定のユーザグループが応援するチームに関する表示オブジェクトであり、
前記特定のユーザグループに所属するユーザが使用する端末に、前記入室選択に関する情報を送信する、請求項4に記載の情報処理システム。
the display object is a display object related to a team supported by a specific user group in the event;
The information processing system according to claim 4 , further comprising: transmitting information regarding said selection of room entry to a terminal used by a user belonging to said specific user group.
前記制御部は、前記入室選択に関する情報に対するユーザ入力に基づく、前記コミュニケーションルームへのユーザの入室要求を前記端末から受信した場合、前記コミュニケーションルームで用いられる1以上の異なるコミュニケーション手段による情報を取得するための接続情報を、前記ユーザが使用する端末に送信する、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein when the control unit receives from the terminal a user's request to enter the communication room based on the user's input regarding the entry selection information, the control unit transmits connection information for acquiring information by one or more different communication means used in the communication room to the terminal used by the user. 前記コミュニケーション手段による情報は、前記コミュニケーションルームに入室している各ユーザの端末から発信される音声、文字、または画像の情報である、請求項6に記載の情報処理システム。 The information processing system according to claim 6, wherein the information from the communication means is voice, text, or image information transmitted from the terminals of each user who is in the communication room. 前記コミュニケーションルームへの入室選択に関する情報は、前記コミュニケーションルームの生成を行うサーバに接続するための情報を含む、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the information regarding the selection of entry into the communication room includes information for connecting to a server that generates the communication room. 前記サーバは、前記コミュニケーションルームに入室しているユーザに関する情報を、各ユーザの端末に送信する制御を行う、請求項8に記載の情報処理システム。 The information processing system according to claim 8, wherein the server controls the transmission of information about users who have entered the communication room to the terminals of each user. 前記制御部は、前記コミュニケーションルームで視聴される配信コンテンツに関する情報を、前記ユーザの端末に送信する制御を行う、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the control unit controls the transmission of information about the distributed content being viewed in the communication room to the user's terminal. 前記配信コンテンツに関する情報は、前記配信コンテンツを指定する情報、および前記配信コンテンツが配信されているコンテンツ配信サーバに接続するための情報を含む、請求項10に記載の情報処理システム。 The information processing system according to claim 10, wherein the information relating to the distribution content includes information specifying the distribution content and information for connecting to a content distribution server to which the distribution content is distributed. 前記制御部は、前記ユーザの端末で表示されるコミュニケーションルーム画面に表示されるユーザアバターの表示に関する情報を、前記ユーザの端末から受信し、前記コミュニケーションルームに入室している他のユーザの端末にリアルタイムで送信する、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the control unit receives information about the display of a user avatar displayed on a communication room screen displayed on the user's terminal from the user's terminal and transmits the information in real time to the terminals of other users who are in the communication room. 前記ユーザアバターの表示に関する情報は、前記ユーザアバターを動かすエモート情報、または前記ユーザアバターの近くに表示され、感情表現を示す画像であるスタンプ情報を含む、請求項12に記載の情報処理システム。 The information processing system according to claim 12, wherein the information relating to the display of the user avatar includes emote information for moving the user avatar, or stamp information that is an image displayed near the user avatar and indicates an emotional expression. 前記制御部は、前記コミュニケーションポイントから所定距離内に、前記ユーザに対応するユーザアバターが移動した場合、前記コミュニケーションルームへの入室意思を認識し、前記コミュニケーションルームへ入室するための接続情報を、前記ユーザの端末に送信する制御を行う、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the control unit recognizes an intention to enter the communication room when a user avatar corresponding to the user moves within a predetermined distance from the communication point, and controls the transmission of connection information for entering the communication room to the user's terminal. 前記制御部は、前記ユーザが前記コミュニケーションルームに入室した際に、コミュニケーションルーム画面に遷移するよう前記ユーザの端末に指示する制御を行う、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the control unit controls the user's terminal to transition to a communication room screen when the user enters the communication room. 前記コミュニケーションルーム画面には、前記コミュニケーションルームに入室しているユーザのユーザアバターが表示される、請求項15に記載の情報処理システム。 The information processing system of claim 15, wherein the communication room screen displays user avatars of users who have entered the communication room. 前記ユーザアバターの付近に、当該ユーザアバターに対応するユーザが入力した文字またはスタンプ画像が表示される、請求項16に記載の情報処理システム。 The information processing system according to claim 16, wherein text or a stamp image input by a user corresponding to the user avatar is displayed near the user avatar. 前記コミュニケーションルーム画面には、コンテンツが表示される、請求項15に記載の情報処理システム。 The information processing system of claim 15, wherein the communication room screen displays content. プロセッサが、
仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置することと、
ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信することと、
前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信することと、
を含む、情報処理方法。
The processor:
Placing virtual objects in the virtual space, the virtual objects including display objects that display information related to an event taking place in the real space or the virtual space that is the subject of a conversation in the communication room;
When a position of an avatar operated by a user in the virtual space is included in a first area which is a communication point associated with the communication room where communication between users takes place, transmitting information regarding a selection to enter the communication room to a terminal used by the user;
When a position of the avatar in the virtual space is included in a second area located outside the first area, transmitting information related to the communication to the terminal;
An information processing method comprising:
コンピュータを、
仮想空間内に、コミュニケーションルーム内の会話対象である実空間または仮想空間で行われるイベントに関連する情報を表示する表示オブジェクトを含む仮想オブジェクトを配置する制御と、
ユーザが操作するアバターの前記仮想空間内における位置が、ユーザ同士のコミュニケーションが行われる前記コミュニケーションルームが対応付けられるコミュニケーションポイントである第1のエリアに含まれる場合は、前記コミュニケーションルームへの入室選択に関する情報を前記ユーザが使用する端末に送信する制御と、
前記アバターの前記仮想空間内における位置が、前記第1のエリアの外側に位置する第2のエリアに含まれる場合は、前記コミュニケーションに関する情報を、前記端末に送信する制御と、
を行う制御部として機能させる、プログラム。
Computer,
Control of arranging, within the virtual space, virtual objects including a display object that displays information related to an event taking place in the real space or the virtual space that is the subject of a conversation within the communication room;
a control for transmitting information regarding a selection to enter the communication room to a terminal used by the user when a position of an avatar operated by a user in the virtual space is included in a first area that is a communication point associated with the communication room where communication between users takes place;
a control for transmitting information related to the communication to the terminal when a position of the avatar in the virtual space is included in a second area located outside the first area;
A program that functions as a control unit to perform the above.
JP2022181346A 2022-11-11 2022-11-11 Information processing system, information processing method, and program Pending JP2024070696A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022181346A JP2024070696A (en) 2022-11-11 2022-11-11 Information processing system, information processing method, and program
PCT/JP2023/034046 WO2024101001A1 (en) 2022-11-11 2023-09-20 Information processing system, information processing method, and program for communication points regarding events

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022181346A JP2024070696A (en) 2022-11-11 2022-11-11 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024070696A true JP2024070696A (en) 2024-05-23

Family

ID=88297167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022181346A Pending JP2024070696A (en) 2022-11-11 2022-11-11 Information processing system, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2024070696A (en)
WO (1) WO2024101001A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4884918B2 (en) * 2006-10-23 2012-02-29 株式会社野村総合研究所 Virtual space providing server, virtual space providing system, and computer program
KR101527993B1 (en) * 2008-04-05 2015-06-10 소우셜 커뮤니케이션즈 컴퍼니 Shared virtual area communication environment based apparatus and methods
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US11159766B2 (en) * 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
US11700353B2 (en) * 2020-04-06 2023-07-11 Eingot Llc Integration of remote audio into a performance venue
WO2022170223A1 (en) * 2021-02-08 2022-08-11 Multinarity Ltd User interactions in extended reality
US11589008B2 (en) * 2020-10-19 2023-02-21 Sophya Inc. Systems and methods for triggering livestream communications between users based on motions of avatars within virtual environments that correspond to users

Also Published As

Publication number Publication date
WO2024101001A1 (en) 2024-05-16

Similar Documents

Publication Publication Date Title
JP6700463B2 (en) Filtering and parental control methods for limiting visual effects on head mounted displays
US11571620B2 (en) Using HMD camera touch button to render images of a user captured during game play
US11436803B2 (en) Insertion of VR spectator in live video of a live event
CN111201069B (en) Spectator view of interactive game world presented in live event held in real world site
CN109069934B (en) Audience view tracking of virtual reality environment (VR) users in a VR
CN109069932B (en) Viewing Virtual Reality (VR) environment associated with VR user interactivity
US10380798B2 (en) Projectile object rendering for a virtual reality spectator
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JP6776400B1 (en) Programs, methods, and information terminals
TW201250577A (en) Computer peripheral display and communication device providing an adjunct 3D user interface
WO2024114518A1 (en) Display control method, display control apparatus, and electronic device
WO2022006118A1 (en) Modifying computer simulation video template based on feedback
US20230368464A1 (en) Information processing system, information processing method, and information processing program
US11845012B2 (en) Selection of video widgets based on computer simulation metadata
JP2024070696A (en) Information processing system, information processing method, and program
WO2022006124A1 (en) Generating video clip of computer simulation from multiple views
JP2021010756A (en) Program, method, and information terminal device
WO2022113335A1 (en) Method, computer-readable medium, and information processing device
WO2022113330A1 (en) Method, computer-readable medium, and information processing device
WO2022137343A1 (en) Information processing method, computer-readable medium, and information processing device
WO2022137523A1 (en) Game method, computer-readable medium, and information processing device
US11554324B2 (en) Selection of video template based on computer simulation metadata
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
WO2022137375A1 (en) Method, computer-readable medium, and information processing device
US20240114181A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230221