WO2022107880A1 - コンピュータプログラム、方法、及び、サーバ装置 - Google Patents
コンピュータプログラム、方法、及び、サーバ装置 Download PDFInfo
- Publication number
- WO2022107880A1 WO2022107880A1 PCT/JP2021/042600 JP2021042600W WO2022107880A1 WO 2022107880 A1 WO2022107880 A1 WO 2022107880A1 JP 2021042600 W JP2021042600 W JP 2021042600W WO 2022107880 A1 WO2022107880 A1 WO 2022107880A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- terminal
- avatar
- user
- display
- Prior art date
Links
- 238000004590 computer program Methods 0.000 title claims abstract description 196
- 238000000034 method Methods 0.000 title claims abstract description 179
- 238000004891 communication Methods 0.000 claims abstract description 176
- 238000012545 processing Methods 0.000 claims description 141
- 230000008569 process Effects 0.000 claims description 83
- 230000033001 locomotion Effects 0.000 claims description 36
- 230000009471 action Effects 0.000 claims description 21
- 230000008520 organization Effects 0.000 claims description 19
- 230000001419 dependent effect Effects 0.000 claims description 18
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 47
- 238000004458 analytical method Methods 0.000 description 36
- 230000006399 behavior Effects 0.000 description 25
- 238000010079 rubber tapping Methods 0.000 description 20
- 239000003795 chemical substances by application Substances 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 10
- 230000009191 jumping Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000037237 body shape Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000001747 exhibiting effect Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000037308 hair color Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000005055 memory storage Effects 0.000 description 3
- 229910044991 metal oxide Inorganic materials 0.000 description 3
- 150000004706 metal oxides Chemical class 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1827—Network arrangements for conference optimisation or adaptation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/87—Communicating with other players during game play, e.g. by e-mail or chat
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Definitions
- This disclosure relates to computer programs, methods, and server devices.
- Patent Document 1 As the number of users viewing the content increases, the number of icons displayed on the terminal also increases. Therefore, there is a problem that the load of display control on the terminal increases as the number of users who view the content increases.
- Patent Document 1 is incorporated herein by reference in its entirety.
- the present disclosure provides a computer program, a method, and a server device that reduce the possibility that the load of display control becomes larger than before.
- the computer program is a computer program executed by at least one processor, and acquires first data regarding an avatar in a virtual space operated by using a terminal of a first user, and obtains first data, via a communication line. Then, the second data regarding the avatar in the virtual space operated by using the terminal of each user of at least one user other than the first user is received, and the first data is the avatar of the first user.
- the second data includes the position, and the second data is at least one of the position of the avatar of the at least one user and the total number of avatars of the avatar of the at least one user located in the first region in the virtual space.
- the position of the avatar of the first user or the second data determines whether or not the predetermined condition is satisfied, and when it is determined that the predetermined condition is satisfied, the first user.
- the control data for controlling the display screen of the terminal is determined, and the at least one processor is made to function so as to control the display screen based on the control data.
- the computer program is a computer program executed by at least one processor, and is a first data regarding an avatar in a virtual space operated by a first user's terminal via a communication line, and a first data.
- the second data regarding the avatar in the virtual space operated by using the terminal of each user of at least one user other than the first user is received, and the first data is the position of the avatar of the first user.
- the second data includes at least one of the positions of the avatars of the at least one user and the total number of avatars of the avatars of the at least one user located in the first region in the virtual space.
- the position of the avatar of the first user or the second data determines whether or not the predetermined condition is satisfied, and when it is determined that the predetermined condition is satisfied, the first user's avatar
- the at least one processor is made to function so as to determine the control data that controls the display screen of the terminal and transmit the control data to the terminal of the first user via the communication line.
- the method includes a step of acquiring first data regarding an avatar in a virtual space operated by using a terminal of the first user, and a step of acquiring at least one user other than the first user via a communication line.
- the step of receiving the second data regarding the avatar in the virtual space operated by using the terminal of each user, the first data includes the position of the avatar of the first user, and the second data is the above.
- the method according to one aspect is the first data regarding the avatar in the virtual space operated by using the terminal of the first user via the communication line, and each user of at least one user other than the first user.
- the step of receiving the second data regarding the avatar in the virtual space operated by using the terminal, the first data includes the position of the avatar of the first user, and the second data is at least one of the above. Includes at least one of the position of the user's avatar and the total number of avatars located in the first region of the virtual space among the at least one user's avatar, and the position of the first user's avatar, or.
- the server device is the first data regarding the avatar in the virtual space operated by the terminal of the first user via the communication line, and each of at least one user other than the first user.
- the second data regarding the avatar in the virtual space operated by using the user's terminal is received, the first data includes the position of the avatar of the first user, and the second data is the at least one user.
- the position of the avatar of the first user, and the position of the avatar of the first user including at least one of the position of the avatar and the total number of avatars located in the first region in the virtual space among the avatars of the at least one user.
- control data for controlling the display screen of the terminal of the first user is determined, and the control data is determined.
- the control data is transmitted to the terminal of the first user via a communication line.
- FIG. 1 is a block diagram showing an example of the configuration of the system 1000 according to the embodiment.
- FIG. 2 is a block diagram showing an example of the configuration of the terminal 10 and the server device 20 shown in FIG.
- FIG. 3 is a block diagram showing an example of the function of the terminal 10 shown in FIG.
- FIG. 4 is a block diagram showing an example of the function of the server device 20 shown in FIG.
- FIG. 5 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 6 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 7 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 8 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 1 is a block diagram showing an example of the configuration of the system 1000 according to the embodiment.
- FIG. 2 is a block diagram showing an example of the configuration of the terminal 10 and the server device 20 shown in FIG.
- FIG. 9 is an example of a flowchart showing the processing performed in the present embodiment.
- FIG. 10 is an example of a flowchart showing the processing performed in the present embodiment.
- FIG. 11 shows an example of data transmitted from the terminal 10.
- FIG. 12 shows an example of the number of avatars displayed on the display unit 140 of the terminal 10.
- FIG. 13 shows an example of the number of avatars displayed on the display unit 140 of the terminal 10.
- FIG. 14 is a block diagram showing an example of the terminal 10 shown in FIG. 1 and the function of the configuration connected to the terminal 10.
- FIG. 15 is a block diagram showing a calculation environment 1400.
- FIG. 16 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 17 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 16 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 18 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 19 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 20 is an example of a flowchart showing the processing performed in the present embodiment.
- FIG. 21 is an example of a flowchart showing the processing performed in the present embodiment.
- FIG. 22 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 23 is a plan view showing an example of the layout in the virtual space 300.
- FIG. 24 is a plan view showing an example of the layout in the virtual space 300.
- FIG. 25 is a plan view showing an example of the layout in the virtual space 300.
- FIG. 26 is an example of a flowchart showing the processing performed in the present embodiment.
- FIG. 27 is an example of a flowchart showing the processing performed in the present embodiment.
- the various systems, methods and devices described herein should not be construed as being limited by any method. In practice, the present disclosure is among the various embodiments disclosed, each of which is a combination of these various embodiments, and one of which is a combination of some of these various embodiments. It is aimed at all new features and aspects.
- the various systems, methods and devices described herein are not limited to, and are not limited to, a particular aspect, a particular feature, or a combination of such particular aspect and a particular feature.
- the objects and methods described in do not require the existence of one or more specific effects or the resolution of the problem.
- various features or embodiments of the various embodiments described herein, or some of such features or embodiments may be used in combination with each other.
- any of the various methods disclosed herein are computer-readable one or more media (eg, one or more optical media discs, multiple volatile memory components, or multiple non-volatile media). It can be implemented using multiple computer-executable instructions stored in a non-volatile computer-readable storage medium, such as a sex memory component, and can also be executed in the computer.
- the plurality of volatile memory components include, for example, DRAM or SRAM.
- the plurality of non-volatile memory components include, for example, a hard drive and a solid state drive (SSD).
- the computer includes any computer available on the market, including, for example, smartphones and other mobile devices with hardware for performing calculations.
- Any of such computer-executable instructions for implementing the techniques disclosed herein are generated and used during the implementation of the various embodiments disclosed herein.
- Any data may be stored on one or more computer-readable media (eg, a non-transitory computer-readable storage medium).
- Multiple instructions that can be executed by such a computer can be, for example, part of a separate software application, or accessed or downloaded via a web browser or other software application (such as a remote computing application).
- Such software can be used in a network environment, for example, on a single local computer (eg, as an agent running on any suitable computer available on the market), or with one or more network computers. It can be performed on (eg, the Internet, wide area networks, local area networks, client server networks (such as cloud computing networks), or other such networks).
- Such suitable means of communication include, for example, the Internet, worldwide web, intranets, software applications, cables (including fiber optic cables), magnetic communications, electromagnetic communications (including RF communications, microwave communications, infrared communications), and the like. Includes electronic communication, or other such means of communication.
- the configuration diagram 1 of the system 1000 is a block diagram showing an example of the configuration of the system 1000 according to the embodiment.
- the system 1000 includes, for example, a plurality of terminals 10 connected to a communication line (communication network) (not shown), and one or a plurality of server devices 20 connected to the communication line.
- the terminal 10 includes a first terminal 11 and a second terminal 12.
- the server device 20 includes, for example, a first server system 21 and a second server system 22.
- Communication lines include mobile network, wireless network (for example, RF connection via Bluetooth, WiFi, WiMax, cellular, satellite, laser, infrared, etc.), fixed telephone network. , Internet, intranet, local area network (LAN), wide area network (WAN), and / or Ethernet network can be included without limitation.
- wireless network for example, RF connection via Bluetooth, WiFi, WiMax, cellular, satellite, laser, infrared, etc.
- fixed telephone network for example, fixed telephone network.
- Internet intranet, local area network (LAN), wide area network (WAN), and / or Ethernet network can be included without limitation.
- Terminal 10 The terminal 10 is connected to one or more server devices 20 via, for example, a communication line.
- the terminal 10 is, for example, a smartphone, a tablet device, and / or a personal computer.
- the terminal 10 is configured so that, for example, a predetermined application can be installed and the predetermined application can be executed.
- the terminal 10 outputs a web page (for example, an HTML document, in some examples, an HTML document encoded an executable code such as Javascript or PHP code) from the server device 20 (second server system 22). Can be received.
- a web page for example, an HTML document, in some examples, an HTML document encoded an executable code such as Javascript or PHP code
- FIG. 1 shows an example in which, for example, a first terminal 11 and a second terminal 12 are provided as a plurality of terminals 10, but the present invention is not limited thereto.
- the plurality of terminals 10 may include, for example, three or more terminals.
- the first terminal 11 and the second terminal 12 may be collectively referred to as a terminal 10.
- the first server system 21 includes a distribution server device 21A1 and a server storage device 21A2.
- the distribution server device 21A1 receives, for example, the data required for the application executed in the terminal 10 from the terminal 10. Further, the distribution server device 21A1 transmits, for example, data used for an application executed in the terminal 10 to the terminal 10 in response to the request.
- the server storage device 21A2 stores, for example, data to be transmitted from the distribution server device 21A1 to the terminal 10. Further, the server storage device 21A2 stores, for example, the data received from the terminal 10 by the distribution server device 21A1. Further, the first server system 21 transmits, for example, data used in an application executed by the terminal 10 to the terminal 10. Further, the first server system 21 transmits, for example, the data received from the terminal 10 to the device 70.
- the present invention is not limited to this.
- a web browser installed on the terminal 10 may be used to execute a process equivalent to executing the application.
- the server device 20 may include a web server (not shown).
- the web server transmits data related to HTML documents such as HTML5, and the terminal 10 displays data related to the HTML document using the web browser.
- User instruction data is transmitted to the terminal 10 (the web browser), and the server device 20 controls the display.
- the server device 20 generates display data by performing the display control, and transmits the display data to the terminal 10 (the web browser).
- the display may be controlled by using a script such as Javascript (registered trademark) in the web browser.
- the first server system 21 includes a distribution server device 21A1 and a server storage device 21A2 has been described, but the present invention is not limited thereto.
- the first server system 21 may include other configurations in addition to the distribution server device 21A1 and the server storage device 21A2.
- the other configuration may have at least one of the functions of the distribution server device 21A1 and the server storage device 21A2.
- the first server system 21 may be configured by a single configuration including the functions of the distribution server device 21A1 and the server storage device 21A2.
- the second server system 22 is a server that transmits data related to the content to the terminal 10.
- the user operates the terminal 10 to execute the application.
- the second server system 22 transmits the data related to the content to the terminal 10.
- the data related to the content transmitted from the second server system 22 to the terminal 10 is, for example, data related to moving images.
- the device 70 (third terminal) is, for example, a terminal operated by an operator or an operating organization that operates a virtual venue.
- the device 70 transmits predetermined data to the first server system 20 and receives predetermined data transmitted from the first server system 20.
- the specific configuration of the device 70 will be described later.
- FIG. 2 is a block diagram showing an example of the hardware configuration of the terminal 10 (server device 20) shown in FIG.
- FIG. 2 reference numerals in parentheses are described in relation to the server device 20 as described later.
- each terminal 10 includes, for example, a central processing unit 14, a main storage device 15, an input / output interface device 16, an input device 17, an auxiliary storage device 18, and an output device 19.
- the configurations shown in FIG. 2 are connected by a data bus and / or a control bus.
- the central processing unit 14 is called a "CPU", performs an operation on instructions and data stored in the main storage device 15, and stores the result of the operation in the main storage device 15. Further, the central processing unit 14 can control the input device 17, the auxiliary storage device 18, the output device 19, and the like via the input / output interface device 16.
- the terminal 10 can include one or more such central processing units 14.
- the main storage device 15 is referred to as a “memory”, and commands and data received from the input device 17, the auxiliary storage device 18 and the communication line 30 (server device 20 and the like) via the input / output interface device 16 and the central processing unit.
- the calculation result of the processing device 14 is stored.
- the main storage device 15 includes volatile memory (eg, register, cache, random access memory (RAM)), non-volatile memory (eg, read-only memory (ROM), EEPROM, flash memory), and storage (eg, hard disk).
- Computer-readable media such as drives (HDDs), solid state drives (SSDs), magnetic tapes, optical media) can be included without limitation.
- the term "computer-readable recording medium” is used for data storage such as memory and storage rather than transmission media such as modulated data signals or transient signals. Can include media.
- the input device 17 is a device that captures data from the outside, and includes, without limitation, a touch panel, a button, a keyboard, a mouse, and / or a sensor.
- the sensor may include, without limitation, a sensor including one or more cameras and / or one or more microphones and the like.
- the auxiliary storage device 18 is a storage device having a larger capacity than the main storage device 15. Instructions and data (computer programs) constituting the above-mentioned specific application (video distribution application, video viewing application, etc.), web browser application, and the like can be stored. Further, the auxiliary storage device 18 can transmit these instructions and data (computer programs) to the main storage device 15 via the input / output interface device 16 by being controlled by the central processing unit 14.
- the auxiliary storage device 18 may include, without limitation, a magnetic disk device and / or an optical disk device and the like.
- the output device 19 can include a display device, a touch panel, and / or a printer device without limitation.
- the central processing unit 14 sequentially loads the instructions and data (computer programs) that configure the specific application stored in the auxiliary storage device 18 into the main storage device 15.
- the central processing unit 14 controls the output device 19 via the input / output interface device 16 by computing the loaded instructions and data, or also via the input / output interface device 16 and the communication line 2.
- Various data can be transmitted and received to and from the device (for example, the server device 20, another terminal 10).
- each server device 20 A hardware configuration example of each server device 20 will be described with reference to FIG. As the hardware configuration of each server device 20 (each of the distribution server device 21A1 and the server storage device 21A2), for example, the same hardware configuration as that of each terminal 10 described above can be used. Therefore, reference numerals for the components of each server device 20 are shown in parentheses in FIG.
- each server device 20 mainly includes a central processing unit 24, a main storage device 25, an input / output interface device 26, an input device 27, an auxiliary storage device 28, and an output device 29. , Can be included. These devices are connected to each other by a data bus and / or a control bus.
- the central processing device 24, the main storage device 25, the input / output interface device 26, the input device 27, the auxiliary storage device 28, and the output device 29 are included in each of the above-mentioned terminals 10, respectively. It can be substantially the same as the device 15, the input / output interface device 16, the input device 17, the auxiliary storage device 18, and the output device 19.
- the central processing unit 24 sequentially loads the instructions and data (computer programs) that configure the specific application stored in the auxiliary storage device 28 into the main storage device 25.
- the central processing unit 24 controls the output device 29 via the input / output interface device 26 by calculating the loaded instructions and data, or also via the input / output interface device 26 and the communication line 2.
- Various data can be transmitted and received to and from the device (for example, each terminal 10).
- server device 20 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of the central processing unit 24 or together with the central processing unit 24.
- GPU graphics processing unit
- FIG. 3 is a block diagram showing an example of the function of terminal 10 shown in FIG.
- the terminal 10 includes, for example, a communication unit 110, an acquisition unit 120, a control unit 130, a display unit 140, a user interface unit 150, and a storage unit 160.
- Communication unit 110 The communication unit 110 is used, for example, to transmit various data to the server device 20. Further, the communication unit 210 is used, for example, to receive various data from the server device 20. The data received by the communication unit 210 is sent to, for example, the control unit 130.
- the acquisition unit 120 acquires operation data related to the operation from the user, for example. Further, the acquisition unit 120 acquires data detected by various sensors, for example. The data acquired by the acquisition unit 120 is sent to, for example, the control unit 130.
- the acquisition unit 120 processes, for example, S121 in FIG. 9, S122 in FIG. 9, S121 in FIG. 10, and S122 in FIG. 10, which will be described later.
- the operation data may include one or more of the following data: -Data showing how the distributor swiped the touchpad display-Data showing which part of the touchpad display the distributor touched-Data showing which object the distributor tapped or clicked -Data showing how the distributor dragged the touchpad display-Other such operation data
- the data acquired by the acquisition unit 120 may be data related to non-operation (data indicating that the operation has not been performed), and for example, it indicates that the terminal 10 has not been operated for a specific time (specific period). Data and / or data indicating that the user did not enter a specific place in the virtual space 300.
- Control unit 130 performs various controls based on the data received by the communication unit 110, for example. Further, the control unit 130 performs various controls based on the data acquired by the acquisition unit 120.
- the control unit 130 processes, for example, S131 in FIG. 9, S141 in FIG. 9, and S141 in FIG. 10, which will be described later.
- the display unit 140 displays, for example, display contents based on control data output from the control unit 130.
- the display unit 140 displays, for example, a screen for selecting a predetermined application. Further, the display unit 140 displays, for example, a screen related to the virtual space when a predetermined application is selected and the predetermined application is executed.
- User interface unit 150 The user interface unit 150 is used for inputting various data used for executing an application through user operations.
- Storage unit 160 can store various data used for executing the application.
- the storage unit 160 stores data used for controlling the display unit 140.
- the storage unit 160 stores, for example, module data used for generating the avatar of the first user and the avatar of the second user.
- the storage unit 160 is not limited to storing the module data used for generating the avatar of the first user and the avatar of the second user, and the storage unit 160 stores the module data used for generating other avatars. You may remember it.
- the module data is, for example, data related to parts for generating an avatar.
- the parts for generating the avatar include, for example, data of each part of the avatar (eyes, nose, mouth, eyebrows, skin color, hairstyle, hair color, clothes, body, etc.).
- the module data includes data regarding an ID assigned corresponding to each part for generating an avatar.
- the data related to the parts for generating the avatar includes the data subdivided regarding the body shape such as lean type, slightly lean type, standard, slightly obese, and obese. You may be.
- the server device 20 transmits ID data used for generating the avatar 80 other than the avatar 80A to the first terminal 11.
- the first terminal 11 may be configured to construct an avatar 80 other than the avatar 80A based on the ID data.
- the display unit 140 may color the avatar 80 other than the avatar 80A in black and display the avatar 80A. Displaying an avatar 80 other than the two-choice avatar 80A for men or women using parts and / or colors determined based on the gender (eg, male or female) of the user corresponding to the avatar 80 other than May be good.
- FIG. 4 is a block diagram showing an example of the function of the server device 20 shown in FIG.
- the server device 20 includes, for example, a communication unit 210, a storage unit 220, and a control unit 230.
- Communication unit 210 The communication unit 210 is used, for example, to transmit various data to the terminal 10. Further, the communication unit 210 is used, for example, to receive various data from the terminal 10. The data received by the communication unit 210 is sent to the control unit 230.
- the storage unit 220 stores various data used for executing the application.
- the storage unit 220 stores, for example, the first data transmitted from the first terminal 11 and the data transmitted from the second terminal 12. At least one of the first data transmitted from the first terminal 11 and the data transmitted from the second terminal 12 may include, for example, data related to "behavior history". The details of the first data transmitted from the first terminal 11, the data transmitted from the second terminal 12, and the data related to the "behavior history" will be described later.
- Control unit 230 performs various controls based on the data received by the communication unit 210, for example.
- the control unit 230 processes, for example, S183 in FIG. 9, S193 in FIG. 9, S133 in FIG. 10, S183 in FIG. 10, and S193 in FIG. 10, which will be described later.
- FIG. 5 is a diagram showing a display example displayed on the display unit 140 of the first terminal 11 by operating the first terminal 11 to start an application.
- the virtual space 300 is displayed on the display unit 140.
- the virtual space 300 is, for example, a three-dimensional space.
- the avatar 80 and the virtual venue 310 are shown in the virtual space 300.
- facilities related to the live venue may be provided in the virtual space 300.
- the avatar 80 is configured so that at least one of walking, running, and jumping can be performed by the user's operation.
- the avatar 80 for example, examines a virtual object, pushes a virtual object, pulls a virtual object, lifts a virtual object, sits on a virtual object, purchases a virtual object, and puts an item on the virtual object by a user operation. It is structured so that it can be handed over.
- the virtual object is, for example, an avatar, a door, a grocery item, an admission ticket, a chair, an exhibit, or the like.
- an explanation about the virtual object is displayed on the display unit 140.
- the statement describing the virtual object is, for example, at least one of the name of the virtual object, the purpose of the virtual object, and the price of the virtual object.
- the description of the virtual object is, for example, at least one of a sentence, an image, and a moving image.
- the position of the virtual object in the virtual space 300 can be changed by the above-mentioned operations of "pushing the virtual object”, “pulling the virtual object”, and "lifting the virtual object”.
- the avatar 80 is seated on the virtual object by the above-mentioned operation of "sit on the virtual object".
- the avatar 80 may be configured so that it can be seated in a specific place other than the virtual object. Further, it is assumed that the avatar 80 is seated in the virtual object, or the avatar 80 is seated in a specific place other than the virtual object.
- the display unit 140 may display a display screen different from the display screen before the avatar 80 is seated (for example, a display screen without a UI operation unit or a chat screen), or the avatar 80 may be seated. You may hide the user interface that existed before you did.
- the display unit 140 displays a display screen different from the display screen before the avatar 80 is seated, the display unit 140 may display so that the screen to be displayed or the like is displayed in full screen. ..
- the virtual object can be purchased by the above-mentioned operation of "purchasing a virtual object". If the virtual object is wearable, the appearance of the avatar 80 can be changed by wearing the virtual object purchased by the avatar 80.
- the avatar 80 other than the avatar 80 to be operated may be an avatar operated by the user, or the operation in the virtual space 300 may be determined in advance. ..
- the avatar 80 when the avatar 80 is determined in advance for the operation in the virtual space 300, it means that the avatar 80 operates as an NPC (Non Player Character).
- the appearance of the avatar 80 shown in FIG. 5 is all the same, but the appearance is not limited to this.
- the appearance of the avatar 80 may be determined based on data about the user operating the avatar 80. For example, when the user who operates the avatar 80 is a male, the appearance of the avatar 80 may be male. Further, for example, when the user who operates the avatar 80 is a female, the appearance of the avatar 80 may be female.
- the behavior of the avatar in the virtual space may change in conjunction with the behavior of the user.
- the avatar in the virtual space may also nod.
- the motion data can be acquired using, for example, a motion capture system.
- a motion capture system As will be readily appreciated by those skilled in the art who benefit from this disclosure, some examples of suitable motion capture systems that may be used with the devices and methods disclosed in this application used passive or active markers. Alternatively, it includes an optical motion capture system without a marker and an inertial and magnetic non-optical system.
- Motion data uses an image capture device (such as a CCD (Charge Bonding Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor) coupled to a computer that converts the motion data into moving images or other image data. Can be obtained.
- CCD Charge Bonding Device
- CMOS Complementary Metal Oxide Semiconductor
- the display unit 140 When operating the avatar 80A shown in FIG. 5, for example, the display unit 140 displays a screen as shown in FIG.
- FIG. 6 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 6 is a diagram showing an example displayed on the display unit 140 of the first terminal 11 when the first user operates the avatar 80A using the first terminal 11.
- the avatar 80, the avatar 80A, and the virtual venue 310 are displayed on the display unit 140.
- the display unit 140 displays the back surface of the avatar 80A, and the line of sight of the first user who operates the first terminal 11 and the line of sight of the avatar 80A corresponding to the first user are in the same direction.
- an area in the virtual space including the avatar 80A is displayed with reference to the virtual viewpoint located in the front direction of the paper in FIG.
- the display unit 140 displays an area of the virtual space including the traveling direction of the avatar 80A.
- the area in the virtual space displayed on the display unit 140 can be changed.
- the traveling direction of the avatar 80A by 180 degrees using the terminal 10
- the rear region of the avatar 80A in FIG. 6 can be displayed.
- the avatar 80A using the terminal 10 in this way, the area not displayed in FIG. 6 can be displayed on the display unit 140.
- the first terminal 11 acquires, for example, data regarding the position of the avatar 80A in the virtual space 300. Further, for example, the data regarding the position of the avatar 80A acquired by the first terminal 11 in the virtual space 300 is transmitted to the server device 20.
- the timing at which the first terminal 11 acquires data regarding the position of the avatar 80A in the virtual space 300 may be any timing. Further, for example, the timing at which the data regarding the position of the avatar 80A acquired by the first terminal 11 in the virtual space 300 is transmitted to the server device 20 may be arbitrary.
- any area of the display unit 140 of the first terminal 11 may be touch-operated.
- the display area and / or the direction displayed by the display unit 140 can be changed based on the acceleration sensor. May be.
- the above-mentioned "arbitrary region” includes, for example, region 301 and / or region 314 of FIG.
- the area 301 and / or the area 314 is an operation user interface for performing a predetermined display control by performing a touch operation.
- the "touch operation” refers to at least one of tap, double tap, swipe, flick, pinch in, and pinch out, for example. Further, as shown in FIG.
- two regions 301 may be provided, or one or three or more regions may be provided.
- one area 301 corresponds to, for example, an area used for walking the avatar 80A
- the other area 301 corresponds to, for example, the avatar 80A to jump.
- the avatar 80A can be walked or jumped by touching the area 301.
- the touch operation for walking or jumping the avatar 80A is, for example, an operation of tapping or double-tapping the area 301 of the avatar 80A.
- the area where the touch operation for walking or jumping the avatar 80A may be performed may be an area other than the area 301.
- the area 301 and / or the area 314 have the same position or different not only when displaying FIG. 6 but also when displaying other drawings (for example, FIGS. 7 and / or 8) described later. It may be displayed at the position.
- the display unit 140 displays the line segment 322 connecting the avatar 80A and the point 321 and the avatar 80A is a line. Walk along the minute 322 to point 321.
- the point 321 and the line segment 322 may have any color.
- tapping or tapping an arbitrary point on the virtual straight line in the changed traveling direction It is an operation of double tapping.
- the first terminal 11 may be configured so that the first user can chat with a user corresponding to at least one avatar 80 among all avatars 80 via the area 314 of the display unit 140.
- the area 314 is an area for displaying a message input by the user corresponding to the avatar 80.
- the user who chats with the first user is an individual user or an exhibiting company.
- the touch operation in the case where all the messages cannot be displayed in the area 314 is, for example, a swipe.
- FIG. 7 is a diagram showing an example of a display screen in the virtual venue 310 displayed on the display unit 140 of the terminal 10.
- the user who operates the first terminal 11 operates the avatar 80A, and the avatar 80A shown in FIG. 6 is located inside the virtual venue 310, so that the scene is switched and the display screen is switched.
- the URL when the display screen when the avatar 80A exists outside the virtual venue 310 (for example, FIG. 6) is displayed by using the web browser of the first terminal 11 is that the avatar 80A is inside the virtual venue 310 (for example,). It is different from the URL when the display screen in the case of being present in FIG. 7) is displayed by using the web browser of the first terminal 11.
- the web browser of the first terminal 11 when used, if the avatar 80A shown in FIG. 6 is located inside the virtual venue 310, the URL will be changed.
- the avatar 80, the avatar 80A, the chair 81, the display area 311 and the display area 312, the avatar 313, and the area 314 are shown.
- the virtual venue 310 is, for example, a booth such as an exhibition or event venue. At least one chair 81 is provided. It is assumed that the avatar 80 and the avatar 80A are located in the first area in the virtual venue 310.
- the chair 81 is, for example, a virtual object in which the avatar 80 can be seated.
- the avatar 80A when the user operates the avatar 80A to approach a specific chair among the plurality of chairs 81 and perform a predetermined operation, the avatar 80 is seated in the chair 81.
- the display screen of the first terminal 11 asks whether or not to sit on the specific chair. A message is displayed.
- the user operates the terminal 10 to perform a predetermined operation indicating the intention to sit in the specific chair in response to the message.
- the display unit 140 displays the first-person viewpoint instead of the display related to the third-person viewpoint. That is, the display unit 140 performs a display that does not include the avatar 80A instead of the display that includes the avatar 80A.
- the avatar 313 is, for example, an avatar that imitates a staff member who advances through the virtual venue 310.
- the avatar 313 may be an avatar operated by the user, or may be an avatar whose operation in the virtual space 300 is predetermined.
- the avatar 80 is determined in advance for the operation in the virtual space 300 and operates, it means that the avatar operates as the above-mentioned NPC.
- the area 314 at least one of a message transmitted from the first terminal 11 and a message transmitted from a terminal other than the first terminal is displayed.
- the message displayed in the area 314 may display a message addressed to the first terminal, and the message displayed in the area 314 displays a message exchanged between terminals other than the first terminal.
- You may. Therefore, the area 314 is an area that can be viewed and / or chatted by a user corresponding to at least one avatar 80 existing in the virtual space 300, or at least one avatar 80 existing in a specific place in the virtual space 300. It functions as an area where users can view and / or chat.
- the condition for displaying the area 314 on the display unit 140 is not limited to the case where the avatar 80 is located in the virtual venue 310.
- the display area corresponding to the predetermined area may be displayed on the display unit 140. That is, the display area to be displayed on the display unit 140 may be determined according to the position where the avatar 80 exists.
- the user can exchange a message with a user corresponding to another avatar 80 existing in the same area as the area where the user's avatar 80 exists. Therefore, the user can easily communicate with other users who have common interests, interests, and / or attributes.
- the terminal of the source of the message displayed in the area 314 is, for example, a terminal used by a user who operates an avatar existing in the virtual venue 310.
- the avatar corresponding to the terminal of the sender of the message in which the area 314 is displayed may or may not be displayed in the virtual venue 310.
- products that can be purchased may be displayed in the area 314.
- the product is, for example, a product related to an operator or an operating organization that operates the virtual venue 310.
- the content related to the product and the content urging the purchase of the product may be displayed together with the product.
- the content prompting the purchase of the product is a display such as "put in the shopping cart" and is configured to be selectable.
- a browser installed on the terminal 10 is activated to purchase the product.
- a page requesting input of the content to be used is displayed on the display unit 140.
- a predetermined explanation is started.
- the time used in the virtual space may be a time synchronized so as to be the same as the actual time, or may be a time used in the virtual space 300 separately from the actual time. ..
- the condition for starting the predetermined explanation at the virtual venue 310 does not have to be the condition related to the time.
- the condition for starting a predetermined explanation in the virtual venue 310 is, for example, when the number of avatars existing in the virtual venue 310 exceeds a predetermined number, or when a specific avatar is located in the virtual venue 310, or the like. May be.
- a plurality of avatars may be configured so that they can be seated in one seat at the same time.
- the user can operate the avatar 80A using the terminal 10 to seat the avatar 80A on the leftmost chair 81 in FIG. 7. May be.
- the total number of avatars located in the virtual venue 310 exceeds the total number of chairs 81, all the avatars who view the content displayed in the display area 311 are seated in the virtual venue 310. be able to.
- a predetermined explanation started at a predetermined time is performed by displaying a predetermined content in the display area 311 and / or outputting a voice.
- the explanation is, for example, a moving image.
- the moving image is, for example, one of a predetermined explanatory moving image, an event moving image such as a concert, a moving image such as a movie, and a moving image reflecting a real-time Vtuber movement and / or acting.
- the terminal 10 requests data related to the moving image from the second server system 22.
- the second server system 22 transmits data related to the moving image to the terminal 10 in response to the request.
- the terminal 10 can receive the data related to the moving image from the second server system 22 and watch the moving image.
- FIG. 8 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 8 shows the live venue 410.
- the live venue 410 is an example of a venue provided in the virtual space 300.
- a plurality of chairs 81 are provided inside the live venue 410.
- the chair 81 is, for example, a virtual object in which the avatar 80 can be seated. For example, when the user operates the avatar 80A to approach a specific chair among the plurality of chairs 81 and perform a predetermined operation, the avatar 80 is seated in the chair 81.
- the display screen of the first terminal 11 asks whether or not to sit on the specific chair.
- a message is displayed.
- the user performs a predetermined operation indicating the intention to sit in the specific chair with respect to the message using the terminal 10.
- the avatar 80 sits on the chair 81.
- the moving image is played back in the display area 411.
- the time used in the virtual space may be a time synchronized so as to be the same as the actual time. Further, the time used in the virtual space may be a time used in the virtual space 300 separately from the actual time.
- the condition for the moving image to be played back in the display area 411 does not have to be a condition related to the time.
- the condition for the moving image to be played in the display area 411 is, for example, when the number of avatars existing in the live venue 410 exceeds a predetermined number, or when a specific avatar is located in the live venue 410. You may.
- a plurality of avatars may be configured so that they can be seated in one seat at the same time.
- the user may operate the avatar 80A using the terminal 10 to seat the avatar 80A in the leftmost chair 81 of FIG. It may be a configuration that can be used. In this way, for example, even if the total number of avatars located in the live venue 410 exceeds the total number of chairs 81, all avatars viewing the content displayed in the display area 411 are seated in the live venue 410. be able to.
- the avatar 80A is not shown in the live venue 410, but the present invention is not limited to this.
- the avatar 80A may be displayed on the display unit 140 in the live venue 410, and the avatar 80A may be configured to operate in the display unit 140 according to the operation of the first terminal 11 used by the first user.
- FIGS. 9 and 10 are flowcharts showing an example of the operation performed by using the system 1000 shown in FIG.
- the first user operates the first terminal 11 to start the application
- the second user operates the second terminal 12 to start the application.
- the first terminal 11 acquires the first data. Further, in S122, the second terminal 12 acquires the second data. After the process of S122, the second terminal 12 transmits data regarding the position of the avatar operated by the second user to the server device 20. After that, the server device 20 transmits the second data including the data regarding the position of the avatar operated by using the second terminal 12 to the first terminal 11.
- the terminal 10 is the first terminal 11 and the second terminal 12
- the terminal 10 is added to the first terminal 11 and the second terminal 12. It may include at least one other terminal.
- data regarding the position of the avatar operated using each of at least one other terminal is transmitted to the server device 20.
- the server device 20 determines the second data based on the data received from the terminal other than the first terminal, and transmits the second data to the first terminal 11.
- the first data includes, for example, data related to an avatar in a virtual space operated by using the terminal of the first user.
- the first data is user operation data or operation history data, and includes, for example, data regarding the position of the avatar of the first user.
- the first data includes, for example, data regarding the behavior history of the avatar in the virtual space operated by using the terminal of the first user in the virtual space.
- the second data includes, for example, data regarding an avatar in a virtual space operated by using the terminal of each user of at least one user other than the first user. Further, the second data is, for example, the position of the avatar of at least one user other than the first user, and the avatar of the avatar located in the first region in the virtual space among the avatars of at least one user other than the first user. Includes at least one of the total number.
- the second data includes, for example, data regarding the behavior history of the avatar in the virtual space operated by using the terminal of at least one user other than the first user in the virtual space.
- the first terminal 11 performs the first determination process.
- the first determination process is a process of determining whether or not the position of the avatar of the first user or the second data satisfies a predetermined condition.
- the control data for controlling the display unit 140 of the first terminal 11 is determined, and the process of S141 is executed.
- the process of S131 is repeated.
- the predetermined condition in S131 is that when the avatar 80A of the first user is located in the first area, the total number of avatars 80 located in the first area among the avatars 80 other than the avatar 80A is the first value or more. When the total number of avatars 80 located in the first area of the avatars 80 other than 80A is the second value or less, it is within the first distance from one avatar 80 located in the first area of the avatars 80 other than the avatars 80A. When the number of avatars 80 located is the third value or more, and the number of avatars 80 located within the first distance from one avatar 80 located in the first region among the avatars 80 other than the avatar 80A is the fourth. If it is less than or equal to the value, it is at least one of.
- the above-mentioned first value is larger than the above-mentioned second value, and the above-mentioned third value is larger than the above-mentioned fourth value.
- the first area is, for example, an area inside the virtual venue 310 or an area inside the live venue 410.
- the server device 20 may transmit data regarding at least one of the number of simultaneous connections, the user, and the attribute of the event to the first terminal 11. Then, the first terminal 11 may receive the data and determine the total number of avatars 80 displayed by the display unit 140 in consideration of drawing performance. As a result, even if the first terminal 11 does not have high performance, the first user who operates the avatar 80A synchronizes with the first terminal 11 within the range of the performance of the first terminal 11. You can draw the avatar 80 as you feel. Further, the first terminal 11 determines the total number of avatars 80 as described above in consideration of at least one of the number of vertices, materials, and the number of textures of the mesh of the 3D model that can be drawn.
- the control data determined in S131 is the data that controls the display screen of the first terminal 11. Further, this control data is based on the position of the avatar of at least one user to be displayed on the display screen determined based on the position of the avatar included in the second data, and the total number of avatars included in the second data. Contains data on the total number of avatars of at least one user to display on the determined display screen.
- the first terminal 11 performs a process of controlling the display unit 140 of the first terminal 11 based on the control data.
- the server device 20 determines the analysis data based on at least one of the first data and the second data. Then, the server device 20 transmits the determined analysis data to the device 70. For example, each time the server device 20 receives at least one of the first data and the second data, the server device 20 determines the analysis data and transmits the determined analysis data to the device 70.
- the server device 20 determines the advertisement data based on at least one of the first data and the second data.
- the advertisement data is data determined based on the first data and is data for the first user who operates the first terminal 11, and is data determined based on the second data. 2 Contains data for a second user who operates the terminal 12.
- the server device 20 transmits the determined advertisement data for the first user to the first terminal 11, and transmits the determined advertisement data for the second user to the second terminal 12.
- the first user activates the application by operating the first terminal 11, and in S112, the second user activates the application by operating the second terminal 12.
- the first terminal 11 acquires the first data.
- the second terminal 12 acquires the second data.
- the server device 20 acquires the first data from the first terminal 11.
- the server device 20 acquires the data acquired in the second terminal 12 from the second terminal 12.
- the server device 20 acquires the first data from the first terminal 11 and acquires the data acquired in the second terminal 12 from the second terminal 12, the process of S133 is performed. Further, the server device 20 transmits data requesting the generation of the avatar of at least one user to the first terminal 11 to the first terminal 11.
- the terminal 10 is the first terminal 11 and the second terminal 12
- the terminal 10 is added to the first terminal 11 and the second terminal 12. It may include at least one other terminal.
- data regarding the position of the avatar operated using each of at least one other terminal is transmitted to the server device 20.
- the server device 20 determines the second data based on the data received from the terminals other than the first terminal.
- the server device 20 performs the first determination process.
- the first determination process of S133 in FIG. 10 is the same as the first determination process of S131 of FIG.
- the server device 20 determines the control data, transmits the control data to the first terminal 11, and executes the process of S141. ..
- the process of S133 is repeated.
- the control data determined in S133 is the data that controls the display screen of the first terminal 11. Further, this control data is based on the position of the avatar of at least one user to be displayed on the display screen determined based on the position of the avatar included in the second data, and the total number of avatars included in the second data. Contains data on the total number of avatars of at least one user to display on the determined display screen.
- the first terminal 11 performs a process of controlling the display unit 140 of the first terminal 11 based on the control data.
- the server device 20 determines the analysis data based on at least one of the first data and the second data. Then, the server device 20 transmits the determined analysis data to the device 70. For example, each time the server device 20 receives at least one of the first data and the second data, the server device 20 determines the analysis data and transmits the determined analysis data to the device 70.
- the server device 20 determines the advertisement data based on at least one of the first data and the second data.
- the advertisement data is data determined based on the first data and is data for the first user who operates the first terminal 11, and is data determined based on the second data. 2 Contains data for a second user who operates the terminal 12.
- the server device 20 transmits the determined advertisement data for the first user to the first terminal 11, and transmits the determined advertisement data for the second user to the second terminal 12.
- the avatar 80 enters the virtual venue 310 or the live venue 410 where the event held by the predetermined operating organization is held, and is played back in the virtual venue 310 or the live venue 410.
- the advertisement data transmitted to the first terminal 11 may include, for example, data related to guidance regarding an event to be held in the future by a predetermined operating organization.
- the data includes at least one of text data, image data, and moving image data.
- the above-mentioned advertisement data may be data including, for example, a URL for accessing a database for storing a third data regarding an advertisement determined based on the first data. good. Further, the above-mentioned advertisement data may be, for example, data including a URL for accessing a database for storing a fourth data regarding an advertisement determined based on the data acquired in the second terminal 12. Further, the above-mentioned advertisement data may have already been downloaded into the application (application) by, for example, batch processing. In this case, the server device 20 transmits data related to the ID corresponding to the data to be transmitted to the first terminal 11, and the first terminal 11 displays the advertisement data based on the ID. May be good. Further, the server device 20 may transmit data relating to the ID corresponding to the data to be transmitted to the second terminal 12, and the second terminal 12 may display the advertisement data based on the ID.
- FIG. 11 shows an example of data transmitted from the terminal 10.
- the server device 20 receives various data from each terminal 10.
- various data relate to, for example, “age”, “gender”, “current position”, “virtual object”, “chat history”, “content viewing history”, “part ID”, and “simple avatar”.
- the "part ID” is, for example, data for identifying an avatar.
- the "simple avatar” is, for example, data regarding an ID of a pattern according to gender including males and females.
- the above-mentioned first data may include, for example, at least one of the contents relating to the first user in FIG.
- the above-mentioned second data may include the content relating to the second user in FIG. 11 and / or at least one content relating to the third user in FIG.
- FIG. 11 shows an example in which the age of the first user is 21 years old, the age of the second user is 31 years old, and the age of the third user is 41 years old. Has been done.
- FIG. 11 shows an example in which the gender of the avatar of the first user is male, the gender of the avatar of the second user is female, and the gender of the avatar of the third user is male. It is shown.
- the avatar operated by the first user exists at the position A01
- the avatar operated by the second user exists at the position B01
- the operation of the third user An example is shown in which the avatar to be used exists at the position C01.
- the avatar operated by the first user purchases the virtual object A12 at the price A13 at the time A11
- the avatar operated by the second user is the virtual object at the time B11.
- An example is shown in which the avatar operated by the third user opens B12 and acquires the virtual object C12 at the time C11.
- the virtual object A2 is, for example, an admission ticket for entering a live venue.
- the virtual object B22 is, for example, a door.
- chat history in FIG. 11, the terminal of the first user sends a message "hello" to the terminal of the third user at the position A22 at the time A21, and the second user is any other.
- chat history There is no chat history with the user, and an example is shown in which the terminal of the third user receives the message "Hello" from the terminal of the first user at the position C22 at the time C21.
- the avatar of the first user stands up at the position A32 at the time A31 and starts viewing the content
- the avatar of the second user stands at the position B32 at the time B31.
- an example is shown in which the content is viewed on the seat B33 for 2 hours, and the avatar of the third user finishes viewing the content at the position C32 at the time C31 and leaves the seat C33.
- the above-mentioned “age” may indicate the age group to which the user belongs. For example, when defining 21 years old or more and 30 years old or less as category 1, it may be shown that the age of the first user belongs to category 1. Further, for example, when 31 years old or more and 40 or less are defined as category 2, it may be shown that the age of the second user belongs to category 2. Further, for example, when the age of 41 to 50 is defined as category 3, it may be shown that the age of the third user belongs to category 3. In this way, for example, when the analysis data is determined in S183 of FIG. 9 or S183 of FIG. 10 and the analysis data is transmitted to the device 70, the age without transmitting the specific personal information of the user to the device 70. Data related to can be used for marketing and the like.
- the present invention may include data indicating a trajectory of the avatar moving in the virtual space 300 within a predetermined period.
- the data transmitted from the terminal of one user to the terminal of another user may include at least one of text, pictograms, voice messages, images, and moving images.
- first data and the second data shown in FIG. 11 are not limited to the above-mentioned example, and may include data related to "behavior history".
- the data related to the "action history” is, for example, the time when the avatar 80 enters the virtual venue 310, the time when the avatar 80 enters the live venue 410, the time when the avatar 80 leaves the virtual venue 310, and the time when the avatar 80 leaves the live venue 410.
- the history of the received data including the message received from the terminal 10 operated by the user who operates the other terminal 10 and the user who operates the other terminal 10 operates the user who operates the other terminal 10. It may include at least one of the histories of transmission data including the message transmitted to the terminal 10.
- the server device 20 may select which of the contents shown in FIG. 11 data is to be transmitted to the device 70. For example, when the data transmitted to the device 70 includes the content related to the chat history shown in FIG. 11, the server device 20 uses the data shown in FIG. 11 excluding the content related to the chat history. It may be transmitted to 70.
- the server device 20 may transmit the data in which at least a part of the contents shown in FIG. 11 is changed to the device 70.
- the server device 20 sends data indicating that the avatar of the first user is located at the position A01 to the device 70, but instead of transmitting data indicating that the avatar of the first user is located near the position A01. May be transmitted to the device 70.
- the data including the message is not transmitted to the other terminal 10. It is also good. In this way, the data exchanged between the second terminal 12 and the device 70 is not transmitted to any terminal other than the second terminal 12. Therefore, when the data transmitted and received between the second terminal 12 and the device 70 includes data related to the personal information of the user who operates the second terminal 12, the personal information is a terminal other than the second terminal 12. It is possible to reduce the possibility of being known to the user who operates the 10.
- the display unit 140 may not display the total number and positions of the avatars 80 in real time. However, even when the display unit 140 does not display the total number and position of the avatar 80 in real time, the first user who operates the first terminal 11 reflects the approximate total number and position of the avatar 80. You can check the display and communicate with other users in real time using the whole chat. Therefore, even when the display unit 140 is a display that reflects the approximate total number and position of the avatar 80 and does not reflect the total number and position of the avatar 80 in real time, the possibility of causing the user to feel a sense of discomfort is reduced. be able to.
- the user ID and the avatar 80 in the chat may or may not be linked to each other. You may.
- the first data regarding the avatar in the virtual space operated by the terminal of the first user is stored, and at least one other than the first user is stored via the communication line.
- Whether or not the position of the avatar of the first user or whether or not the second data satisfies a predetermined condition is received by receiving the second data regarding the avatar in the virtual space operated by using the terminal of each user of the user.
- the control data for controlling the display screen of the terminal of the first user is determined, the display screen is controlled based on the control data, and the second data is at least the above.
- the display unit 140 of the terminal 10 changes the total number and / or positions of the actual avatars 80 to display.
- the exhibitor, the operator, and / or the operating company regarding the virtual space 300 is not the data regarding the total number and / or positions of the changed avatars displayed by the display unit 140, but the total number and / or the actual number of avatars. You can get data about the position. Therefore, accurate data on the total number and / or location of avatars can be used for marketing.
- the storage unit 160 of the terminal 10 may store the data acquired in the terminal 10 when it is received from the terminal 10. Specifically, for example, the storage unit 160 of the terminal 10 may store the second data. Then, the terminal 10 may determine the control data by using the second data received in the past stored in the storage unit 160.
- the storage unit 220 of the server device 20 may store the data acquired in the terminal 10 when the data is received from the terminal 10. Specifically, for example, the storage unit 220 of the server device 20 may store the second data. Then, the server device 20 may determine the control data by using the second data received in the past stored in the storage unit 220.
- FIG. 12 shows an example of the number of avatars displayed on the display unit 140 of the first terminal 11.
- the number of avatars existing in a predetermined area in the virtual space 300 excluding the avatar 80A is shown.
- the number of avatars existing in the predetermined area at time 1 is one
- the number of avatars operating the second terminal at time 2 is two
- Is 7, the number of avatars is 90 at time 4, and the number of avatars is 400 at time 5.
- the number of avatars at each time from time 1 to time 5 is not limited to the above example.
- time 1 of time 1 to time 5 is the past time closest to the current time
- time 5 of time 1 to time 5 is the past time farthest from the current time.
- Time 1 is, for example, 5 minutes before the present
- time 2 is, for example, 1 hour before the present
- time 3 is, for example, 12 hours before the present
- time 4 is, for example, from the present.
- time one day before and the time 5 are, for example, the time three days before the present.
- the time of each of time 1 to time 5 is not limited to the above example.
- the avatars to be displayed on the display unit 140 are displayed. Change the total number of to the specified value.
- the first value is, for example, 11 and the second value is, for example, 9.
- the first value is larger than the second value.
- the predetermined value is, for example, 10. The specific values of the first value and the second value are not limited to this.
- Example 1 of FIG. 12 it is assumed that the number (1 body) of avatars at time 1 is displayed on the display unit 140 of the first terminal 11.
- the total number of avatars displayed on the display unit 140 of the first terminal 11 is the second value or less. Therefore, the total number of avatars displayed on the display unit 140 of the terminal 10 is changed from 1 to 10. That is, the total number of avatars displayed on the display unit 140 is changed from the number of avatars at time 1 to the total number of avatars at each of time 1 to time 3.
- Example 2 of FIG. 12 it is assumed that the total number of avatars (three bodies) at time 1 and time 2 is displayed on the display unit 140 of the first terminal 11.
- the total number of avatars displayed on the display unit 140 of the first terminal 11 is the second value or less. Therefore, the total number of avatars displayed on the display unit 140 of the first terminal 11 is changed from 3 to 10. That is, the total number of avatars displayed on the display unit 140 is changed from the total number of avatars at each of time 1 and time 2 to the total number of avatars at each of time 1 to time 3.
- Example 3 of FIG. 12 it is assumed that the total number of avatars (10 bodies) from time 1 to time 3 is displayed on the display unit 140 of the first terminal 11. In this case, the total number of avatars displayed on the display unit 140 of the first terminal 11 is less than the first value and larger than the second value. Therefore, the total number of avatars displayed on the display unit 140 of the first terminal 11 is not changed.
- Example 4 of FIG. 12 it is assumed that the total number of avatars (100 bodies) from time 1 to time 4 is displayed on the display unit 140 of the first terminal 11.
- the total number of avatars displayed on the display unit 140 of the first terminal 11 is the first value or more. Therefore, the total number of avatars displayed on the display unit 140 of the terminal 10 is changed from 100 to 10. That is, the total number of avatars displayed on the display unit 140 is changed from the total number of avatars at each of time 1 to time 4 to the total number of avatars at each of time 1 to time 3.
- Example 5 of FIG. 12 it is assumed that the total number of avatars (500 bodies) from time 1 to time 5 is displayed on the display unit 140 of the first terminal 11.
- the total number of avatars displayed on the display unit 140 of the first terminal 11 is the first value or more. Therefore, the total number of avatars displayed on the display unit 140 of the first terminal 11 is changed from 500 to 10. That is, the total number of avatars displayed on the display unit 140 is changed from the total number of avatars at each of time 1 to time 5 to the total number of avatars at each of time 1 to time 3.
- the total number of avatars displayed on the display unit 140 is changed. Is not limited to this.
- the total number of changed avatars may differ depending on the total number of avatars. Such a specific example will be described below with reference to FIG.
- FIG. 13 shows an example of the number of avatars displayed on the display unit 140 of the first terminal 11.
- the number of avatars existing in a predetermined area excluding the avatar 80A is shown.
- the number of avatars existing in the predetermined area at time 1 is 3, the number of avatars operating the second terminal at time 2 is 7, and the number of avatars operating the second terminal at time 3.
- Is 10 bodies, and the number of avatars is 80 bodies at time 4.
- the number of avatars at each time from time 1 to time 4 is not limited to the above example.
- time 1 is the past time closest to the current time, and of time 1 to time 5, time 5 is the past time farthest from the current time.
- Time 1 is, for example, 5 minutes before the present
- time 2 is, for example, 1 hour before the present
- time 3 is, for example, 12 hours before the present
- time 4 is, for example, from the present. It shall be the time one day before.
- the time of each of time 1 to time 4 is not limited to the above example.
- the number of avatars displayed on the display unit 140 is set as the first value, and the total number of avatars included in the virtual venue 310 is less than the second value.
- the number of avatars displayed on the display unit 140 is set as the second value.
- the first value is, for example, 20, and the second value is, for example, 10.
- the first value is larger than the second value.
- the specific values of the first value and the second value are not limited to this.
- Example 1 of FIG. 13 it is assumed that the number of avatars (3 bodies) at time 1 is displayed on the display unit 140 of the first terminal 11. In this case, the total number of avatars displayed on the display unit 140 of the first terminal 11 is less than the second value. Therefore, the total number of avatars displayed on the display unit 140 of the terminal 10 is changed from 3 to 10. That is, the total number of avatars displayed on the display unit 140 is changed from the number of avatars at time 1 to the total number of avatars at each of time 1 and time 2.
- Example 2 of FIG. 13 it is assumed that the number of avatars (10 bodies) at time 1 and time 2 is displayed on the display unit 140 of the first terminal 11.
- the total number of avatars displayed on the display unit 140 of the first terminal 11 is the first value or less and the second value or more. Therefore, the total number of avatars displayed on the display unit 140 of the first terminal 11 is not changed.
- Example 3 of FIG. 13 it is assumed that the number of avatars (100 bodies) from time 1 to time 4 is displayed on the display unit 140 of the first terminal 11.
- the total number of avatars displayed on the display unit 140 of the first terminal 11 is larger than the first value. Therefore, the total number of avatars displayed on the display unit 140 of the terminal 10 is changed from 100 to 20. That is, the total number of avatars displayed on the display unit 140 is changed from the total number of avatars at each of time 1 to time 4 to the total number of avatars at each of time 1 to time 3.
- the first terminal The display unit 140 of 11 displays as few avatars as possible while displaying a larger number of avatars than the total number of actual avatars. Further, in FIG. 13, when the total number of avatars actually existing in the virtual space 300 is large and the total number of avatars actually existing in the virtual space 300 is equal to or more than a predetermined upper limit, the first terminal 11 The display unit 140 displays as many avatars as possible while displaying the total number of avatars that is smaller than the total number of actual avatars.
- the first user can use the display unit 140 to display the avatars in the virtual space 300. By checking the total number, it is possible to grasp the degree of success in the virtual space 300.
- the total number of displayed avatars is increased based on the threshold value when the total number of actual avatars is less than a predetermined threshold value and the total number of displayed avatars is changed. Not limited to this. As described above, when the total number of actual avatars is less than a predetermined threshold value and the total number of displayed avatars is changed, the total number of displayed avatars may be increased by adding a predetermined number.
- the display mode of the avatar may be changed according to the total number of actual avatars. For example, when the total number of actual avatars is equal to or greater than a predetermined threshold value, the display unit 140 may simplify and display the parts of each avatar of the actual avatar. In this way, even when the performance of the terminal 10 is low, the display unit 140 of the terminal 10 can display by reflecting the total number of actual avatars. For example, when the total number of actual avatars is less than a predetermined threshold value, the display unit 140 may display the parts of each avatar of the actual avatar without simplification.
- the display that simplifies the parts of the avatar is, for example, a humanoid avatar of a single color (black) or an identification display according to the gender of the user corresponding to the avatar.
- the part of the avatar is the first part
- the gender of the user corresponding to the avatar is female
- the part of the avatar is the first part. It is a second part that is different from.
- the display unit 140 of the first terminal 11 immediately receives the position data. It is not necessary to display the position data on the screen.
- the display unit 140 of the first terminal 11 may display the position data of the avatar 80 other than the avatar 80A after an arbitrary time elapses from the time t.
- the "arbitrary time” is, for example, 1 minute, 10 minutes, 1 hour, and the like.
- the number is not limited to the number increased or decreased to a predetermined number.
- the size of the predetermined space in the virtual space may be taken into consideration.
- considering the size in the predetermined space in the virtual space means, for example, considering the density in the predetermined space in the virtual space.
- the density in a predetermined space in the virtual space means, for example, the number of predetermined avatars to be displayed per unit volume in the predetermined space in the virtual space. For example, when two regions as shown in FIG. 7 are provided in the virtual space, it is assumed that one is the first space and the other is the second space.
- the first space has a first area and 50 avatars exist in the first space
- the second space has a second area smaller than the first area and has a second area.
- the number of avatars is reduced because the number of avatars contained in the first space and the second space is excessive.
- the number of avatars contained in the first space is reduced from 50 to 20
- the number of avatars contained in the second space is reduced from 50 to 10. good. Therefore, when the user operates the avatar using the terminal 10, it is possible to prevent the total number of avatars displayed on the display unit 140 from becoming excessive, and the visibility is improved.
- the server device 20 may receive the first data from the first terminal 11 before S131. As a result, the server device 20 may perform the processing of S183 before S131 and transmit the analysis data to the device 70. Further, for example, the server device 20 may perform the processing of S193 before S131 and transmit the advertisement data to the device 70. In this way, the server device 20 can reduce the time between the timing of receiving the first data and the timing of transmitting the analysis data determined based on the received first data to the device 70.
- FIG. 14 is a block diagram showing an example of the terminal 10 shown in FIG. 3 and a configuration connected to the terminal 10.
- the terminal 10 and each of the first sensor 102a, the second sensor 102b, the camera 102c, and the microphone 102d are connected, for example, by wire or wirelessly.
- the first sensor 102a is connected to the camera 102c, for example, by wire or wirelessly.
- the camera 102c can include, for example, an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light.
- the second sensor 102b is connected to the microphone 102d, for example, by wire or wirelessly.
- the first sensor 102a and the camera 102c may be provided as one configuration. Further, the second sensor 102b and the microphone 102d may be provided as one configuration.
- the terminal 10 may transmit the image captured by the camera 102c to the server device 20. Further, the first terminal 11 may transmit the voice data input to the microphone 102d to the server device 20. Further, the second terminal 12 may transmit the voice data input to the microphone 102d to the server device 20. Further, the first terminal 11 may transmit moving image data using the camera 102c and the microphone 102d to the server device 20.
- FIG. 15 is a generalization of the embodiments, techniques, and suitable computational environments 1400 in which the embodiments described herein can be implemented, including transmitting and using tokens to render video in a computational environment.
- the calculation environment 1400 can implement either a terminal device (or a distributor or a viewer), a distribution server system, or the like.
- the Computational Environment 1400 is not intended to imply any restrictions on the use or scope of functionality of the Technique, as the Techniques can be implemented in a variety of general purpose or dedicated computing environments.
- the technologies disclosed herein include various portable devices, various multiprocessor systems, various microprocessor-based or programmable household appliances, various network PCs, various minicomputers, and more. It may be implemented in various other computer system configurations, including various mainframe computers, and the like.
- the techniques disclosed herein may be implemented in a distributed computing environment in which tasks are performed by remote processing devices linked through a communication network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.
- the computational environment 1400 includes at least one central processing unit 1410 and memory 1420.
- the central processing unit 1410 executes instructions that can be executed by a computer, and the central processing unit 1410 may be a real processor or a virtual processor. In a multiprocessing system, a plurality of processors can operate at the same time because a plurality of processing units execute instructions that can be executed by a computer to improve processing power.
- the memory 1420 may be a volatile memory (eg, register, cache, RAM), a non-volatile memory (eg, ROM, EEPROM, flash memory, etc.), or some combination of the two.
- the memory 1420 stores, for example, software 1480, various images, and videos on which the techniques described herein can be implemented.
- the computational environment may have various additional functions.
- the computational environment 1400 includes storage 1440, one or more input devices 1450, one or more output devices 1460, and one or more communication connections 1470.
- An interconnect mechanism (not shown), such as a bus, controller, or network, interconnects various components of the compute environment 1400.
- operating system software (not shown) provides an operating environment for other software running in compute environment 1400 and coordinates various activities of various components of compute environment 1400.
- the storage 1440 may or may not be removable and may be used to store magnetic disks, magnetic tapes or cassettes, CD-ROMs, CD-RWs, DVDs, or information. And include any other medium accessible within the computational environment 1400.
- Storage 1440 stores instructions for software 1480, plug-in data, and messages that can be used to implement the techniques described herein.
- One or more input devices 1450 may provide input to a touch input device such as a keyboard, keypad, mouse, touch screen display, pen, or trackball, voice input device, scanning device, or computing environment 1400.
- a touch input device such as a keyboard, keypad, mouse, touch screen display, pen, or trackball
- voice input device scanning device, or computing environment 1400.
- Device which may be.
- one or more input devices 1450 may be a sound card or similar device that accepts analog or digital audio input, or even a CD-ROM reader that provides various audio samples to the computing environment 1400. good.
- the one or more output devices 1460 may be a display, a printer, a speaker, a CD writer, or another device that provides output from the computing environment 1400.
- One or more communication connections 1470 enable communication to another computing entity via a communication medium (eg, a connection network).
- the communication medium conveys data such as instructions, compressed graphics data, video, or other data contained in a modulated data signal that can be executed by a computer.
- the one or more communication connections 1470 are not limited to wired connections (eg, megabit or gigabit Ethernet, Infiniband, or Fiber Channel via electrical or fiber optic connections) and wireless technologies (eg, Bluetooth, WiFi (IEEE 802). .11a / b / n), WiMax, cellular, satellite, laser, infrared, RF connection via), and various data consumers of the various agents, various bridges, and destination agents disclosed herein. Includes various other suitable communication connections to provide network connectivity to.
- the one or more communication connections may be virtualized network connections provided by the virtual host.
- Various embodiments of the various methods disclosed herein are performed in a computational cloud 1490 using multiple instructions that can be executed by a computer that implements all or part of the techniques disclosed herein. Can be done. For example, different agents can perform different vulnerability scanning functions in a compute environment, while agent platforms (eg, bridges) and consumer services for destination agent data are located inside the compute cloud 1490. It can be executed on various servers.
- agent platforms eg, bridges
- consumer services for destination agent data are located inside the compute cloud 1490. It can be executed on various servers.
- the computer-readable medium is any available medium that can be accessed within the computational environment 1400.
- computer-readable media include memory 1420 and / or storage 1440.
- the term computer-readable medium includes media for data storage such as memory 1420 and storage device 1440, and does not include transmission media such as various modulated data signals.
- the computer program according to the first aspect is "a computer program executed by at least one processor, and acquires first data about an avatar in a virtual space operated by using a terminal of a first user, and obtains a communication line.
- the second data regarding the avatar in the virtual space operated by using the terminal of each user of at least one user other than the first user is received, and the first data is the first user's data.
- the second data includes the position of the avatar, and the second data includes the position of the avatar of the at least one user and the total number of avatars of the avatar of the at least one user located in the first region in the virtual space.
- the control data for controlling the display screen of one user's terminal is determined, and the at least one processor is made to function so as to control the display screen based on the control data.
- the computer program according to the second aspect is "a computer program executed by at least one processor, and is a first data relating to an avatar in a virtual space operated by a terminal of a first user via a communication line. And, the second data about the avatar in the virtual space operated by using the terminal of each user of at least one user other than the first user is received, and the first data is the avatar of the first user. Including the position of The second data includes at least one of the positions of the avatars of the at least one user and the total number of avatars of the avatars of the at least one user located in the first region in the virtual space.
- the computer program according to the third aspect in the first aspect or the second aspect described above, "displays the control data on the display screen determined based on the position of the avatar included in the second data. At least one of the position of the avatar of the at least one user and the total number of avatars of the at least one user displayed on the display screen determined based on the total number of the avatars included in the second data. Includes data on avatars. "
- the computer program according to the fourth aspect is described in any one of the first to third aspects described above, "The predetermined condition is that when the avatar of the first user is located in the first area, the at least one user.
- the predetermined condition is that when the avatar of the first user is located in the first area, the at least one user.
- the total number of avatars located in the first area among the avatars of the above is the first value or more, and when the total number of avatars located in the first area among the avatars of at least one user is the second value or less.
- the number of avatars located within the first distance from the one avatar located in the first region among the avatars of the at least one user is a third value or more, and the avatar of the at least one user.
- at least one of the cases where the number of avatars located within the first distance from one avatar located in the first region is the fourth value or less, and the first value is from the second value.
- the third value is larger than the fourth value.
- the computer program according to the fifth aspect is characterized in that, in any one of the first to fourth aspects described above, "the second data includes data regarding the gender of the avatar of at least one user".
- At least one virtual venue which is a space in which a moving image is distributed, is provided in the virtual space, and the first aspect is described.
- the area is an area within any one of the at least one virtual venue.
- the computer program according to the seventh aspect states that "when the second data includes data regarding the position of the avatar of the at least one user, the position of the avatar of the at least one user is determined.
- the position of the avatar of at least one user which indicates a position in the virtual venue and is included in the control data, is a position in the virtual venue.
- the computer program according to the eighth aspect is the module data used for generating the avatar of the first user and the avatar of the second user in any of the third to seventh aspects dependent on the first or the first described above. It is characterized by "remembering.”
- the computer program according to the ninth aspect in any of the third to seventh aspects dependent on the second or the second described above, "generates the avatar of the at least one user with respect to the terminal of the first user. Is transmitted to the terminal of the first user. "
- the computer program according to the tenth aspect states that "at least one of the first data and the second data is an action history of the avatar in the virtual space. It is characterized by including at least one of data relating to and data of a user who operates the avatar. "
- the computer program according to the eleventh aspect is described in the tenth aspect, which is subordinate to the sixth aspect, "The data regarding the action history is the data regarding the viewing history of viewing the video of the avatar, and the viewing time of the video of the avatar.
- Data on the history of actions on existing virtual objects a message from one of the terminals of the first user and the terminal of the at least one user to the terminal of the first user and the terminal of the at least one user.
- the computer program according to the twelfth aspect states that "at least one of the first data and the second data is the terminal of the first user and at least one of the above. It is transmitted to a third terminal other than the terminal of the user of the user. " It was
- the computer program according to the thirteenth aspect determines whether or not at least one of the first data and the second data has been received, and the first data and the second data" in the twelfth aspect described above. When at least one of the first data and the second data received is received, at least one of the received first data and the second data is transmitted to the third terminal. " It was
- the computer program according to the fourteenth aspect is characterized in that, in the twelfth or thirteenth aspect described above, "the cycle for receiving the first data is shorter than the cycle for determining the control data".
- the third terminal is a terminal operated by an operator or an operating organization that operates the virtual venue. It is characterized by that. It was
- the computer program according to the seventeenth aspect is the data including the URL for accessing the database for storing the third data regarding the advertisement determined based on the first data in any one of the first to fifteenth aspects described above.
- the data including the URL transmitted to the terminal of the first user and / or accessing the database storing the fourth data regarding the advertisement determined based on the second data is the at least one user. It is characterized by being sent to the terminal of.
- the computer program according to the eighteenth aspect is the "first.” Includes a first message transmitted from a user's terminal when the user's avatar and the at least one user's avatar are present in the virtual space at a predetermined time and corresponding to any of the at least one user's avatars.
- the virtual space is displayed in the first display area in the display screen of the terminal of the first user, and the first message is displayed in the first display area.
- the computer program according to the nineteenth aspect is described in any one of the third to seventh subordinate to the second and second aspects described above, or in any of the ninth to seventeenth aspects subordinate to the second aspect.
- the data for displaying the virtual space in the first display area in the display screen of the terminal of the first user and displaying the first message in the first display area is transmitted. It is characterized by that.
- the computer program according to the twentieth aspect is described as "from one of the third terminal and the terminal of the at least one user, the third terminal and the at least one user.
- the data including the third message is not transmitted to the terminal of the first user.
- the computer program according to the 21st aspect is the first aspect of the avatar of the at least one user, in any of the fifth to twentieth aspects subordinate to the fourth or fourth aspect described above.
- the predetermined condition includes data on the total number of avatars located in the area, and the predetermined condition is that the total number of avatars located in the first area among the avatars of the at least one user is the first value or more, and the above.
- One of the cases where the total number of avatars located in the first region among the avatars of at least one user is equal to or less than the second value, and the second data at each time of the plurality of times is stored.
- the cumulative total of the total number in the period from the second time to the first time among the plurality of times is determined, and the control is performed based on the determination. It is characterized by "determining the data.”
- the computer program according to the 22nd aspect is described in the 21st aspect as described above, "when the total number of avatars located in the first region among the avatars of at least one user is the first value or more, the cumulative total.
- the second time is determined so that the target period for determining is shortened, and the total number of avatars located in the first region among the avatars of at least one user is equal to or less than the second value.
- the second time is determined so that the period for which the cumulative total is determined is long.
- the computer program according to the 23rd aspect is characterized in that, in any one of the above-mentioned 1st to 22nd aspects, "the virtual space is a three-dimensional space". It was
- the computer program according to the twenty-fourth aspect is characterized in that, in any one of the first to the 23rd aspects described above, "the operation of the avatar of at least one user in the virtual space is predetermined". And.
- the computer program according to the 25th aspect is characterized in that, in any one of the above-mentioned first to twenty-four aspects, "the communication line includes the Internet".
- the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU). ) Is included.
- the computer program according to the 27th aspect is described in any one of the above-mentioned first to 26th aspects, "the at least one processor is mounted on a server device, a smartphone, a tablet, a mobile phone, or a personal computer.” It is characterized by that.
- the method according to the 28th aspect is "a step of acquiring the first data regarding the avatar in the virtual space operated by using the terminal of the first user, and at least one other than the first user via the communication line.
- the step of receiving the second data regarding the avatar in the virtual space operated by using the terminal of each user of the user, the first data includes the position of the avatar of the first user, and the second data includes the position of the avatar of the first user.
- the method according to the 29th aspect is "the first data regarding the avatar in the virtual space operated by the terminal of the first user via the communication line, and each of at least one user other than the first user.
- the step of receiving the second data regarding the avatar in the virtual space operated by using the terminal of the user, the first data includes the position of the avatar of the first user, and the second data is at least the above.
- the position of the avatar of the first user including at least one of the position of the avatar of one user and the total number of avatars located in the first region in the virtual space among the avatars of the at least one user.
- a step of determining whether or not the second data satisfies a predetermined condition, and control data for controlling a display screen of the terminal of the first user when it is determined that the predetermined condition is satisfied A step of determining the above and a step of transmitting the control data to the terminal of the first user via the communication line.
- the method according to the thirtieth aspect is characterized in that, in the above-mentioned 28th or 29th aspect, "the communication line includes the Internet".
- the method according to the 31st aspect is described as "the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU). ) Is included.
- the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU). ) Is included.
- the server device is described as "the first data regarding the avatar in the virtual space operated by the terminal of the first user via the communication line, and the at least one user other than the first user.
- the second data regarding the avatar in the virtual space operated by each user's terminal is received, the first data includes the position of the first user's avatar, and the second data is at least one.
- the position of the user's avatar, and the position of the first user's avatar including at least one of the total number of avatars located in the first region in the virtual space among the at least one user's avatar.
- the control data for controlling the display screen of the terminal of the first user is determined. , The control data is transmitted to the terminal of the first user via the communication line.
- the server device is characterized in that, in the 32nd aspect described above, "the communication line includes the Internet".
- the at least one processor includes a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU)". It is characterized by that.
- the technique of the present disclosure can provide a computer program, a method, and a server device so as not to impair the comfort as compared with the conventional technique.
- the configuration diagram 1 of the system 1000 is a block diagram showing an example of the configuration of the system 1000 according to the embodiment.
- the system 1000 includes, for example, a plurality of terminals 10 connected to a communication line (communication network) (not shown), and one or a plurality of server devices 20 connected to the communication line.
- the terminal 10 includes the first terminal 11.
- the terminal 10 may further include a second terminal 12.
- the server device 20 includes, for example, a first server system 21 and a second server system 22.
- Communication lines include mobile network, wireless network (for example, RF connection via Bluetooth, WiFi, WiMax, cellular, satellite, laser, infrared, etc.), fixed telephone network. , Internet, intranet, local area network (LAN), wide area network (WAN), and / or Ethernet network can be included without limitation.
- wireless network for example, RF connection via Bluetooth, WiFi, WiMax, cellular, satellite, laser, infrared, etc.
- fixed telephone network for example, fixed telephone network.
- Internet intranet, local area network (LAN), wide area network (WAN), and / or Ethernet network can be included without limitation.
- Terminal 10 The terminal 10 is connected to one or more server devices 20 via, for example, a communication line.
- the terminal 10 is, for example, a smartphone, a tablet device, and / or a personal computer.
- the terminal 10 is configured so that, for example, a predetermined application can be installed and the predetermined application can be executed.
- the terminal 10 outputs a web page (for example, an HTML document, in some examples, an HTML document encoded an executable code such as Javascript or PHP code) from the server device 20 (second server system 22). Can be received.
- a web page for example, an HTML document, in some examples, an HTML document encoded an executable code such as Javascript or PHP code
- FIG. 1 shows an example in which, for example, a first terminal 11 is provided as a plurality of terminals 10, but the present invention is not limited to this.
- the plurality of terminals 10 may include, for example, two or more terminals.
- the first terminal 11 may be referred to as a terminal 10.
- the first server system 21 includes a distribution server device 21A1 and a server storage device 21A2.
- the distribution server device 21A1 receives, for example, the data required for the application executed in the terminal 10 from the terminal 10. Further, the distribution server device 21A1 transmits, for example, data used for an application executed in the terminal 10 to the terminal 10 in response to the request.
- the server storage device 21A2 stores, for example, data to be transmitted from the distribution server device 21A1 to the terminal 10. Further, the server storage device 21A2 stores, for example, the data received from the terminal 10 by the distribution server device 21A1. Further, the first server system 21 transmits, for example, data used in an application executed by the terminal 10 to the terminal 10. Further, the first server system 21 transmits, for example, the data received from the terminal 10 to the device 70.
- the present invention is not limited to this.
- a web browser installed on the terminal 10 may be used to execute a process equivalent to executing the application.
- the server device 20 may include a web server (not shown).
- the web server transmits data related to HTML documents such as HTML5, and the terminal 10 displays data related to the HTML document using the web browser.
- User instruction data is transmitted to the terminal 10 (the web browser), and the server device 20 controls the display.
- the server device 20 generates display data by performing the display control, and transmits the display data to the terminal 10 (the web browser).
- the display may be controlled by using a script such as Javascript (registered trademark) in the web browser.
- the first server system 21 includes a distribution server device 21A1 and a server storage device 21A2 has been described, but the present invention is not limited thereto.
- the first server system 21 may include other configurations in addition to the distribution server device 21A1 and the server storage device 21A2.
- the other configuration may have at least one of the functions of the distribution server device 21A1 and the server storage device 21A2.
- the first server system 21 may be configured by a single configuration including the functions of the distribution server device 21A1 and the server storage device 21A2.
- the second server system 22 is a server that transmits data related to the content to the terminal 10.
- the user operates the terminal 10 to execute the application.
- the second server system 22 transmits the data related to the content to the terminal 10.
- the data related to the content transmitted from the second server system 22 to the terminal 10 is, for example, data related to moving images.
- the device 70 (third terminal) is, for example, a terminal operated by an operator or an operating organization that operates a virtual venue.
- the device 70 transmits predetermined data to the first server system 21 and receives predetermined data transmitted from the first server system 21.
- the specific configuration of the device 70 will be described later.
- FIG. 2 is a block diagram showing an example of the hardware configuration of the terminal 10 (server device 20) shown in FIG.
- FIG. 2 reference numerals in parentheses are described in relation to the server device 20 as described later.
- each terminal 10 includes, for example, a central processing unit 14, a main storage device 15, an input / output interface device 16, an input device 17, an auxiliary storage device 18, and an output device 19.
- the configurations shown in FIG. 2 are connected by a data bus and / or a control bus.
- the central processing unit 14 is called a "CPU", performs an operation on instructions and data stored in the main storage device 15, and stores the result of the operation in the main storage device 15. Further, the central processing unit 14 can control the input device 17, the auxiliary storage device 18, the output device 19, and the like via the input / output interface device 16.
- the terminal 10 can include one or more such central processing units 14.
- the main storage device 15 is referred to as a “memory”, and commands and data received from the input device 17, the auxiliary storage device 18 and the communication line 30 (server device 20 and the like) via the input / output interface device 16 and the central processing unit.
- the calculation result of the processing device 14 is stored.
- the main storage device 15 includes volatile memory (eg, register, cache, random access memory (RAM)), non-volatile memory (eg, read-only memory (ROM), EEPROM, flash memory), and storage (eg, hard disk).
- Computer-readable media such as drives (HDDs), solid state drives (SSDs), magnetic tapes, optical media) can be included without limitation.
- the term "computer-readable recording medium” is used for data storage such as memory and storage rather than transmission media such as modulated data signals or transient signals. Can include media.
- the input device 17 is a device that captures data from the outside, and includes, without limitation, a touch panel, a button, a keyboard, a mouse, and / or a sensor.
- the sensor may include, without limitation, a sensor including one or more cameras and / or one or more microphones and the like.
- the auxiliary storage device 18 is a storage device having a larger capacity than the main storage device 15. Instructions and data (computer programs) constituting the above-mentioned specific application (video distribution application, video viewing application, etc.), web browser application, and the like can be stored. Further, the auxiliary storage device 18 can transmit these instructions and data (computer programs) to the main storage device 15 via the input / output interface device 16 by being controlled by the central processing unit 14.
- the auxiliary storage device 18 may include, without limitation, a magnetic disk device and / or an optical disk device and the like.
- the output device 19 can include a display device, a touch panel, and / or a printer device without limitation.
- the central processing unit 14 sequentially loads the instructions and data (computer programs) that configure the specific application stored in the auxiliary storage device 18 into the main storage device 15.
- the central processing unit 14 controls the output device 19 via the input / output interface device 16 by computing the loaded instructions and data, or also via the input / output interface device 16 and the communication line 2.
- Various data can be transmitted and received to and from the device (for example, the server device 20, another terminal 10).
- each server device 20 A hardware configuration example of each server device 20 will be described with reference to FIG. As the hardware configuration of each server device 20 (each of the distribution server device 21A1 and the server storage device 21A2), for example, the same hardware configuration as that of each terminal 10 described above can be used. Therefore, reference numerals for the components of each server device 20 are shown in parentheses in FIG.
- each server device 20 mainly includes a central processing unit 24, a main storage device 25, an input / output interface device 26, an input device 27, an auxiliary storage device 28, and an output device 29. , Can be included. These devices are connected to each other by a data bus and / or a control bus.
- the central processing device 24, the main storage device 25, the input / output interface device 26, the input device 27, the auxiliary storage device 28, and the output device 29 are included in each of the above-mentioned terminals 10, respectively. It can be substantially the same as the device 15, the input / output interface device 16, the input device 17, the auxiliary storage device 18, and the output device 19.
- the central processing unit 24 sequentially loads the instructions and data (computer programs) that configure the specific application stored in the auxiliary storage device 28 into the main storage device 25.
- the central processing unit 24 controls the output device 29 via the input / output interface device 26 by calculating the loaded instructions and data, or also via the input / output interface device 26 and the communication line 2.
- Various data can be transmitted and received to and from the device (for example, each terminal 10).
- server device 20 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of the central processing unit 24 or together with the central processing unit 24.
- GPU graphics processing unit
- FIG. 3 is a block diagram showing an example of the function of terminal 10 shown in FIG.
- the terminal 10 includes, for example, a communication unit 110, an acquisition unit 120, a control unit 130, a display unit 140, a user interface unit 150, and a storage unit 160.
- Communication unit 110 The communication unit 110 is used, for example, to transmit various data to the server device 20. Further, the communication unit 210 is used, for example, to receive various data from the server device 20. The data received by the communication unit 210 is sent to, for example, the control unit 130.
- the acquisition unit 120 acquires operation data related to the operation from the user, for example. Further, the acquisition unit 120 acquires data detected by various sensors, for example. The data acquired by the acquisition unit 120 is sent to, for example, the control unit 130.
- the acquisition unit 120 processes, for example, S121 in FIG. 20 and S121 in FIG. 21, which will be described later.
- the operation data may include one or more of the following data: -Data showing how the distributor swiped the touchpad display-Data showing which part of the touchpad display the distributor touched-Data showing which object the distributor tapped or clicked -Data showing how the distributor dragged the touchpad display-Other such operation data
- the data acquired by the acquisition unit 120 may be data related to non-operation (data indicating that the operation has not been performed), and for example, it indicates that the terminal 10 has not been operated for a specific time (specific period). Data and / or data indicating that the user did not enter a specific place in the virtual space 300.
- Control unit 130 performs various controls based on the data received by the communication unit 110, for example. Further, the control unit 130 performs various controls based on the data acquired by the acquisition unit 120.
- the control unit 130 processes, for example, S125 and S141 in FIG. 20 and S125 and S141 in FIG. 21, which will be described later.
- the display unit 140 displays, for example, display contents based on control data output from the control unit 130.
- the display unit 140 displays, for example, a screen for selecting a predetermined application. Further, the display unit 140 displays, for example, a screen related to the virtual space when a predetermined application is selected and the predetermined application is executed.
- User interface unit 150 The user interface unit 150 is used for inputting various data used for executing an application through user operations.
- Storage unit 160 can store various data used for executing the application.
- the storage unit 160 stores data used for controlling the display unit 140.
- the storage unit 160 stores, for example, module data used for generating an avatar of the first user.
- the storage unit 160 is not limited to storing the module data used for generating the avatar of the first user, and may store the module data used for generating another avatar.
- the module data is, for example, data related to parts for generating an avatar.
- the parts for generating the avatar include, for example, data of each part of the avatar (eyes, nose, mouth, eyebrows, skin color, hairstyle, hair color, clothes, body, etc.).
- the module data includes data regarding an ID assigned corresponding to each part for generating an avatar.
- the data related to the parts for generating the avatar includes the data subdivided regarding the body shape such as lean type, slightly lean type, standard, slightly obese, and obese. You may be.
- the server device 20 transmits ID data used for generating the avatar 80 other than the avatar 80A to the first terminal 11.
- the first terminal 11 may be configured to construct an avatar 80 other than the avatar 80A based on the ID data.
- the display unit 140 may color the avatar 80 other than the avatar 80A in black and display the avatar 80A. Displaying an avatar 80 other than the two-choice avatar 80A for men or women using parts and / or colors determined based on the gender (eg, male or female) of the user corresponding to the avatar 80 other than May be good.
- FIG. 4 is a block diagram showing an example of the function of the server device 20 shown in FIG.
- the server device 20 includes, for example, a communication unit 210, a storage unit 220, and a control unit 230.
- Communication unit 210 The communication unit 210 is used, for example, to transmit various data to the terminal 10. Further, the communication unit 210 is used, for example, to receive various data from the terminal 10. The data received by the communication unit 210 is sent to the control unit 230.
- the storage unit 220 stores various data used for executing the application.
- the storage unit 220 stores, for example, the first data transmitted from the first terminal 11.
- the first data transmitted from the first terminal 11 includes, for example, data relating to the avatar 80A.
- the first data may include data relating to "behavior history". The details of the first data transmitted from the first terminal 11 and the data related to the "behavior history" will be described later.
- Control unit 230 performs various controls based on the data received by the communication unit 210, for example.
- the control unit 230 processes, for example, S183 in FIG. 20, S193 in FIG. 20, S131 in FIG. 21, S183 in FIG. 21, and S193 in FIG. 21, which will be described later.
- FIG. 5 is a diagram showing a display example displayed on the display unit 140 of the first terminal 11 by operating the first terminal 11 to start an application.
- the virtual space 300 is displayed on the display unit 140.
- the virtual space 300 is, for example, a three-dimensional space.
- the avatar 80 and the virtual venue 310 are shown in the virtual space 300.
- the avatar 80 is configured so that at least one of walking, running, and jumping can be performed by the user's operation.
- the avatar 80 for example, examines a virtual object, pushes a virtual object, pulls a virtual object, lifts a virtual object, sits on a virtual object, purchases a virtual object, and puts an item on the virtual object by a user operation. It is structured so that it can be handed over.
- the virtual object is, for example, an avatar, a door, a grocery item, an admission ticket, a chair, an exhibit, or the like.
- an explanation about the virtual object is displayed on the display unit 140.
- the statement describing the virtual object is, for example, at least one of the name of the virtual object, the purpose of the virtual object, and the price of the virtual object.
- the description of the virtual object is, for example, at least one of a sentence, an image, and a moving image.
- the position of the virtual object in the virtual space 300 can be changed by the above-mentioned operations of "pushing the virtual object”, “pulling the virtual object”, and "lifting the virtual object”.
- the avatar 80 is seated on the virtual object by the above-mentioned operation of "sit on the virtual object".
- the avatar 80 may be configured so that it can be seated in a specific place other than the virtual object. Further, it is assumed that the avatar 80 is seated in the virtual object, or the avatar 80 is seated in a specific place other than the virtual object.
- the display unit 140 may display a display screen different from the display screen before the avatar 80 is seated (for example, a display screen without a UI operation unit or a chat screen), or the avatar 80 may be seated. You may hide the user interface that existed before you did.
- the display unit 140 displays a display screen different from the display screen before the avatar 80 is seated, the display unit 140 may display so that the screen to be displayed or the like is displayed in full screen. ..
- the virtual object can be purchased by the above-mentioned operation of "purchasing a virtual object". If the virtual object is wearable, the appearance of the avatar 80 can be changed by wearing the virtual object purchased by the avatar 80.
- the avatar 80 other than the avatar 80 to be operated may be an avatar operated by the user, or the operation in the virtual space 300 is predetermined. May be.
- the avatar 80 is determined in advance for the operation in the virtual space 300, it means that the avatar 80 operates as an NPC (Non Player Character).
- the appearance of the avatar 80 shown in FIG. 5 is all the same, but the appearance is not limited to this.
- the appearance of the avatar 80 may be determined based on data about the user operating the avatar 80 or data about the ID associated with the part of the avatar 80 selected by the user. For example, when the user who operates the avatar 80 is a male, the appearance of the avatar 80 may be male. Further, for example, when the user who operates the avatar 80 is a female, the appearance of the avatar 80 may be female.
- the behavior of the avatar in the virtual space may change in conjunction with the behavior of the user.
- the avatar in the virtual space may also nod.
- the motion data can be acquired using, for example, a motion capture system.
- a motion capture system As will be readily appreciated by those skilled in the art who benefit from the present disclosure, some examples of suitable motion capture systems that may be used with the devices and methods disclosed in this application used passive or active markers. Alternatively, it includes an optical motion capture system without a marker and an inertial and magnetic non-optical system.
- Motion data uses an image capture device (such as a CCD (Charge Bonding Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor) coupled to a computer that converts the motion data into moving images or other image data. Can be obtained.
- image capture device such as a CCD (Charge Bonding Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor
- CMOS Complementary Metal Oxide Semiconductor
- the display unit 140 When operating the avatar 80A shown in FIG. 5, for example, the display unit 140 displays a screen as shown in FIG.
- FIG. 16 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 16 is a diagram showing an example displayed on the display unit 140 of the first terminal 11 when the first user operates the avatar 80A using the first terminal 11.
- the display unit 140 displays the avatar 80, the avatar 80A, and the virtual venue 310.
- the display unit 140 displays the back surface of the avatar 80A, and the line of sight of the first user who operates the first terminal 11 and the line of sight of the avatar 80A corresponding to the first user are in the same direction.
- the display unit 140 displays, for example, an area in the virtual space including the avatar 80A with reference to the virtual viewpoint located in the front direction of the paper surface of FIG. 16 with respect to the avatar 80A.
- the display unit 140 displays an area of the virtual space including the traveling direction of the avatar 80A.
- the area in the virtual space displayed by the display unit 140 can be changed.
- the display unit 140 can display the area not displayed in FIG. 16.
- the first terminal 11 acquires, for example, data regarding the position of the avatar 80A in the virtual space 300. Further, for example, the data regarding the position of the avatar 80A acquired by the first terminal 11 in the virtual space 300 is transmitted to the server device 20.
- the timing at which the first terminal 11 acquires data regarding the position of the avatar 80A in the virtual space 300 may be any timing. Further, for example, the timing at which the data regarding the position of the avatar 80A acquired by the first terminal 11 in the virtual space 300 is transmitted to the server device 20 may be arbitrary.
- any area of the display unit 140 of the first terminal 11 may be touch-operated. Further, when the first terminal 11 is provided with an acceleration sensor (not shown) and the first terminal 11 is operated, the display area and / or the direction displayed by the display unit 140 can be changed based on the acceleration sensor. May be.
- the above-mentioned "arbitrary area” includes, for example, the icon 301 (area 301) and / or the display area 314 of FIG.
- the icon 301 and / or the display area 314 is an operation user interface for performing a predetermined display control by performing a touch operation.
- the "touch operation” refers to at least one of tap, double tap, swipe, flick, pinch in, and pinch out, for example.
- the icon 301 and / or the display area 314 is the same not only when displaying FIG. 16 but also when displaying another drawing (for example, at least one of FIGS. 17 to 19) described later. It may be displayed at a position or at a different position.
- two icons 301 may be provided, or one or three or more icons may be provided.
- one icon 301 corresponds to, for example, an area used for walking the avatar 80A
- another icon 301 corresponds to, for example, the avatar 80A to jump.
- the avatar 80A can be walked or jumped by touching the icon 301.
- the touch operation for walking or jumping the avatar 80A is, for example, an operation of tapping or double-tapping the icon 301 of the avatar 80A.
- the area for performing the touch operation for walking or jumping the avatar 80A may be an area other than the icon 301.
- the display area 314 is an area for displaying a message input by the user corresponding to the avatar 80.
- the display unit 140 displays the display area 314.
- at least one of a message transmitted from the first terminal 11 and a message transmitted from a terminal other than the first terminal is displayed in the display area 314.
- the message displayed in the display area 314 may display a message addressed to the first terminal
- the message displayed in the display area 314 is a message exchanged between terminals other than the first terminal. It may be displayed. Therefore, the display area 314 is an area that can be viewed and / or chatted by a user corresponding to at least one avatar 80 existing in the virtual space 300, or at least one avatar existing in a specific place in the virtual space 300. It functions as an area where the user corresponding to 80 can view and / or chat.
- the first terminal 11 allows the first user to chat with the user corresponding to at least one avatar 80 among all the avatars 80 via the display area 314 of the display unit 140.
- the first terminal 11 allows the first user to chat with a user corresponding to all the avatars 80 existing in a predetermined area (in the same area) via the display area 314 of the display unit 140.
- the user who chats with the first user is an individual user or an exhibiting company.
- a touch operation is performed to display a message not displayed in the display area 314. can do.
- the touch operation in the case where all the messages cannot be displayed in the display area 314 is, for example, a swipe.
- the condition for displaying the display area 314 on the display unit 140 is not limited to the case where the avatar 80 is located in the virtual venue 310.
- the display area corresponding to the predetermined area may be displayed on the display unit 140. That is, the display area to be displayed on the display unit 140 may be determined according to the position where the avatar 80 exists.
- the user can exchange a message with a user corresponding to another avatar 80 existing in the same area as the area where the user's avatar 80 exists.
- the user can chat with a user having a specific attribute. Therefore, the user can easily communicate with other users who have common interests, interests, and / or attributes.
- the terminal of the transmission source of the message displayed in the display area 314 is, for example, a terminal used by a user who operates an avatar existing in the virtual venue 310.
- the avatar corresponding to the terminal of the sender of the message in which the display area 314 is displayed may or may not be displayed in the virtual venue 310.
- the products that can be purchased may be displayed in the display area 314.
- the product is, for example, a product related to an operator or an operating organization that operates the virtual venue 310.
- the content related to the product and the content urging the purchase of the product may be displayed together with the product.
- the content prompting the purchase of the product is a display such as "put in the shopping cart" and is configured to be selectable.
- a browser installed on the terminal 10 is activated and the product is purchased.
- a page requesting input of the content used for is displayed on the display unit 140.
- the display unit 140 displays the line segment 322 connecting the avatar 80A and the point 321 and the avatar 80A is a line. Walk along the minute 322 to point 321.
- the point 321 and the line segment 322 may have any color.
- tapping or tapping an arbitrary point on the virtual straight line in the changed traveling direction It is an operation of double tapping.
- the display unit 140 may display the icon 323.
- the icon 323 is used for switching between display and non-display of the display area 314 by being operated.
- the display unit 140 may not display the icon 323 or may continuously display the icon 323.
- FIG. 17 is a diagram showing an example of a display screen in the virtual venue 310 displayed on the display unit 140 of the terminal 10.
- the user who operates the first terminal 11 operates the avatar 80A, and the avatar 80A shown in FIG. 16 is located inside the virtual venue 310, so that the scene is switched and the display screen is switched.
- the URL when the display screen when the avatar 80A exists outside the virtual venue 310 (for example, FIG. 16) is displayed by using the web browser of the first terminal 11 is that the avatar 80A is inside the virtual venue 310 (for example,). It is different from the URL when the display screen in the case of being present in FIG. 17) is displayed by using the web browser of the first terminal 11.
- the web browser of the first terminal 11 when used, if the avatar 80A shown in FIG. 16 is located inside the virtual venue 310, the URL will be changed.
- an avatar 80, an avatar 80A, a chair 81, a display area 311, a display area 312, an avatar 313, and a slider 330 are shown.
- the slider 330 is not an essential configuration.
- the virtual venue 310 is, for example, a booth such as an exhibition or event venue. At least one chair 81 is provided. It is assumed that the avatar 80 and the avatar 80A are located in the first area in the virtual venue 310.
- the chair 81 is, for example, a virtual object in which the avatar 80 can be seated.
- the avatar 80A when the user operates the avatar 80A to approach a specific chair among the plurality of chairs 81 and perform a predetermined operation, the avatar 80 is seated in the chair 81.
- the display screen of the first terminal 11 asks whether or not to sit on the specific chair. A message is displayed.
- the user operates the terminal 10 to perform a predetermined operation indicating the intention to sit in the specific chair in response to the message.
- the avatar 80 is seated in the chair 81.
- a configuration may be adopted in which the avatar 80 is seated together with the virtual object that can be seated, or instead of the virtual object that can be seated, when a specific place in the virtual space 300 is designated.
- a message asking whether or not to sit in the specific place may be displayed on the display screen of the first terminal 11.
- a predetermined user operates the terminal 10 to indicate the intention to sit in the specific place to the message.
- the avatar 80 may be configured to sit in that particular location.
- the avatar 313 is, for example, an avatar that imitates a staff member who advances through the virtual venue 310.
- the avatar 313 may be an avatar operated by the user, or may be an avatar whose operation in the virtual space 300 is predetermined.
- the avatar 80 is determined in advance for the operation in the virtual space 300 and operates, it means that the avatar operates as the above-mentioned NPC.
- a predetermined explanation is started.
- the time used in the virtual space may be a time synchronized so as to be the same as the actual time, or may be a time used in the virtual space 300 separately from the actual time. ..
- the condition for starting the predetermined explanation at the virtual venue 310 does not have to be related to the time.
- the condition for starting a predetermined explanation in the virtual venue 310 is, for example, when the number of avatars existing in the virtual venue 310 exceeds a predetermined number, or when a specific avatar is located in the virtual venue 310, or the like. May be.
- a plurality of avatars may be configured so that they can be seated in one seat at the same time.
- the user can operate the avatar 80A using the terminal 10 to seat the avatar 80A in the chair 81 on the left side of FIG. May be.
- the total number of avatars located in the virtual venue 310 exceeds the total number of chairs 81, all the avatars who view the content displayed in the display area 311 are seated in the virtual venue 310. be able to.
- a predetermined explanation started at a predetermined time is performed by displaying a predetermined content in the display area 311 and / or outputting a voice.
- the explanation is, for example, a moving image.
- the moving image is, for example, one of a predetermined explanatory moving image, an event moving image such as a concert, a moving image such as a movie, and a moving image reflecting a real-time Vtuber movement and / or acting.
- the terminal 10 requests data related to the moving image from the second server system 22.
- the second server system 22 transmits data related to the moving image to the terminal 10 in response to the request.
- the terminal 10 can receive the data related to the moving image from the second server system 22 and watch the moving image.
- the display unit 140 displays FIG. 18 or FIG. 19 instead of FIG.
- the display unit 140 displays the first person viewpoint (FPS: First Person Shooter) instead of the display related to the third person viewpoint (TPS: Third Person Shooter). That is, the display unit 140 performs a display that does not include the avatar 80A instead of the display that includes the avatar 80A.
- the above-mentioned “first condition” means that, for example, the first data includes operation data for selecting a part of the area including the first position, and the first data is displayed on the display unit 140.
- the operation data for selecting one target is included, or the first data includes data indicating that the avatar 80A exists in the first region.
- the first area is a predetermined area in the virtual venue 310
- the above-mentioned "data indicating that the avatar 80A exists in the first area” is the position of the avatar 80A in the virtual venue 310. It is data indicating that it exists in a predetermined area.
- the "first condition” is, for example, to be located at a predetermined position in the virtual venue 310 or a predetermined area in the virtual venue 310.
- the "predetermined area” refers to, for example, an area within a predetermined distance within the virtual venue 310 with respect to the display area 311.
- the "first condition” may be, for example, to specify the display area 311.
- the “first condition” may be, for example, that the user operates the terminal 10 and the avatar 80A is seated in the chair 81.
- the "first condition” may be, for example, to be located in a predetermined position in the virtual venue 310 or a predetermined area in the virtual venue 310 and to specify the display area 311.
- the "first condition” may be, for example, that the user operates the terminal 10 so that the avatar 80A sits on the chair 81 and the display area 311 is designated.
- the display unit 140 enlarges and displays a part of the virtual venue 310 shown in FIG.
- the display unit 140 may enlarge and display the display area 311 shown in FIG. 17, or may enlarge and display an object other than the display area 311 shown in FIG. Further, in FIG. 18, the display unit 140 does not display, for example, the avatar 80A.
- the icon 301 may or may not be displayed.
- the display area 314 may or may not be displayed.
- the icon 323 may or may not be displayed.
- the slider 330 may or may not be displayed.
- the display unit 140 enlarges and displays a part of the virtual venue 310 shown in FIG. Specifically, the display unit 140 displays the display area 311 over substantially the entire display screen, for example.
- the display unit 140 displays, for example, the icon 301 (area 301).
- the icon 301 is an icon for switching from the screen of FIG. 19 to another screen.
- the "other screen” is, for example, any screen of FIGS. 16 to 18.
- the icon 301 is, for example, the same as the icon 301 shown in FIG.
- the functions assigned to each of the icon 301 of FIG. 16 and the icon 301 of FIG. 19 are configured to differ depending on, for example, the screen displayed by the display unit 140.
- the display unit 140 displays the icon 301 on the screen of the third person viewpoint (TPS) shown in FIG. 16 or FIG. 17, when the icon 301 is operated, for example, as described above, the avatar 80A is walked. Or make it jump.
- the display unit 140 displays the icon 301 on the screen of the first-person viewpoint (FPS) shown in FIG. 19, when the icon 324 is operated, for example, the avatar 80A is left.
- disengaging the avatar 80A means that the display unit 140 displays the third person viewpoint (TPS) shown in FIG. 16 or 17 instead of the first person viewpoint (FPS) shown in FIG. Point to.
- the display unit 140 displays the icon 301 on the screen as shown in FIG. 19, when the icon 324 is operated, the display screen may be switched to the display screen as shown in FIG. 18, for example.
- the display unit 140 may enlarge and display the display area 311 shown in FIG. 17, or may enlarge and display an object other than the display area 311 shown in FIG. Therefore, the enlargement ratio of the display area 311 in FIG. 19 is larger than the enlargement ratio of the display area 311 in FIG. Further, in FIG. 19, the display unit 140 does not display, for example, the avatar 80A. Further, in FIG. 19, the area 301 may or may not be displayed. Further, in FIG. 19, the display area 314 may or may not be displayed. Further, in FIG. 19, the icon 323 may or may not be displayed. Further, in FIG. 19, the slider 330 may or may not be displayed.
- the display area 314 by displaying the display area 314 in FIGS. 18 and / or 19, it is possible to communicate with other users through the display area 314 while viewing the content displayed in the display area 311.
- the content of the message of the other user displayed in the display area 314 is the content related to the content displayed in the display area 311, the first user exchanges the message with the other user to obtain the first user. Even when one user is physically separated from the other user, the first user feels as if he / she is viewing the content displayed in the display area 314 together with the other user. be able to.
- the first user can further concentrate on viewing the content displayed in the display area 311. Further, in the case where the message displayed in the display area 314 can include the content related to the content of the display area 311 by hiding the display area 314 in FIG. 18, the first user can use the content before viewing the content. It is possible to reduce the possibility of unintentionally grasping the content related to the content through the display area 314.
- the display and non-display of the display area 314 can be displayed and hidden without requiring complicated operations while viewing the content displayed in the display area 311. You can switch. Further, by displaying the icon 323 in FIGS. 18 and / or 19, the content displayed in the display area 311 is operated before the viewing is started or after the viewing is finished, and the display area 314 is operated. Is displayed so that the first user can communicate with other users, and while viewing the content displayed in the display area 311 by operating the icon 323, the display area 314 is hidden. The first user can view the content displayed in the display area 311.
- the icon 323 is operated to hide the display area 314 and the first user views the content displayed in the display area 311 as described above, the first user is in the display area 311. You can focus more on watching the displayed content. Further, when the first user views the content displayed in the display area 311 by operating the icon 323 to hide the display area 314, the message displayed in the display area 314 is displayed as described above.
- the first user can reduce the possibility of unintentionally grasping the content related to the content through the display area 314 before viewing the content.
- the display area 311 is displayed. It is possible to reduce the possibility that a part of the icon 323 overlaps with the icon 323. Therefore, for example, when the first user expands the display area 311 while viewing the content displayed in the display area 311 and the character is displayed in a part of the display area 311, the character is the icon 323. By superimposing it on the display position, it is possible to reduce the possibility that the character cannot be visually recognized. Further, by hiding the icon 323 in FIG. 19, the possibility that a part of the display area 311 and the icon 323 overlap can be reduced.
- the enlargement ratio of the display area 311 can be finely adjusted intuitively. Therefore, for example, when the enlargement ratio of the display area 311 in the transition to FIG. 18 or FIG. 19 is determined in advance instead of FIG. 17, the first user intuitively fine-tunes to the desired enlargement ratio. Can be done instinctively.
- the display area 311 is displayed. It is possible to reduce the possibility that a part of the slider 330 overlaps with the slider 330. Therefore, for example, when the first user expands the display area 311 while viewing the content displayed in the display area 311 and the character is displayed in a part of the display area 311, the character is the slider 330. By superimposing it on the display position, it is possible to reduce the possibility that the character cannot be visually recognized. Further, by hiding the slider 330 in FIG. 19, it is possible to reduce the possibility that a part of the display area 311 and the slider 330 overlap each other.
- the display unit 140 can display FIG. 18 or FIG. 19 instead of FIG. 17 when the above-mentioned first condition is satisfied. Therefore, for example, the user repeatedly pinches in to the display area 311 of the display unit 140 to fine-tune the enlargement ratio, or when the pinch-in is repeatedly performed to cause excessive enlargement, the user pinches out to adjust the enlargement ratio.
- the user is displayed in the display area 311. You can immerse yourself in the viewing of content, and even when you execute the application of the present disclosure using a terminal 10 with a relatively small display screen such as a smartphone, you can easily and appropriately switch the display.
- the display of FIG. 17 corresponds to the "first display” in the present disclosure
- the display of FIG. 18 corresponds to the "second display” in the present disclosure. It can be equivalent.
- the display of FIG. 17 corresponds to the "first display” in the present disclosure
- the display of FIG. 19 corresponds to the "second display” in the present disclosure. sell.
- the operation of moving the avatar 80A may be configured to be accepted, or the operation of moving the avatar 80A may be not accepted. ..
- the operation of moving the avatar 80A is configured so as not to be accepted, for example, when a moving image is displayed in the display area 311 and the user is watching the moving image.
- At least one of the operations may be, for example, an operation of moving the seated avatar 80A away from the chair 81.
- At least one of the operations may be, for example, an operation in which the user taps, double taps, swipes, flicks, pinches in, and pinches out the area 301, such as icon 323. It may be an operation of designating (touching) a specific icon. ..
- At least one of the operations may be, for example, an operation in which the user taps, double taps, swipes, flicks, pinches in, and pinches out the display area 311 or the icon 323. It may be an operation of designating (touching) a specific icon such as.
- an operation for changing from the display of FIG. 19 to the display of FIG. 17, an operation for changing from the display of FIG. 19 to the display of FIG. 18, and an operation for changing from the display of FIG. 18 to the display of FIG. At least one of the operations may be performed, for example, by the user operating the slider 330.
- the display unit 140 may not display the icon 323 instead of displaying the display area 314.
- the slider 330 is, for example, an operation user interface including the first element 331 and the second element 332.
- the first element 331 is configured to be slidable on the second element 332.
- the display unit 140 displays the slider 330, for example, in at least one of FIGS. 17 to 19.
- the display unit 140 enlarges and displays a part of the area of the virtual venue 310. Further, as the first element 331 is displaced from the right side to the left side on the second element 332, the display unit 140 reduces and displays a part of the area of the virtual venue 310. In this way, when the display unit 140 displays the display screens shown in FIGS. 17 to 19, the user can adjust the enlargement ratio of a part of the virtual venue 310.
- the display unit 140 displays FIG. 18 instead of FIG. 17 by satisfying the above-mentioned "first condition", in the display unit 140, for example, the first element 331 is located substantially in the center of the second element 332. Such as FIG. 18 may be displayed. Further, when the display unit 140 displays FIG. 19 instead of FIG. 17 by satisfying the above-mentioned "first condition", in the display unit 140, for example, the first element 331 is located at the right end of the second element 332. FIG. 19 may be displayed.
- FIGS. 20 and 21 are flowcharts showing an example of the operation performed by using the system 1000 shown in FIG.
- the first user operates the first terminal 11 to start the application. After that, in S121, the first terminal 11 acquires the first data.
- the first data includes, for example, data related to an avatar in a virtual space operated by using the terminal of the first user.
- the first data may be user operation data or operation history data, and may include, for example, data regarding the position of the avatar of the first user.
- the first data may include, for example, data regarding the behavior history of the avatar in the virtual space operated by using the terminal of the first user in the virtual space.
- the first terminal 11 performs the first display control process.
- the first display control process is as shown in FIG. 17 when, for example, the user who operates the first terminal 11 operates the avatar 80A and the avatar 80A shown in FIG. 16 is located inside the virtual venue 310. Refers to the process of displaying the display screen.
- the first terminal 11 performs the first determination process.
- the first determination process determines whether or not the first data satisfies a predetermined condition (first condition).
- first condition a predetermined condition
- the control data for controlling the display unit 140 of the first terminal 11 is determined, and the process of S141 is executed.
- the process of S131 is repeated.
- the first condition in S131 is, for example, to be located in a predetermined position in the virtual venue 310 or in a predetermined area in the virtual venue 310.
- the "predetermined area” refers to, for example, within a predetermined distance with respect to the display area 311.
- the "first condition” may be, for example, to specify the display area 311.
- the "first condition” may be, for example, that the user operates the terminal 10 and the avatar 80A is seated in the chair 81.
- the "first condition” may be, for example, being located in a predetermined position in the virtual venue 310 or a predetermined area in the virtual venue 310, and designating the display area 311.
- the "first condition” may be, for example, that the user operates the terminal 10 and the avatar 80A sits on the chair 81, and that the display area 311 is designated.
- the first terminal 11 performs a process (second display control process) of controlling the display unit 140 of the first terminal 11 based on the control data. As a result, the display unit 140 of the first terminal 11 displays FIG. 18 or FIG. 19 instead of FIG. 17.
- the first terminal 11 transmits the first data to the server device 20. Before S141, the first terminal 11 may transmit the first data to the server device 20.
- the server device 20 determines the analysis data based on the first data. Then, the server device 20 transmits the determined analysis data to the device 70. For example, each time the server device 20 receives the first data, the server device 20 determines the analysis data and transmits the determined analysis data to the device 70.
- the server device 20 determines the advertisement data based on the first data.
- the advertisement data is data determined based on the first data and includes data for a first user who operates the first terminal 11.
- the server device 20 transmits the determined advertisement data for the first user to the first terminal 11.
- the first user starts the application by operating the first terminal 11. After that, in S121, the first terminal 11 acquires the first data.
- the first data includes, for example, data related to an avatar in a virtual space operated by using the terminal of the first user.
- the first data may be user operation data or operation history data, and may include, for example, data regarding the position of the avatar of the first user.
- the first data may include, for example, data regarding the behavior history of the avatar in the virtual space operated by using the terminal of the first user in the virtual space.
- the first terminal 11 transmits the first data to the server device 20.
- the server device 20 receives the first data and generates the first control data based on the first data. Further, the server device 20 transmits the first control data to the first terminal 11.
- the first terminal 11 performs the first display control process.
- the first display control process is as shown in FIG. 17 when, for example, the user who operates the first terminal 11 operates the avatar 80A and the avatar 80A shown in FIG. 16 is located inside the virtual venue 310. Refers to the process of displaying the display screen.
- the server device 20 performs the first determination process.
- the first determination process determines whether or not the first data satisfies a predetermined condition (first condition).
- first condition a predetermined condition
- the server device 20 determines in S131 that the first condition is satisfied
- the second control data for controlling the display unit 140 of the first terminal 11 is determined, and the second control data is transferred to the first terminal 11. It is transmitted and the process of S141 is executed.
- the process of S131 is repeated.
- the first condition in S131 is, for example, to be located in a predetermined position in the virtual venue 310 or in a predetermined area in the virtual venue 310.
- the "predetermined area” refers to, for example, within a predetermined distance with respect to the display area 311.
- the "first condition” may be, for example, to specify the display area 311.
- the "first condition” may be, for example, that the user operates the terminal 10 and the avatar 80A is seated in the chair 81.
- the "first condition” may be, for example, being located in a predetermined position in the virtual venue 310 or a predetermined area in the virtual venue 310, and designating the display area 311.
- the "first condition” may be, for example, that the user operates the terminal 10 and the avatar 80A sits on the chair 81, and that the display area 311 is designated.
- the first terminal 11 performs a process (second display control process) of controlling the display unit 140 of the first terminal 11 based on the second control data.
- the display unit 140 of the first terminal 11 displays FIG. 18 or FIG. 19 instead of FIG. 17.
- the server device 20 determines the analysis data based on the first data. Then, the server device 20 transmits the determined analysis data to the device 70. For example, each time the server device 20 receives the first data, the server device 20 determines the analysis data and transmits the determined analysis data to the device 70.
- the server device 20 determines the advertisement data based on the first data.
- the advertisement data is data determined based on the first data and includes data for a first user who operates the first terminal 11.
- the server device 20 transmits the determined advertisement data for the first user to the first terminal 11.
- the advertisement data transmitted to the first terminal 11 may include, for example, data regarding guidance regarding an event to be held in the future by a predetermined operating organization.
- the data includes at least one of text data, image data, and moving image data.
- the above-mentioned advertisement data may be, for example, data including a URL for accessing a database for storing a second data regarding an advertisement determined based on the first data. good.
- the above-mentioned advertisement data may have already been downloaded into the application (application) by, for example, batch processing.
- the server device 20 transmits data related to the ID corresponding to the data to be transmitted to the first terminal 11, and the first terminal 11 displays the advertisement data based on the ID. May be good.
- FIG. 11 shows an example of data transmitted from the terminal 10.
- the server device 20 receives various data from each terminal 10.
- various data relate to, for example, “age”, “gender”, “current position”, “virtual object”, “chat history”, “content viewing history”, “part ID”, and “simple avatar”.
- the "part ID” is, for example, data for identifying an avatar.
- the "simple avatar” is, for example, data regarding an ID of a pattern according to gender including males and females.
- first data may include, for example, at least one of the contents relating to the first user in FIG.
- FIG. 11 shows an example in which the age of the first user is 21 years old, the age of the second user is 31 years old, and the age of the third user is 41 years old. Has been done.
- FIG. 11 shows an example in which the gender of the avatar of the first user is male, the gender of the avatar of the second user is female, and the gender of the avatar of the third user is male. It is shown.
- the avatar operated by the first user exists at the position A01
- the avatar operated by the second user exists at the position B01
- the operation of the third user An example is shown in which the avatar to be used exists at the position C01.
- the avatar operated by the first user purchases the virtual object A12 at the price A13 at the time A11
- the avatar operated by the second user is the virtual object at the time B11.
- An example is shown in which the avatar operated by the third user opens B12 and acquires the virtual object C12 at the time C11.
- the virtual object B22 is, for example, a door.
- chat history in FIG. 11, the terminal of the first user sends a message "hello" to the terminal of the third user at the position A22 at the time A21, and the second user is any other.
- chat history There is no chat history with the user, and an example is shown in which the terminal of the third user receives the message "Hello" from the terminal of the first user at the position C22 at the time C21.
- the avatar of the first user stands up at the position A32 at the time A31 and starts viewing the content
- the avatar of the second user stands at the position B32 at the time B31.
- an example is shown in which the content is viewed on the seat B33 for 2 hours, and the avatar of the third user finishes viewing the content at the position C32 at the time C31 and leaves the seat C33.
- the above-mentioned “age” may indicate the age group to which the user belongs. For example, when defining 21 years old or more and 30 years old or less as category 1, it may be shown that the age of the first user belongs to category 1. Further, for example, when 31 years old or more and 40 or less are defined as category 2, it may be shown that the age of the second user belongs to category 2. Further, for example, when the age of 41 to 50 is defined as category 3, it may be shown that the age of the third user belongs to category 3. In this way, for example, when the analysis data is determined in S183 of FIG. 20 or S183 of FIG. 21 and the analysis data is transmitted to the device 70, the age without transmitting the specific personal information of the user to the device 70. Data related to can be used for marketing and the like.
- the present invention may include data indicating a trajectory of the avatar moving in the virtual space 300 within a predetermined period.
- the data transmitted from the terminal of one user to the terminal of another user may include at least one of text, pictograms, voice messages, images, and moving images.
- the first data shown in FIG. 11 is not limited to the above-mentioned example, and may include data related to "behavior history".
- the data related to the "action history” is, for example, the time when the avatar 80 enters the virtual venue 310, the time when the avatar 80 leaves the virtual venue 310, the time when the avatar 80 stays at the virtual venue 310, and the avatar 80 at the virtual venue 310.
- the server device 20 may select which of the contents shown in FIG. 11 data is to be transmitted to the device 70. For example, when the data transmitted to the device 70 includes the content related to the chat history shown in FIG. 11, the server device 20 uses the data shown in FIG. 11 excluding the content related to the chat history. It may be transmitted to 70.
- the server device 20 may transmit the data in which at least a part of the contents shown in FIG. 11 is changed to the device 70.
- the server device 20 sends data indicating that the avatar of the first user is located at the position A01 to the device 70, but instead of transmitting data indicating that the avatar of the first user is located near the position A01. May be transmitted to the device 70.
- the data including the message is not transmitted to the other terminal 10. It is also good. In this way, the data exchanged between the second terminal 12 and the device 70 is not transmitted to any terminal other than the second terminal 12. Therefore, when the data transmitted and received between the second terminal 12 and the device 70 includes data related to the personal information of the user who operates the second terminal 12, the personal information is a terminal other than the second terminal 12. It is possible to reduce the possibility of being known to the user who operates the 10.
- the user ID and the avatar 80 in the chat may or may not be linked to each other. There may be.
- the first data regarding the avatar in the virtual space operated by the first terminal of the first user is acquired, and the first data including the avatar is included based on the first data.
- 1 Display is displayed on the display unit of the first terminal, it is determined whether or not the first condition is satisfied based on the first data, and when it is determined that the first condition is satisfied, the virtual space Among them, the display unit is controlled so as to switch the display from the first display to the second display based on the first position where the avatar exists. In this way, when the avatar 80A is moved in the virtual space 300, the display unit 140 displays the avatar 80A, so that the first user can easily grasp the operation and / or the position of the avatar 80A being operated. be able to.
- the user when viewing content in the virtual space 300, the user optimizes the display (content) of the display area 311 and hides the avatar 80 operated by the user without performing complicated operations.
- the user can immerse himself in viewing the content displayed in the display area 311 and can easily and appropriately switch the display even when the application of the present disclosure is executed using the terminal 10 having a relatively small display screen such as a smartphone. Can be done.
- the server device 20 may receive the first data from the first terminal 11 before S131. As a result, the server device 20 may perform the processing of S183 before S131 and transmit the analysis data to the device 70. Further, for example, the server device 20 may perform the processing of S193 before S131 and transmit the advertisement data to the first terminal 11. In this way, the server device 20 can reduce the time between the timing of receiving the first data and the timing of transmitting the analysis data determined based on the received first data to the device 70.
- the processes of the first terminal 11, the server device 20, and the device 70 are not limited to those performed as one series of flows on the same flowchart as shown in FIGS. 20 and 21, and the first one.
- the processes of the terminal 11, the server device 20, and the device 70 may be performed in parallel as separate steps.
- the processing in S183 and S193 of FIG. 20 may be performed in parallel with the processing other than those in S183 and S193 shown in FIG. 20.
- the processing in S183 and S193 of FIG. 21 may be performed in parallel with the processing other than those in S183 and S193 shown in FIG.
- every time the first user moves the avatar 80A to display the target the processes of S183 and S193 in FIG. 20 or 21 may not be performed as a series of operations, and the first user may perform the avatar. Every time the operation of moving the 80A is performed, the processes of S183 and S193 of FIG. 20 or 21 may not be performed as a series of operations.
- FIG. 14 is a block diagram showing an example of the terminal 10 shown in FIG. 3 and a configuration connected to the terminal 10.
- the terminal 10 and each of the first sensor 102a, the second sensor 102b, the camera 102c, and the microphone 102d are connected, for example, by wire or wirelessly.
- the first sensor 102a is connected to the camera 102c, for example, by wire or wirelessly.
- the camera 102c can include, for example, an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light.
- the second sensor 102b is connected to the microphone 102d, for example, by wire or wirelessly.
- the first sensor 102a and the camera 102c may be provided as one configuration. Further, the second sensor 102b and the microphone 102d may be provided as one configuration.
- the terminal 10 may transmit the image captured by the camera 102c to the server device 20. Further, the first terminal 11 may transmit the voice data input to the microphone 102d to the server device 20. Further, the first terminal 11 may transmit moving image data using the camera 102c and the microphone 102d to the server device 20.
- FIG. 15 is a generalization of the embodiments, techniques, and suitable computational environments 1400 in which the embodiments described herein can be implemented, including transmitting and using tokens to render video in a computational environment.
- the calculation environment 1400 can implement either a terminal device (or a distributor or a viewer), a distribution server system, or the like.
- the Computational Environment 1400 is not intended to imply any restrictions on the use or scope of functionality of the Technique, as the Techniques can be implemented in a variety of general purpose or dedicated computing environments.
- the technologies disclosed herein include various portable devices, various multiprocessor systems, various microprocessor-based or programmable household appliances, various network PCs, various minicomputers, and more. It may be implemented in various other computer system configurations, including various mainframe computers, and the like.
- the techniques disclosed herein may be implemented in a distributed computing environment in which tasks are performed by remote processing devices linked through a communication network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.
- the computational environment 1400 includes at least one central processing unit 1410 and memory 1420.
- the central processing unit 1410 executes instructions that can be executed by a computer, and the central processing unit 1410 may be a real processor or a virtual processor. In a multiprocessing system, a plurality of processors can operate at the same time because a plurality of processing units execute instructions that can be executed by a computer to improve processing power.
- the memory 1420 may be a volatile memory (eg, register, cache, RAM), a non-volatile memory (eg, ROM, EEPROM, flash memory, etc.), or some combination of the two.
- the memory 1420 stores, for example, software 1480, various images, and videos on which the techniques described herein can be implemented.
- the computational environment may have various additional functions.
- the computational environment 1400 includes storage 1440, one or more input devices 1450, one or more output devices 1460, and one or more communication connections 1470.
- An interconnect mechanism (not shown), such as a bus, controller, or network, interconnects various components of the compute environment 1400.
- operating system software (not shown) provides an operating environment for other software running in compute environment 1400 and coordinates various activities of various components of compute environment 1400.
- the storage 1440 may or may not be removable and may be used to store magnetic disks, magnetic tapes or cassettes, CD-ROMs, CD-RWs, DVDs, or data. And include any other medium accessible within the computational environment 1400.
- Storage 1440 stores instructions for software 1480, plug-in data, and messages that can be used to implement the techniques described herein.
- One or more input devices 1450 may provide input to a touch input device such as a keyboard, keypad, mouse, touch screen display, pen, or trackball, voice input device, scanning device, or computing environment 1400.
- a touch input device such as a keyboard, keypad, mouse, touch screen display, pen, or trackball
- voice input device scanning device, or computing environment 1400.
- Device which may be.
- one or more input devices 1450 may be a sound card or similar device that accepts analog or digital audio input, or even a CD-ROM reader that provides various audio samples to the computing environment 1400. good.
- the one or more output devices 1460 may be a display, a printer, a speaker, a CD writer, or another device that provides output from the computing environment 1400.
- One or more communication connections 1470 enable communication to another computing entity via a communication medium (eg, a connection network).
- the communication medium conveys data such as instructions, compressed graphics data, video, or other data contained in a modulated data signal that can be executed by a computer.
- the one or more communication connections 1470 are not limited to wired connections (eg, megabit or Gigabit Ethernet, Infiniband, or Fiber Channel via electrical or fiber optic connections), but wireless technology (eg, Bluetooth, WiFi). (IEEE 802.11a / b / n), WiMax, cellular, satellite, laser, infrared, RF connection via), and various agents, various bridges, and various destination agents disclosed herein. Includes various other suitable communication connections to provide network connectivity to various data consumers.
- the one or more communication connections may be virtualized network connections provided by the virtual host.
- Various embodiments of the various methods disclosed herein are performed in a computational cloud 1490 using multiple instructions that can be executed by a computer that implements all or part of the techniques disclosed herein. Can be done. For example, different agents can perform different vulnerability scanning functions in a compute environment, while agent platforms (eg, bridges) and consumer services for destination agent data are located inside the compute cloud 1490. It can be executed on various servers.
- agent platforms eg, bridges
- consumer services for destination agent data are located inside the compute cloud 1490. It can be executed on various servers.
- the computer-readable medium is any available medium that can be accessed within the computational environment 1400.
- computer readable media include memory 1420 and / or storage 1440.
- the term computer-readable medium includes media for data storage such as memory 1420 and storage device 1440, and does not include transmission media such as various modulated data signals.
- the computer program according to the 35th aspect is "a computer program executed by at least one processor, and acquires first data about an avatar in a virtual space operated by using a first terminal of a first user, and obtains first data. Based on the first data, the first display including the avatar is displayed on the display unit of the first terminal, and based on the first data, it is determined whether or not the first condition is satisfied, and the first display is performed. When it is determined that the condition is satisfied, the display unit is controlled so as to switch the display from the first display to the second display based on the first position in the virtual space where the avatar exists. It is characterized by having at least one processor function. "
- the computer program according to the thirty-sixth aspect is "a computer program executed by at least one processor, and relates to an avatar in a virtual space operated by a first terminal of a first user via a communication line.
- 1 data is received, and based on the first data, the first control data for controlling the display unit so as to display the first display including the avatar on the display unit of the first terminal is determined, and the communication is performed.
- the display unit After transmitting the first control data to the first terminal via a line and transmitting the first control data to the first terminal, whether or not the first condition is satisfied based on the first data.
- the display unit is switched from the first display to the second display based on the first position in the virtual space where the avatar exists.
- the at least one processor is made to function so as to determine the second control data to be controlled and transmit the second control data to the first terminal via the communication line.
- the first condition is the operation data in which the first data selects a part of the region including the first position.
- the first data includes operation data for selecting one target displayed on the display unit, or the first data indicates that the avatar exists in the first region. It is characterized by including data.
- the computer program according to the 38th aspect is characterized in that, in any of the 35th to 37th aspects described above, "the second display does not include the avatar".
- the computer program according to the 39th aspect is described in the 37th or 38th aspect as described above, "the first condition includes operation data for selecting an object whose first data is displayed on the display unit.” Yes, the subject is a virtual object on which the avatar can be seated. "
- the computer program according to the 40th aspect is described in the 37th or 38th aspect as described above, "the first condition includes operation data for selecting an object whose first data is displayed on the display unit.”
- the object is a display displayed on the display unit separately from the first display.
- the computer program according to the 41st aspect is characterized in that, in any of the 35th to 40th aspects, "at least one virtual venue, which is a space in which a moving image is distributed, is provided in the virtual space". And.
- the computer program according to the 42nd aspect is described in any of the 41st aspect subordinate to the 37th aspect or the 41st aspect subordinate to the 38th aspect, "The first condition is that the first data is displayed on the display unit. It includes operation data for selecting one displayed target, and the target is the moving image. "
- the computer program according to the 43rd aspect is described in any of the 41st aspect subordinate to the 37th aspect or the 41st aspect subordinate to the 38th aspect, wherein "the first condition is that the first data is the avatar. Is included in the data indicating that is present in the first region, and the first region is an region in any one of the at least one virtual venue. " ..
- the computer program according to the 44th aspect is described in any one of the 35th to 43rd aspects described above, "the second display is described so that a part of the first display occupies a large proportion of the display unit. It is a display in which a part of the first display is enlarged. "
- the computer program according to the 45th aspect "displays the display corresponding to the virtual object existing in the virtual space in the entire area of the display unit when the first condition is satisfied. It is characterized by "displaying.”
- the computer program according to the 46th aspect is described as "when the first display displays an operable virtual object used for instructing the movement of the avatar. When it is determined that the first condition is satisfied, the second display does not display the operable virtual object. " It was
- the computer program according to the 47th aspect is described as "a message in which the first display is transmitted from at least one terminal including the first terminal".
- the second display does not display the display area when it is determined that the first condition is satisfied.
- the computer program according to the 48th aspect is described as "the first display is transmitted from at least one terminal including the first terminal.”
- the second display When displaying the display area for displaying a message, if it is determined that the first condition is satisfied, the second display does not display the display area and displays an icon used for displaying the display area. However, the icon is characterized in that the display area is displayed by being operated. "
- the computer program according to the 49th aspect does not accept the operation input regarding the movement of the avatar when the second display is displayed on the display unit. , ”. It was
- the computer program according to the 50th aspect is the avatar in any of the 37th to 48th aspects dependent on the 35th or the 35th aspect described above, "when the second display is displayed on the display unit. When the input related to the movement of the above is acquired, the display unit is controlled so as to switch the display from the second display to the first display. " It was
- the computer program according to the 51st aspect is "transmitting the second control data to the first terminal via the communication line" in any of the 37th to 48th aspects dependent on the 36th or the 36th.
- the third control data for controlling the display unit so as to switch the display from the second display to the first display is determined.
- the at least one processor is made to function so as to transmit the third control data to the first terminal via the communication line.
- the computer program according to the 52nd aspect is described in the 50th aspect of the above-mentioned 46th aspect or the 51st aspect of the above-mentioned 46th aspect, "when the second display is displayed on the display unit. When the input regarding the movement of the avatar is acquired, the first display switched from the second display and displayed on the display unit displays the operable virtual object. " .. It was
- the computer program according to the 53rd aspect is the "second display is displayed on the display unit" in any one of the 50th aspect subordinate to the 47th aspect and the 51st aspect subordinate to the 47th aspect described above.
- the first display switched from the second display and displayed on the display unit displays the display area. " ..
- the computer program according to the 54th aspect is described in the 50th aspect subordinate to the 48th aspect described above, or the 51st aspect subordinate to the 48th aspect described above, "in the case where the second display is displayed on the display unit".
- the first display switched from the second display and displayed on the display unit displays the display area and does not display the icon. " It is a feature.
- the first data is data relating to the behavior history of the avatar in the virtual space, and operates the avatar. It contains at least one of the user's data.
- the computer program according to the 56th aspect is described in the 55th aspect, which is subordinate to the 41st aspect, "The data regarding the action history is the data regarding the viewing history of viewing the video of the avatar, and the viewing time of the video of the avatar. Data regarding the avatar's entry history to the virtual venue, data regarding the avatar's staying time at the virtual venue, data regarding the avatar's exit history from the virtual venue, and data from the avatar into the virtual space.
- the computer program according to the 57th aspect is the third terminal other than the first terminal and the second terminal different from the first terminal in any one of the above-mentioned 35th to 56th aspects. It is characterized by being sent to. It was
- the computer program according to the 58th aspect "determines whether or not the first data has been received, and when the first data is received, the first data is obtained by the third aspect. It is characterized by being sent to the terminal.
- the computer program according to the 59th aspect is characterized in that, in any of the 57th or 58th aspects described above, "the cycle for receiving the first data is shorter than the cycle for determining the control data". And.
- the computer program according to the 60th aspect is the first terminal operated by the operator or the operating organization that operates the virtual venue, in any one of the 57th or 58th aspects described above. It is characterized by that.
- the computer program according to the 61st aspect has "a second data regarding an advertisement determined based on the first data is transmitted to the first terminal" in any one of the 35th to 60th aspects described above. It is characterized by that.
- the data including the URL for accessing the database for storing the second data regarding the advertisement determined based on the first data is described above. It is transmitted to the first terminal.
- the computer program according to the 63rd aspect is characterized in that "the virtual space is a three-dimensional space" in any one of the 35th to 62nd aspects.
- the computer program according to the 64th aspect is characterized in that "the communication line includes the Internet" in any one of the 35th to 63rd aspects.
- the computer program according to the 65th aspect is described as "the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (the above-mentioned one is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit. Including GPU).
- the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit.
- CPU central processing unit
- microprocessor a microprocessor
- graphics processing unit Including GPU
- the computer program according to the 66th aspect is that "the at least one processor is mounted on a server device, a smartphone, a tablet, a mobile phone, or a personal computer" in any one of the 35th to 65th aspects. It is a feature.
- the method according to the 67th aspect is "a step of acquiring first data regarding an avatar in a virtual space operated by using a first terminal of a first user, and a second including the avatar based on the first data. 1
- the method according to the 68th aspect is based on "a step of receiving first data regarding an avatar in a virtual space operated by using a first terminal of a first user via a communication line, and the first data.
- a step of transmitting to the first terminal, a step of determining whether or not the first condition is satisfied based on the first data after transmitting the first control data to the first terminal, and the first condition are performed.
- the first control data for controlling the display unit to switch the display from the first display to the second display is determined based on the first position in the virtual space where the avatar exists.
- the method according to the 69th aspect is characterized in that, in the 67th or 68th aspect, "the communication line includes the Internet".
- the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU). Including.
- the server device "acquires the first data regarding the avatar in the virtual space operated by using the first terminal of the first user, and based on the first data, the first including the avatar.
- the display is displayed on the display unit of the first terminal, it is determined whether or not the first condition is satisfied based on the first data, and when it is determined that the first condition is satisfied, the virtual space is described.
- the first control data that controls the display unit so as to switch the display from the first display to the second display is determined, and the display unit is based on the first control data. It is characterized by "controlling.”
- the server device is characterized in that, in the 71st aspect, "the communication line includes the Internet".
- the at least one processor includes a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU).
- CPU central processing unit
- microprocessor microprocessor
- GPU graphics processing unit
- the technique of the present disclosure can provide a computer program, a method, and a server device so as not to impair the comfort as compared with the conventional technique.
- Japanese Patent Publication No. 2014-528792 Japanese Patent Publication No. 2014-528792 only discloses that each of a plurality of users can communicate through a message using their own avatar in the virtual world.
- the entire Japanese Patent Publication No. 2014-528792 is incorporated herein by reference.
- the present disclosure provides computer programs, methods, and server devices that promote communication between specific users more than ever before.
- the configuration diagram 1 of the system 1000 is a block diagram showing an example of the configuration of the system 1000 according to the embodiment.
- the system 1000 includes, for example, a plurality of terminals 10 connected to a communication line (communication network) (not shown), and one or a plurality of server devices 20 connected to the communication line.
- the terminal 10 includes the first terminal 11.
- the terminal 10 may further include a second terminal 12.
- the server device 20 includes, for example, a first server system 21 and a second server system 22.
- Communication lines include mobile network, wireless network (for example, RF connection via Bluetooth, WiFi, WiMax, cellular, satellite, laser, infrared, etc.), fixed telephone network. , Internet, intranet, local area network (LAN), wide area network (WAN), and / or Ethernet network can be included without limitation.
- wireless network for example, RF connection via Bluetooth, WiFi, WiMax, cellular, satellite, laser, infrared, etc.
- fixed telephone network for example, fixed telephone network.
- Internet intranet, local area network (LAN), wide area network (WAN), and / or Ethernet network can be included without limitation.
- Terminal 10 The terminal 10 is connected to one or more server devices 20 via, for example, a communication line.
- the terminal 10 is, for example, a smartphone, a tablet device, and / or a personal computer.
- the terminal 10 is configured so that, for example, a predetermined application can be installed and the predetermined application can be executed.
- the terminal 10 outputs a web page (for example, an HTML document, in some examples, an HTML document encoded an executable code such as Javascript or PHP code) from the server device 20 (second server system 22). Can be received.
- a web page for example, an HTML document, in some examples, an HTML document encoded an executable code such as Javascript or PHP code
- FIG. 1 shows an example in which, for example, a first terminal 11 is provided as a plurality of terminals 10, but the present invention is not limited to this.
- the plurality of terminals 10 may include, for example, two or more terminals.
- the first terminal 11 may be referred to as a terminal 10.
- the first server system 21 includes a distribution server device 21A1 and a server storage device 21A2.
- the distribution server device 21A1 receives, for example, the data required for the application executed in the terminal 10 from the terminal 10. Further, the distribution server device 21A1 transmits, for example, data used for an application executed in the terminal 10 to the terminal 10 in response to the request.
- the server storage device 21A2 stores, for example, data to be transmitted from the distribution server device 21A1 to the terminal 10. Further, the server storage device 21A2 stores, for example, the data received from the terminal 10 by the distribution server device 21A1. Further, the first server system 21 transmits, for example, data used in an application executed by the terminal 10 to the terminal 10. Further, the first server system 21 transmits, for example, the data received from the terminal 10 to the device 70.
- the present invention is not limited to this.
- a web browser installed on the terminal 10 may be used to execute a process equivalent to executing the application.
- the server device 20 may include a web server (not shown).
- the web server transmits data related to HTML documents such as HTML5, and the terminal 10 displays data related to the HTML document using the web browser.
- User instruction data is transmitted to the terminal 10 (the web browser), and the server device 20 controls the display.
- the server device 20 generates display data by performing the display control, and transmits the display data to the terminal 10 (the web browser).
- the display may be controlled by using a script such as Javascript (registered trademark) in the web browser.
- the first server system 21 includes a distribution server device 21A1 and a server storage device 21A2 has been described, but the present invention is not limited thereto.
- the first server system 21 may include other configurations in addition to the distribution server device 21A1 and the server storage device 21A2.
- the other configuration may have at least one of the functions of the distribution server device 21A1 and the server storage device 21A2.
- the first server system 21 may be configured by a single configuration including the functions of the distribution server device 21A1 and the server storage device 21A2.
- the second server system 22 is a server that transmits data related to the content to the terminal 10.
- the user operates the terminal 10 to execute the application.
- the second server system 22 transmits the data related to the content to the terminal 10.
- the data related to the content transmitted from the second server system 22 to the terminal 10 is, for example, data related to moving images.
- the device 70 (third terminal) is, for example, a terminal operated by an operator or an operating organization that operates a virtual venue.
- the device 70 transmits predetermined data to the first server system 21 and receives predetermined data transmitted from the first server system 21.
- the specific configuration of the device 70 will be described later.
- FIG. 2 is a block diagram showing an example of the hardware configuration of the terminal 10 (server device 20) shown in FIG.
- FIG. 2 reference numerals in parentheses are described in relation to the server device 20 as described later.
- each terminal 10 includes, for example, a central processing unit 14, a main storage device 15, an input / output interface device 16, an input device 17, an auxiliary storage device 18, and an output device 19.
- the configurations shown in FIG. 2 are connected by a data bus and / or a control bus.
- the central processing unit 14 is called a "CPU", performs an operation on instructions and data stored in the main storage device 15, and stores the result of the operation in the main storage device 15. Further, the central processing unit 14 can control the input device 17, the auxiliary storage device 18, the output device 19, and the like via the input / output interface device 16.
- the terminal 10 can include one or more such central processing units 14.
- the main storage device 15 is referred to as a “memory”, and commands and data received from the input device 17, the auxiliary storage device 18 and the communication line 30 (server device 20 and the like) via the input / output interface device 16 and the central processing unit.
- the calculation result of the processing device 14 is stored.
- the main storage device 15 includes volatile memory (eg, register, cache, random access memory (RAM)), non-volatile memory (eg, read-only memory (ROM), EEPROM, flash memory), and storage (eg, hard disk).
- Computer-readable media such as drives (HDDs), solid state drives (SSDs), magnetic tapes, optical media) can be included without limitation.
- the term "computer-readable recording medium” is used for data storage such as memory and storage rather than transmission media such as modulated data signals or transient signals. Can include media.
- the input device 17 is a device that captures data from the outside, and includes, without limitation, a touch panel, a button, a keyboard, a mouse, and / or a sensor.
- the sensor may include, without limitation, a sensor including one or more cameras and / or one or more microphones and the like.
- the auxiliary storage device 18 is a storage device having a larger capacity than the main storage device 15. Instructions and data (computer programs) constituting the above-mentioned specific application (video distribution application, video viewing application, etc.), web browser application, and the like can be stored. Further, the auxiliary storage device 18 can transmit these instructions and data (computer programs) to the main storage device 15 via the input / output interface device 16 by being controlled by the central processing unit 14.
- the auxiliary storage device 18 may include, without limitation, a magnetic disk device and / or an optical disk device and the like.
- the output device 19 can include a display device, a touch panel, and / or a printer device without limitation.
- the central processing unit 14 sequentially loads the instructions and data (computer programs) that configure the specific application stored in the auxiliary storage device 18 into the main storage device 15.
- the central processing unit 14 controls the output device 19 via the input / output interface device 16 by computing the loaded instructions and data, or also via the input / output interface device 16 and the communication line 2.
- Various data can be transmitted and received to and from the device (for example, the server device 20, another terminal 10).
- each server device 20 A hardware configuration example of each server device 20 will be described with reference to FIG. As the hardware configuration of each server device 20 (each of the distribution server device 21A1 and the server storage device 21A2), for example, the same hardware configuration as that of each terminal 10 described above can be used. Therefore, reference numerals for the components of each server device 20 are shown in parentheses in FIG.
- each server device 20 mainly includes a central processing unit 24, a main storage device 25, an input / output interface device 26, an input device 27, an auxiliary storage device 28, and an output device 29. , Can be included. These devices are connected to each other by a data bus and / or a control bus.
- the central processing device 24, the main storage device 25, the input / output interface device 26, the input device 27, the auxiliary storage device 28, and the output device 29 are included in each of the above-mentioned terminals 10, respectively. It can be substantially the same as the device 15, the input / output interface device 16, the input device 17, the auxiliary storage device 18, and the output device 19.
- the central processing unit 24 sequentially loads the instructions and data (computer programs) that configure the specific application stored in the auxiliary storage device 28 into the main storage device 25.
- the central processing unit 24 controls the output device 29 via the input / output interface device 26 by calculating the loaded instructions and data, or also via the input / output interface device 26 and the communication line 2.
- Various data can be transmitted and received to and from the device (for example, each terminal 10).
- server device 20 may include one or more microprocessors and / or a graphics processing unit (GPU) in place of the central processing unit 24 or together with the central processing unit 24.
- GPU graphics processing unit
- FIG. 3 is a block diagram showing an example of the function of terminal 10 shown in FIG.
- the terminal 10 includes, for example, a communication unit 110, an acquisition unit 120, a control unit 130, a display unit 140, a user interface unit 150, and a storage unit 160.
- Communication unit 110 The communication unit 110 is used, for example, to transmit various data to the server device 20. Further, the communication unit 210 is used, for example, to receive various data from the server device 20. The data received by the communication unit 210 is sent to, for example, the control unit 130.
- the acquisition unit 120 acquires operation data related to the operation from the user, for example. Further, the acquisition unit 120 acquires data detected by various sensors, for example. The data acquired by the acquisition unit 120 is sent to, for example, the control unit 130.
- the acquisition unit 120 processes, for example, S121 in FIG. 26 and S121 in FIG. 27, which will be described later.
- the operation data may include one or more of the following data: -Data showing how the user swiped the touchpad display-Data showing which part of the touchpad display the distributor touched-Data showing which object the user tapped or clicked-User Data showing how the touchpad display was dragged-Other such operational data
- the above-mentioned "other such operation data” is, for example, data indicating whether or not the user touches (designates) any part of the display screen of the terminal 10.
- the user's avatar moves to the location in the virtual space 300, for example.
- the data acquired by the acquisition unit 120 may be data related to non-operation (data indicating that the operation has not been performed), and for example, it indicates that the terminal 10 has not been operated for a specific time (specific period). Data and / or data indicating that the user did not enter a specific place in the virtual space 300.
- Control unit 130 performs various controls based on the data received by the communication unit 110, for example. Further, the control unit 130 performs various controls based on the data acquired by the acquisition unit 120.
- the control unit 130 processes, for example, S131 in FIG. 26, S141 in FIG. 26, and S141 in FIG. 27, which will be described later.
- the display unit 140 displays, for example, display contents based on control data output from the control unit 130.
- the display unit 140 displays, for example, a screen for selecting a predetermined application. Further, the display unit 140 displays, for example, a screen related to the virtual space when a predetermined application is selected and the predetermined application is executed.
- User interface unit 150 The user interface unit 150 is used for inputting various data used for executing an application through user operations.
- Storage unit 160 can store various data used for executing the application.
- the storage unit 160 stores data used for controlling the display unit 140.
- the storage unit 160 stores, for example, module data used for generating an avatar of the first user.
- the storage unit 160 is not limited to storing the module data used for generating the avatar of the first user, and may store the module data used for generating another avatar.
- the module data is, for example, data related to parts for generating an avatar.
- the parts for generating the avatar include, for example, data of each part of the avatar (eyes, nose, mouth, eyebrows, skin color, hairstyle, hair color, clothes, body, etc.).
- the module data includes data regarding an ID assigned corresponding to each part for generating an avatar.
- the data related to the parts for generating the avatar includes the data subdivided regarding the body shape such as lean type, slightly lean type, standard, slightly obese, and obese. You may be.
- the server device 20 uses the ID data used to generate the avatar 80 other than the first avatar 80A as the first terminal.
- the first terminal 11 may be configured to transmit to 11 and construct an avatar 80 other than the first avatar 80A based on the ID data.
- the display unit 140 may display the avatar 80 other than the first avatar 80A in black.
- Other avatars 80 may be displayed.
- FIG. 4 is a block diagram showing an example of the function of the server device 20 shown in FIG.
- the server device 20 includes, for example, a communication unit 210, a storage unit 220, and a control unit 230.
- Communication unit 210 The communication unit 210 is used, for example, to transmit various data to the terminal 10. Further, the communication unit 210 is used, for example, to receive various data from the terminal 10. The data received by the communication unit 210 is sent to the control unit 230.
- the storage unit 220 stores various data used for executing the application.
- the storage unit 220 stores, for example, the first data transmitted from the first terminal 11.
- the first data transmitted from the first terminal 11 includes, for example, data relating to the first avatar 80A.
- the first data may include data relating to "behavior history". The details of the first data transmitted from the first terminal 11 and the data related to the "behavior history" will be described later.
- Control unit 230 performs various controls based on the data received by the communication unit 210, for example.
- the control unit 230 processes, for example, S183 in FIG. 26, S193 in FIG. 26, S133 in FIG. 27, S183 in FIG. 27, and S193 in FIG. 27, which will be described later.
- FIG. 5 is a diagram showing a display example displayed on the display unit 140 of the first terminal 11 by operating the first terminal 11 to start an application.
- the virtual space 300 is displayed on the display unit 140.
- the virtual space 300 is, for example, a three-dimensional space.
- the avatar 80 and the virtual venue 310 are shown in the virtual space 300.
- the avatar 80 is configured so that at least one of walking, running, and jumping can be performed by the user's operation.
- the avatar 80 for example, examines a virtual object, pushes a virtual object, pulls a virtual object, lifts a virtual object, sits on a virtual object, purchases a virtual object, and puts an item on the virtual object by a user operation. It is structured so that it can be handed over.
- the virtual object is, for example, an avatar, a door, a grocery item, an admission ticket, a chair, an exhibit, or the like.
- an explanation about the virtual object is displayed on the display unit 140.
- the statement describing the virtual object is, for example, at least one of the name of the virtual object, the purpose of the virtual object, and the price of the virtual object.
- the description of the virtual object is, for example, at least one of a sentence, an image, and a moving image.
- the position of the virtual object in the virtual space 300 can be changed by the above-mentioned operations of "pushing the virtual object”, “pulling the virtual object”, and "lifting the virtual object”.
- the avatar 80 is seated on the virtual object by the above-mentioned operation of "sit on the virtual object".
- the avatar 80 may be configured so that it can be seated in a specific place other than the virtual object. Further, it is assumed that the avatar 80 is seated in the virtual object, or the avatar 80 is seated in a specific place other than the virtual object.
- the display unit 140 may display a display screen different from the display screen before the avatar 80 is seated (for example, a display screen without a UI operation unit or a chat screen), or the avatar 80 may be seated. You may hide the user interface that existed before you did.
- the display unit 140 displays a display screen different from the display screen before the avatar 80 is seated, the display unit 140 may display so that the screen to be displayed or the like is displayed in full screen. ..
- the virtual object can be purchased by the above-mentioned operation of "purchasing a virtual object". If the virtual object is wearable, the appearance of the avatar 80 can be changed by wearing the virtual object purchased by the avatar 80.
- the avatar 80 other than the avatar 80 to be operated may be an avatar operated by the user, or may be predetermined for operation in the virtual space 300. good.
- the avatar 80 is determined in advance for the operation in the virtual space 300, it means that the avatar 80 operates as an NPC (Non Player Character).
- the appearance of the avatar 80 shown in FIG. 5 is all the same, but the appearance is not limited to this.
- the appearance of the avatar 80 may be determined based on data about the user operating the avatar 80. For example, when the user who operates the avatar 80 is a male, the appearance of the avatar 80 may be male. Further, for example, when the user who operates the avatar 80 is a female, the appearance of the avatar 80 may be female. Further, the appearance of the avatar 80 may be determined based on the ID of the part of the avatar selected by the user, or may be different from each other.
- the above-mentioned "may be different" may have, for example, similar appearances although they are not objectively the same, or may be objectively completely different appearances.
- the behavior of the avatar in the virtual space may change in conjunction with the behavior of the user.
- the avatar in the virtual space may also nod.
- the motion data can be acquired using, for example, a motion capture system.
- a motion capture system As will be readily appreciated by those skilled in the art who benefit from the present disclosure, some examples of suitable motion capture systems that may be used with the devices and methods disclosed in this application used passive or active markers. Alternatively, it includes an optical motion capture system without a marker and an inertial and magnetic non-optical system.
- Motion data uses an image capture device (such as a CCD (Charge Bonding Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor) coupled to a computer that converts the motion data into moving images or other image data. Can be obtained.
- image capture device such as a CCD (Charge Bonding Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor
- CMOS Complementary Metal Oxide Semiconductor
- the display unit 140 When operating the first avatar 80A shown in FIG. 5, for example, the display unit 140 displays a screen as shown in FIG.
- FIG. 16 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 16 is a diagram showing an example displayed on the display unit 140 of the first terminal 11 when the first user operates the first avatar 80A using the first terminal 11.
- the display unit 140 displays the avatar 80, the first avatar 80A, and the virtual venue 310.
- the display unit 140 displays the back surface of the first avatar 80A, and the line of sight of the first user who operates the first terminal 11 and the line of sight of the first avatar 80A corresponding to the first user are the same.
- the display unit 140 displays, for example, an area in the virtual space including the first avatar 80A with reference to a virtual viewpoint located in front of the paper surface of FIG.
- the display unit 140 displays an area of the virtual space including the traveling direction of the first avatar 80A.
- the area in the virtual space displayed by the display unit 140 can be changed.
- the display unit 140 can display the area not displayed in FIG. 16.
- the first terminal 11 acquires, for example, data regarding the position of the first avatar 80A in the virtual space 300. Further, for example, the data regarding the position of the first avatar 80A acquired by the first terminal 11 in the virtual space 300 is transmitted to the server device 20.
- the timing at which the first terminal 11 acquires data regarding the position of the first avatar 80A in the virtual space 300 may be any timing. Further, for example, the timing at which the data regarding the position of the first avatar 80A acquired by the first terminal 11 in the virtual space 300 is transmitted to the server device 20 may be arbitrary.
- any area of the display unit 140 of the first terminal 11 may be touch-operated. Further, when the first terminal 11 is provided with an acceleration sensor (not shown) and the first terminal 11 is operated, the display area and / or the direction displayed by the display unit 140 can be changed based on the acceleration sensor. May be.
- the above-mentioned "arbitrary area” includes, for example, the area 301 and / or the display area 314 of FIG.
- the area 301 and / or the display area 314 is an operation user interface for performing a predetermined display control by performing a touch operation.
- the "touch operation” refers to at least one of tap, double tap, swipe, flick, pinch in, and pinch out, for example.
- the area 301 and / or the display area 314 is the same not only when displaying FIG. 16 but also when displaying another drawing (for example, at least one of FIGS. 22 and 8) described later. It may be displayed at a position or at a different position.
- two regions 301 may be provided, or one or three or more regions may be provided.
- one area 301 corresponds to, for example, a region used for walking the first avatar 80A
- the other area 301 corresponds to, for example, the first avatar 80A.
- the touch operation for walking or jumping the first avatar 80A is, for example, an operation of tapping or double-tapping the area 301 of the first avatar 80A.
- the area for performing the touch operation for walking or jumping the first avatar 80A may be an area other than the area 301.
- the display area 314 is an area for displaying a message input by the user corresponding to the avatar 80.
- the display unit 140 displays the display area 314.
- at least one of a message transmitted from the first terminal 11 and a message transmitted from a terminal other than the first terminal is displayed in the display area 314.
- the message displayed in the display area 314 may display a message addressed to the first terminal
- the message displayed in the display area 314 is a message exchanged between terminals other than the first terminal. It may be displayed. Therefore, the display area 314 is an area that can be viewed and / or chatted by a user corresponding to at least one avatar 80 existing in the virtual space 300, or at least one avatar existing in a specific place in the virtual space 300. It functions as an area where the user corresponding to 80 can view and / or chat.
- the first terminal 11 allows the first user to chat with the user corresponding to at least one avatar 80 among all the avatars 80 via the display area 314 of the display unit 140.
- the first terminal 11 allows the first user to chat with a user corresponding to all the avatars 80 existing in a predetermined area (in the same area) via the display area 314 of the display unit 140.
- the user who chats with the first user is an individual user or an exhibiting company.
- a touch operation is performed to display a message not displayed in the display area 314. can do.
- the touch operation in the case where all the messages cannot be displayed in the display area 314 is, for example, a swipe.
- the condition for displaying the display area 314 on the display unit 140 is not limited to the case where the avatar 80 is located in the virtual venue 310.
- the display area corresponding to the predetermined area may be displayed on the display unit 140. That is, the display area to be displayed on the display unit 140 may be determined according to the position where the avatar 80 exists.
- the user can exchange a message with a user corresponding to another avatar 80 existing in the same area as the area where the user's avatar 80 exists.
- the user can chat with a user having a specific attribute. Therefore, the user can easily communicate with other users who have common interests, interests, and / or attributes.
- the terminal of the transmission source of the message displayed in the display area 314 is, for example, a terminal used by a user who operates an avatar existing in the virtual venue 310.
- the avatar corresponding to the terminal of the sender of the message in which the display area 314 is displayed may or may not be displayed in the virtual venue 310.
- the products that can be purchased may be displayed in the display area 314.
- the product is, for example, a product related to an operator or an operating organization that operates the virtual venue 310.
- the content related to the product and the content urging the purchase of the product may be displayed together with the product.
- the content prompting the purchase of the product is a display such as "put in the shopping cart" and is configured to be selectable.
- a browser installed on the terminal 10 is activated and the product is purchased.
- a page requesting input of the content used for is displayed on the display unit 140.
- the display unit 140 may display the display area 314 at a predetermined position regardless of the operation of the first avatar 80A, or may display the display area 314 at a different position according to the operation of the first avatar 80A.
- the display area 314 may be displayed in.
- the display unit 140 may display the display area 314 in the same size regardless of the operation of the first avatar 80A, or display the display area 314 in a different size according to the operation of the first avatar 80A. You may.
- the display unit 140 may display the message around the first avatar 80A.
- the display unit 140 when a message is transmitted from a terminal 10 corresponding to the avatar 80 other than the first avatar 80A, and the display unit 140 is displaying the avatar 80, the display unit 140 is placed around the avatar 80. The message may be displayed.
- the display unit 140 may display, for example, a balloon, or may display the message in the balloon.
- the display unit 140 displays the line segment 322 connecting the first avatar 80A and the point 321 and displays the first avatar.
- 80A walks along line segment 322 to point 321.
- the point 321 and the line segment 322 may have any color.
- the touch operation for walking the first avatar 80A is an operation of flicking any area of the first avatar 80A to change the traveling direction, and then any arbitrary on the virtual straight line of the changed traveling direction. It is an operation of tapping or double-tapping a point.
- the display unit 140 may display the icon 323.
- the icon 323 is used for switching between display and non-display of the display area 314 by being operated.
- the display unit 140 may not display the icon 323 or may continuously display the icon 323.
- FIG. 22 is a diagram showing an example of a display screen in the virtual venue 310 displayed on the display unit 140 of the terminal 10.
- the first user who operates the first terminal 11 operates the first avatar 80A
- the first avatar 80A shown in FIG. 16 is located inside the virtual venue 310, whereby the scene is switched.
- the display screen switches.
- the URL when the display screen when the first avatar 80A exists outside the virtual venue 310 (for example, FIG. 16) is displayed by using the web browser of the first terminal 11 is that the first avatar 80A is the virtual venue 310. It is different from the URL when the display screen when it exists inside (for example, FIG. 22) is displayed by using the web browser of the first terminal 11.
- the URL will be changed.
- an avatar 80, a first avatar 80A, a chair 81, a display area 311, a display area 312, an avatar 313, and a slider 330 are shown.
- the slider 330 is not an essential configuration.
- the virtual venue 310 is, for example, a booth such as an exhibition or event venue. At least one chair 81 is provided. It is assumed that the avatar 80 and the first avatar 80A are located in the first area in the virtual venue 310.
- the chair 81 is, for example, a virtual object in which the avatar 80 can be seated.
- the avatar 80 is seated in the chair 81.
- the first user operates the first avatar 80A to approach a specific chair among the plurality of chairs 81 and perform a predetermined operation, so that the display screen of the first terminal 11 sits on the specific chair.
- a message is displayed asking if.
- the user operates the terminal 10 to perform a predetermined operation indicating the intention to sit in the specific chair in response to the message.
- the avatar 80 is seated in the chair 81.
- a configuration may be adopted in which the avatar 80 is seated together with the virtual object that can be seated, or instead of the virtual object that can be seated, when a specific place within the virtual section 300 is designated.
- a message asking whether or not to sit in the specific place may be displayed on the display screen of the first terminal 11.
- a predetermined user operates the terminal 10 to indicate the intention to sit in the specific place to the message.
- the avatar 80 may be configured to sit in that particular location.
- the avatar 313 is, for example, an avatar that imitates a staff member who advances through the virtual venue 310.
- the avatar 313 may be an avatar operated by the user, or may be an avatar whose operation in the virtual space 300 is predetermined.
- the avatar 80 is determined in advance for the operation in the virtual space 300 and operates, it means that the avatar operates as the above-mentioned NPC.
- a predetermined explanation is started.
- the time used in the virtual space may be a time synchronized so as to be the same as the actual time, or may be a time used in the virtual space 300 separately from the actual time. ..
- the condition for starting the predetermined explanation at the virtual venue 310 does not have to be the condition related to the time.
- the condition for starting a predetermined explanation in the virtual venue 310 is, for example, when the number of avatars existing in the virtual venue 310 exceeds a predetermined number, or when a specific avatar is located in the virtual venue 310, or the like. May be.
- a plurality of avatars may be configured so that they can be seated in one seat at the same time.
- the user operates the first avatar 80A using the terminal 10 to seat the first avatar 80A in the chair 81 on the left side of FIG. 22.
- It may be a configuration that can be used. In this way, for example, even when the total number of avatars located in the virtual venue 310 exceeds the total number of chairs 81, all the avatars who view the content displayed in the display area 311 are seated in the virtual venue 310. be able to.
- FIG. 8 is a diagram showing a display example displayed on the display unit 140 of the terminal 10.
- FIG. 8 shows the live venue 410.
- the live venue 410 is an example of a venue provided in the virtual space 300.
- a plurality of chairs 81 are provided inside the live venue 410.
- the chair 81 is, for example, a virtual object in which the avatar 80 can be seated. For example, when the first user operates the first avatar 80A to approach a specific chair among the plurality of chairs 81 and perform a predetermined operation, the avatar 80 is seated in the chair 81.
- the first user operates the first avatar 80A to approach a specific chair among the plurality of chairs 81 and perform a predetermined operation, so that the display screen of the first terminal 11 sits on the specific chair.
- a message is displayed asking if.
- the user performs a predetermined operation indicating the intention to sit in the specific chair with respect to the message using the terminal 10.
- the avatar 80 sits on the chair 81.
- the moving image is played back in the display area 411.
- the time used in the virtual space may be a time synchronized so as to be the same as the actual time, or may be a time used in the virtual space 300 separately from the actual time. ..
- the condition for the moving image to be played back in the display area 411 does not have to be a condition related to the time.
- the condition for the moving image to be played in the display area 411 is, for example, when the number of avatars existing in the live venue 410 exceeds a predetermined number, or when a specific avatar is located in the live venue 410. You may.
- a plurality of avatars may be configured so that they can be seated in one seat at the same time.
- the user operates the first avatar 80A using the terminal 10 to place the first avatar 80A on the leftmost chair 81 in FIG. It may be configured so that it can be seated. In this way, for example, even if the total number of avatars located in the live venue 410 exceeds the total number of chairs 81, all avatars viewing the content displayed in the display area 411 are seated in the live venue 410. be able to.
- the first avatar 80A is not shown in the live venue 410, but the present invention is not limited to this. Even if the first avatar 80A is displayed on the display unit 140 in the live venue 410 and the first avatar 80A is configured to operate in the display unit 140 in response to the operation of the first terminal 11 used by the first user. good.
- the predetermined explanation starting at the predetermined time is performed by displaying the predetermined content in the display area 311 of FIG. 22 or the display area 411 of FIG. 8 and / or outputting the sound.
- the explanation is, for example, a moving image.
- the moving image is, for example, one of a predetermined explanatory moving image, an event moving image such as a concert, a moving image such as a movie, and a moving image reflecting a real-time Vtuber movement and / or acting.
- the terminal 10 requests data related to the moving image from the second server system 22.
- the second server system 22 transmits data related to the moving image to the terminal 10 in response to the request.
- the terminal 10 can receive the data related to the moving image from the second server system 22 and watch the moving image.
- a first waiting room 310A, a virtual venue 310B, and a second waiting room 310C are provided in the virtual space 300.
- the first waiting room 310A is located, for example, on the entrance side of the virtual venue 310B.
- the second waiting room 310C is located, for example, on the exit side of the virtual venue 310B.
- the first waiting room 310A, the virtual venue 310B, and the second waiting room 310C are not limited to the spaces as described later, and may be any space in the virtual space 300.
- the first user can move the first avatar 80A from the first waiting room 310A to the virtual venue 310B by operating the first avatar 80A. Further, the first user can move the first avatar 80A from the virtual venue 310B to the second waiting room 310C by operating the first avatar 80A.
- FIG. 23 is a plan view showing an example of the layout in the virtual space 300.
- a first avatar 80A and an avatar 80 corresponding to each of two different users are located in the first waiting room 310A.
- the display unit 140 of the first terminal 11 operates another avatar 80 existing in the first waiting room 310A by the first user who operates the first avatar 80A. Displays the display area 314 in which it is possible to chat with the user. In this way, the first user who operates the first avatar 80A can enter the virtual venue 310B and chat with another user who plans to view the content displayed in the display area 311.
- the first user who operates the first avatar 80A does not receive the message transmitted from the terminal 10 of the user who operates the avatar 80 existing in the virtual venue 310B. Therefore, even if the first user who operates the first avatar 80A sends a message regarding the content displayed in the display area 311 by the terminal 10 of the user who operates the avatar 80 existing in the virtual venue 310B, the first avatar 80A The first terminal 11 of the first user who operates the above does not receive the message. As described above, the first user who operates the first avatar 80A may unintentionally grasp the content of the content before entering the virtual venue 310B and viewing the content displayed in the display area 311. Can be reduced.
- the first avatar 80A when the first avatar 80A exists in the first waiting room 310A, the first avatar 80A is the first condition (first condition) for the first terminal 11 to display the display area 314. It may only be present in one waiting room 310A, or may include other conditions in addition to the presence of the first avatar 80A in the first waiting room 310A.
- the first condition may be that the first avatar 80A exists in the first waiting room 310A, and a predetermined operation is performed on the virtual object in the first waiting room 310A now or in the past.
- a predetermined operation for a virtual object in the first waiting room 310A includes, for example, an operation of purchasing food and drink that can be purchased in the first waiting room 310A.
- the first avatar 80A is as shown in FIG. 24.
- a condition (second condition) for the first avatar 80A to enter the virtual venue 310B from the first waiting room 310A may be provided.
- the second condition is, for example, that the first avatar 80A has a virtual object that can be purchased in the virtual space 300.
- the virtual object that can be purchased in the virtual space 300 is, for example, an admission ticket for entering the virtual venue 310B.
- FIG. 24 is a plan view showing an example of the layout in the virtual space 300.
- a first avatar 80A and an avatar 80 corresponding to each of two different users are located, and a display area 311 is provided.
- the display unit 140 of the first terminal 11 shows that the first user who operates the first avatar 80A operates another avatar 80 existing in the virtual venue 310B. Displays a display area 314 in which it is possible to chat with. Therefore, it is possible to chat with another user who is viewing the content displayed in the display area 311.
- the condition (first condition) for the first terminal 11 to display the display area 314 is that the first avatar 80A is the virtual venue. It may only exist in 310B, or may include other conditions in addition to the presence of the first avatar 80A in the virtual venue 310B.
- the first condition may be that the first avatar 80A exists in the virtual venue 310B, and a predetermined operation is performed on the virtual object in the virtual venue 310B now or in the past. Performing a predetermined operation on a virtual object in the virtual venue 310B includes, for example, an operation of selecting a display area 311.
- performing a predetermined operation on the virtual object in the virtual venue 310B is, for example, at least one of seating on the virtual object in which the first avatar 80A can be seated and selecting the display area 311. Either. Further, performing a predetermined operation on a virtual object in the virtual venue 310B may be, for example, selecting a display area 311 and experiencing a predetermined item.
- "experience a predetermined item” means, for example, viewing the content displayed in the display area 311, playing a game, answering a quiz, purchasing or receiving something, and the like. The user actively or passively experiences something.
- the object to be purchased or received is, for example, an admission ticket for admission to a predetermined area (for example, virtual venue 310B).
- a condition (second condition) for the first avatar 80A to move from the virtual venue 310B to the second waiting room 310C may be provided.
- the second condition is that, for example, the content (for example, a moving image) displayed in the display area 311 while the first avatar 80A exists in the virtual venue 310B is played back for a predetermined time or longer and ends.
- the second condition is, for example, that the first avatar 80A is seated in the virtual object that can be seated and then leaves the virtual object.
- FIG. 25 is a plan view showing an example of the layout in the virtual space 300.
- the first avatar 80A and the avatar 80 corresponding to each of the two different users are located in the second waiting room 310C.
- the display unit 140 of the first terminal 11 operates another avatar 80 in the second waiting room 310C by the first user who operates the first avatar 80A. Displays the display area 314 in which it is possible to chat with the user. In this way, the first user who operates the first avatar 80A can chat between the users who have finished viewing the content displayed in the display area 311 in the virtual venue 310B.
- the first avatar 80A when the first avatar 80A exists in the second waiting room 310C, the first avatar 80A is the first condition (first condition) for the first terminal 11 to display the display area 314. 2 It may be present only in the waiting room 310C, or may include other conditions in addition to the presence of the first avatar 80A in the second waiting room 310C.
- the first condition may be that the first avatar 80A exists in the second waiting room 310C, and a predetermined operation is performed on a virtual object in the second waiting room 310C now or in the past.
- the virtual venue 310B corresponds to, for example, the virtual venue 310 in FIG. 22. Further, the virtual venue 310B corresponds to, for example, the live venue 410 in FIG. When the virtual venue 310B corresponds to the live venue 410 of FIG. 8, the display area 311 in FIGS. 23 to 25 corresponds to the display area 411.
- the present invention is not limited thereto.
- the number of waiting rooms may be, for example, three or more.
- the waiting room may be provided in only one of the entrance side and the exit side of the virtual venue 310B.
- the users who can chat with the first user differ depending on the experience status of the first user. Specifically, a user who can chat with the first user before the first user operates the first avatar 80A to experience a predetermined item, and the first user operates the first avatar 80A to experience a predetermined item. For example, a user who can chat with the first user and a user who can chat with the first user after the first user operates the first avatar 80A and experiences a predetermined item, respectively. different. In this way, since the user who can chat with the first user differs depending on the experience state of the first user, the first user is another user who is in the same or similar situation as the situation of the first user. And, through chat, it becomes easier to share experiences and / or experiences.
- the first user can reduce the possibility of unintentionally grasping the content (for example, conclusion) regarding the predetermined item before experiencing the predetermined item.
- the terminal 10 of the first user displays a chat screen corresponding to the experience state, for example, based on the experience state of the first avatar 80A of the first user.
- the first user having experience 1 and the experience 2 are having experience 2.
- the second user and the third user who has the experience 3 will participate in different chats.
- the experience state of the first user is determined based on the position data of the first avatar 80A of the first user
- the terminal 10 of the first user is, for example, the position data of the first avatar 80A of the first user.
- the chat screen corresponding to the position data may be displayed.
- the first user corresponding to the avatar 80 located in the venue A and the venue B.
- the second user corresponding to the avatar 80 located at the venue C and the third user corresponding to the avatar 80 located at the venue C will participate in different chats.
- the terminal 10 of the first user has described, for example, an example of displaying a chat screen corresponding to the experience state based on the experience state of the first avatar 80A of the first user. Not limited to this.
- the terminal 10 of the first user may display a chat screen corresponding to the action history, for example, based on the action history of the avatar of the first user.
- the action history of the first avatar 80A of the first user is, for example, a history indicating that the first avatar 80A has been located in a specific area in the past.
- the "specific area" is at least one area in the virtual space 300.
- the "specific area” may be, for example, at least one of the first waiting room 310A, the virtual venue 310B, and the second waiting room 310C.
- the chat screen may be displayed only on the terminal 10 of the user corresponding to the avatar having the same action history.
- the first user and the other user can communicate via the same chat screen.
- the chat screen is displayed only on the terminal 10 of the user corresponding to the avatar having a history of being located in the first waiting room 310A in the past.
- the "specific area" is the first waiting room 310A and the virtual venue 310B, and the history in which the first user's first avatar 80A and the avatars of other users have been located in the first waiting room 310A and the virtual venue 310B in the past is recorded.
- the first user and the other user communicate via the same chat screen regardless of the current position of the first avatar 80A of the first user and the current position of the avatar of another user. Can be done.
- the chat screen is displayed only on the terminal 10 of the user corresponding to the avatar having a history of being located in the first waiting room 310A and the virtual venue 310B in the past.
- the "specific area" is the first waiting room 310A, the virtual venue 310B, and the second waiting room 310C, and the first user's first avatar 80A and the avatars of other users are the first waiting room 310A, the virtual venue 310B. And, if there is a history of being located in the second waiting room 310C in the past, the first user and the other, regardless of the current position of the first avatar 80A of the first user and the current position of the avatar of another user. Users can communicate via the same chat screen.
- the chat screen is displayed only on the terminal 10 of the user corresponding to the avatar having a history of being located in the first waiting room 310A, the virtual venue 310B, and the second waiting room 310C in the past.
- the first user can easily share the experience and / or experience through chat with other users who have been in the same or similar situation as the first user in the past. Further, for example, it can be meaningful as a privilege such as being able to chat with the organizer on the management side related to the "specific area".
- the chat screen is displayed only on the terminal 10 of the user who has the same experience history. Become.
- chat screen will be displayed only on the terminal 10 of the user who has experienced all the corresponding experiences.
- chat will function as a special privilege that only users who visit multiple areas (positions) like a stamp rally can chat with the organizer side and the management side (including mascots and idols). It is possible to promote the movement of the area by the user.
- a condition may be set to end the display of the chat screen used for communication between users. For example, when users are communicating with each other through a chat screen, the chat screen may be terminated when at least one of the following (1) to (4) is satisfied. (1) When the avatar is located outside the specified area (2) When the specified experience is completed (3) When the specified time has passed (4) When the specified behavior is performed
- "(1) When the avatar is located outside the predetermined area” is, for example, when the first avatar 80A is located in an area other than the first waiting room 310A to the first waiting room 310A.
- a first user corresponding to the first avatar 80A located in the first waiting room 310A communicates with a user corresponding to another avatar 80 located in the first waiting room 310A through a chat screen, and is located in the first waiting room 310A.
- the terminal 10 of the first user ends the display of the chat screen.
- the user corresponding to the first avatar 80A cannot chat with the user corresponding to the other avatar 80 located in the first waiting room 310A.
- the area other than the first waiting room 310A is not limited to the virtual venue 310B.
- the area other than the first waiting room 310A may be, for example, another area adjacent to the first waiting room 310A (the area on the entrance side of the first waiting room 310A).
- "(1) When the avatar is located outside the predetermined area” is, for example, when the first avatar 80A is located in an area other than the virtual venue 310B from the virtual venue 310B.
- a user corresponding to the first avatar 80A located in the virtual venue 310B communicates with a user corresponding to another avatar 80 located in the virtual venue 310B through a chat screen, and the first avatar 80A located in the virtual venue 310B.
- the terminal 10 of the first user ends the display of the chat screen.
- the first user corresponding to the first avatar 80A cannot chat with the user corresponding to the other avatar 80 located in the virtual venue 310B.
- the area other than the first waiting room 310A is not limited to the second waiting room 310C.
- the area other than the virtual venue 310B may be, for example, the first waiting room 310A.
- "(1) When the avatar is located outside the predetermined area” is, for example, when the first avatar 80A is located in an area other than the second waiting room 310C to the second waiting room 310C.
- a first user corresponding to the first avatar 80A located in the second waiting room 310C communicates with a user corresponding to another avatar 80 located in the second waiting room 310C through a chat screen, and is located in the second waiting room 310C.
- the terminal 10 of the first user is the chat screen. Ends the display of.
- the area other than the second waiting room 310C is not limited to the area on the exit side of the second waiting room 310C.
- the area other than the second waiting room 310C may be, for example, the virtual venue 310B.
- the above-mentioned "(2) When the predetermined experience is completed” includes, for example, that the content displayed in the display area 311 has been viewed.
- the content is, for example, a movie.
- the predetermined time may be an arbitrary period.
- the timing for starting the counting of the predetermined time is, for example, the timing when the terminal 10 used by the first user starts displaying the chat screen.
- "(4) performing a predetermined word or action” means that when the sentence input by the first user via the terminal 10 has a negative content, the sentence is displayed on the chat screen.
- the above-mentioned "negative content” is, for example, a character that accusates a predetermined object.
- "(4) Performing a predetermined word or action” may be directed to a specific user who participates in the chat screen, may be directed to a user other than the specific user who participates in the chat screen, or is displayed in the display area 311. It may be directed to the content to be chatted.
- the users who participate in the chat screen and other than the user who performs the predetermined word or action are uncomfortable. The possibility of giving can be reduced.
- FIGS. 26 and 27 are flowcharts showing an example of the operation performed by using the system 1000 shown in FIG.
- the first user operates the first terminal 11 to start the application. After that, in S121, the first terminal 11 acquires the first data.
- the first data includes, for example, data related to the first avatar 80A in the virtual space operated by using the first terminal 11 of the first user.
- the first data may be user operation data or operation history data, and may include, for example, data regarding the position of the first avatar 80A of the first user.
- the first data may include, for example, data regarding the behavior history of the avatar in the virtual space operated by using the first terminal 11 of the first user in the virtual space.
- the first terminal 11 performs the first determination process.
- the first determination process is a process of determining whether or not the first data satisfies a predetermined condition (first condition).
- first condition a predetermined condition
- the control data for controlling the display unit 140 of the first terminal 11 is determined, and the process of S141 is executed.
- the process of S131 is repeated.
- the first condition in S131 is, for example, that the first avatar 80A is located in a predetermined position or a predetermined area in the virtual space 300.
- the "predetermined area” refers to, for example, within a predetermined distance with respect to the display area 311.
- the first condition in S131 may be a condition related to the user's processing status (experience status).
- the first condition in S131 is, for example, before performing a predetermined process (before performing a predetermined experience), and during performing a predetermined process (performing a predetermined experience). It may be a condition including at least one of (while being in the middle) and after performing a predetermined process (after having a predetermined experience).
- the first determination processing may make a determination according to the user's processing status (experience status).
- the first terminal 11 transmits, for example, data regarding the position data of the first avatar 80A to the server device 20.
- the server device 20 transmits data regarding the display area 314 for displaying a message transmitted from the terminal 10 of another user to the first terminal 11 based on the data regarding the position data of the first avatar 80A. do.
- the first terminal 11 performs the first display control process.
- the first display control process refers to, for example, a process in which the display unit 140 of the first terminal 11 displays the display area 314. It was
- the first terminal 11 transmits the first data to the server device 20. Before S141, the first terminal 11 may transmit the first data to the server device 20.
- the server device 20 determines the analysis data based on the first data. Then, the server device 20 transmits the determined analysis data to the device 70. For example, each time the server device 20 receives the first data, the server device 20 determines the analysis data and transmits the determined analysis data to the device 70.
- the server device 20 determines the advertisement data based on the first data.
- the advertisement data is data determined based on the first data and includes data for a first user who operates the first terminal 11.
- the server device 20 transmits the determined advertisement data for the first user to the first terminal 11.
- the first user starts the application by operating the first terminal 11. After that, in S121, the first terminal 11 acquires the first data.
- the first data includes, for example, data related to the first avatar 80A in the virtual space operated by using the first terminal 11 of the first user.
- the first data may be user operation data or operation history data, and may include, for example, data regarding the position of the first avatar 80A of the first user.
- the first data may include, for example, data regarding the behavior history of the avatar in the virtual space operated by using the first terminal 11 of the first user in the virtual space.
- the first terminal 11 transmits the first data to the server device 20.
- the server device 20 performs the first determination process.
- the first determination process is a process of determining whether or not the first data satisfies a predetermined condition (first condition).
- first condition a predetermined condition
- the server device 20 determines in S133 that the first condition is satisfied, it determines the control data for controlling the display unit 140 of the first terminal 11 and transmits the control data to the first terminal 11, and S141. Processing is executed. On the other hand, if it is determined in S131 that the first data does not satisfy the first condition, the process of S131 is repeated.
- the first condition in S133 is, for example, to be located in a predetermined position or a predetermined area in the virtual space 300.
- the "predetermined area” refers to, for example, within a predetermined distance with respect to the display area 311.
- the first terminal 11 performs display control processing.
- the first display control process refers to, for example, a process in which the display unit 140 of the first terminal 11 displays the display area 314.
- the server device 20 determines the analysis data based on the first data. Then, the server device 20 transmits the determined analysis data to the device 70. For example, each time the server device 20 receives the first data, the server device 20 determines the analysis data and transmits the determined analysis data to the device 70.
- the server device 20 determines the advertisement data based on the first data.
- the advertisement data is data determined based on the first data and includes data for a first user who operates the first terminal 11.
- the server device 20 transmits the determined advertisement data for the first user to the first terminal 11.
- the advertisement data transmitted to the first terminal 11 may include, for example, data regarding guidance regarding an event to be held in the future by a predetermined operating organization.
- the data includes at least one of text data, image data, and moving image data.
- the above-mentioned advertisement data may be, for example, data including a URL for accessing a database for storing data related to an advertisement determined based on the first data.
- the above-mentioned advertisement data may have already been downloaded into the application (application) by, for example, batch processing.
- the server device 20 transmits data related to the ID corresponding to the data to be transmitted to the first terminal 11, and the first terminal 11 displays the advertisement data based on the ID. May be good.
- the first terminal 11 has at least the position of at least one of the avatars 80 other than the first avatar 80A and the total number of avatars 80 other than the first avatar 80A.
- Second data including any of them may be received.
- the first terminal 11 receives, for example, the second data from the server device 20. Further, the first terminal 11 determines whether or not the third condition is satisfied, and if it is determined that the third condition is satisfied, the display unit 140 of the first terminal 11 is displayed based on the second data.
- the second control data to be controlled may be determined, and the display unit 140 may be controlled based on the second control data.
- the third condition is when the total number of avatars 80 other than the first avatar 80A is the first value or more, or when the total number of avatars 80 other than the first avatar 80A is the second value or less.
- the first value is larger than the second value.
- the display unit 140 of the first terminal 11 is currently Display a number of avatars 80 that is smaller than the total number of avatars 80 other than the displayed first avatar 80A.
- the display unit 140 of the first terminal 11 is set when the third condition is satisfied because the total number of avatars 80 other than the first avatar 80A is the second value or less. , Display a larger number of avatars 80 than the total number of avatars 80 other than the currently displayed first avatar 80A.
- FIG. 11 shows an example of data transmitted from the terminal 10.
- the server device 20 receives various data from each terminal 10.
- various data relate to, for example, “age”, “gender”, “current position”, “virtual object”, “chat history”, “content viewing history”, “part ID”, and “simple avatar”.
- the "part ID” is, for example, data for identifying an avatar.
- the "simple avatar” is, for example, data regarding an ID of a pattern according to gender including males and females.
- first data may include, for example, at least one of the contents relating to the first user in FIG.
- FIG. 11 shows an example in which the age of the first user is 21 years old, the age of the second user is 31 years old, and the age of the third user is 41 years old. Has been done.
- FIG. 11 shows an example in which the gender of the avatar of the first user is male, the gender of the avatar of the second user is female, and the gender of the avatar of the third user is male. It is shown.
- the avatar operated by the first user exists at the position A01
- the avatar operated by the second user exists at the position B01
- the operation of the third user An example is shown in which the avatar to be used exists at the position C01.
- the avatar operated by the first user purchases the virtual object A12 at the time A11 at the price A13, and the avatar operated by the second user is the virtual object at the time B11.
- An example is shown in which the avatar operated by the third user opens B12 and acquires the virtual object C12 at the time C11.
- the virtual object B22 is, for example, a door.
- chat history in FIG. 11, the terminal of the first user sends a message "hello" to the terminal of the third user at the position A22 at the time A21, and the second user is any other.
- chat history There is no chat history with the user, and an example is shown in which the terminal of the third user receives the message "Hello" from the terminal of the first user at the position C22 at the time C21.
- the avatar of the first user stands up at the position A32 at the time A31 and starts viewing the content
- the avatar of the second user stands at the position B32 at the time B31.
- an example is shown in which the content is viewed on the seat B33 for 2 hours, and the avatar of the third user finishes viewing the content at the position C32 at the time C31 and leaves the seat C33.
- the above-mentioned “age” may indicate the age group to which the user belongs. For example, when defining 21 years old or more and 30 years old or less as category 1, it may be shown that the age of the first user belongs to category 1. Further, for example, when 31 years old or more and 40 or less are defined as category 2, it may be shown that the age of the second user belongs to category 2. Further, for example, when the age of 41 to 50 is defined as category 3, it may be shown that the age of the third user belongs to category 3. In this way, for example, when the analysis data is determined in S183 of FIG. 26 or S183 of FIG. 27 and the analysis data is transmitted to the device 70, the age without transmitting the specific personal information of the user to the device 70. Data related to can be used for marketing and the like.
- the present invention may include data indicating a trajectory of the avatar moving in the virtual space 300 within a predetermined period.
- the data transmitted from the terminal of one user to the terminal of another user may include at least one of text, pictograms, voice messages, images, and moving images.
- the first data shown in FIG. 11 is not limited to the above-mentioned example, and may include data related to "behavior history".
- the data related to the "action history” is, for example, the time when the avatar 80 enters the virtual venue 310, the time when the avatar 80 enters the live venue 410, the time when the avatar 80 leaves the virtual venue 310, and the time when the avatar 80 leaves the live venue 410.
- the history of the received data including the message received from the terminal 10 operated by the user who operates the other terminal 10 and the user who operates the other terminal 10 operates the user who operates the other terminal 10. It may include at least one of the histories of transmission data including the message transmitted to the terminal 10.
- the server device 20 may select which of the contents shown in FIG. 11 data is to be transmitted to the device 70. For example, when the data transmitted to the device 70 includes the content related to the chat history shown in FIG. 11, the server device 20 uses the data shown in FIG. 11 excluding the content related to the chat history. It may be transmitted to 70.
- the server device 20 may transmit the data in which at least a part of the contents shown in FIG. 11 is changed to the device 70.
- the server device 20 sends data indicating that the avatar of the first user is located at the position A01 to the device 70, but instead of transmitting data indicating that the avatar of the first user is located near the position A01. May be transmitted to the device 70.
- the data including the message is not transmitted to the other terminal 10. It is also good. In this way, the data exchanged between the second terminal 12 and the device 70 is not transmitted to any terminal other than the second terminal 12. Therefore, when the data transmitted and received between the second terminal 12 and the device 70 includes data related to the personal information of the user who operates the second terminal 12, the personal information is a terminal other than the second terminal 12. It is possible to reduce the possibility of being known to the user who operates the 10.
- the user ID and the avatar 80 in the chat may or may not be linked to each other. There may be.
- the first data regarding the first position where the first avatar 80A in the virtual space 300 operated by the first terminal 11 of the first user exists is acquired, and the first data is obtained. It is determined whether or not one position satisfies the first condition that it is in the first region, and if the first condition is satisfied, it exists in the first region or has existed in the first region in the past.
- the server device 20 may receive the first data from the first terminal 11 before S131. As a result, the server device 20 may perform the processing of S183 before S131 and transmit the analysis data to the device 70. Further, for example, the server device 20 may perform the processing of S193 before S131 and transmit the advertisement data to the first terminal 11. In this way, the server device 20 can reduce the time between the timing of receiving the first data and the timing of transmitting the analysis data determined based on the received first data to the device 70.
- the processes of the first terminal 11, the server device 20, and the device 70 are not limited to those performed as one series of flows on the same flowchart as shown in FIGS. 26 and 27, and the first one.
- the processes of the terminal 11, the server device 20, and the device 70 may be performed in parallel as separate steps.
- the processing in S183 and S193 of FIG. 26 may be performed in parallel with the processing other than S183 and S193 shown in FIG. 26.
- the processing in S183 and S193 of FIG. 27 may be performed in parallel with the processing other than S183 and S193 shown in FIG. 27.
- every time the first user moves the first avatar 80A to display the target the processes of S183 and S193 in FIG. 26 or 27 may not be performed as a series of operations, and the first user may not perform the process. Does not have to perform the processes of S183 and S193 of FIG. 26 or 27 as a series of operations each time the first avatar 80A is moved.
- FIG. 14 is a block diagram showing an example of the terminal 10 shown in FIG. 3 and a configuration connected to the terminal 10.
- the terminal 10 and each of the first sensor 102a, the second sensor 102b, the camera 102c, and the microphone 102d are connected, for example, by wire or wirelessly.
- the first sensor 102a is connected to the camera 102c, for example, by wire or wirelessly.
- the camera 102c can include, for example, an RGB camera that captures visible light and a near-infrared camera that captures near-infrared light.
- the second sensor 102b is connected to the microphone 102d, for example, by wire or wirelessly.
- the first sensor 102a and the camera 102c may be provided as one configuration. Further, the second sensor 102b and the microphone 102d may be provided as one configuration.
- the terminal 10 may transmit the image captured by the camera 102c to the server device 20. Further, the first terminal 11 may transmit the voice data input to the microphone 102d to the server device 20. Further, the first terminal 11 may transmit moving image data using the camera 102c and the microphone 102d to the server device 20.
- FIG. 15 is a generalization of the embodiments, techniques, and suitable computational environments 1400 in which the embodiments described herein can be implemented, including transmitting and using tokens to render video in a computational environment.
- the calculation environment 1400 can be implemented with either a terminal device, a distribution server system, or the like, as described in the present specification.
- the Computational Environment 1400 is not intended to imply any restrictions on the use or scope of functionality of the Technique, as the Techniques can be implemented in a variety of general purpose or dedicated computing environments.
- the technologies disclosed herein include various portable devices, various multiprocessor systems, various microprocessor-based or programmable household appliances, various network PCs, various minicomputers, and more. It may be implemented in various other computer system configurations, including various mainframe computers, and the like.
- the techniques disclosed herein may be implemented in a distributed computing environment in which tasks are performed by remote processing devices linked through a communication network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.
- the computational environment 1400 includes at least one central processing unit 1410 and memory 1420.
- the central processing unit 1410 executes instructions that can be executed by a computer, and the central processing unit 1410 may be a real processor or a virtual processor. In a multiprocessing system, a plurality of processors can operate at the same time because a plurality of processing units execute instructions that can be executed by a computer to improve processing power.
- the memory 1420 may be a volatile memory (eg, register, cache, RAM), a non-volatile memory (eg, ROM, EEPROM, flash memory, etc.), or some combination of the two.
- the memory 1420 stores, for example, software 1480, various images, and videos on which the techniques described herein can be implemented.
- the computational environment may have various additional functions.
- the computational environment 1400 includes storage 1440, one or more input devices 1450, one or more output devices 1460, and one or more communication connections 1470.
- An interconnect mechanism (not shown), such as a bus, controller, or network, interconnects various components of the compute environment 1400.
- operating system software (not shown) provides an operating environment for other software running in compute environment 1400 and coordinates various activities of various components of compute environment 1400.
- the storage 1440 may or may not be removable and may be used to store magnetic disks, magnetic tapes or cassettes, CD-ROMs, CD-RWs, DVDs, or data. And include any other medium accessible within the computational environment 1400.
- Storage 1440 stores instructions for software 1480, plug-in data, and messages that can be used to implement the techniques described herein.
- One or more input devices 1450 may provide input to a touch input device such as a keyboard, keypad, mouse, touch screen display, pen, or trackball, voice input device, scanning device, or computing environment 1400.
- a touch input device such as a keyboard, keypad, mouse, touch screen display, pen, or trackball
- voice input device scanning device, or computing environment 1400.
- Device which may be.
- one or more input devices 1450 may be a sound card or similar device that accepts analog or digital audio input, or even a CD-ROM reader that provides various audio samples to the computing environment 1400. good.
- the one or more output devices 1460 may be a display, a printer, a speaker, a CD writer, or another device that provides output from the computing environment 1400.
- One or more communication connections 1470 enable communication to another computing entity via a communication medium (eg, a connection network).
- the communication medium conveys data such as instructions, compressed graphics data, video, or other data contained in a modulated data signal that can be executed by a computer.
- the one or more communication connections 1470 are not limited to wired connections (eg, megabit or Gigabit Ethernet, Infiniband, or Fiber Channel via electrical or fiber optic connections) and wireless technologies (eg, Bluetooth, WiFi (IEEE 802). .11a / b / n), WiMax, cellular, satellite, laser, infrared, RF connection via), and various data consumers of the various agents, various bridges, and destination agents disclosed herein. Includes various other suitable communication connections to provide network connectivity to.
- the one or more communication connections may be virtualized network connections provided by the virtual host.
- Various embodiments of the various methods disclosed herein are performed in Computational Cloud 1490 using multiple instructions that can be executed by a computer that implements all or part of the techniques disclosed herein. Can be done. For example, different agents can perform different vulnerability scanning functions in a compute environment, while agent platforms (eg, bridges) and consumer services for destination agent data are located inside the compute cloud 1490. It can be executed on various servers.
- agent platforms eg, bridges
- consumer services for destination agent data are located inside the compute cloud 1490. It can be executed on various servers.
- the computer-readable medium is any available medium that can be accessed within the computational environment 1400.
- computer-readable media include memory 1420 and / or storage 1440.
- the term computer-readable medium includes media for data storage such as memory 1420 and storage device 1440, and does not include transmission media such as various modulated data signals.
- the computer program according to the 74th aspect is "a first position in a virtual space in which a first avatar is present, which is a computer program executed by at least one processor and is operated by using the first terminal of the first user.
- the first data regarding the above is acquired, it is determined whether or not the first position satisfies the first condition in the first region, and if the first condition is satisfied, it exists in the first region or the said.
- Data regarding a display area for displaying a message transmitted from a terminal of a user who operates at least one of the other at least one avatar existing in the first area in the past is received, and the display area is used as the first area.
- the at least one processor is made to function so as to be displayed on the display unit of one terminal.
- the computer program according to the 75th aspect is "a computer program executed by at least one processor, from the first terminal of the first user who operates the first avatar in the virtual space via a communication line.
- the first data regarding the first position where the first avatar exists is received, it is determined whether or not the first position satisfies the first condition in the first region, and when the first condition is satisfied, the said A display area for displaying a message transmitted from a user's terminal operating at least one of at least one other avatar existing in the first area or existing in the first area in the past is determined.
- the at least one processor is made to function so as to transmit control data for controlling the display unit to display the display area on the display unit of the terminal via the communication line. It is characterized by that.
- the computer program according to the 76th aspect states that "the display unit displays a message transmitted from a terminal of a user who operates at least one of the avatars in the display area. It is characterized by "displaying.”
- the computer program according to the 77th aspect is characterized in that, in any one of the 74th to 76th aspects described above, "the display unit displays a message transmitted from the first terminal in the display area". do.
- the computer program according to the 78th aspect is characterized in that, in the 77th aspect described above, "the message transmitted from the first terminal is transmitted to the terminal of the user who operates at least one of the avatars". do.
- At least one virtual venue which is a space in which a moving image is distributed, is provided in the virtual space, and the first aspect is described.
- the area is an area within any one of the at least one virtual venue. It is characterized by that.
- the computer program according to the 80th aspect is described in that "at least one virtual venue, which is a space in which a moving image is distributed, is provided in the virtual space, and the first area is provided. Is located on the entrance side of the first virtual venue of the at least one virtual venue and is different from the first virtual venue in the virtual space, or is the first virtual venue of the at least one virtual venue. It is an area in the virtual space that is located on the exit side of the above and is different from the first virtual venue. "
- the computer program according to the 81st aspect determines whether or not the second condition is satisfied, and when the second condition is satisfied, the first avatar is the first virtual venue and the first virtual venue.
- the display unit displays a display screen related to the other. It is characterized by.
- the computer program according to the 82nd aspect is described in the 81st aspect as described above, "The second condition is that the moving image is played for a predetermined time or longer while the first avatar is present in the first virtual venue. At least one of the fact that the first avatar is seated in a seatable virtual object and leaves the virtual object, and that the first avatar has a virtual object that can be purchased in the virtual space. Including the object. "
- the computer program according to the 83rd aspect is described as "the display unit is an avatar operated by the user when the message is transmitted from the terminal of the user. The message is displayed in the surroundings. "
- the computer program according to the 84th aspect is described in any one of the 74th to 83rd aspects described above, "The first data is data about a first position where the first avatar is present, and an operation of the first terminal.
- the first condition includes data relating to a predetermined operation performed on one virtual object using the above, and the first condition is that the first position is in the first region and exists in the first region.
- a user who operates at least one of the avatars existing in the first area in the past performs a predetermined operation on the one virtual object by using a terminal, and the display area is the display area. It is a display area for displaying a message transmitted from a terminal of a user who operates at least one of the avatars.
- the computer program according to the 85th aspect is characterized in that, in any one of the 74th to 84th aspects described above, "the operation of at least one of the avatars in the virtual space is predetermined". do. It was
- the computer program according to the 86th aspect is "the position of at least one of the other avatars, and at least one of the other" in any of the 76th to 85th aspects dependent on the 74th or 74th above.
- the second data including at least one of the total number of avatars is received, it is determined whether or not the third condition is satisfied, and when it is determined that the third condition is satisfied, it is based on the second data.
- the second control data for controlling the display unit of the terminal of the first user is determined, and the display unit is controlled based on the second control data.
- the computer program according to the 87th aspect is the "position of at least one of the other avatars, and at least one of the other" in any of the 76th to 85th aspects dependent on the 75th or 75th above.
- the second data including at least one of the total number of avatars is received, it is determined whether or not the third condition is satisfied, and when it is determined that the third condition is satisfied, the second data is used. Based on this, the second control data that controls the display unit of the terminal of the first user is determined, and the second control data is transmitted to the first terminal.
- the computer program according to the 88th aspect is described in the 86th or 87th aspect as described above, "The third condition is that the total number of the other at least one avatar is the first value or more, or the other. When the total number of at least one avatar is not more than or equal to the second value, the first value is larger than the second value. " It was
- the computer program according to the 89th aspect is characterized in that, in any of the 74th to 88th aspects described above, "the virtual space is a three-dimensional space". It was
- the computer program according to the 90th aspect is characterized in that, in any one of the 74th to 89th aspects described above, "the communication line includes the Internet".
- the computer program according to the 91st aspect is described as "the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (the above-mentioned one is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit.
- the communication line including the GPU) includes the Internet.
- the computer program according to the 92nd aspect is described in any one of the 74th to 91st aspects described above, "the at least one processor is mounted on a server device, a smartphone, a tablet, a mobile phone, or a personal computer. It is characterized by that.
- the method according to the 93rd aspect is "a step of acquiring the first data regarding the first position where the first avatar exists in the virtual space operated by using the first terminal of the first user, and the first position A step of determining whether or not the first condition in the first region is satisfied, and another step that exists in the first region or has existed in the past in the first region when the first condition is satisfied. A step of receiving data regarding a display area for displaying a message transmitted from a terminal of a user who operates at least one of the at least one avatar, and a step of displaying the display area on the display unit of the first terminal. And, including. "
- the first data regarding the first position where the first avatar exists is received from the first terminal of the first user who operates the first avatar in the virtual space via the communication line.
- the method according to the 95th aspect is characterized in that "the communication line includes the Internet" in the 93rd or 94th aspect described above.
- the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU). ) Is included. It was
- the server receives the first data regarding the first position where the first avatar exists from the first terminal of the first user who operates the first avatar in the virtual space via the communication line. Then, it is determined whether or not the first position satisfies the first condition in the first region, and if the first condition is satisfied, it exists in the first region or is in the past in the first region.
- a display area for displaying a message transmitted from a terminal of a user who operates at least one of the other at least one avatar existing in the avatar is determined, and the display area is set to the terminal of the terminal via the communication line.
- the control data for controlling the display unit is transmitted to the first terminal so as to be displayed on the display unit.
- the server according to the 98th aspect is characterized in that, in the 97th aspect described above, "the communication line includes the Internet".
- the server according to the 99th aspect is described in any of the 97th or 98th aspects described above as "the at least one processor is a central processing unit (CPU), a microprocessor, and / or a graphics processing unit (GPU). Including, "is characterized.
- the technique of the present disclosure can provide a computer program, a method, and a server device so as not to impair the comfort as compared with the conventional technique.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Accounting & Taxation (AREA)
- Human Computer Interaction (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Radar, Positioning & Navigation (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】従来よりも表示制御の負荷が大きくなる可能性を低減するコンピュータプログラム、方法、及び、サーバ装置を提供する。 【解決手段】第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、通信回線を介して、第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、第1データは、第1ユーザのアバターの位置を含み、第2データは、少なくとも一のユーザのアバターの位置、及び、少なくとも一のユーザのアバターのうち仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、第1ユーザのアバターの位置、または、第2データが、所定の条件を満たすか否かを判定し、所定の条件を満たすと判定された場合に、第1ユーザの端末の表示画面を制御する制御データを決定し、制御データに基づいて表示画面を制御する。
Description
本開示は、コンピュータプログラム、方法、及び、サーバ装置に関する。
従来、ユーザが端末を用いて当該端末に表示される仮想空間内で実行されるコンテンツを視聴する場合において、当該コンテンツを視聴する他のユーザに対応するアイコンを当該仮想空間内に表示することが知られている(特許文献1参照)。
しかしながら、特許文献1に記載の技術においては、コンテンツを視聴するユーザ数が多くなる程、端末に表示するアイコン数も多くなる。したがって、コンテンツを視聴するユーザ数が多くなるにしたがって端末における表示制御の負荷についても大きくなるという課題があった。なお、上述の特許文献1は、引用によりその全体が本明細書に組み入れられる。
本開示は、従来よりも表示制御の負荷が大きくなる可能性を低減するコンピュータプログラム、方法、及び、サーバ装置を提供する。
一態様に係るコンピュータプログラムは、少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記制御データに基づいて前記表示画面を制御する、ように前記少なくとも一のプロセッサを機能させる。
一態様に係るコンピュータプログラムは、少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する、ように前記少なくとも一のプロセッサを機能させる。
一態様に係る方法は、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得する工程と、通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信する工程と、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定する工程と、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定する工程と、 前記制御データに基づいて前記表示画面を制御する工程と、を含む。
一態様に係る方法は、通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信する工程と、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定する工程と、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定する工程と、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する工程と、を含む。
一態様に係るサーバ装置は、通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する。
この[発明の概要]の欄は、選択された様々な概念を簡略化された形式により導入するために記載されており、これらの様々な概念については[発明を実施するための形態]の欄において後述する。本明細書において用いられるすべての商標は、これらの商標の保有者の財産である。この[発明の概要]の欄の記載は、特許請求の範囲に記載された発明の重要な特徴又は不可欠な特徴を特定することを意図せず、特許請求の範囲に記載された発明の技術的範囲を限定することを意図しない。特許請求の範囲に記載された発明の、上述した又は他の目的、特徴及び効果は、添付図面を参照して以下に示される[発明を実施するための形態]の欄の記載からより明らかとなろう。
本明細書は、いかなる方法によっても限定されることを意図していない、代表的な様々な実施形態という意味により記載される。本件出願において用いられるように、「1つの」、「前記」、「上記」、「当該」、「該」、「この」、「その」といった単数形は、複数形でないことを明確に示さない限り、複数形を含むことができる。また、「含む」という用語は、「具備する」こと又は「備える」ことを意味し得る。さらに、「結合された」、「結合した」、「結び付けられた」、「結び付けた、「接続された」又は「接続した」という用語は、対象物を相互に結合する、接続する又は結び付ける、機械的、電気的、磁気的及び光学的な方法を他の方法とともに包含し、このように結合された、結合した、結び付けられた、結び付けた、接続された又は接続した対象物の間にある中間要素の存在を排除しない。
本明細書において記載される、様々なシステム、方法及び装置は、いかなる方法によっても限定されるものとして解釈されるべきではない。実際には、本開示は、開示された様々な実施形態の各々、これら様々な実施形態を相互に組み合わせたもの、及び、これら様々な実施形態の一部を相互に組み合わせたもの、のうちのあらゆる新規な特徴及び態様に向けられている。本明細書において記載される、様々なシステム、方法及び装置は、特定の態様、特定の特徴、又は、このような特定の態様と特定の特徴とを組み合わせたものに限定されないし、本明細書に記載される物及び方法は、1若しくはそれ以上の特定の効果が存在すること又は課題が解決されることを、要求しない。さらには、本明細書において記載された様々な実施形態のうちの様々な特徴若しくは態様、又は、そのような特徴若しくは態様の一部は、相互に組み合わせて用いられ得る。
本明細書において開示された様々な方法のうちの幾つかの方法の動作が、便宜上、特定の順序に沿って記載されているが、このような手法による記載は、特定の順序が以下特定の文章によって要求されていない限り、上記動作の順序を並び替えることを包含する、と理解すべきである。例えば、順番に記載された複数の動作は、幾つかの場合には、並び替えられるか又は同時に実行される。さらには、簡略化を目的として、添付図面は、本明細書に記載された様々な事項及び方法が他の事項及び方法とともに用いられ得るような様々な方法を示していない。加えて、本明細書は、「生成する」、「発生させる」、「表示する」、「受信する」、「評価する」及び「配信する」のような用語を用いることがある。これらの用語は、実行される実際の様々な動作のハイレベルな記載である。これらの用語に対応する実際の様々な動作は、特定の実装に依存して変化し得るし、本明細書の開示の利益を有する当業者によって容易に認識され得る。
本開示の装置又は方法に関連して本明細書に提示される、動作理論、科学的原理又は他の理論的な記載は、よりよい理解を目的として提供されており、技術的範囲を限定することを意図していない。添付した特許請求の範囲における装置及び方法は、このような動作理論により記載される方法により動作する装置及び方法に限定されない。
本明細書に開示された様々な方法のいずれもが、コンピュータにより読み取り可能な1又はそれ以上の媒体(例えば、1又はそれ以上の光学媒体ディスク、複数の揮発性メモリ部品、又は、複数の不揮発性メモリ部品といったような、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶された、コンピュータにより実行可能な複数の命令を用いて実装され、さらに、コンピュータにおいて実行され得る。ここで、上記複数の揮発性メモリ部品は、例えばDRAM又はSRAMを含む。また、上記複数の不揮発性メモリ部品は、例えばハードドライブ及びソリッドステートドライブ(SSD)を含む。さらに、上記コンピュータは、例えば、計算を行うハードウェアを有するスマートフォン及び他のモバイル装置を含む、市場において入手可能な任意のコンピュータを含む。
本明細書において開示された技術を実装するためのこのようなコンピュータにより実行可能な複数の命令のいずれもが、本明細書において開示された様々な実施形態の実装の間において生成され使用される任意のデータとともに、1又はそれ以上のコンピュータにより読み取り可能な媒体(例えば、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶され得る。このようなコンピュータにより実行可能な複数の命令は、例えば、個別のソフトウェアアプリケーションの一部であり得るか、又は、ウェブブラウザ若しくは(リモート計算アプリケーションといったような)他のソフトウェアアプリケーションを介してアクセス又はダウンロードされるソフトウェアアプリケーションの一部であり得る。このようなソフトウェアは、例えば、(例えば市場において入手可能な任意の好適なコンピュータにおいて実行されるエージェントとしての)単一のローカルコンピュータにおいて、又は、1又はそれ以上のネットワークコンピュータを用いて、ネットワーク環境(例えば、インターネット、ワイドエリアネットワーク、ローカルエリアネットワーク、(クラウド計算ネットワークといったような)クライアントサーバネットワーク、又は、他のそのようなネットワーク)において、実行され得る。
本明細書において開示された技術を実装するためのこのようなコンピュータにより実行可能な複数の命令のいずれもが、本明細書において開示された様々な実施形態の実装の間において生成され使用される任意のデータとともに、1又はそれ以上のコンピュータにより読み取り可能な媒体(例えば、非一時的なコンピュータにより読み取り可能な記憶媒体)に記憶され得る。このようなコンピュータにより実行可能な複数の命令は、例えば、個別のソフトウェアアプリケーションの一部であり得るか、又は、ウェブブラウザ若しくは(リモート計算アプリケーションといったような)他のソフトウェアアプリケーションを介してアクセス又はダウンロードされるソフトウェアアプリケーションの一部であり得る。このようなソフトウェアは、例えば、(例えば市場において入手可能な任意の好適なコンピュータにおいて実行されるエージェントとしての)単一のローカルコンピュータにおいて、又は、1又はそれ以上のネットワークコンピュータを用いて、ネットワーク環境(例えば、インターネット、ワイドエリアネットワーク、ローカルエリアネットワーク、(クラウド計算ネットワークといったような)クライアントサーバネットワーク、又は、他のそのようなネットワーク)において、実行され得る。
明確化のために、ソフトウェアをベースとした様々な実装のうちの特定の選択された様々な態様のみが記載される。当該分野において周知である他の詳細な事項は省略される。例えば、本明細書において開示された技術は、特定のコンピュータ言語又はプログラムに限定されない。例えば、本明細書において開示された技術は、C、C++、Java、又は、他の任意の好適なプログラミング言語で記述されたソフトウェアにより実行され得る。同様に、本明細書において開示された技術は、特定のコンピュータ又は特定のタイプのハードウェアに限定されない。好適なコンピュータ及びハードウェアの特定の詳細な事項は、周知であって、本明細書において詳細に説明する必要はない。
さらには、このようなソフトウェアをベースとした様々な実施形態(例えば、本明細書において開示される様々な方法のいずれかをコンピュータに実行させるための、コンピュータにより実行可能な複数の命令を含む)のいずれもが、好適な通信手段により、アップロードされ、ダウンロードされ、又は、リモート方式によりアクセスされ得る。このような好適な通信手段は、例えば、インターネット、ワールドワイドウェブ、イントラネット、ソフトウェアアプリケーション、ケーブル(光ファイバケーブルを含む)、磁気通信、電磁気通信(RF通信、マイクロ波通信、赤外線通信を含む)、電子通信、又は、他のそのような通信手段を含む。
以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。
<第1実施形態>
1.システム1000の構成
図1は、一実施形態に係るシステム1000の構成の一例を示すブロック図である。図1に示すように、システム1000は、例えば、図示しない通信回線(通信網)に接続される複数の端末10と、通信回線に接続される1又は複数のサーバ装置20と、を含む。端末10は、第1端末11及び第2端末12を含む。また、サーバ装置20は、例えば、第1サーバシステム21及び第2サーバシステム22を含む。
1.システム1000の構成
図1は、一実施形態に係るシステム1000の構成の一例を示すブロック図である。図1に示すように、システム1000は、例えば、図示しない通信回線(通信網)に接続される複数の端末10と、通信回線に接続される1又は複数のサーバ装置20と、を含む。端末10は、第1端末11及び第2端末12を含む。また、サーバ装置20は、例えば、第1サーバシステム21及び第2サーバシステム22を含む。
通信回線は、携帯電話網、無線ネットワーク(例えば、Bluetooth、(IEEE 802.11a/b/nといったような)WiFi、WiMax、セルラー、衛星、レーザー、赤外線、を介したRF接続)、固定電話網、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及び/又は、イーサネットネットワークを、これらに限定することなく含むことができる。
1-1.端末10
端末10は、例えば、通信回線を介して、1又は複数のサーバ装置20に接続される。端末10は、例えば、スマートフォン、タブレット装置、及び/又はパーソナルコンピュータである。端末10は、例えば、所定のアプリケーションをインストールして当該所定のアプリケーションを実行可能に構成される。また、端末10は、サーバ装置20(第2サーバシステム22)からウェブページ(例えば、HTMLドキュメント、幾つかの例では、JavaScript又はPHPコードといったような実行可能なコードを符号化したHTMLドキュメント)を受信することができる。
端末10は、例えば、通信回線を介して、1又は複数のサーバ装置20に接続される。端末10は、例えば、スマートフォン、タブレット装置、及び/又はパーソナルコンピュータである。端末10は、例えば、所定のアプリケーションをインストールして当該所定のアプリケーションを実行可能に構成される。また、端末10は、サーバ装置20(第2サーバシステム22)からウェブページ(例えば、HTMLドキュメント、幾つかの例では、JavaScript又はPHPコードといったような実行可能なコードを符号化したHTMLドキュメント)を受信することができる。
なお、以後、端末10を操作するユーザを単にユーザと称し、第1端末11を操作するユーザを第1ユーザ、第2端末12を操作するユーザを第2ユーザと称することがあるものとする。また、図1には、複数の端末10として、例えば、第1端末11及び第2端末12が設けられる例について示されているが、これに限定されない。複数の端末10は、例えば、3以上の端末を含んでもよい。また、以後の説明において、第1端末11および第2端末12を端末10と総称することがあるものとする。
1-2.サーバ装置20
第1サーバシステム21は、配信サーバ装置21A1、サーバ記憶装置21A2を備える。配信サーバ装置21A1は、例えば、端末10において実行されるアプリケーションに関して要求されるデータを端末10から受信する。また、配信サーバ装置21A1は、例えば、当該要求に応じて、端末10において実行されるアプリケーションに用いられるデータを端末10に送信する。サーバ記憶装置21A2は、例えば、配信サーバ装置21A1から端末10に送信するデータを格納する。また、サーバ記憶装置21A2は、例えば、配信サーバ装置21A1が端末10から受信したデータを格納する。また、第1サーバシステム21は、例えば、端末10により実行されるアプリケーションにおいて用いられるデータを端末10に送信する。また、第1サーバシステム21は、例えば、端末10から受信したデータを機器70に送信する。
第1サーバシステム21は、配信サーバ装置21A1、サーバ記憶装置21A2を備える。配信サーバ装置21A1は、例えば、端末10において実行されるアプリケーションに関して要求されるデータを端末10から受信する。また、配信サーバ装置21A1は、例えば、当該要求に応じて、端末10において実行されるアプリケーションに用いられるデータを端末10に送信する。サーバ記憶装置21A2は、例えば、配信サーバ装置21A1から端末10に送信するデータを格納する。また、サーバ記憶装置21A2は、例えば、配信サーバ装置21A1が端末10から受信したデータを格納する。また、第1サーバシステム21は、例えば、端末10により実行されるアプリケーションにおいて用いられるデータを端末10に送信する。また、第1サーバシステム21は、例えば、端末10から受信したデータを機器70に送信する。
なお、端末10がアプリケーションを実行する例について説明したが、これに限定されない。例えば、端末10にインストールされるウェブブラウザを用いて、当該アプリケーションを実行することと同等の処理を実行するようにしてもよい。このように、端末10にインストールされるウェブブラウザを用いる場合には、例えば、サーバ装置20は、ウェブサーバ(図示省略)を含んでいてもよい。サーバ装置20が、ウェブサーバ(図示省略)を含む場合には、ウェブサーバは、HTML5等のHTML文書に関するデータを送信し、端末10は、当該ウェブブラウザを用いて当該HTML文書に関するデータを表示し、端末10(当該ウェブブラウザ)に対してユーザ指示データが送信され、サーバ装置20は、表示制御を行う。サーバ装置20は、当該表示制御を行うことで、表示データを生成し、当該表示データを端末10(当該ウェブブラウザ)に送信する。なお、当該ウェブブラウザでJavaScript(登録商標)などのスクリプトを用いて表示制御を行ってもよい。
また、図1においては、第1サーバシステム21が、配信サーバ装置21A1、サーバ記憶装置21A2を備える例について説明したが、これに限定されない。例えば、第1サーバシステム21が、配信サーバ装置21A1及びサーバ記憶装置21A2に加えて他の構成を含んでいてもよい。この場合において、当該他の構成が、配信サーバ装置21A1及びサーバ記憶装置21A2のうち少なくともいずれかの機能を有してもよい。また、例えば、第1サーバシステム21が、配信サーバ装置21A1及びサーバ記憶装置21A2の機能を備える単一の構成によって構成されていてもよい。
第2サーバシステム22は、コンテンツに関するデータを端末10に送信するサーバである。ここで、例えば、ユーザが端末10を操作してアプリケーションを実行する場合を想定する。この場合において、第2サーバシステム22が、当該アプリケーションの実行中に、コンテンツに関するデータの要求を端末10から受信した場合に、第2サーバシステム22は、コンテンツに関するデータを端末10に送信する。第2サーバシステム22から端末10に送信されるコンテンツに関するデータは、例えば、動画に関するデータである。
1-3.機器70
機器70(第3端末)は、例えば、仮想会場を運営する運営者又は運営団体によって操作される端末である。機器70は、第1サーバシステム20に所定のデータを送信し、第1サーバシステム20から送信される所定のデータを受信する。機器70の具体的な構成については後述する。
機器70(第3端末)は、例えば、仮想会場を運営する運営者又は運営団体によって操作される端末である。機器70は、第1サーバシステム20に所定のデータを送信し、第1サーバシステム20から送信される所定のデータを受信する。機器70の具体的な構成については後述する。
2.各装置のハードウェア構成
次に、端末10、及び、サーバ装置20の各々が有するハードウェア構成の一例について説明する。
次に、端末10、及び、サーバ装置20の各々が有するハードウェア構成の一例について説明する。
2-1.端末10のハードウェア構成
各端末10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末10(サーバ装置20)のハードウェア構成の一例を示すブロック図である。なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されている。
各端末10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末10(サーバ装置20)のハードウェア構成の一例を示すブロック図である。なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されている。
図2に示すように、各端末10は、例えば、中央処理装置14と、主記憶装置15と、入出力インターフェース装置16と、入力装置17と、補助記憶装置18と、出力装置19と、を含む。図2に示される構成同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置14は、「CPU」と称され、主記憶装置15に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置15に記憶させる。さらに、中央処理装置14は、入出力インターフェース装置16を介して、入力装置17、補助記憶装置18及び出力装置19等を制御することができる。端末10は、1又はそれ以上のこのような中央処理装置14を含むことが可能である。
主記憶装置15は、「メモリ」と称され、入力装置17、補助記憶装置18及び通信回線30(サーバ装置20等)から、入出力インターフェース装置16を介して受信した命令及びデータ、並びに、中央処理装置14の演算結果を記憶する。主記憶装置15は、揮発性メモリ(例えば、レジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(例えば、リードオンリーメモリ(ROM)、EEPROM、フラッシュメモリ)、及び、ストレージ(例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、磁気テープ、光学媒体)、といったようなコンピュータにより読み取り可能な媒体を、これらに限定することなく含むことができる。容易に理解されるように、「コンピュータにより読み取り可能な記録媒体」という用語は、変調されたデータ信号すなわち一時的な信号といったような送信媒体ではなく、メモリ及びストレージといったようなデータストレージのための媒体を含むことができる。
入力装置17は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含む。センサは、後述するように、1又はそれ以上のカメラ等及び/又は1又はそれ以上のマイク等を含むセンサをこれらに限定することなく含むことができる。
補助記憶装置18は、主記憶装置15よりも大きな容量を有する記憶装置である。上述した特定のアプリケーション(動画配信用アプリケーション、動画視聴用アプリケーション等)やウェブブラウザアプリケーション等を構成する命令及びデータ(コンピュータプログラム)を記憶することができる。さらに、補助記憶装置18は、中央処理装置14により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インターフェース装置16を介して、主記憶装置15に送信することができる。補助記憶装置18は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
出力装置19は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
このようなハードウェア構成にあっては、中央処理装置14が、補助記憶装置18に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次、主記憶装置15にロードする。中央処理装置14は、ロードした命令及びデータを演算することにより、入出力インターフェース装置16を介して出力装置19を制御し、或いはまた、入出力インターフェース装置16及び通信回線2を介して、他の装置(例えばサーバ装置20、他の端末10)との間で様々なデータの送受信を行うことができる。
2-2.サーバ装置20のハードウェア構成
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(配信サーバ装置21A1及びサーバ記憶装置21A2の各々)のハードウェア構成としては、例えば、上述した各端末10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(配信サーバ装置21A1及びサーバ記憶装置21A2の各々)のハードウェア構成としては、例えば、上述した各端末10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
図2に示すように、各サーバ装置20は、主に、中央処理装置24と、主記憶装置25と、入出力インターフェース装置26と、入力装置27と、補助記憶装置28と、出力装置29と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置24、主記憶装置25、入出力インターフェース装置26、入力装置27、補助記憶装置28、及び、出力装置29は、それぞれ、上述した各端末10に含まれる、中央処理装置14、主記憶装置15、入出力インターフェース装置16、入力装置17、補助記憶装置18及び出力装置19と略同一なものとすることができる。
このようなハードウェア構成にあっては、中央処理装置24が、補助記憶装置28に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次、主記憶装置25にロードする。中央処理装置24は、ロードした命令及びデータを演算することにより、入出力インターフェース装置26を介して出力装置29を制御し、或いはまた、入出力インターフェース装置26及び通信回線2を介して、他の装置(例えば各端末10)との間で様々なデータの送受信を行うことができる。
なお、サーバ装置20は、中央処理装置24に代えて又は中央処理装置24とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでもよい。
3.各装置の機能
次に、端末10、及び、サーバ装置20の各々が有する機能の一例について、それぞれ、図3、及び、図4を用いて説明する。
次に、端末10、及び、サーバ装置20の各々が有する機能の一例について、それぞれ、図3、及び、図4を用いて説明する。
3-1.端末10の機能
図3は、図1に示した端末10の機能の一例を示すブロック図である。図3に示すように、端末10は、例えば、通信部110と、取得部120と、制御部130と、表示部140と、ユーザインターフェース部150と、記憶部160と、を含む。
図3は、図1に示した端末10の機能の一例を示すブロック図である。図3に示すように、端末10は、例えば、通信部110と、取得部120と、制御部130と、表示部140と、ユーザインターフェース部150と、記憶部160と、を含む。
(1)通信部110
通信部110は、例えば、サーバ装置20に各種データを送信するために用いられる。また、通信部210は、例えば、サーバ装置20から各種データを受信するために用いられる。通信部210において受信したデータは、例えば、制御部130に送られる。
通信部110は、例えば、サーバ装置20に各種データを送信するために用いられる。また、通信部210は、例えば、サーバ装置20から各種データを受信するために用いられる。通信部210において受信したデータは、例えば、制御部130に送られる。
(2)取得部120
取得部120は、例えば、ユーザから操作に関する操作データを取得する。また、取得部120は、例えば、各種センサによって検出されるデータを取得する。取得部120において取得されたデータは、例えば、制御部130に送られる。取得部120は、例えば、後述する図9のS121、図9のS122、図10のS121、及び、図10のS122の処理を行う。例えば、操作データは、次のデータのうちの1つ又はそれ以上を含むことができる。
・配信者がタッチパッドディスプレイをどのようにスワイプしたかを示すデータ
・配信者がタッチパッドディスプレイのどの箇所をタッチしたかを示すデータ
・配信者がいずれのオブジェクトをタップ又はクリックしたかを示すデータ
・配信者がタッチパッドディスプレイをどのようにドラッグしたかを示すデータ
・他のそのような操作データ
取得部120は、例えば、ユーザから操作に関する操作データを取得する。また、取得部120は、例えば、各種センサによって検出されるデータを取得する。取得部120において取得されたデータは、例えば、制御部130に送られる。取得部120は、例えば、後述する図9のS121、図9のS122、図10のS121、及び、図10のS122の処理を行う。例えば、操作データは、次のデータのうちの1つ又はそれ以上を含むことができる。
・配信者がタッチパッドディスプレイをどのようにスワイプしたかを示すデータ
・配信者がタッチパッドディスプレイのどの箇所をタッチしたかを示すデータ
・配信者がいずれのオブジェクトをタップ又はクリックしたかを示すデータ
・配信者がタッチパッドディスプレイをどのようにドラッグしたかを示すデータ
・他のそのような操作データ
なお、取得部120が取得するデータは、非操作に関するデータ(操作をしなかったことを示すデータ)であってもよく、例えば、特定時間(特定期間)端末10を操作しなかったことを示すデータ、及び/又は、仮想空間300内のある特定の場所に入らなかったことを示すデータである。
(3)制御部130
制御部130は、例えば、通信部110において受信したデータに基づいて各種制御を行う。また、制御部130は、取得部120において取得したデータに基づいて各種制御を行う。制御部130は、例えば、後述する図9のS131、図9のS141、及び、図10のS141の処理を行う。
制御部130は、例えば、通信部110において受信したデータに基づいて各種制御を行う。また、制御部130は、取得部120において取得したデータに基づいて各種制御を行う。制御部130は、例えば、後述する図9のS131、図9のS141、及び、図10のS141の処理を行う。
(4)表示部140
表示部140は、例えば、制御部130から出力される制御データに基づく表示内容を表示する。表示部140は、例えば、所定のアプリケーションを選択する画面を表示する。また、表示部140は、例えば、所定のアプリケーションを選択して所定のアプリケーションを実行した場合において仮想空間内に関する画面を表示する。
表示部140は、例えば、制御部130から出力される制御データに基づく表示内容を表示する。表示部140は、例えば、所定のアプリケーションを選択する画面を表示する。また、表示部140は、例えば、所定のアプリケーションを選択して所定のアプリケーションを実行した場合において仮想空間内に関する画面を表示する。
(5)ユーザインターフェース部150
ユーザインターフェース部150は、アプリケーションの実行に用いられる様々なデータをユーザの操作を介して入力する用途で用いられる。
ユーザインターフェース部150は、アプリケーションの実行に用いられる様々なデータをユーザの操作を介して入力する用途で用いられる。
(6)記憶部160
記憶部160は、アプリケーションの実行に用いられる様々なデータを記憶することができる。記憶部160は、表示部140を制御するために用いられるデータを記憶する。記憶部160は、例えば、第1ユーザのアバター及び第2ユーザのアバターの生成に用いられるモジュールデータを記憶する。なお、記憶部160は、第1ユーザのアバター及び第2ユーザのアバターの生成に用いられるモジュールデータを記憶する場合に限定されるものに限定されず、他のアバターの生成に用いられるモジュールデータを記憶してもよい。
記憶部160は、アプリケーションの実行に用いられる様々なデータを記憶することができる。記憶部160は、表示部140を制御するために用いられるデータを記憶する。記憶部160は、例えば、第1ユーザのアバター及び第2ユーザのアバターの生成に用いられるモジュールデータを記憶する。なお、記憶部160は、第1ユーザのアバター及び第2ユーザのアバターの生成に用いられるモジュールデータを記憶する場合に限定されるものに限定されず、他のアバターの生成に用いられるモジュールデータを記憶してもよい。
なお、モジュールデータは、例えば、アバターを生成するためのパーツに関するデータである。ここで、アバターを生成するためのパーツは、例えば、アバターの各パーツ(目、鼻、口、眉毛、肌の色、髪型、髪の色、服、体、等)のデータを含む。また、モジュールデータは、アバターを生成するための各パーツに対応して割り当てられるIDに関するデータを含む。なお、アバターのパーツが体である場合には、アバターを生成するためのパーツに関するデータは、痩せ型、やや痩せ型、標準、やや肥満、肥満、など、体型に関して細分化されたデータを含んでいてもよい。
また、表示部140が、アバター80A以外のアバター80(他人のアバター)を表示する場合において、サーバ装置20が、アバター80A以外のアバター80の生成に用いられるIDデータを第1端末11に送信し、第1端末11が、当該IDデータに基づいて、アバター80A以外のアバター80を構築する構成であってもよい。
また、表示部140が、アバター80A以外のアバター80(他人のアバター)を表示する場合において、表示部140は、アバター80A以外のアバター80を黒色に着色して表示してもよいし、アバター80A以外のアバター80に対応するユーザの性別(例えば、男性又は女性)に基づいて決定されるパーツ及び/又は色彩を用いて男性用または女性用の2択のアバター80A以外のアバター80を表示してもよい。
3-2.サーバ装置20の機能
図4は、図1に示したサーバ装置20の機能の一例を示すブロック図である。図4に示されるように、サーバ装置20は、例えば、通信部210と、記憶部220と、制御部230と、を含む。
図4は、図1に示したサーバ装置20の機能の一例を示すブロック図である。図4に示されるように、サーバ装置20は、例えば、通信部210と、記憶部220と、制御部230と、を含む。
(1)通信部210
通信部210は、例えば、端末10に各種データを送信するために用いられる。また、通信部210は、例えば、端末10から各種データを受信するために用いられる。通信部210において受信したデータは、制御部230に送られる。
通信部210は、例えば、端末10に各種データを送信するために用いられる。また、通信部210は、例えば、端末10から各種データを受信するために用いられる。通信部210において受信したデータは、制御部230に送られる。
(2)記憶部220
記憶部220は、アプリケーションの実行に用いられる様々なデータを記憶する。記憶部220は、例えば、第1端末11から送信される第1データ及び第2端末12から送信されるデータを記憶する。第1端末11から送信される第1データ、及び、第2端末12から送信されるデータ、の少なくとも何れかは、例えば、「行動履歴」に関するデータを含んでいてもよい。なお、第1端末11から送信される第1データ、第2端末12から送信されるデータ、及び、「行動履歴」に関するデータの詳細については後述する。
記憶部220は、アプリケーションの実行に用いられる様々なデータを記憶する。記憶部220は、例えば、第1端末11から送信される第1データ及び第2端末12から送信されるデータを記憶する。第1端末11から送信される第1データ、及び、第2端末12から送信されるデータ、の少なくとも何れかは、例えば、「行動履歴」に関するデータを含んでいてもよい。なお、第1端末11から送信される第1データ、第2端末12から送信されるデータ、及び、「行動履歴」に関するデータの詳細については後述する。
(3)制御部230
制御部230は、例えば、通信部210において受信したデータに基づいて各種制御を行う。制御部230は、例えば、後述する図9のS183、図9のS193、図10のS133、図10のS183、及び、図10のS193の処理を行う。
制御部230は、例えば、通信部210において受信したデータに基づいて各種制御を行う。制御部230は、例えば、後述する図9のS183、図9のS193、図10のS133、図10のS183、及び、図10のS193の処理を行う。
図5は、第1端末11を操作してアプリケーションを起動することで第1端末11の表示部140に表示される表示例を示す図である。図5に示されるように、表示部140には仮想空間300が表示される。仮想空間300は、例えば、3次元空間である。仮想空間内300内には、アバター80、及び、仮想会場310が示されている。なお、仮想空間内300内には、アバター80、及び、仮想会場310の他に、ライブ会場(後述する)に関する施設が設けられていてもよい。
アバター80は、ユーザの操作により、例えば、歩行、走行、及び、跳躍(ジャンプ)、のうち少なくともいずれかを行うことが出来るように構成されている。また、アバター80は、例えば、ユーザの操作により、仮想オブジェクトを調べる、仮想オブジェクトを押す、仮想オブジェクトを引く、仮想オブジェクトを持ち上げる、仮想オブジェクトに着席する、仮想オブジェクトを購入する、仮想オブジェクトにアイテムを渡す、ことが出来るように構成されている。ここで、仮想オブジェクトは、例えば、アバター、ドア、食料品、入場券、椅子、展示物などである。なお、端末10を用いてユーザがアバター80を操作すると、当該操作に関するデータが、サーバ装置20に送信される。
上述の「仮想オブジェクトを調べる」という操作により、当該仮想オブジェクトに関する説明が表示部140に表示される。当該仮想オブジェクトを説明する文は、例えば、当該仮想オブジェクトの名称、当該仮想オブジェクトの用途、及び、当該仮想オブジェクトの価格、のうち少なくともいずれかである。当該仮想オブジェクトに関する説明は、例えば、文章、画像、および、動画、の少なくともいずれかである。
上述の「仮想オブジェクトを押す」という操作、「仮想オブジェクトを引く」という操作、「仮想オブジェクトを持ち上げる」という操作により、当該仮想オブジェクトの仮想空間300内での位置を変更させることができる。
上述の「仮想オブジェクトに着席する」という操作により、アバター80が当該仮想オブジェクトに着席する。なお、アバター80は当該仮想オブジェクト以外の特定の場所に着席可能であるように構成されていてもよい。また、アバター80が当該仮想オブジェクトに着席する場合、または、アバター80が当該仮想オブジェクト以外の特定の場所に着席する場合を想定する。この場合において、表示部140は、アバター80が着席する前における表示画面とは別の表示画面(例えば、UI操作部やチャット画面がない表示画面)を表示してもよいし、アバター80が着席する前において存在したユーザインターフェースを非表示にしてもよい。表示部140が、アバター80が着席する前における表示画面とは別の表示画面を表示する場合において、表示部140は、表示対象の画面等が全画面表示になるような表示を行ってもよい。
上述の「仮想オブジェクトを購入する」という操作により、例えば、当該仮想オブジェクトを購入することができる。当該仮想オブジェクトが着用可能である場合には、アバター80が購入した当該仮想オブジェクトを身に着けることでアバター80の外観を変化させることができる。
なお、表示部140に表示されるアバターのうち、操作するアバター80以外のアバター80は、ユーザによって操作されるアバターであってもよいし、仮想空間300内での動作について予め決定されてもよい。ここで、アバター80が、仮想空間300内での動作について予め決定されている場合には、アバター80は、NPC(Non Player Character)として動作することを意味する。
また、図5に示されるアバター80の外観はすべて同一であるが、これに限定されない。アバター80を操作するユーザに関するデータに基づいてアバター80の外観を決定してもよい。例えば、アバター80を操作するユーザが男性である場合にはアバター80の外観が男性であってもよい。また、例えば、アバター80を操作するユーザが女性である場合にはアバター80の外観が女性であってもよい。
また、ユーザの動作に連動して仮想空間内のアバターの動作が変化してもよい。例えば、ユーザが頷く動作をした場合に仮想空間内のアバターも同様に頷く動作をしてもよい。ここで、動作データは、例えば、モーションキャプチャシステムを用いて取得され得る。本開示による利益を有する当業者により容易に理解されるように、本件出願において開示される装置及び方法とともに使用され得る幾つかの例の適切なモーションキャプチャシステムは、パッシブマーカ若しくはアクティブマーカを用いた又はマーカを用いない光学式モーションキャプチャシステムと、慣性式及び磁気式の非光学式システムとを含む。モーションデータは、モーションデータを動画又は他のイメージデータに変換するコンピュータに結合された、(CCD(電荷結合デバイス)又はCMOS(相補型金属酸化膜半導体)イメージセンサといったような)イメージキャプチャ装置を用いて取得され得る。
図5に示されるアバター80Aを操作する場合には、例えば、表示部140は、図6のような画面を表示する。
図6は、端末10の表示部140に表示される表示例を示す図である。具体的には、図6は、第1端末11を用いて第1ユーザがアバター80Aを操作する場合において、第1端末11の表示部140に表示される例を示す図である。図6に示されるように、例えば、アバター80、アバター80A、及び、仮想会場310が表示部140に表示される。ここで、表示部140は、アバター80Aの背面を表示しており、第1端末11を操作する第1ユーザの視線と、第1ユーザに対応するアバター80Aの視線と、が同じ方向である。表示部140には、例えば、アバター80Aよりも図6の紙面手前方向に位置する仮想視点を基準としてアバター80Aを含む仮想空間内の領域が表示される。表示部140には、仮想空間のうちアバター80Aの進行方向を含む領域が表示されている。なお、端末10を用いてアバター80Aを操作することで、表示部140に表示される仮想空間内の領域が変更されうる。例えば、端末10を用いてアバター80Aの進行方向を180度変更することで、図6におけるアバター80Aの後方領域を表示することができる。このように、端末10を用いてアバター80Aを操作することで、図6には表示されていない領域を表示部140に表示することができる。第1端末11を操作するユーザがアバター80Aを操作し、図6に示されるアバター80Aが仮想会場310の内部に位置すると、例えば図7のような表示画面が表示される。
なお、図6において、第1ユーザによるアバター80Aの操作が行われると、第1端末11は、例えば、アバター80Aの仮想空間300内の位置に関するデータを取得する。また、例えば、第1端末11が取得したアバター80Aの仮想空間300内の位置に関するデータはサーバ装置20に送信される。なお、第1端末11がアバター80Aの仮想空間300内の位置に関するデータを取得するタイミングは任意のタイミングであってよい。また、例えば、第1端末11が取得したアバター80Aの仮想空間300内の位置に関するデータがサーバ装置20に送信されるタイミングについても任意のタイミングであってよい。
また、第1端末11の表示部140のうち任意の領域をタッチ操作することができるようになっていてもよい。また、第1端末11が加速度センサ(図示省略)を備え、第1端末11を動作させた場合において、当該加速度センサに基づいて、表示部140が表示する表示領域及び/又は方向を変更できる構成であってもよい。ここで、上述の「任意の領域」は、例えば、図6の領域301及び/又は領域314を含む。領域301及び/又は領域314は、タッチ操作を行うことにより所定の表示制御を行うための操作ユーザインターフェースである。また、「タッチ操作」は、例えば、タップ、ダブルタップ、スワイプ、フリック、ピンチイン、及び、ピンチアウト、のうち少なくともいずれかの操作を指す。また、領域301は、図6に記載されているように、2つ設けられていてもよいし、1つ又は3つ以上設けられていてもよい。なお、領域301が2つ以上に設けられる場合において、一の領域301が、例えば、アバター80Aを歩行させるために用いられる領域に対応し、他の領域301が、例えば、アバター80Aをジャンプさせるために用いられる領域に対応する。このようにして、領域301をタッチ操作することでアバター80Aを歩行又はジャンプさせることができる。ここで、アバター80Aを歩行又はジャンプさせるためのタッチ操作は、例えば、アバター80Aの領域301をタップ又はダブルタップする操作である。また、アバター80Aを歩行又はジャンプさせるためのタッチ操作を行う領域は領域301以外の領域であってもよい。また、領域301及び/又は領域314は、図6の表示を行う場合のみならず、後述する他の図面(例えば、図7及び/又は図8)の表示を行う場合においても同一の位置又は異なる位置に表示されていてもよい。
また、例えば、図6に示されるように、点321をタップ又はダブルタップする操作を行うと、表示部140は、アバター80Aと点321とを結ぶ線分322を表示し、アバター80Aは、線分322に沿って点321まで歩行する。なお、点321及び線分322は、任意の色であってよい。また、アバター80Aを歩行させるためのタッチ操作は、アバター80Aのいずれかの領域をフリックする操作を行うことで進行方向を変更した後に変更後の進行方向の仮想直線上の任意の点をタップ又はダブルタップする操作である。
また、第1端末11は、第1ユーザが表示部140の領域314を介して全アバター80のうち少なくとも一のアバター80に対応するユーザとチャットすることができるように構成されていてもよい。ここで、領域314は、アバター80に対応するユーザが入力するメッセージを表示する領域である。また、第1ユーザとチャットするユーザは、個人のユーザ又は出展企業である。また、領域314に複数のメッセージを表示する場合において、領域314内に全てのメッセージを表示できないような場合に、タッチ操作を行うことで、領域314内に表示されていないメッセージを表示することができる。ここで、領域314内に全てのメッセージを表示できないような場合におけるタッチ操作は、例えば、スワイプである。
図7は、端末10の表示部140に表示される仮想会場310における表示画面の例を示す図である。図7は、第1端末11を操作するユーザがアバター80Aを操作し、図6に示されるアバター80Aが仮想会場310の内部に位置することで、場面が切り替わり、これにより、表示画面が切り替わる。なお、アバター80Aが仮想会場310の外部(例えば図6)に存在する場合における表示画面を第1端末11のウェブブラウザを用いて表示する場合におけるURLは、アバター80Aが仮想会場310の内部(例えば図7)に存在する場合における表示画面を第1端末11のウェブブラウザを用いて表示する場合におけるURLとは異なる。したがって、第1端末11のウェブブラウザを用いる場合において、図6に示されるアバター80Aが仮想会場310の内部に位置すると、URLが変更されることとなる。図7に示されるように、アバター80、アバター80A、椅子81、表示領域311、表示領域312、アバター313、及び、領域314が示されている。ここで、仮想会場310は、例えば、展示会またはイベント会場などのブースである。椅子81は、少なくとも一つ設けられる。アバター80、アバター80Aは、仮想会場310内の第1領域に位置しているものとする。
椅子81は、例えば、アバター80が着席可能な仮想オブジェクトである。例えば、ユーザがアバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、アバター80は椅子81に着席する。また、例えば、ユーザがアバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、第1端末11の表示画面には特定の椅子に座るかどうかを尋ねるメッセージが表示される。第1端末11の表示画面に特定の椅子に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を操作して当該メッセージに対して特定の椅子に座る意思を示す所定の操作を行うと、アバター80は椅子81に着席する。これにより、表示部140は、三人称視点に関する表示に代えて一人称視点に関する表示を行う。すなわち、表示部140は、アバター80Aを含む表示に代えてアバター80Aを含まない表示を行う。
表示領域311には、例えば、各種説明を行う資料が表示され、及び/又は、動画が表示される。表示領域312には、仮想会場310を運営する団体の名称、説明会のテーマ、などが表示される。アバター313は、例えば、仮想会場310を進行するスタッフを模したアバターである。アバター313は、ユーザによって操作されるアバターであってもよいし、仮想空間300内での動作について予め決定されているアバターであってもよい。ここで、アバター80が仮想空間300内での動作について予め決定されて動作する場合には、当該アバターは、上述したNPCとして動作することを意味する。
領域314には、第1端末11から送信されるメッセージ、及び、第1端末以外の端末から送信されるメッセージ、のうち少なくともいずれかのメッセージが表示される。ここで、領域314に表示されるメッセージは、第1端末宛のメッセージを表示してもよいし、領域314に表示されるメッセージは、第1端末以外の端末間でやり取りされるメッセージを表示してもよい。したがって、領域314は、仮想空間300内に存在する少なくとも一のアバター80に対応するユーザが閲覧及び/又はチャット可能な領域、または、仮想空間300内の特定の場所に存在する少なくとも一のアバター80に対応するユーザが閲覧及び/又はチャット可能な領域として機能する。
なお、表示部140に領域314が表示される条件は、アバター80が仮想会場310内に位置している場合に限定されない。例えば、アバター80が仮想空間300内の所定領域内に位置している場合に、当該所定領域に対応する表示領域を表示部140に表示してもよい。すなわち、アバター80が存在する位置に応じて、表示部140に表示する表示領域が決定されてもよい。これにより、ユーザは、自身のアバター80が存在する領域と同一領域に存在する他のアバター80に対応するユーザとメッセージをやり取りすることができる。したがって、ユーザは、興味、関心、及び/又は属性が共通する他のユーザと容易にコミュニケーションを図ることができる。
また、領域314に表示されるメッセージの送信元の端末は、例えば、仮想会場310内に存在するアバターを操作するユーザが用いる端末である。ただし、領域314が表示されるメッセージの送信元の端末に対応するアバターは、仮想会場310に表示されていてもよいし、仮想会場310に表示されていなくともよい。
また、領域314には、購入可能な商品を表示してもよい。当該商品は、例えば、仮想会場310を運営する運営者又は運営団体に関連する商品である。領域314には、当該商品とともに、当該商品に関する内容、及び、当該商品の購入を促す内容を表示してもよい。ここで、当該商品の購入を促す内容は「買い物かごに入れる」等の表示であって且つ選択可能に構成される。
また、ユーザが端末10を用いて領域314に表示される少なくとも一の商品の購入手続を進める操作をすることで、例えば、端末10にインストールされるブラウザが起動され、当該商品を購入するために用いられる内容の入力を要求するページが表示部140に表示される。
仮想会場310において、所定の時刻になると、例えば、所定の説明が開始される。ここで、仮想空間内で用いられる時刻は、現実の時刻と同一となるように同期する時刻であってもよいし、現実の時刻とは別に仮想空間300内で用いられる時刻であってもよい。なお、仮想会場310において所定の説明が開始される条件は、時刻に関する条件でなくともよい。例えば、仮想会場310において所定の説明が開始される条件は、例えば、仮想会場310に存在するアバターが所定数以上になった場合、または、特定のアバターが仮想会場310内に位置した場合、などであってもよい。
なお、複数のアバターが同時刻において一つの座席に重複して着席できるように構成されていてもよい。例えば、図7の左端の椅子81にアバター80が着席している状態で、ユーザが端末10を用いてアバター80Aを操作して図7の左端の椅子81にアバター80Aを着席させることができる構成であってもよい。このようにして、例えば、仮想会場310内に位置するアバターの総数が椅子81の総数を上回る場合においても、表示領域311に表示されるコンテンツを視聴する全てのアバターを仮想会場310内において着席させることができる。
所定の時刻において開始される所定の説明は、表示領域311に所定の内容を表示、及び/又は、音声の出力、によって行われる。当該説明は、例えば、動画である。当該動画は、例えば、所定の説明動画、コンサート等のイベント動画、映画等の動画、並びに、リアルタイムのVtuberの動き及び/又は演技を反映した動画、のうちいずれかである。当該説明が動画である場合には、端末10は、第2サーバシステム22に対して動画に関するデータを要求する。そして、第2サーバシステム22は、当該要求に応答して動画に関するデータを端末10に送信する。これにより、端末10は、第2サーバシステム22から動画に関するデータを受信して動画を視聴することができる。
図8は、端末10の表示部140に表示される表示例を示す図である。図8にはライブ会場410が示されている。ライブ会場410は、仮想空間300内に設けられる会場の例である。図8に示されるように、ライブ会場410の内部には複数の椅子81が設けられている。椅子81は、例えば、アバター80が着席可能な仮想オブジェクトである。例えば、ユーザがアバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、アバター80は椅子81に着席する。また、例えば、ユーザがアバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、第1端末11の表示画面には特定の椅子に座るかどうかを尋ねるメッセージが表示される。第1端末11の表示画面に特定の椅子に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を用いて当該メッセージに対して特定の椅子に座る意思を示す所定の操作を行うと、アバター80は椅子81に着席する。
所定の時刻になると、動画が表示領域411において再生される。ここで、仮想空間内で用いられる時刻は、現実の時刻と同一となるように同期する時刻であってもよい。また、仮想空間内で用いられる時刻は、現実の時刻とは別に仮想空間300内で用いられる時刻であってもよい。なお、動画が表示領域411において再生される条件は、時刻に関する条件でなくともよい。例えば、動画が表示領域411において再生される条件は、例えば、ライブ会場410に存在するアバターが所定数以上になった場合、または、特定のアバターがライブ会場410内に位置した場合、などであってもよい。
なお、複数のアバターが同時刻において一つの座席に重複して着席できるように構成されていてもよい。例えば、図8の最左端の椅子81にアバター80が着席している状態で、ユーザが端末10を用いてアバター80Aを操作して図8の最左端の椅子81にアバター80Aを着席させることができる構成であってもよい。このようにして、例えば、ライブ会場410内に位置するアバターの総数が椅子81の総数を上回る場合においても、表示領域411に表示されるコンテンツを視聴する全てのアバターをライブ会場410内において着席させることができる。
また、図8においては、ライブ会場410内にアバター80Aが示されていないが、これに限定されない。ライブ会場410内においてアバター80Aを表示部140に表示し、第1ユーザが用いる第1端末11の操作に応じて表示部140内でアバター80Aが動作するように構成されていてもよい。
4.システム1000の動作
図9及び図10を参照してシステム1000の動作について説明する。図9及び図10は、図1に示したシステム1000を用いて行われる動作の一例を示すフローチャートである。
図9及び図10を参照してシステム1000の動作について説明する。図9及び図10は、図1に示したシステム1000を用いて行われる動作の一例を示すフローチャートである。
まず、図9を参照して、S111~S193について順に説明する。
S111において、第1ユーザは第1端末11を操作してアプリケーションを起動し、S112において、第2ユーザは第2端末12を操作してアプリケーションを起動する。
S121において、第1端末11は第1データを取得する。また、S122において、第2端末12は第2データを取得する。S122の処理の後、第2端末12は、第2ユーザが操作するアバターの位置に関するデータをサーバ装置20に送信する。その後、サーバ装置20は、第2端末12を用いて操作するアバターの位置に関するデータを含む第2データを第1端末11に送信する。
なお、図9においては、端末10が、第1端末11及び第2端末12の2つである例について説明しているが、端末10が、第1端末11及び第2端末12に加えて、少なくとも一の他の端末を含んでいてもよい。この場合には、少なくとも一の他の端末の各々を用いて操作するアバターの位置に関するデータがサーバ装置20に送信される。そして、サーバ装置20は、第1端末以外の端末から受信したデータに基づいて第2データを決定し、当該第2データを第1端末11に送信する。
また、第1データは、例えば、第1ユーザの端末を用いて操作される仮想空間内のアバターに関するデータを含む。また、第1データは、ユーザの操作データや操作履歴データであって、例えば、第1ユーザのアバターの位置に関するデータを含む。第1データは、例えば、第1ユーザの端末を用いて操作される仮想空間内のアバターの仮想空間内での行動履歴に関するデータを含む。
また、第2データは、例えば、第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関するデータを含む。また、第2データは、例えば、第1ユーザ以外の少なくとも一のユーザのアバターの位置、及び、第1ユーザ以外の少なくとも一のユーザのアバターのうち仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含む。第2データは、例えば、第1ユーザ以外の少なくとも一のユーザの端末を用いて操作される仮想空間内のアバターの仮想空間内での行動履歴に関するデータを含む。
S131において、第1端末11は第1判定処理を行う。ここで、第1判定処理は、第1ユーザのアバターの位置、または、第2データが、所定の条件を満たすか否かを判定する処理である。S131において、第1端末11が、所定の条件を満たしたと判定した場合には、第1端末11の表示部140を制御する制御データを決定し、S141の処理が実行される。一方、S131において、第1端末11が、所定の条件を満たしていないと判定した場合には、S131の処理が繰り返される。
S131における所定の条件は、第1ユーザのアバター80Aが第1領域に位置する場合、アバター80A以外のアバター80のうち第1領域に位置するアバター80の総数が第1値以上である場合、アバター80A以外のアバター80のうち第1領域に位置するアバター80の総数が第2値以下である場合、アバター80A以外のアバター80のうち第1領域に位置する一のアバター80から第1距離以内に位置するアバター80の数が第3値以上である場合、及び、アバター80A以外のアバター80のうち第1領域に位置する一のアバター80から第1距離以内に位置するアバター80の数が第4値以下である場合、の少なくともいずれかである。なお、上述の第1値は、上述の第2値よりも大きく、上述の第3値は、上述の第4値よりも大きい。また、第1領域は、例えば、仮想会場310の内部の領域又はライブ会場410の内部の領域である。
なお、サーバ装置20は、同時接続数、ユーザ、及び、イベントの属性の少なくとも何れかに関するデータを第1端末11に送信してもよい。そして、第1端末11は、当該データを受信し、描画のパフォーマンスを考慮して、表示部140が表示するアバター80の総数を決定してもよい。これにより、第1端末11が、仮に、高度な性能を有しない場合においても、第1端末11は、第1端末11が有する性能の範囲内において、アバター80Aを操作する第1ユーザが同期を感じられるようにアバター80を描画することができる。また、第1端末11は、描画できる3Dモデルのメッシュの頂点数、マテリアル、及び、テクスチャーの枚数の少なくともいずれかを考慮して、上述のようにアバター80の総数を決定する。
S131において決定される制御データは、第1端末11の表示画面を制御するデータである。また、この制御データは、第2データに含まれるアバターの位置に基づいて決定される表示画面に表示する少なくとも一のユーザのアバターの位置、及び、第2データに含まれるアバターの総数に基づいて決定される表示画面に表示する少なくとも一のユーザのアバターの総数に関するデータを含む。
S141において、第1端末11は、当該制御データに基づいて第1端末11の表示部140を制御する処理を行う。
S183において、サーバ装置20は、第1データ及び第2データの少なくともいずれかに基づいて分析データを決定する。そして、サーバ装置20は、決定した分析データを機器70に送信する。サーバ装置20は、例えば、第1データ及び第2データの少なくともいずれかを受信する度に、分析データを決定し、決定した分析データを機器70に送信する。
S193において、サーバ装置20は、第1データ及び第2データの少なくともいずれかに基づいて広告データを決定する。なお、当該広告データは、第1データに基づいて決定されるデータであって第1端末11を操作する第1ユーザ向けのデータ、及び、第2データに基づいて決定されるデータであって第2端末12を操作する第2ユーザ向けのデータを含む。S193において、サーバ装置20は、決定した第1ユーザ向けの広告データを第1端末11に送信し、決定した第2ユーザ向けの広告データを第2端末12に送信する。
次に、図10を参照して、S111~S193について順に説明する。
S111において、第1ユーザは第1端末11を操作することでアプリケーションを起動し、S112において、第2ユーザは第2端末12を操作することでアプリケーションを起動する。
S121において、第1端末11は第1データを取得する。また、S122において、第2端末12は第2データを取得する。S121の後、サーバ装置20は、第1端末11から第1データを取得する。S122の後、サーバ装置20は、第2端末12から、第2端末12において取得されたデータを取得する。サーバ装置20が、第1端末11から第1データを取得し、第2端末12から、第2端末12において取得されたデータを取得した後、S133の処理が行われる。また、サーバ装置20は、第1端末11に対して、少なくとも一のユーザのアバターの生成を要求するデータを第1端末11に送信する。
なお、図9においては、端末10が、第1端末11及び第2端末12の2つである例について説明しているが、端末10が、第1端末11及び第2端末12に加えて、少なくとも一の他の端末を含んでいてもよい。この場合には、少なくとも一の他の端末の各々を用いて操作するアバターの位置に関するデータがサーバ装置20に送信される。そして、サーバ装置20は、第1端末以外の端末から受信したデータに基づいて第2データを決定する。
S133において、サーバ装置20は第1判定処理を行う。ここで、図10のS133の第1判定処理は、図9のS131の第1判定処理と同様である。S133において、サーバ装置20が、所定の条件を満たしたと判定した場合には、サーバ装置20は、制御データを決定し、当該制御データを第1端末11に送信し、S141の処理が実行される。一方、S133において、所定の条件を満たしていないと判定した場合には、S133の処理が繰り返される。
S133において決定される制御データは、第1端末11の表示画面を制御するデータである。また、この制御データは、第2データに含まれるアバターの位置に基づいて決定される表示画面に表示する少なくとも一のユーザのアバターの位置、及び、第2データに含まれるアバターの総数に基づいて決定される表示画面に表示する少なくとも一のユーザのアバターの総数に関するデータを含む。
S141において、第1端末11は、当該制御データに基づいて第1端末11の表示部140を制御する処理を行う。
S183において、サーバ装置20は、第1データ及び第2データの少なくともいずれかに基づいて分析データを決定する。そして、サーバ装置20は、決定した分析データを機器70に送信する。サーバ装置20は、例えば、第1データ及び第2データの少なくともいずれかを受信する度に、分析データを決定し、決定した分析データを機器70に送信する。
S193において、サーバ装置20は、第1データ及び第2データの少なくともいずれかに基づいて広告データを決定する。なお、当該広告データは、第1データに基づいて決定されるデータであって第1端末11を操作する第1ユーザ向けのデータ、及び、第2データに基づいて決定されるデータであって第2端末12を操作する第2ユーザ向けのデータを含む。S193において、サーバ装置20は、決定した第1ユーザ向けの広告データを第1端末11に送信し、決定した第2ユーザ向けの広告データを第2端末12に送信する。
また、図9のS193及び図10のS193に関して、アバター80が、所定の運営団体によって開催されるイベントを行う仮想会場310又はライブ会場410に入場し、仮想会場310又はライブ会場410において再生される動画を視聴した履歴がある場合には、第1端末11に送信される広告データは、例えば、所定の運営団体が将来開催するイベントに関する案内に関するデータを含みうる。当該データは、テキストデータ、画像データ、及び、動画データ、の少なくともいずれかを含む。
また、図9のS193及び図10のS193に関して、上述した広告データは、例えば、第1データに基づいて決定される広告に関する第3データを格納するデータベースにアクセスするURLを含むデータであってもよい。また、上述した広告データは、例えば、第2端末12において取得されたデータに基づいて決定される広告に関する第4データを格納するデータベースにアクセスするURLを含むデータであってもよい。また、上述した広告データは、例えば、既にバッチ処理などでアプリ(アプリケーション)内にダウンロード済であってもよい。この場合には、サーバ装置20は、第1端末11に対して、送信対象のデータに対応するIDに関するデータを送信し、第1端末11は、当該IDに基づいて広告データに関する表示を行ってもよい。また、サーバ装置20は、第2端末12に対して、送信対象のデータに対応するIDに関するデータを送信し、第2端末12は、当該IDに基づいて広告データに関する表示を行ってもよい。
図11は、端末10から送信されるデータの例を示す。図11においては、第1ユーザ、第2ユーザ、及び、第3ユーザの各々が自身の端末10を用いてアバターの操作を行う場合において、サーバ装置20が、各端末10から受信する各種データについて記載されている。ここで、各種データは、例えば、「年齢」、「性別」、「現在位置」、「仮想オブジェクト」、「チャット履歴」、及び、「コンテンツ視聴履歴」、「パーツID」、「簡易アバター」に関するデータである。ここで、「パーツID」は、例えば、アバターを特定するためのデータである。「簡易アバター」は、例えば、男性及び女性を含む性別に応じたパターンのIDに関するデータである。
なお、上述した第1データは、例えば、図11における第1ユーザに関する少なくともいずれかの内容を含みうる。また、上述した第2データは、図11における第2ユーザに関する内容、及び/又は、図11における第3ユーザに関する少なくともいずれかの内容、を含みうる。
ここで、上述の「年齢」に関して、図11には、第1ユーザの年齢が21歳であり、第2ユーザの年齢が31歳であり、第3ユーザの年齢が41歳である例が示されている。
また、上述の「性別」に関して、図11には、第1ユーザのアバターの性別が男性であり、第2ユーザのアバターの性別が女性であり、第3ユーザのアバターの性別が男性である例が示されている。
また、上述の「現在位置」に関して、図11には、第1ユーザの操作するアバターが、位置A01に存在し、第2ユーザの操作するアバターが、位置B01に存在し、第3ユーザの操作するアバターが、位置C01に存在する例が示されている。
また、上述の「仮想オブジェクト」に関して、図11には、第1ユーザの操作するアバターが時刻A11において仮想オブジェクトA12を価格A13にて購入し、第2ユーザの操作するアバターが時刻B11において仮想オブジェクトB12を開き、第3ユーザの操作するアバターが時刻C11において仮想オブジェクトC12を取得する例が示されている。なお、仮想オブジェクトA2は、例えば、ライブ会場に入場するための入場券である。仮想オブジェクトB22は、例えば、ドアである。
また、上述の「チャット履歴」に関して、図11には、第1ユーザの端末が、時刻A21に位置A22で第3ユーザの端末にメッセージ「こんにちは」を送信し、第2ユーザは、いずれの他のユーザとのチャット履歴も無く、第3ユーザの端末が、時刻C21に位置C22で第1ユーザの端末からメッセージ「こんにちは」を受信する例が示されている。
また、上述の「コンテンツ視聴履歴」に関して、図11には、第1ユーザのアバターが、時刻A31に位置A32において起立してコンテンツを視聴開始し、第2ユーザのアバターが、時刻B31を位置B32において座席B33でコンテンツを2時間視聴し、第3ユーザのアバターが、時刻C31に位置C32においてコンテンツを視聴終了して座席C33から離席する例が示されている。
なお、上述の「年齢」に関して、ユーザの年齢を示す例について説明したが、これに限定されない。例えば、上述の「年齢」は、ユーザが属する年齢層を示してもよい。例えば、21歳以上30歳以下をカテゴリ1と定義する場合に、第1ユーザの年齢がカテゴリ1に属することを示してもよい。また、例えば、31歳以上40以下がカテゴリ2と定義する場合に、第2ユーザの年齢がカテゴリ2に属することを示してもよい。また、例えば、41歳以上50歳以下がカテゴリ3と定義する場合に、第3ユーザの年齢がカテゴリ3に属することを示してもよい。このようにして、例えば、図9のS183又は図10のS183において分析データを決定して分析データが機器70に送信される場合において、ユーザの具体的な個人情報を機器70に送信しないで年齢に関するデータをマーケティング等に用いることができる。
また、上述の「現在位置」に関して、特定時刻におけるアバターの位置を示す例について説明したが、これに限定されない。例えば、アバターが仮想空間300内を所定期間内に移動した軌跡を示すデータを含んでいてもよい。
また、上述の「チャット履歴」に関して、第1ユーザが、時刻A21に位置A22で第3ユーザの端末にメッセージ「こんにちは」を送信する例を説明したが、当該メッセージの内容は、これに限定されない。また、一のユーザの端末から他のユーザの端末に送信するデータは、テキスト、絵文字、音声メッセージ、画像、及び、動画、のうち少なくともいずれかを含んでもよい。
また、図11に示される第1データ及び第2データは、上述した例に限定されず、「行動履歴」に関するデータを含んでもよい。「行動履歴」に関するデータは、例えば、アバター80が仮想会場310に入場した時刻、アバター80がライブ会場410に入場した時刻、アバター80が仮想会場310から退室した時刻、アバター80がライブ会場410から退室した時刻、アバター80が仮想会場310に滞在した時間、アバター80がライブ会場410に滞在した時間、アバター80が仮想会場310で表示領域311に表示される対象の視聴を開始した時刻、アバター80がライブ会場410で動画の視聴を開始した時刻、アバター80が仮想会場310で表示領域311に表示される対象を視聴した時間(期間)、アバター80がライブ会場410で動画を視聴した時間(期間)、アバター80が仮想会場310で表示領域311に表示される対象の視聴を終了した時刻、アバター80がライブ会場410で動画の視聴を終了した時刻、アバター80が椅子81に着席した時刻、アバター80が椅子81に離席した時刻、アバター80が椅子81に着席してから離席するまでの時間、及び、アバター80が椅子81に着席する場合において椅子81の位置データ、一の端末10を操作するユーザが他の端末10を操作するユーザが操作する端末10から受信したメッセージを含む受信データに関する履歴、及び、一の端末10を操作するユーザが他の端末10を操作するユーザが操作する端末10に送信したメッセージを含む送信データに関する履歴、のうち少なくともいずれかを含んでもよい。
また、サーバ装置20は、図11に記載される内容のうちいずれの内容に関するデータを機器70に送信するかを選択してもよい。例えば、機器70に送信されるデータが、図11に記載されるチャット履歴に関する内容を含む場合において、サーバ装置20は、図11に記載の内容のうち当該チャット履歴に関する内容を除いたデータを機器70に送信してもよい。
また、サーバ装置20は、図11に記載される内容の少なくとも一部を変更したデータを機器70に送信してもよい。例えば、サーバ装置20は、第1ユーザのアバターが位置A01に位置することを示すデータを機器70に送信することに代えて、第1ユーザのアバターが位置A01の近傍に位置することを示すデータを機器70に送信してもよい。
また、機器70及び第2端末12のうち一方から、機器70及び第2端末12のうち他方へのメッセージを含むデータを受信する場合に、当該メッセージを含むデータを他の端末10に送信しなくともよい。このようにして、第2端末12と機器70との間においてやり取りされるデータは、第2端末12以外の端末10以外に送信されることがない。したがって、第2端末12と機器70との間において送信及び受信されるデータが、第2端末12を操作するユーザの個人情報に関するデータを含む場合において、当該個人情報が第2端末12以外の端末10を操作するユーザに知られる可能性を低減することができる。
このように、表示部140は、リアルタイムにおけるアバター80の総数及び位置を反映させた表示を行わない可能性がある。しかしながら、表示部140は、リアルタイムにおけるアバター80の総数及び位置を反映させた表示を行わない場合においても、第1端末11を操作する第1ユーザは、アバター80の凡その総数及び位置を反映した表示を確認し、他のユーザとリアルタイムで全体チャットを用いてコミュニケーションを図ることができる。したがって、表示部140が、アバター80の凡その総数及び位置を反映した表示であってリアルタイムにおけるアバター80の総数及び位置を反映しない場合においても、ユーザに対して違和感を覚えさせる可能性を低減することができる。
なお、表示部140が領域314を表示してユーザ同士がチャットを行う場合において、当該チャットにおけるユーザIDとアバター80とは、互いに紐づく構成であってもよいし、互いに紐づかない構成であってもよい。
以上のように、本開示によれば、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを記憶し、通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、第1ユーザのアバターの位置、または、第2データが、所定の条件を満たすか否かが判定され、所定の条件を満たすと判定された場合に、第1ユーザの端末の表示画面を制御する制御データを決定し、制御データに基づいて表示画面を制御し、第2データは、前記少なくとも一のユーザのアバターの座標、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含む。このため、例えば、端末10の表示部140に表示するアバターの総数を変更することができる。したがって、端末10(例えばスマートフォン)の性能が低い場合で、端末10を用いてアプリケーションを実行する場合においても、端末10の表示部に、仮想空間内に複数のアバターを登場させることにより臨場感を生じさせつつ、表示制御の負荷、ひいては遅延、を抑制することができる。このように、第1端末11の表示部140は、実際のアバター80の総数及び/又は位置を変更して表示を行う。一方で、仮想空間300に関する出展社、運営者、及び/又は運営会社は、表示部140が表示する、変更されたアバターの総数及び/又は位置に関するデータではなく、実際のアバターの総数及び/又は位置に関するデータを取得することができる。したがって、アバターの総数及び/又は位置に関する正確なデータをマーケティングに用いることができる。
5.変形例
なお、端末10の記憶部160は、端末10において取得されたデータを端末10から受信する場合において、当該データを記憶してもよい。具体的には例えば、端末10の記憶部160は、第2データを記憶してもよい。そして、端末10は、記憶部160に記憶されている過去に受信した第2データを用いて制御データを決定してもよい。
また、サーバ装置20の記憶部220は、端末10において取得されたデータを端末10から受信する場合において、当該データを記憶してもよい。具体的には例えば、サーバ装置20の記憶部220は、第2データを記憶してもよい。そして、サーバ装置20は、記憶部220に記憶されている過去に受信した第2データを用いて制御データを決定してもよい。
図12は、第1端末11の表示部140に表示するアバターの数の例を示す。図12においては、仮想空間300内の所定領域に存在するアバターの数のうちアバター80Aを除いた数について示されている。
ここで、時刻1において所定領域に存在するアバターの数が1体であり、時刻2において第2端末を操作するアバターの数が2体であり、時刻3において第2端末を操作するアバターの数が7体であり、時刻4においてアバターの数が90体であり、時刻5においてアバターの数が400体であるものとする。なお、時刻1~時刻5の各々の時刻におけるアバターの数は、上述の例に限定されない。
また、時刻1~時刻5のうち時刻1が最も現在の時刻に近い過去の時刻であり、時刻1~時刻5のうち時刻5が最も現在の時刻から離れた過去の時刻とする。時刻1は、例えば、現在から5分前の時刻、時刻2は、例えば、現在から1時間前の時刻、時刻3は、例えば、現在から12時間前の時刻、時刻4は、例えば、現在から1日前の時刻、時刻5は、例えば、現在から3日前の時刻であるものとする。なお、時刻1~時刻5の各々の時刻は、上述の例に限定されない。
ここで、所定領域に存在するアバターの総数が第1値以上である場合、または、仮想会場310に含まれるアバターの総数が第2値以下である場合、には、表示部140に表示するアバターの総数を所定値に変更する。ここで、第1値は、例えば、11であり、第2値は、例えば、例えば、9である。第1値は第2値より大きい。また、所定値は、例えば、10である。なお、第1値及び第2値の具体的な値はこれに限定されない。
例えば、図12の例1のように、時刻1におけるアバターの数(1体)を第1端末11の表示部140に表示する場合を想定する。この場合において、第1端末11の表示部140に表示されるアバターの総数は第2値以下である。したがって、端末10の表示部140に表示されるアバターの総数は、1体から10体に変更される。すなわち、表示部140に表示されるアバターの総数は、時刻1におけるアバターの数から、時刻1~時刻3の各々におけるアバターの数の総和に変更される。
また、例えば、図12の例2のように、時刻1及び時刻2におけるアバターの総数(3体)を第1端末11の表示部140に表示する場合を想定する。この場合において、第1端末11の表示部140に表示されるアバターの総数は第2値以下である。したがって、第1端末11の表示部140に表示されるアバターの総数は、3体から10体に変更される。すなわち、表示部140に表示されるアバターの総数は、時刻1及び時刻2の各々におけるアバターの数の総和から、時刻1~時刻3の各々におけるアバターの数の総和に変更される。
また、例えば、図12の例3のように、時刻1~時刻3におけるアバターの数の総数(10体)を第1端末11の表示部140に表示する場合を想定する。この場合において、第1端末11の表示部140に表示されるアバターの総数は第1値未満であって第2値よりも多い。したがって、第1端末11の表示部140に表示されるアバターの総数は変更されない。
また、例えば、図12の例4のように、時刻1~時刻4におけるアバターの数の総数(100体)を第1端末11の表示部140に表示する場合を想定する。この場合には、第1端末11の表示部140に表示されるアバターの総数は第1値以上である。したがって、端末10の表示部140に表示されるアバターの総数は、100体から10体に変更される。すなわち、表示部140に表示されるアバターの総数は、時刻1~時刻4の各々におけるアバターの数の総和から、時刻1~時刻3の各々におけるアバターの数の総和に変更される。
また、例えば、図12の例5のように、時刻1~時刻5におけるアバターの数の総数(500体)を第1端末11の表示部140に表示する場合を想定する。第1端末11の表示部140に表示されるアバターの総数は第1値以上である。したがって、第1端末11の表示部140に表示されるアバターの総数は、500体から10体に変更される。すなわち、表示部140に表示されるアバターの総数は、時刻1~時刻5の各々におけるアバターの数の総和から、時刻1~時刻3の各々におけるアバターの数の総和に変更される。
なお、図12においては、アバターの総数が第1値以上である場合、又は、アバターの総数が第2値以下である場合、に、表示部140に表示するアバターの総数を変更するようにしたがこれに限定されない。例えば、アバターの総数に応じて、変更後のアバターの総数が異なっていてもよい。このような具体例について、図13を参照しながら以下に説明する。
図13は、第1端末11の表示部140に表示するアバターの数の例を示す。図13においては、所定領域に存在するアバターの数のうちアバター80Aを除いた数について示されている。
ここで、時刻1において所定領域に存在するアバターの数が3体であり、時刻2において第2端末を操作するアバターの数が7体であり、時刻3において第2端末を操作するアバターの数が10体であり、時刻4においてアバターの数が80体であるものとする。なお、時刻1~時刻4の各々の時刻におけるアバターの数は、上述の例に限定されない。
時刻1~時刻4のうち時刻1が最も現在の時刻に近い過去の時刻であり、時刻1~時刻5のうち時刻5が最も現在の時刻から離れた過去の時刻である。時刻1は、例えば、現在から5分前の時刻、時刻2は、例えば、現在から1時間前の時刻、時刻3は、例えば、現在から12時間前の時刻、時刻4は、例えば、現在から1日前の時刻であるものとする。なお、時刻1~時刻4の各々の時刻は、上述の例に限定されない。
ここで、所定領域に存在するアバターの総数が第1値より大きい場合に表示部140に表示するアバターの数を第1値とし、仮想会場310に含まれるアバターの総数が第2値未満である場合に表示部140に表示するアバターの数を第2値とする。ここで、第1値は、例えば、20であり、第2値は、例えば、例えば、10である。第1値は第2値より大きい。なお、第1値及び第2値の具体的な値はこれに限定されない。
例えば、図13の例1のように、時刻1におけるアバターの数(3体)を第1端末11の表示部140に表示する場合を想定する。この場合において、第1端末11の表示部140に表示されるアバターの総数は第2値未満である。したがって、端末10の表示部140に表示されるアバターの総数は、3体から10体に変更される。すなわち、表示部140に表示されるアバターの総数は、時刻1におけるアバターの数から、時刻1及び時刻2の各々におけるアバターの数の総和に変更される。
また、例えば、図13の例2のように、時刻1及び時刻2におけるアバターの数(10体)を第1端末11の表示部140に表示する場合を想定する。この場合において、第1端末11の表示部140に表示されるアバターの総数は第1値以下であって第2値以上である。したがって、第1端末11の表示部140に表示されるアバターの総数は変更されない。
また、例えば、図13の例3のように、時刻1~時刻4におけるアバターの数(100体)を第1端末11の表示部140に表示する場合を想定する。この場合において、第1端末11の表示部140に表示されるアバターの総数は第1値よりも大きい。したがって、端末10の表示部140に表示されるアバターの総数は、100体から20体に変更される。すなわち、表示部140に表示されるアバターの総数は、時刻1~時刻4の各々におけるアバターの数の総和から、時刻1~時刻3の各々におけるアバターの数の総和に変更される。
このように、図13においては、仮想空間300内に実際に存在するアバターの総数が少なく、仮想空間300内に実際に存在するアバターの総数が所定の下限未満である場合には、第1端末11の表示部140は、実際のアバターの総数よりも多いアバター数を表示させながらもできるだけ少なく表示する。また、図13においては、仮想空間300内に実際に存在するアバターの総数が多く、仮想空間300内に実際に存在するアバターの総数が所定の上限以上である場合には、第1端末11の表示部140は、実際のアバターの総数よりも少ないアバターの総数を表示させながらもできるだけ多く表示する。したがって、第1端末11の表示部140は、会場のアバターの総数を正確に反映した表示を行わない場合においても、第1ユーザは、表示部140を介して仮想空間300内の凡そのアバターの総数を確認することで、仮想空間300内の盛況度合いを把握することができる。
また、上述のように、実際のアバターの総数が所定の閾値未満であり、表示するアバターの総数を変更する場合に、表示するアバターの総数を当該閾値に基づいて増加する例について説明したが、これに限定されない。上述のように実際のアバターの総数が所定の閾値未満であり、表示するアバターの総数を変更する場合に、表示するアバターの総数を所定の数を加算することで増加させてもよい。
また、実際のアバターの総数に応じてアバターの表示態様を変更してもよい。例えば、実際のアバターの総数が所定の閾値以上である場合に、表示部140は、実際のアバターの各々のアバターのパーツを簡略化して表示してもよい。このようにして、端末10の性能が低い場合においても、端末10の表示部140は実際のアバターの総数を反映して表示することができる。なお、例えば、実際のアバターの総数が所定の閾値未満である場合には、表示部140は、実際のアバターの各々のアバターのパーツを簡略化しないで表示してもよい。ここで、アバターのパーツを簡略化する表示は、例えば、単一色(黒)の人型のアバターや、アバターに対応するユーザの性別に応じた識別表示である。例えば、アバターに対応するユーザの性別が男性である場合には、アバターのパーツは、第1パーツとし、アバターに対応するユーザの性別が女性である場合には、アバターのパーツは、第1パーツとは異なる第2パーツとする。
また、第1端末11が、アバター80A以外のアバター80(他人のアバター)の所定時刻tにおける位置データを受信する場合において、第1端末11の表示部140は、当該位置データを受信した後に即座に当該位置データを反映した表示を行わなくともよい。例えば、第1端末11の表示部140は、時刻tから起算して任意の時間経過後に、アバター80A以外のアバター80の位置データを反映した表示を行ってもよい。ここで、「任意の時間」は、例えば、1分、10分、1時間、等である。
また、仮想空間内に含まれるアバターの数を増減させる場合には、上述したように、予め決められた数まで増減させることに限定されない。例えば、仮想空間内に含まれるアバターの数を増減させる場合には、仮想空間内の所定空間の広さを考慮してもよい。ここで、仮想空間内の所定空間内の広さを考慮することは、例えば、仮想空間内の所定空間内の密度を考慮することを意味する。また、仮想空間内の所定空間内の密度は、例えば、仮想空間内の所定空間内の単位体積あたりに表示する所定のアバターの数を意味する。例えば、図7のような領域が仮想空間内に2つ設けられる場合において、一方が第1空間であって他方が第2空間であると仮定する。さらに、第1空間は、第1の広さを有し且つ第1空間内に50体のアバターが存在し、第2空間は、第1の広さよりも小さい第2の広さを有し且つ第2空間内に50体のアバターが存在する場合において、第1空間及び第2空間に含まれるアバターの数が過多であるからアバターの数を減少させる場合を仮定する。この場合には、第1空間に含まれるアバターの数が50体から20体に減少されるようにし、第2空間に含まれるアバターの数が50体から10体に減少されるようにしてもよい。したがって、ユーザが端末10を用いてアバターを操作する場合において表示部140に表示されるアバターの総数が過多になることを抑制することができ、視認性が向上する。
また、図9においては、サーバ装置20が、S141の後に、S183及びS193の処理を行う例について説明したが、これに限定されない。例えば、サーバ装置20が、S131の前に、第1端末11から第1データを受信してもよい。これにより、サーバ装置20が、S131の前にS183の処理を行い、分析データを機器70に送信してもよい。また、例えば、サーバ装置20が、S131の前にS193の処理を行い、広告データを機器70に送信してもよい。このようにして、サーバ装置20は、第1データを受信したタイミングと、受信した第1データに基づいて決定される分析データを機器70に送信するタイミングと、の時間を小さくすることができる。
また、図14に示されるように、図3に示される端末10以外に、第1センサ102a、第2センサ102b、カメラ102c、及び、マイクロフォン102dが設けられていてもよい。図14は、図3に示される端末10及び端末10に接続される構成の一例を示すブロック図である。ここで、端末10と、第1センサ102a、第2センサ102b、カメラ102c、及び、マイクロフォン102dの各々と、は、例えば、有線又は無線で接続される。
第1センサ102aは、例えば、有線又は無線で、カメラ102cと接続される。カメラ102cは、例えば、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。カメラ102cは、例えば、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたものを用いることが可能である。第2センサ102bは、例えば、有線又は無線で、マイクロフォン102dに接続される。なお、第1センサ102a及びカメラ102cが一の構成としても設けられていてもよい。また、第2センサ102b及びマイクロフォン102dが一の構成としても設けられていてもよい。
このようにして、端末10は、カメラ102cにより撮像された画像をサーバ装置20に送信してもよい。また、第1端末11は、マイクロフォン102dに入力された音声データをサーバ装置20に送信してもよい。また、第2端末12は、マイクロフォン102dに入力された音声データをサーバ装置20に送信してもよい。また、第1端末11は、カメラ102c及びマイクロフォン102dを用いた動画データをサーバ装置20に送信してもよい。
図15は、トークンを送信及び使用して計算環境においてビデオをレンダリングすることを含む、本明細書において説明される実施形態、技法、及び、技術が実装されうる適切な計算環境1400の一般化された例を示す。 例えば、計算環境1400は、本明細書で記載されるように、端末装置(あるいは配信者、あるいは視聴者)、又は、配信サーバシステムなどのうちいずれかを実装することができる。
技術が、多様である汎用又は専用の計算環境で実装されうるため、計算環境1400は、技術の使用又は機能の範囲に関していかなる制限を示唆することを意図しない。例えば、本明細書において開示された技術は、様々な携帯用の装置、様々なマルチプロセッサシステム、様々なマイクロプロセッサベース又はプログラム可能な家庭用電化製品、様々なネットワークPC、様々なミニコンピュータ、様々なメインフレームコンピュータ、などを含む、他の様々なコンピュータシステム構成で実装されてもよい。本明細書において開示される技術は、通信ネットワークを通じてリンクされる遠隔処理装置によってタスクが実行される分散計算環境で実施されてもよい。分散計算環境においては、プログラムモジュールはローカル及びリモートの両方のメモリストレージ装置に配置されてもよい。
図15を参照して、計算環境1400は、少なくとも1つの中央処理装置1410及びメモリ1420を含む。図15では、この最も基本的な構成1430は、破線内に含まれている。中央処理装置1410は、コンピュータにより実行可能な命令を実行し、中央処理装置1410は、実プロセッサ又は仮想プロセッサであってもよい。マルチプロセッシングシステムでは、複数のプロセッシングユニットが、コンピュータにより実行可能な命令を実行して処理力を向上させるため、複数のプロセッサは、同時に稼働できる。メモリ1420は、揮発性メモリ(例えば、レジスタ、キャッシュ、RAM)、不揮発性メモリ(例えば、ROM、EEPROM、フラッシュメモリ等)、又は、これら2つの幾つかの組み合わせであってもよい。メモリ1420は、例えば、本明細書に記載の技術を実装することができる、ソフトウェア1480、様々な画像、及び、ビデオを格納する。計算環境は、追加の様々な機能を有していいてもよい。例えば、計算環境1400は、ストレージ1440、1又は複数の入力装置1450、1又は複数の出力装置1460、及び、1又は複数の通信接続1470を含む。バス、コントローラ、又は、ネットワーク、などの相互接続機構(図示なし)は、計算環境1400の様々なコンポーネントを相互接続する。通常、オペレーティングシステムソフトウェア(図示なし)は、計算環境1400で実行される他のソフトウェア用にオペレーティング環境を提供し、及び、計算環境1400の様々なコンポーネントの様々なアクティビティを調整する。
ストレージ1440は、脱着可能であってもよいし、あるいは、脱着可能でなくてもよく、磁気ディスク、磁気テープ若しくはカセット、CD-ROM、CD-RW、DVD、又は、情報を記憶するために用いられ且つ計算環境1400内にアクセスされうる他のいかなる媒体を含む。 ストレージ1440は、本明細書で記載される技術を実装するために用いられうる、ソフトウェア1480、プラグインデータ、及び、メッセージ、のための命令を格納する。
1又は複数の入力装置1450は、キーボード、キーパッド、マウス、タッチスクリーンディスプレイ、ペン、若しくは、トラックボールなどのタッチ入力装置、音声入力装置、走査装置、又は、計算環境1400に入力を提供する別の装置、であってもよい。オーディオの場合、1又は複数の入力装置1450は、アナログ若しくはデジタル形式のオーディオ入力を受け入れるサウンドカード若しくは類似の装置、又は、様々なオーディオサンプルを計算環境1400に提供するCD-ROMリーダーであってもよい。1又は複数の出力装置1460は、ディスプレイ、プリンタ、スピーカ、CDライタ、又は、計算環境1400からの出力を提供する別の装置であってもよい。
1又は複数の通信接続1470は、通信媒体(例えば、接続ネットワーク)を介して別の計算エンティティへの通信を可能にする。通信媒体は、コンピュータにより実行可能な命令、圧縮グラフィックスデータ、ビデオ、又は、変調データ信号に含まれる他のデータ、などのデータを伝達する。1又は複数の通信接続1470は、有線接続(例えば、メガビット若しくはギガビットイーサネット、インフィニバンド、又は、電気若しくは光ファイバー接続を介したファイバーチャネル)に限定されず、無線技術(例えば、Bluetooth、WiFi(IEEE 802.11a/b/n)、WiMax、セルラー、衛星、レーザー、赤外線、経由のRF接続)、並びに、本明細書において開示された様々なエージェント、様々なブリッジ、及び、宛先エージェントの様々なデータコンシューマ、にネットワーク接続を提供するための他の適切な様々な通信接続を含む。仮想ホスト環境においては、1又は複数の通信接続は、仮想ホストによって提供される仮想化されたネットワーク接続であってもよい。
本明細書において開示された様々な方法の様々な実施形態は、計算クラウド1490において、本明細書において開示された技術の全て又は一部を実装するコンピュータにより実行可能な複数の命令を用いて実行されうる。例えば、様々なエージェントは、計算環境において様々な脆弱性スキャン機能を実行可能である一方、エージェントプラットフォーム(例えば、ブリッジ)、及び、宛先エージェントデータのコンシューマサービスは、計算クラウド1490の内部に位置する様々なサーバで実行可能である。
コンピュータにより読み取り可能な媒体は、計算環境1400内でアクセスされうる任意の利用可能な媒体である。限定されず、一例として、計算環境1400に関して、コンピュータにより読み取り可能な媒体は、メモリ1420及び/又はストレージ1440を含む。容易に理解されるように、コンピュータにより読み取り可能な媒体という用語は、メモリ1420及び記憶装置1440などのデータ記憶用の媒体を含み、変調された様々なデータ信号などの伝送媒体を含まない。
上述した様々な実施形態は、矛盾又は不都合が生じない限りにおいて相互に組み合わせて用いることが可能である。本明細書に開示された発明の原理が適用され得る多くの可能な実施形態を考慮すれば、例示された様々な実施形態は好ましい様々な例に過ぎず、特許請求の範囲に係る発明の技術的範囲をこれらの好ましい様々な例に限定すると考えるべきではない、と理解されたい。実際には、特許請求の範囲に係る発明の技術的範囲は、添付した特許請求の範囲により定められる。したがって、特許請求の範囲に記載された発明の技術的範囲に属するすべてについて、本発明者らの発明として、特許の付与を請求する。
第1の態様によるコンピュータプログラムは、「少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記制御データに基づいて前記表示画面を制御する、ように前記少なくとも一のプロセッサを機能させる」ことを特徴とする。
第2の態様によるコンピュータプログラムは、「少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、前記第1データは、前記第1ユーザのアバターの位置を含み、
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
第3の態様によるコンピュータプログラムは、上述の第1の態様又は第2の態様において、「前記制御データは、前記第2データに含まれる前記アバターの位置に基づいて決定される前記表示画面に表示する前記少なくとも一のユーザのアバターの位置、及び、前記第2データに含まれる前記アバターの総数に基づいて決定される前記表示画面に表示する前記少なくとも一のユーザのアバターの総数、のうち少なくともいずれかに関するデータを含む」ことを特徴とする。
第4の態様によるコンピュータプログラムは、上述の第1~第3のいずれかの態様において「前記所定の条件は、前記第1ユーザのアバターが前記第1領域に位置する場合、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が第1値以上である場合、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が第2値以下である場合、前記少なくとも一のユーザのアバターのうち前記第1領域に位置する一のアバターから第1距離以内に位置するアバターの数が第3値以上である場合、及び、前記少なくとも一のユーザのアバターのうち前記第1領域に位置する一のアバターから前記第1距離以内に位置するアバターの数が第4値以下である場合、の少なくともいずれかであり、前記第1値は、前記第2値よりも大きく、前記第3値は、前記第4値よりも大きい、」ことを特徴とする。
第5の態様によるコンピュータプログラムは、上述の第1~第4のいずれかの態様において「前記第2データは、前記少なくとも一のユーザのアバターの性別に関するデータを含む、」ことを特徴とする。
第6の態様によるコンピュータプログラムは、上述の第1~第5のいずれかの態様において「前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられ、前記第1領域は、前記少なくとも一の仮想会場のうちいずれかの仮想会場内の領域である、」ことを特徴とする。
第7の態様によるコンピュータプログラムは、上述の第6の態様において、「前記第2データが、前記少なくとも一のユーザのアバターの位置に関するデータを含む場合において、前記少なくとも一のユーザのアバターの位置は、前記仮想会場内における位置を示し、前記制御データに含まれる、前記少なくとも一のユーザのアバターの前記位置は、前記仮想会場内の位置である、」ことを特徴とする。
第8の態様によるコンピュータプログラムは、上述の第1または第1に従属する第3~第7のいずれかの態様において「前記第1ユーザのアバター及び第2ユーザのアバターの生成に用いられるモジュールデータを記憶する、」ことを特徴とする。
第9の態様によるコンピュータプログラムは、上述の第2又は第2に従属する第3~第7のいずれかの態様において、「前記第1ユーザの端末に対して前記少なくとも一のユーザのアバターの生成を要求するデータを前記第1ユーザの端末に送信する、」ことを特徴とする。
第10の態様によるコンピュータプログラムは、上述の第1~第9のいずれかの態様において、「前記第1データ及び前記第2データのうち少なくともいずれかは、前記アバターの前記仮想空間内における行動履歴に関するデータ、及び、前記アバターを操作するユーザのデータ、のうち少なくともいずれかを含む、」ことを特徴とする。
第11の態様によるコンピュータプログラムは、上述の第6に従属する第10の態様において「前記行動履歴に関するデータは、前記アバターの前記動画を視聴する視聴履歴に関するデータ、前記アバターの前記動画の視聴時間に関するデータ、前記アバターの前記仮想会場への入場履歴に関するデータ、前記アバターの前記仮想会場での滞在時間に関するデータ、前記アバターの前記仮想会場からの退場履歴に関するデータ、前記アバターから前記仮想空間内に存在する仮想オブジェクトに対する作用履歴に関するデータ、前記第1ユーザの端末及び前記少なくとも一のユーザの端末のうち一方から前記第1ユーザの端末及び前記少なくとも一のユーザの端末のうち他方に対するメッセ―ジを送信する場合における前記メッセージが送信される端末の位置に関するデータ、前記仮想オブジェクトの購入履歴に関するデータ、及び、前記仮想オブジェクトが着席可能で且つ前記アバターが前記仮想オブジェクトに着席する場合における前記仮想オブジェクトの位置に関するデータ、のうち少なくともいずれかを含む、」ことを特徴とする。
第12の態様によるコンピュータプログラムは、上述の第1~第11のいずれかの態様において、「前記第1データ及び前記第2データのうち少なくともいずれかは、前記第1ユーザの端末及び前記少なくとも一のユーザの端末以外の第3端末に送信される、」ことを特徴とする。
第13の態様によるコンピュータプログラムは、上述の第12の態様において「前記第1データ及び前記第2データのうち少なくともいずれかを受信したか否かを判定し、前記第1データ及び前記第2データのうち少なくともいずれかを受信した場合に、受信した前記第1データ及び前記第2データのうち少なくともいずれかが、前記第3端末に送信される、」ことを特徴とする。
第14の態様によるコンピュータプログラムは、上述の第12又は第13の態様において、「前記第1データを受信する周期は、前記制御データが決定される周期よりも短い、」ことを特徴とする。
第15の態様によるコンピュータプログラムは、上述の第12~第14のいずれかの態様において、「前記第3端末は、前記仮想会場を運営する運営者又は運営団体によって操作される端末である、」ことを特徴とする。
第16の態様によるコンピュータプログラムは、上述の第1~第15のいずれかの態様において、「前記第1データに基づいて決定される広告に関する第3データが、前記第1ユーザの端末に送信される、及び/又は、前記第2データに基づいて決定される広告に関する第4データが、前記少なくとも一のユーザの端末に送信される、」ことを特徴とする。
第17の態様によるコンピュータプログラムは、上述の第1~第15のいずれかの態様において、「前記第1データに基づいて決定される広告に関する第3データを格納するデータベースにアクセスするURLを含むデータが、前記第1ユーザの端末に送信される、及び/又は、前記第2データに基づいて決定される広告に関する第4データを格納するデータベースにアクセスするURLを含むデータが、前記少なくとも一のユーザの端末に送信される、」ことを特徴とする。
第18の態様によるコンピュータプログラムは、上述の第1、第1に従属する第3~8のいずれか、又は、第1に従属する第10~第17のいずれかの態様において、「前記第1ユーザのアバター及び前記少なくとも一のユーザのアバターが所定時刻において前記仮想空間内に存在する場合で且つ前記少なくとも一のユーザのアバターのいずれかに対応するユーザの端末から送信される第1メッセージを含むデータを受信する場合に、前記第1ユーザの端末の表示画面内の第1表示領域に前記仮想空間を表示し且つ前記第1表示領域内に前記第1メッセージを表示する、」ことを特徴とする。
第19の態様によるコンピュータプログラムは、上述の第2、第2に従属する第3~第7のいずれか、又は、第2に従属する第9~第17のいずれかの態様において、「前記第1ユーザのアバター及び前記少なくとも一のユーザのアバターが所定時刻において前記仮想空間内に存在する場合で且つ前記少なくとも一のユーザのアバターのいずれかに対応するユーザの端末から送信される第1メッセージを含むデータを受信する場合に、前記第1ユーザの端末の表示画面内の第1表示領域に前記仮想空間を表示し且つ前記第1表示領域内に前記第1メッセージを表示させるデータを送信する、」ことを特徴とする。
第20の態様によるコンピュータプログラムは、上述の第19の態様において、「前記第3端末、及び、前記少なくとも一のユーザの端末、のうち一方から、前記第3端末、及び、前記少なくとも一のユーザの端末、のうち他方への第3メッセージを含むデータを受信する場合に、前記第3メッセージを含むデータを前記第1ユーザの端末に送信しない、」ことを特徴とする。
第21の態様によるコンピュータプログラムは、上述の第4又は第4に従属する第5~第20のいずれかの態様において、「前記第2データは、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数に関するデータを含み、前記所定の条件は、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第1値以上である場合、及び、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第2値以下である場合、のいずれかであり、複数の時刻の各々の時刻における前記第2データを記憶し、第1時刻において前記所定の条件を満たすと判定された場合に、前記複数の時刻のうち第2時刻から前記第1時刻までの期間における前記総数の累計を決定し、前記決定に基づいて前記制御データを決定する、」ことを特徴とする。
第22の態様によるコンピュータプログラムは、上述の第21の態様において「前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第1値以上である場合には、前記累計を決定するための対象となる期間が短くなるように前記第2時刻を決定し、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第2値以下である場合には、前記累計を決定するための対象となる期間が長くなるように前記第2時刻を決定する、」ことを特徴とする。
第23の態様によるコンピュータプログラムは、上述の第1~第22のいずれかの態様において、「前記仮想空間は3次元空間である、」ことを特徴とする。
第24の態様によるコンピュータプログラムは、上述の第1~第23のいずれかの態様において、「前記少なくとも一のユーザのアバターの前記仮想空間内における動作は、予め決定されている、」ことを特徴とする。
第25の態様によるコンピュータプログラムは、上述の第1~第24のいずれかの態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第26の態様によるコンピュータプログラムは、上述の第1~第25のいずれかの態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、」ことを特徴とする。
第27の態様によるコンピュータプログラムは、上述の第1~第26のいずれかの態様において「前記少なくとも1つのプロセッサが、サーバ装置、スマートフォン、タブレット、携帯電話、または、パーソナルコンピュータに搭載される、」ことを特徴とする。
第28の態様による方法は、「第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得する工程と、通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信する工程と、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定する工程と、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定する工程と、前記制御データに基づいて前記表示画面を制御する工程と、を含む、」ことを特徴とする。
第29の態様による方法は、「通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信する工程と、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定する工程と、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定する工程と、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する工程と、を含む、」ことを特徴とする。
第30の態様による方法は、上述の第28又は第29に記載の態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第31の態様による方法は、上述の第28~第30のいずれかの態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、」ことを特徴とする。
第32の態様によるサーバ装置は、「通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、前記第1データは、前記第1ユーザのアバターの位置を含み、前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する、」ことを特徴とする。
第33の態様によるサーバ装置は、上述の第32の態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第34の態様によるサーバ装置は、第32又は第33の態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」ことを特徴とする。
このように、本開示の技術は、従来よりも快適性が損なわれないようにするコンピュータプログラム、方法、及び、サーバ装置を提供することができる。
<第2実施形態>
従来、ユーザが端末を用いて当該端末に表示される仮想空間内で実行されるコンテンツを視聴する場合において、当該コンテンツを視聴する他のユーザに対応するアイコンを当該仮想空間内に表示することが知られている(特開2016-34087号公報)。しかしながら、特開2016-34087号公報に記載の技術においては、ユーザによって用いられる端末が仮想空間を表示する場合において、当該ユーザのアイコンは当該仮想空間内に表示されない。なお、特開2016-34087号公報は、引用によりその全体が本明細書に組み入れられる。したがって、本開示は、従来よりも複雑な操作を行うことなく、端末の表示を適切に行う、ユーザ操作を快適にするコンピュータプログラム、方法、及び、サーバ装置を提供する。
従来、ユーザが端末を用いて当該端末に表示される仮想空間内で実行されるコンテンツを視聴する場合において、当該コンテンツを視聴する他のユーザに対応するアイコンを当該仮想空間内に表示することが知られている(特開2016-34087号公報)。しかしながら、特開2016-34087号公報に記載の技術においては、ユーザによって用いられる端末が仮想空間を表示する場合において、当該ユーザのアイコンは当該仮想空間内に表示されない。なお、特開2016-34087号公報は、引用によりその全体が本明細書に組み入れられる。したがって、本開示は、従来よりも複雑な操作を行うことなく、端末の表示を適切に行う、ユーザ操作を快適にするコンピュータプログラム、方法、及び、サーバ装置を提供する。
1.システム1000の構成
図1は、一実施形態に係るシステム1000の構成の一例を示すブロック図である。図1に示すように、システム1000は、例えば、図示しない通信回線(通信網)に接続される複数の端末10と、通信回線に接続される1又は複数のサーバ装置20と、を含む。端末10は、第1端末11を含む。端末10は、更に、第2端末12を含んでもよい。また、サーバ装置20は、例えば、第1サーバシステム21及び第2サーバシステム22を含む。
図1は、一実施形態に係るシステム1000の構成の一例を示すブロック図である。図1に示すように、システム1000は、例えば、図示しない通信回線(通信網)に接続される複数の端末10と、通信回線に接続される1又は複数のサーバ装置20と、を含む。端末10は、第1端末11を含む。端末10は、更に、第2端末12を含んでもよい。また、サーバ装置20は、例えば、第1サーバシステム21及び第2サーバシステム22を含む。
通信回線は、携帯電話網、無線ネットワーク(例えば、Bluetooth、(IEEE 802.11a/b/nといったような)WiFi、WiMax、セルラー、衛星、レーザー、赤外線、を介したRF接続)、固定電話網、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及び/又は、イーサネットネットワークを、これらに限定することなく含むことができる。
1-1.端末10
端末10は、例えば、通信回線を介して、1又は複数のサーバ装置20に接続される。端末10は、例えば、スマートフォン、タブレット装置、及び/又はパーソナルコンピュータである。端末10は、例えば、所定のアプリケーションをインストールして当該所定のアプリケーションを実行可能に構成される。また、端末10は、サーバ装置20(第2サーバシステム22)からウェブページ(例えば、HTMLドキュメント、幾つかの例では、JavaScript又はPHPコードといったような実行可能なコードを符号化したHTMLドキュメント)を受信することができる。
端末10は、例えば、通信回線を介して、1又は複数のサーバ装置20に接続される。端末10は、例えば、スマートフォン、タブレット装置、及び/又はパーソナルコンピュータである。端末10は、例えば、所定のアプリケーションをインストールして当該所定のアプリケーションを実行可能に構成される。また、端末10は、サーバ装置20(第2サーバシステム22)からウェブページ(例えば、HTMLドキュメント、幾つかの例では、JavaScript又はPHPコードといったような実行可能なコードを符号化したHTMLドキュメント)を受信することができる。
なお、以後、端末10を操作するユーザを単にユーザと称し、第1端末11を操作するユーザを第1ユーザと称することがあるものとする。また、図1には、複数の端末10として、例えば、第1端末11が設けられる例について示されているが、これに限定されない。複数の端末10は、例えば、2以上の端末を含んでもよい。また、以後の説明において、第1端末11を端末10と称することがあるものとする。
1-2.サーバ装置20
第1サーバシステム21は、配信サーバ装置21A1、サーバ記憶装置21A2を備える。配信サーバ装置21A1は、例えば、端末10において実行されるアプリケーションに関して要求されるデータを端末10から受信する。また、配信サーバ装置21A1は、例えば、当該要求に応じて、端末10において実行されるアプリケーションに用いられるデータを端末10に送信する。サーバ記憶装置21A2は、例えば、配信サーバ装置21A1から端末10に送信するデータを格納する。また、サーバ記憶装置21A2は、例えば、配信サーバ装置21A1が端末10から受信したデータを格納する。また、第1サーバシステム21は、例えば、端末10により実行されるアプリケーションにおいて用いられるデータを端末10に送信する。また、第1サーバシステム21は、例えば、端末10から受信したデータを機器70に送信する。
第1サーバシステム21は、配信サーバ装置21A1、サーバ記憶装置21A2を備える。配信サーバ装置21A1は、例えば、端末10において実行されるアプリケーションに関して要求されるデータを端末10から受信する。また、配信サーバ装置21A1は、例えば、当該要求に応じて、端末10において実行されるアプリケーションに用いられるデータを端末10に送信する。サーバ記憶装置21A2は、例えば、配信サーバ装置21A1から端末10に送信するデータを格納する。また、サーバ記憶装置21A2は、例えば、配信サーバ装置21A1が端末10から受信したデータを格納する。また、第1サーバシステム21は、例えば、端末10により実行されるアプリケーションにおいて用いられるデータを端末10に送信する。また、第1サーバシステム21は、例えば、端末10から受信したデータを機器70に送信する。
なお、端末10がアプリケーションを実行する例について説明したが、これに限定されない。例えば、端末10にインストールされるウェブブラウザを用いて、当該アプリケーションを実行することと同等の処理を実行するようにしてもよい。このように、端末10にインストールされるウェブブラウザを用いる場合には、例えば、サーバ装置20は、ウェブサーバ(図示省略)を含んでいてもよい。サーバ装置20が、ウェブサーバ(図示省略)を含む場合には、ウェブサーバは、HTML5等のHTML文書に関するデータを送信し、端末10は、当該ウェブブラウザを用いて当該HTML文書に関するデータを表示し、端末10(当該ウェブブラウザ)に対してユーザ指示データが送信され、サーバ装置20は、表示制御を行う。サーバ装置20は、当該表示制御を行うことで、表示データを生成し、当該表示データを端末10(当該ウェブブラウザ)に送信する。なお、当該ウェブブラウザでJavaScript(登録商標)などのスクリプトを用いて表示制御を行ってもよい。
また、図1においては、第1サーバシステム21が、配信サーバ装置21A1、サーバ記憶装置21A2を備える例について説明したが、これに限定されない。例えば、第1サーバシステム21が、配信サーバ装置21A1及びサーバ記憶装置21A2に加えて他の構成を含んでいてもよい。この場合において、当該他の構成が、配信サーバ装置21A1及びサーバ記憶装置21A2のうち少なくともいずれかの機能を有してもよい。また、例えば、第1サーバシステム21が、配信サーバ装置21A1及びサーバ記憶装置21A2の機能を備える単一の構成によって構成されていてもよい。
第2サーバシステム22は、コンテンツに関するデータを端末10に送信するサーバである。ここで、例えば、ユーザが端末10を操作してアプリケーションを実行する場合を想定する。この場合において、第2サーバシステム22が、当該アプリケーションの実行中に、コンテンツに関するデータの要求を端末10から受信した場合に、第2サーバシステム22は、コンテンツに関するデータを端末10に送信する。第2サーバシステム22から端末10に送信されるコンテンツに関するデータは、例えば、動画に関するデータである。
1-3.機器70
機器70(第3端末)は、例えば、仮想会場を運営する運営者又は運営団体によって操作される端末である。機器70は、第1サーバシステム21に所定のデータを送信し、第1サーバシステム21から送信される所定のデータを受信する。機器70の具体的な構成については後述する。
機器70(第3端末)は、例えば、仮想会場を運営する運営者又は運営団体によって操作される端末である。機器70は、第1サーバシステム21に所定のデータを送信し、第1サーバシステム21から送信される所定のデータを受信する。機器70の具体的な構成については後述する。
2.各装置のハードウェア構成
次に、端末10、及び、サーバ装置20の各々が有するハードウェア構成の一例について説明する。
次に、端末10、及び、サーバ装置20の各々が有するハードウェア構成の一例について説明する。
2-1.端末10のハードウェア構成
各端末10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末10(サーバ装置20)のハードウェア構成の一例を示すブロック図である。なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されている。
各端末10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末10(サーバ装置20)のハードウェア構成の一例を示すブロック図である。なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されている。
図2に示すように、各端末10は、例えば、中央処理装置14と、主記憶装置15と、入出力インターフェース装置16と、入力装置17と、補助記憶装置18と、出力装置19と、を含む。図2に示される構成同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置14は、「CPU」と称され、主記憶装置15に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置15に記憶させる。さらに、中央処理装置14は、入出力インターフェース装置16を介して、入力装置17、補助記憶装置18及び出力装置19等を制御することができる。端末10は、1又はそれ以上のこのような中央処理装置14を含むことが可能である。
主記憶装置15は、「メモリ」と称され、入力装置17、補助記憶装置18及び通信回線30(サーバ装置20等)から、入出力インターフェース装置16を介して受信した命令及びデータ、並びに、中央処理装置14の演算結果を記憶する。主記憶装置15は、揮発性メモリ(例えば、レジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(例えば、リードオンリーメモリ(ROM)、EEPROM、フラッシュメモリ)、及び、ストレージ(例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、磁気テープ、光学媒体)、といったようなコンピュータにより読み取り可能な媒体を、これらに限定することなく含むことができる。容易に理解されるように、「コンピュータにより読み取り可能な記録媒体」という用語は、変調されたデータ信号すなわち一時的な信号といったような送信媒体ではなく、メモリ及びストレージといったようなデータストレージのための媒体を含むことができる。
入力装置17は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含む。センサは、後述するように、1又はそれ以上のカメラ等及び/又は1又はそれ以上のマイク等を含むセンサをこれらに限定することなく含むことができる。
補助記憶装置18は、主記憶装置15よりも大きな容量を有する記憶装置である。上述した特定のアプリケーション(動画配信用アプリケーション、動画視聴用アプリケーション等)やウェブブラウザアプリケーション等を構成する命令及びデータ(コンピュータプログラム)を記憶することができる。さらに、補助記憶装置18は、中央処理装置14により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インターフェース装置16を介して、主記憶装置15に送信することができる。補助記憶装置18は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
出力装置19は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
このようなハードウェア構成にあっては、中央処理装置14が、補助記憶装置18に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次、主記憶装置15にロードする。中央処理装置14は、ロードした命令及びデータを演算することにより、入出力インターフェース装置16を介して出力装置19を制御し、或いはまた、入出力インターフェース装置16及び通信回線2を介して、他の装置(例えばサーバ装置20、他の端末10)との間で様々なデータの送受信を行うことができる。
2-2.サーバ装置20のハードウェア構成
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(配信サーバ装置21A1及びサーバ記憶装置21A2の各々)のハードウェア構成としては、例えば、上述した各端末10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(配信サーバ装置21A1及びサーバ記憶装置21A2の各々)のハードウェア構成としては、例えば、上述した各端末10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
図2に示すように、各サーバ装置20は、主に、中央処理装置24と、主記憶装置25と、入出力インターフェース装置26と、入力装置27と、補助記憶装置28と、出力装置29と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置24、主記憶装置25、入出力インターフェース装置26、入力装置27、補助記憶装置28、及び、出力装置29は、それぞれ、上述した各端末10に含まれる、中央処理装置14、主記憶装置15、入出力インターフェース装置16、入力装置17、補助記憶装置18及び出力装置19と略同一なものとすることができる。
このようなハードウェア構成にあっては、中央処理装置24が、補助記憶装置28に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置25にロードする。中央処理装置24は、ロードした命令及びデータを演算することにより、入出力インターフェース装置26を介して出力装置29を制御し、或いはまた、入出力インターフェース装置26及び通信回線2を介して、他の装置(例えば各端末10)との間で様々なデータの送受信を行うことができる。
なお、サーバ装置20は、中央処理装置24に代えて又は中央処理装置24とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むものであってもよい。
3.各装置の機能
次に、端末10、及び、サーバ装置20の各々が有する機能の一例について、それぞれ、図3、及び、図4を用いて説明する。
次に、端末10、及び、サーバ装置20の各々が有する機能の一例について、それぞれ、図3、及び、図4を用いて説明する。
3-1.端末10の機能
図3は、図1に示した端末10の機能の一例を示すブロック図である。図3に示すように、端末10は、例えば、通信部110と、取得部120と、制御部130と、表示部140と、ユーザインターフェース部150と、記憶部160と、を含む。
図3は、図1に示した端末10の機能の一例を示すブロック図である。図3に示すように、端末10は、例えば、通信部110と、取得部120と、制御部130と、表示部140と、ユーザインターフェース部150と、記憶部160と、を含む。
(1)通信部110
通信部110は、例えば、サーバ装置20に各種データを送信するために用いられる。また、通信部210は、例えば、サーバ装置20から各種データを受信するために用いられる。通信部210において受信したデータは、例えば、制御部130に送られる。
通信部110は、例えば、サーバ装置20に各種データを送信するために用いられる。また、通信部210は、例えば、サーバ装置20から各種データを受信するために用いられる。通信部210において受信したデータは、例えば、制御部130に送られる。
(2)取得部120
取得部120は、例えば、ユーザから操作に関する操作データを取得する。また、取得部120は、例えば、各種センサによって検出されるデータを取得する。取得部120において取得されたデータは、例えば、制御部130に送られる。取得部120は、例えば、後述する図20のS121及び図21のS121の処理を行う。例えば、操作データは、次のデータのうちの1つ又はそれ以上を含むことができる。
・配信者がタッチパッドディスプレイをどのようにスワイプしたかを示すデータ
・配信者がタッチパッドディスプレイのどの箇所をタッチしたかを示すデータ
・配信者がいずれのオブジェクトをタップ又はクリックしたかを示すデータ
・配信者がタッチパッドディスプレイをどのようにドラッグしたかを示すデータ
・他のそのような操作データ
取得部120は、例えば、ユーザから操作に関する操作データを取得する。また、取得部120は、例えば、各種センサによって検出されるデータを取得する。取得部120において取得されたデータは、例えば、制御部130に送られる。取得部120は、例えば、後述する図20のS121及び図21のS121の処理を行う。例えば、操作データは、次のデータのうちの1つ又はそれ以上を含むことができる。
・配信者がタッチパッドディスプレイをどのようにスワイプしたかを示すデータ
・配信者がタッチパッドディスプレイのどの箇所をタッチしたかを示すデータ
・配信者がいずれのオブジェクトをタップ又はクリックしたかを示すデータ
・配信者がタッチパッドディスプレイをどのようにドラッグしたかを示すデータ
・他のそのような操作データ
なお、取得部120が取得するデータは、非操作に関するデータ(操作をしなかったことを示すデータ)であってもよく、例えば、特定時間(特定期間)端末10を操作しなかったことを示すデータ、及び/又は、仮想空間300内のある特定の場所に入らなかったことを示すデータである。
(3)制御部130
制御部130は、例えば、通信部110において受信したデータに基づいて各種制御を行う。また、制御部130は、取得部120において取得したデータに基づいて各種制御を行う。制御部130は、例えば、後述する図20のS125及びS141並びに図21のS125及びS141の処理を行う。
制御部130は、例えば、通信部110において受信したデータに基づいて各種制御を行う。また、制御部130は、取得部120において取得したデータに基づいて各種制御を行う。制御部130は、例えば、後述する図20のS125及びS141並びに図21のS125及びS141の処理を行う。
(4)表示部140
表示部140は、例えば、制御部130から出力される制御データに基づく表示内容を表示する。表示部140は、例えば、所定のアプリケーションを選択する画面を表示する。また、表示部140は、例えば、所定のアプリケーションを選択して所定のアプリケーションを実行した場合において仮想空間内に関する画面を表示する。
表示部140は、例えば、制御部130から出力される制御データに基づく表示内容を表示する。表示部140は、例えば、所定のアプリケーションを選択する画面を表示する。また、表示部140は、例えば、所定のアプリケーションを選択して所定のアプリケーションを実行した場合において仮想空間内に関する画面を表示する。
(5)ユーザインターフェース部150
ユーザインターフェース部150は、アプリケーションの実行に用いられる様々なデータをユーザの操作を介して入力する用途で用いられる。
ユーザインターフェース部150は、アプリケーションの実行に用いられる様々なデータをユーザの操作を介して入力する用途で用いられる。
(6)記憶部160
記憶部160は、アプリケーションの実行に用いられる様々なデータを記憶することができる。記憶部160は、表示部140を制御するために用いられるデータを記憶する。記憶部160は、例えば、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する。なお、記憶部160は、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する場合に限定されるものに限定されず、他のアバターの生成に用いられるモジュールデータを記憶してもよい。
記憶部160は、アプリケーションの実行に用いられる様々なデータを記憶することができる。記憶部160は、表示部140を制御するために用いられるデータを記憶する。記憶部160は、例えば、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する。なお、記憶部160は、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する場合に限定されるものに限定されず、他のアバターの生成に用いられるモジュールデータを記憶してもよい。
なお、モジュールデータは、例えば、アバターを生成するためのパーツに関するデータである。ここで、アバターを生成するためのパーツは、例えば、アバターの各パーツ(目、鼻、口、眉毛、肌の色、髪型、髪の色、服、体、等)のデータを含む。また、モジュールデータは、アバターを生成するための各パーツに対応して割り当てられるIDに関するデータを含む。なお、アバターのパーツが体である場合には、アバターを生成するためのパーツに関するデータは、痩せ型、やや痩せ型、標準、やや肥満、肥満、など、体型に関して細分化されたデータを含んでいてもよい。
また、表示部140が、アバター80A以外のアバター80(他人のアバター)を表示する場合において、サーバ装置20が、アバター80A以外のアバター80の生成に用いられるIDデータを第1端末11に送信し、第1端末11が、当該IDデータに基づいて、アバター80A以外のアバター80を構築する構成であってもよい。
また、表示部140が、アバター80A以外のアバター80(他人のアバター)を表示する場合において、表示部140は、アバター80A以外のアバター80を黒色に着色して表示してもよいし、アバター80A以外のアバター80に対応するユーザの性別(例えば、男性又は女性)に基づいて決定されるパーツ及び/又は色彩を用いて男性用または女性用の2択のアバター80A以外のアバター80を表示してもよい。
3-2.サーバ装置20の機能
図4は、図1に示したサーバ装置20の機能の一例を示すブロック図である。図4に示されるように、サーバ装置20は、例えば、通信部210と、記憶部220と、制御部230と、を含む。
図4は、図1に示したサーバ装置20の機能の一例を示すブロック図である。図4に示されるように、サーバ装置20は、例えば、通信部210と、記憶部220と、制御部230と、を含む。
(1)通信部210
通信部210は、例えば、端末10に各種データを送信するために用いられる。また、通信部210は、例えば、端末10から各種データを受信するために用いられる。通信部210において受信したデータは、制御部230に送られる。
通信部210は、例えば、端末10に各種データを送信するために用いられる。また、通信部210は、例えば、端末10から各種データを受信するために用いられる。通信部210において受信したデータは、制御部230に送られる。
(2)記憶部220
記憶部220は、アプリケーションの実行に用いられる様々なデータを記憶する。記憶部220は、例えば、第1端末11から送信される第1データを記憶する。第1端末11から送信される第1データは、例えば、アバター80Aに関するデータを含む。第1データは、「行動履歴」に関するデータを含んでいてもよい。なお、第1端末11から送信される第1データ、及び、「行動履歴」に関するデータの詳細については後述する。
記憶部220は、アプリケーションの実行に用いられる様々なデータを記憶する。記憶部220は、例えば、第1端末11から送信される第1データを記憶する。第1端末11から送信される第1データは、例えば、アバター80Aに関するデータを含む。第1データは、「行動履歴」に関するデータを含んでいてもよい。なお、第1端末11から送信される第1データ、及び、「行動履歴」に関するデータの詳細については後述する。
(3)制御部230
制御部230は、例えば、通信部210において受信したデータに基づいて各種制御を行う。制御部230は、例えば、後述する図20のS183、図20のS193、図21のS131、図21のS183、及び、図21のS193の処理を行う。
制御部230は、例えば、通信部210において受信したデータに基づいて各種制御を行う。制御部230は、例えば、後述する図20のS183、図20のS193、図21のS131、図21のS183、及び、図21のS193の処理を行う。
図5は、第1端末11を操作してアプリケーションを起動することで第1端末11の表示部140に表示される表示例を示す図である。図5に示されるように、表示部140には仮想空間300が表示される。仮想空間300は、例えば、3次元空間である。仮想空間内300内には、アバター80、及び、仮想会場310が示されている。
アバター80は、ユーザの操作により、例えば、歩行、走行、及び、跳躍(ジャンプ)、のうち少なくともいずれかを行うことが出来るように構成されている。また、アバター80は、例えば、ユーザの操作により、仮想オブジェクトを調べる、仮想オブジェクトを押す、仮想オブジェクトを引く、仮想オブジェクトを持ち上げる、仮想オブジェクトに着席する、仮想オブジェクトを購入する、仮想オブジェクトにアイテムを渡す、ことが出来るように構成されている。ここで、仮想オブジェクトは、例えば、アバター、ドア、食料品、入場券、椅子、展示物などである。なお、端末10を用いてユーザがアバター80を操作すると、当該操作に関するデータが、サーバ装置20に送信される。
上述の「仮想オブジェクトを調べる」という操作により、当該仮想オブジェクトに関する説明が表示部140に表示される。当該仮想オブジェクトを説明する文は、例えば、当該仮想オブジェクトの名称、当該仮想オブジェクトの用途、及び、当該仮想オブジェクトの価格、のうち少なくともいずれかである。当該仮想オブジェクトに関する説明は、例えば、文章、画像、および、動画、の少なくともいずれかである。
上述の「仮想オブジェクトを押す」という操作、「仮想オブジェクトを引く」という操作、「仮想オブジェクトを持ち上げる」という操作により、当該仮想オブジェクトの仮想空間300内での位置を変更させることができる。
上述の「仮想オブジェクトに着席する」という操作により、アバター80が当該仮想オブジェクトに着席する。なお、アバター80は当該仮想オブジェクト以外の特定の場所に着席可能であるように構成されていてもよい。また、アバター80が当該仮想オブジェクトに着席する場合、または、アバター80が当該仮想オブジェクト以外の特定の場所に着席する場合を想定する。この場合において、表示部140は、アバター80が着席する前における表示画面とは別の表示画面(例えば、UI操作部やチャット画面がない表示画面)を表示してもよいし、アバター80が着席する前において存在したユーザインターフェースを非表示にしてもよい。表示部140が、アバター80が着席する前における表示画面とは別の表示画面を表示する場合において、表示部140は、表示対象の画面等が全画面表示になるような表示を行ってもよい。
上述の「仮想オブジェクトを購入する」という操作により、例えば、当該仮想オブジェクトを購入することができる。当該仮想オブジェクトが着用可能である場合には、アバター80が購入した当該仮想オブジェクトを身に着けることでアバター80の外観を変化させることができる。
なお、表示部140に表示されるアバターのうち、操作するアバター80以外のアバター80は、ユーザによって操作されるアバターであってもよいし、仮想空間300内での動作について予め決定されているものであってもよい。ここで、アバター80が、仮想空間300内での動作について予め決定されている場合には、アバター80は、NPC(Non Player Character)として動作することを意味する。
また、図5に示されるアバター80の外観はすべて同一であるが、これに限定されない。アバター80を操作するユーザに関するデータ又はユーザが選択したアバター80のパーツに関連付けられたIDに関するデータに基づいてアバター80の外観を決定してもよい。例えば、アバター80を操作するユーザが男性である場合にはアバター80の外観が男性であってもよい。また、例えば、アバター80を操作するユーザが女性である場合にはアバター80の外観が女性であってもよい。
また、ユーザの動作に連動して仮想空間内のアバターの動作が変化してもよい。例えば、ユーザが頷く動作をした場合に仮想空間内のアバターも同様に頷く動作をしてもよい。ここで、動作データは、例えば、モーションキャプチャシステムを用いて取得され得る。本開示による利益を有する当業者により容易に理解されるように、本件出願において開示される装置及び方法とともに使用され得る幾つかの例の適切なモーションキャプチャシステムは、パッシブマーカ若しくはアクティブマーカを用いた又はマーカを用いない光学式モーションキャプチャシステムと、慣性式及び磁気式の非光学式システムとを含む。モーションデータは、モーションデータを動画又は他のイメージデータに変換するコンピュータに結合された、(CCD(電荷結合デバイス)又はCMOS(相補型金属酸化膜半導体)イメージセンサといったような)イメージキャプチャ装置を用いて取得され得る。
図5に示されるアバター80Aを操作する場合には、例えば、表示部140は、図16のような画面を表示する。
図16は、端末10の表示部140に表示される表示例を示す図である。具体的には、図16は、第1端末11を用いて第1ユーザがアバター80Aを操作する場合において、第1端末11の表示部140に表示される例を示す図である。図16に示されるように、例えば、表示部140は、アバター80、アバター80A、及び、仮想会場310を表示する。ここで、表示部140は、アバター80Aの背面を表示しており、第1端末11を操作する第1ユーザの視線と、第1ユーザに対応するアバター80Aの視線と、が同じ方向である。表示部140は、例えば、アバター80Aよりも図16の紙面手前方向に位置する仮想視点を基準としてアバター80Aを含む仮想空間内の領域を表示する。表示部140は、仮想空間のうちアバター80Aの進行方向を含む領域を表示する。なお、端末10を用いてアバター80Aを操作することで、表示部140が表示する仮想空間内の領域が変更されうる。例えば、端末10を用いてアバター80Aの進行方向を180度変更することで、図16におけるアバター80Aの後方領域を表示することができる。このように、端末10を用いてアバター80Aを操作することで、図16には表示されていない領域を表示部140は表示することができる。第1端末11を操作するユーザがアバター80Aを操作し、図16に示されるアバター80Aが仮想会場310の内部に位置すると、例えば図17のような表示画面が表示される。
なお、図16において、第1ユーザによるアバター80Aの操作が行われると、第1端末11は、例えば、アバター80Aの仮想空間300内の位置に関するデータを取得する。また、例えば、第1端末11が取得したアバター80Aの仮想空間300内の位置に関するデータはサーバ装置20に送信される。なお、第1端末11がアバター80Aの仮想空間300内の位置に関するデータを取得するタイミングは任意のタイミングであってよい。また、例えば、第1端末11が取得したアバター80Aの仮想空間300内の位置に関するデータがサーバ装置20に送信されるタイミングについても任意のタイミングであってよい。
また、第1端末11の表示部140のうち任意の領域をタッチ操作することができるようになっていてもよい。また、第1端末11が加速度センサ(図示省略)を備え、第1端末11を動作させた場合において、当該加速度センサに基づいて、表示部140が表示する表示領域及び/又は方向を変更できる構成であってもよい。
ここで、上述の「任意の領域」は、例えば、図16のアイコン301(領域301)及び/又は表示領域314を含む。アイコン301及び/又は表示領域314は、タッチ操作を行うことにより所定の表示制御を行うための操作ユーザインターフェースである。また、「タッチ操作」は、例えば、タップ、ダブルタップ、スワイプ、フリック、ピンチイン、及び、ピンチアウト、のうち少なくともいずれかの操作を指す。また、アイコン301及び/又は表示領域314は、図16の表示を行う場合のみならず、後述する他の図面(例えば、図17~図19の少なくともいずれか)の表示を行う場合においても同一の位置又は異なる位置に表示されていてもよい。
また、アイコン301は、図16に記載されているように、2つ設けられていてもよいし、1つ又は3つ以上設けられていてもよい。なお、アイコン301が2つ以上に設けられる場合において、一のアイコン301が、例えば、アバター80Aを歩行させるために用いられる領域に対応し、他のアイコン301が、例えば、アバター80Aをジャンプさせるために用いられる領域に対応する。このようにして、アイコン301をタッチ操作することでアバター80Aを歩行又はジャンプさせることができる。
ここで、アバター80Aを歩行又はジャンプさせるためのタッチ操作は、例えば、アバター80Aのアイコン301をタップ又はダブルタップする操作である。また、アバター80Aを歩行又はジャンプさせるためのタッチ操作を行う領域はアイコン301以外の領域であってもよい。
表示領域314は、アバター80に対応するユーザが入力するメッセージを表示する領域である。表示部140が表示領域314を表示する場合において、表示領域314には、第1端末11から送信されるメッセージ、及び、第1端末以外の端末から送信されるメッセージ、のうち少なくともいずれかのメッセージが表示される。ここで、表示領域314に表示されるメッセージは、第1端末宛のメッセージを表示してもよいし、表示領域314に表示されるメッセージは、第1端末以外の端末間でやり取りされるメッセージを表示してもよい。したがって、表示領域314は、仮想空間300内に存在する少なくとも一のアバター80に対応するユーザが閲覧及び/又はチャット可能な領域、または、仮想空間300内の特定の場所に存在する少なくとも一のアバター80に対応するユーザが閲覧及び/又はチャット可能な領域として機能する。
このようにして、第1端末11は、第1ユーザが表示部140の表示領域314を介して全アバター80のうち少なくとも一のアバター80に対応するユーザとチャットすることができる。例えば、第1端末11は、第1ユーザが表示部140の表示領域314を介して、所定の領域内(同一の領域内)に存在する全アバター80に対応するユーザとチャットすることができる。ここで、第1ユーザとチャットするユーザは、個人のユーザ又は出展企業である。また、表示領域314に複数のメッセージを表示する場合において、表示領域314内に全てのメッセージを表示できないような場合に、タッチ操作を行うことで、表示領域314内に表示されていないメッセージを表示することができる。ここで、表示領域314内に全てのメッセージを表示できないような場合におけるタッチ操作は、例えば、スワイプである。
なお、表示部140に表示領域314が表示される条件は、アバター80が仮想会場310内に位置している場合に限定されるものではない。例えば、アバター80が仮想空間300内の所定領域内に位置している場合に、当該所定領域に対応する表示領域を表示部140に表示してもよい。すなわち、アバター80が存在する位置に応じて、表示部140に表示する表示領域が決定されてもよい。これにより、ユーザは、自身のアバター80が存在する領域と同一領域に存在する他のアバター80に対応するユーザとメッセージをやり取りすることができる。また、ユーザは、特定の属性のユーザとのチャットを行うことができる。したがって、ユーザは、興味、関心、及び/又は属性が共通する他のユーザと容易にコミュニケーションを図ることができる。
また、表示領域314に表示されるメッセージの送信元の端末は、例えば、仮想会場310内に存在するアバターを操作するユーザが用いる端末である。ただし、表示領域314が表示されるメッセージの送信元の端末に対応するアバターは、仮想会場310に表示されていてもよいし、仮想会場310に表示されていなくともよい。
また、表示領域314には、購入可能な商品を表示してもよい。当該商品は、例えば、仮想会場310を運営する運営者又は運営団体に関連する商品である。表示領域314には、当該商品とともに、当該商品に関する内容、及び、当該商品の購入を促す内容を表示してもよい。ここで、当該商品の購入を促す内容は「買い物かごに入れる」等の表示であって且つ選択可能に構成される。
また、ユーザが端末10を用いて表示領域314に表示される少なくとも一の商品の購入手続を進める操作をすることで、例えば、端末10にインストールされるブラウザが起動され、当該商品を購入するために用いられる内容の入力を要求するページが表示部140に表示される。
また、例えば、図16に示されるように、点321をタップ又はダブルタップする操作を行うと、表示部140は、アバター80Aと点321とを結ぶ線分322を表示し、アバター80Aは、線分322に沿って点321まで歩行する。なお、点321及び線分322は、任意の色であってよい。また、アバター80Aを歩行させるためのタッチ操作は、アバター80Aのいずれかの領域をフリックする操作を行うことで進行方向を変更した後に変更後の進行方向の仮想直線上の任意の点をタップ又はダブルタップする操作である。
また、例えば、図16に示されるように、表示部140は、アイコン323を表示してもよい。アイコン323は、操作されることで表示領域314の表示と非表示を切り替える用途で用いられる。表示部140は、アイコン323を操作することで表示領域314を表示する場合に、アイコン323を表示しなくてもよいし、継続してアイコン323を表示してもよい。
図17は、端末10の表示部140に表示される仮想会場310における表示画面の例を示す図である。図17は、第1端末11を操作するユーザがアバター80Aを操作し、図16に示されるアバター80Aが仮想会場310の内部に位置することで、場面が切り替わり、これにより、表示画面が切り替わる。なお、アバター80Aが仮想会場310の外部(例えば図16)に存在する場合における表示画面を第1端末11のウェブブラウザを用いて表示する場合におけるURLは、アバター80Aが仮想会場310の内部(例えば図17)に存在する場合における表示画面を第1端末11のウェブブラウザを用いて表示する場合におけるURLとは異なる。したがって、第1端末11のウェブブラウザを用いる場合において、図16に示されるアバター80Aが仮想会場310の内部に位置すると、URLが変更されることとなる。図17に示されるように、アバター80、アバター80A、椅子81、表示領域311、表示領域312、アバター313、及び、スライダー330が示されている。なお、スライダー330は必須の構成ではない。ここで、仮想会場310は、例えば、展示会またはイベント会場などのブースである。椅子81は、少なくとも一つ設けられる。アバター80、アバター80Aは、仮想会場310内の第1領域に位置しているものとする。
椅子81は、例えば、アバター80が着席可能な仮想オブジェクトである。例えば、ユーザがアバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、アバター80は椅子81に着席する。また、例えば、ユーザがアバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、第1端末11の表示画面には特定の椅子に座るかどうかを尋ねるメッセージが表示される。第1端末11の表示画面に特定の椅子に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を操作して当該メッセージに対して特定の椅子に座る意思を示す所定の操作を行うと、アバター80は椅子81に着席する。なお、着席可能な仮想オブジェクトと共に、又は、着席可能な仮想オブジェクトに代えて、仮想空間300内の特定の場所を指定した場合にアバター80を着席させる構成を採用してもよい。この場合において、仮想空間300内の特定の場所に近づいて所定の操作を行うことで、第1端末11の表示画面には当該特定の場所に座るかどうかを尋ねるメッセージが表示されてもよい。第1端末11の表示画面に当該特定の場所に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を操作して当該メッセージに対して当該特定の場所に座る意思を示す所定の操作を行うと、アバター80は当該特定の場所に座るように構成されてもよい。
表示領域311には、例えば、各種説明を行う資料が表示され、及び/又は、動画が表示される。表示領域312には、仮想会場310を運営する団体の名称、説明会のテーマ、などが表示される。アバター313は、例えば、仮想会場310を進行するスタッフを模したアバターである。アバター313は、ユーザによって操作されるアバターであってもよいし、仮想空間300内での動作について予め決定されているアバターであってもよい。ここで、アバター80が仮想空間300内での動作について予め決定されて動作する場合には、当該アバターは、上述したNPCとして動作することを意味する。
仮想会場310において、所定の時刻になると、例えば、所定の説明が開始される。ここで、仮想空間内で用いられる時刻は、現実の時刻と同一となるように同期する時刻であってもよいし、現実の時刻とは別に仮想空間300内で用いられる時刻であってもよい。なお、仮想会場310において所定の説明が開始される条件は、時刻に関するものでなくともよい。例えば、仮想会場310において所定の説明が開始される条件は、例えば、仮想会場310に存在するアバターが所定数以上になった場合、または、特定のアバターが仮想会場310内に位置した場合、などであってもよい。
なお、複数のアバターが同時刻において一つの座席に重複して着席できるように構成されていてもよい。例えば、図17の左側の椅子81にアバター80が着席している状態で、ユーザが端末10を用いてアバター80Aを操作して図17の左側の椅子81にアバター80Aを着席させることができる構成であってもよい。このようにして、例えば、仮想会場310内に位置するアバターの総数が椅子81の総数を上回る場合においても、表示領域311に表示されるコンテンツを視聴する全てのアバターを仮想会場310内において着席させることができる。
所定の時刻において開始される所定の説明は、表示領域311に所定の内容を表示、及び/又は、音声の出力、によって行われる。当該説明は、例えば、動画である。当該動画は、例えば、所定の説明動画、コンサート等のイベント動画、映画等の動画、並びに、リアルタイムのVtuberの動き及び/又は演技を反映した動画、のうちいずれかである。当該説明が動画である場合には、端末10は、第2サーバシステム22に対して動画に関するデータを要求する。そして、第2サーバシステム22は、当該要求に応答して動画に関するデータを端末10に送信する。これにより、端末10は、第2サーバシステム22から動画に関するデータを受信して動画を視聴することができる。
図17において、アバター80Aが、所定の条件(第1条件)を満たすと、表示部140は、図17に代えて、図18又は図19を表示する。これにより、表示部140は、三人称視点(TPS:Third Person Shooter)に関する表示に代えて一人称視点(FPS:First Person Shooter)に関する表示を行う。すなわち、表示部140は、アバター80Aを含む表示に代えてアバター80Aを含まない表示を行う。
ここで、上述の「第1条件」とは、例えば、第1データが、第1位置を含む領域の一部を選択する操作データを含むこと、第1データが、表示部140に表示される一の対象を選択する操作データを含むこと、又は、第1データが、アバター80Aが第1領域内に存在することを示すデータを含むこと、である。例えば、第1領域が仮想会場310内の所定領域である場合においては、上述の「アバター80Aが第1領域内に存在することを示すデータ」は、アバター80Aの仮想会場310内における位置が当該所定領域内に存在することを示すデータである。
具体的には、「第1条件」とは、例えば、仮想会場310内の所定の位置又は仮想会場310内の所定の領域に位置することである。ここで、「所定の領域」とは、例えば、表示領域311を基準とした仮想会場310内の所定の距離以内の領域を指す。また、ここで「第1条件」とは、例えば、表示領域311を指定することであってもよい。また、「第1条件」とは、例えば、ユーザが端末10を操作してアバター80Aが椅子81に着席することであってもよい。また、「第1条件」とは、例えば、仮想会場310内の所定の位置又は仮想会場310内の所定の領域に位置すること且つ表示領域311を指定すること、であってもよい。また、「第1条件」とは、例えば、ユーザが端末10を操作してアバター80Aが椅子81に着席すること且つ表示領域311を指定すること、であってもよい。
図18に示されるように、表示部140は、図17に示される仮想会場310のうち一部の領域を拡大して表示する。なお、表示部140は、図17に示される表示領域311を拡大して表示してもよいし、図17に示される表示領域311以外の対象を拡大して表示してもよい。また、図18において、表示部140は、例えば、アバター80Aを表示しない。また、図18において、アイコン301を表示してもよいし、アイコン301を表示しなくてもよい。また、図18において、表示領域314を表示してもよいし、表示領域314を表示しなくてもよい。また、図18において、アイコン323を表示してもよいし、アイコン323を表示しなくてもよい。また、図18において、スライダー330を表示してもよいし、スライダー330を表示しなくてもよい。
図19に示されるように、表示部140は、図17に示される仮想会場310のうち一部の領域を拡大して表示する。具体的には、表示部140は、例えば、表示画面の略全域に亘って表示領域311を表示する。
また、表示部140は、例えば、アイコン301(領域301)を表示する。アイコン301は、図19の画面から別の画面に切り替えを行うためのアイコンである。ここで、「別の画面」とは、例えば、図16~図18のいずれかの画面である。アイコン301は、例えば、図16に記載のアイコン301と同一である。図16のアイコン301及び図19のアイコン301の各々に割り当てられる機能は、例えば、表示部140が表示する画面に応じて相違するように構成される。
例えば、表示部140が、図16又は図17に示される三人称視点(TPS)の画面においてアイコン301を表示する場合に、アイコン301が操作されると、例えば、上述したように、アバター80Aを歩行又はジャンプさせる。また、例えば、表示部140が、図19に示される一人称視点(FPS)の画面においてアイコン301を表示する場合に、アイコン324が操作されると、例えば、アバター80Aを離席させる。ここで、アバター80Aを離席させることは、表示部140が、図19に示される一人称視点(FPS)に代えて、図16又は図17に示される三人称視点(TPS)に関する表示を行うことを指す。なお、表示部140が、図19に示されるような画面においてアイコン301を表示する場合に、アイコン324が操作されると、例えば、図18に示されるような表示画面に切り替えてもよい。
なお、表示部140は、図17に示される表示領域311を拡大して表示してもよいし、図17に示される表示領域311以外の対象を拡大して表示してもよい。したがって、図19の表示領域311の拡大率は、図18の表示領域311の拡大率よりも大きい。また、図19において、表示部140は、例えば、アバター80Aを表示しない。また、図19において、領域301を表示してもよいし、領域301を表示しなくてもよい。また、図19において、表示領域314を表示してもよいし、表示領域314を表示しなくてもよい。また、図19において、アイコン323を表示してもよいし、アイコン323を表示しなくてもよい。また、図19において、スライダー330を表示してもよいし、スライダー330を表示しなくてもよい。
ここで、図18及び/又は図19において表示領域314を表示することで、表示領域311に表示されるコンテンツを視聴しながら表示領域314を通して他のユーザとコミュニケーションを図ることができる。表示領域314に表示される当該他のユーザのメッセージの内容が表示領域311に表示されるコンテンツに関する内容である場合には、第1ユーザは当該他のユーザとメッセージのやり取りを行うことで、第1ユーザが当該他のユーザと物理的に距離が離れている場合においても、第1ユーザに対して当該他のユーザと共に表示領域314に表示されるコンテンツを共に視聴しているような感覚を供することができる。
一方、図18及び/又は図19において表示領域314を非表示にすることで、第1ユーザは、表示領域311に表示されるコンテンツの視聴に一層集中することができる。また、図18において表示領域314を非表示にすることで、表示領域314に表示されるメッセージが表示領域311のコンテンツに関する内容を含みうるような場合において、第1ユーザは、当該コンテンツの視聴前に表示領域314を通して当該コンテンツに関する内容を意図しないで把握する可能性を低減することができる。
また、図18及び/又は図19においてアイコン323を表示することで、表示領域311に表示されるコンテンツを視聴している間に、複雑な操作を要しないで表示領域314の表示及び非表示を切り替えることができる。また、図18及び/又は図19においてアイコン323を表示することで、表示領域311に表示されるコンテンツを視聴を開始する前又は視聴を終了した後においては、アイコン323を操作して表示領域314を表示して第1ユーザは他のユーザとコミュニケーションを図ることができ、表示領域311に表示されるコンテンツを視聴している間においては、アイコン323を操作して表示領域314を非表示にして第1ユーザは表示領域311に表示されるコンテンツを視聴することができる。ここで、アイコン323を操作して表示領域314を非表示にして第1ユーザが表示領域311に表示されるコンテンツを視聴する場合においては、上述したように、第1ユーザは、表示領域311に表示されるコンテンツの視聴に一層集中することができる。また、アイコン323を操作して表示領域314を非表示にして第1ユーザが表示領域311に表示されるコンテンツを視聴する場合においては、上述したように、表示領域314に表示されるメッセージが表示領域311のコンテンツに関する内容を含みうるような場合において、第1ユーザは、当該コンテンツの視聴前に表示領域314を通して当該コンテンツに関する内容を意図しないで把握する可能性を低減することができる。
一方、図18においてアイコン323を非表示にすることで、図18を表示した後に、例えば、ピンチインなどの操作を表示部140に対して行って表示領域311を拡大する場合において、表示領域311の一部とアイコン323とが重畳する可能性を低減することができる。したがって、例えば、第1ユーザが表示領域311に表示されるコンテンツを視聴中に表示領域311を拡大し且つ表示領域311内の一部分に文字が表示されるような場合において、当該文字がアイコン323の表示位置と重畳することで当該文字を視認不可となる可能性を低減することができる。また、図19においてアイコン323を非表示にすることで、表示領域311の一部とアイコン323とが重畳する可能性を低減することができる。したがって、例えば、第1ユーザが表示領域311に表示されるコンテンツを視聴中に表示領域311内の一部分に文字が表示されるような場合において、当該文字がアイコン323の表示位置と重畳することで当該文字を視認不可となる可能性を低減することができる。
また、図18及び/又は図19においてスライダー330を表示することで、表示領域311の拡大率の微調整を直感的に行うことができる。したがって、例えば、図17に代えて図18又は図19に遷移した場合における表示領域311の拡大率が予め決定されているような場合に、第1ユーザは所望の拡大率への微調整を直感的に行うことができる。
一方、図18においてスライダー330を非表示にすることで、図18を表示した後に、例えば、ピンチインなどの操作を表示部140に対して行って表示領域311を拡大する場合において、表示領域311の一部とスライダー330とが重畳する可能性を低減することができる。したがって、例えば、第1ユーザが表示領域311に表示されるコンテンツを視聴中に表示領域311を拡大し且つ表示領域311内の一部分に文字が表示されるような場合において、当該文字がスライダー330の表示位置と重畳することで当該文字を視認不可となる可能性を低減することができる。また、図19においてスライダー330を非表示にすることで、表示領域311の一部とスライダー330とが重畳する可能性を低減することができる。したがって、例えば、第1ユーザが表示領域311に表示されるコンテンツを視聴中に表示領域311内の一部分に文字が表示されるような場合において、当該文字がスライダー330の表示位置と重畳することで当該文字を視認不可となる可能性を低減することができる。
このように、表示部140は、上述の第1条件を満たした場合において、図17に代えて図18又は図19を表示することができる。したがって、ユーザは、例えば、表示部140の表示領域311に対してピンチインを繰り返し行って拡大率の微調整を行う、又は、前記ピンチインを繰り返し行い過度に拡大した場合においてピンチアウトを行って拡大率の微調整を行う、といった複雑な操作を行うことなく、表示領域311の表示(コンテンツ)を最適化し、ユーザが操作するアバター80を非表示とすることで当該ユーザは表示領域311に表示されるコンテンツの視聴に没頭でき、また、例えばスマートフォンのような比較的小さい表示画面の端末10を用いて本開示のアプリケーションを実行する場合においても表示切り替えを容易かつ適切に行うことができる。
なお、図17の表示から図18の表示に変更する場合において、図17の表示は、本開示における「第1表示」に相当し、図18の表示は、本開示における「第2表示」に相当しうる。図17の表示から図19の表示に変更する場合において、図17の表示は、本開示における「第1表示」に相当し、図19の表示は、本開示における「第2表示」に相当しうる。
なお、図18又は図19に示される状態で、アバター80Aを移動させる動作は受け付けられるように構成されていてもよいし、アバター80Aを移動させる動作は受け付けられないように構成されていてもよい。図18又は図19に示される状態で、アバター80Aを移動させる動作は受け付けられないように構成されると、例えば、表示領域311に動画が表示されておりユーザが当該動画を視聴している場合に、ユーザが誤ってアバター80Aを移動させる操作を行うことでアバター80Aが移動することを抑制することができる。このようにして、ユーザが誤ってアバター80Aを移動させる操作においても、アバター80Aが移動すること、及び、表示部140が表示領域311の一部を表示しなくなること、を抑制することができる。
また、図19の表示から図17の表示に変更するための操作、図19の表示から図18の表示に変更するための操作、及び、図18の表示から図17の表示に変更するための操作、のうち少なくともいずれかは、例えば、着席しているアバター80Aを椅子81から離席させる操作であってもよい。
また、図19の表示から図17の表示に変更するための操作、図19の表示から図18の表示に変更するための操作、及び、図18の表示から図17の表示に変更するための操作、のうち少なくともいずれかは、例えば、ユーザが領域301をタップ、ダブルタップ、スワイプ、フリック、ピンチイン、及び、ピンチアウト、のうちいずれかを行う操作であってもよいし、アイコン323のような特定のアイコンを指定(タッチ)する操作であってもよい。。
また、図19の表示から図17の表示に変更するための操作、図19の表示から図18の表示に変更するための操作、及び、図18の表示から図17の表示に変更するための操作、のうち少なくともいずれかは、例えば、ユーザが表示領域311をタップ、ダブルタップ、スワイプ、フリック、ピンチイン、及び、ピンチアウト、のうちいずれかを行う操作であってもよいし、アイコン323のような特定のアイコンを指定(タッチ)する操作であってもよい。
また、図19の表示から図17の表示に変更するための操作、図19の表示から図18の表示に変更するための操作、及び、図18の表示から図17の表示に変更するための操作、のうち少なくともいずれかは、例えば、ユーザがスライダー330を操作することにより行ってもよい。
また、図19の表示から図17の表示に変更するための操作、図19の表示から図18の表示に変更するための操作、及び、図18の表示から図17の表示に変更するための操作、のうち少なくともいずれかを行った場合に、表示部140は表示領域314を表示する代わりにアイコン323を表示しないようにしてもよい。
表示部140が、仮想会場310に重畳してスライダー330を表示する場合について以下に説明する。スライダー330は、例えば、第1要素331及び第2要素332を含む操作ユーザインターフェースである。第1要素331は、第2要素332上をスライド可能に構成される。表示部140は、例えば、図17~図19のうち少なくともいずれかにおいてスライダー330を表示する。
第1要素331が第2要素332上の左側から右側に向かって変位するにつれて、表示部140は、仮想会場310の一部の領域を拡大して表示する。また、第1要素331が第2要素332上の右側から左側に向かって変位するにつれて、表示部140は、仮想会場310の一部の領域を縮小して表示する。このようにして、表示部140が図17~図19に記載の表示画面を表示した場合においてユーザは仮想会場310の一部領域の拡大率の調整を行うことができる。
上述の「第1条件」を満たすことによって表示部140が図17に代えて図18を表示する場合において、表示部140は、例えば、第1要素331が第2要素332の略中央に位置するような図18を表示してもよい。また、上述の「第1条件」を満たすことによって表示部140が図17に代えて図19を表示する場合において、表示部140は、例えば、第1要素331が第2要素332の右端に位置するような図19を表示してもよい。
4.システム1000の動作
図20及び図21を参照してシステム1000の動作について説明する。図20及び図21は、図1に示したシステム1000を用いて行われる動作の一例を示すフローチャートである。
図20及び図21を参照してシステム1000の動作について説明する。図20及び図21は、図1に示したシステム1000を用いて行われる動作の一例を示すフローチャートである。
まず、図20を参照して、S111~S193について順に説明する。
S111において、第1ユーザは第1端末11を操作してアプリケーションを起動する。その後、S121において、第1端末11は第1データを取得する。
ここで、第1データは、例えば、第1ユーザの端末を用いて操作される仮想空間内のアバターに関するデータを含む。また、第1データは、ユーザの操作データや操作履歴データであって、例えば、第1ユーザのアバターの位置に関するデータを含んでもよい。また、第1データは、例えば、第1ユーザの端末を用いて操作される仮想空間内のアバターの仮想空間内での行動履歴に関するデータを含んでもよい。
S125において、第1端末11は第1表示制御処理を行う。ここで、第1表示制御処理は、例えば、第1端末11を操作するユーザがアバター80Aを操作し、図16に示されるアバター80Aが仮想会場310の内部に位置した場合において図17のような表示画面を表示する処理を指す。
S131において、第1端末11は第1判定処理を行う。ここで、第1判定処理は、第1データが、所定の条件(第1条件)を満たすか否かを判定する。S131において、第1端末11が、第1条件を満たしたと判定した場合には、第1端末11の表示部140を制御する制御データを決定し、S141の処理が実行される。一方、S131において、第1端末11が、第1条件を満たしていないと判定した場合には、S131の処理が繰り返される。
S131における第1条件は、例えば、仮想会場310内の所定の位置又は仮想会場310内の所定の領域に位置することである。ここで、「所定の領域」とは、例えば、表示領域311を基準として所定の距離以内を指す。また、ここで「第1条件」とは、例えば、表示領域311を指定することであってもよい。また、「第1条件」とは、例えば、ユーザが端末10を操作してアバター80Aが椅子81に着席することであってもよい。また、「第1条件」とは、例えば、仮想会場310内の所定の位置又は仮想会場310内の所定の領域に位置すること、及び、表示領域311を指定すること、であってもよい。また、「第1条件」とは、例えば、ユーザが端末10を操作してアバター80Aが椅子81に着席すること、及び、表示領域311を指定すること、であってもよい。
S141において、第1端末11は、当該制御データに基づいて第1端末11の表示部140を制御する処理(第2表示制御処理)を行う。これにより、第1端末11の表示部140は、図17に代えて、図18又は図19を表示する。S141の後に、第1端末11は、サーバ装置20に第1データを送信する。なお、S141の前に、第1端末11は、サーバ装置20に第1データを送信してもよい。
S183において、サーバ装置20は、第1データに基づいて分析データを決定する。そして、サーバ装置20は、決定した分析データを機器70に送信する。サーバ装置20は、例えば、第1データを受信する度に、分析データを決定し、決定した分析データを機器70に送信する。
S193において、サーバ装置20は、第1データに基づいて広告データを決定する。なお、当該広告データは、第1データに基づいて決定されるデータであって第1端末11を操作する第1ユーザ向けのデータを含む。S193において、サーバ装置20は、決定した第1ユーザ向けの広告データを第1端末11に送信する。
次に、図21を参照して、S111~S193について順に説明する。
S111において、第1ユーザは第1端末11を操作することでアプリケーションを起動する。その後、S121において、第1端末11は第1データを取得する。
ここで、第1データは、例えば、第1ユーザの端末を用いて操作される仮想空間内のアバターに関するデータを含む。また、第1データは、ユーザの操作データや操作履歴データであって、例えば、第1ユーザのアバターの位置に関するデータを含んでもよい。また、第1データは、例えば、第1ユーザの端末を用いて操作される仮想空間内のアバターの仮想空間内での行動履歴に関するデータを含んでもよい。
S121の後、第1端末11は当該第1データをサーバ装置20に送信する。S122において、サーバ装置20は、当該第1データを受信し、当該第1データに基づいて第1制御データを生成する。また、サーバ装置20は、第1端末11に第1制御データを送信する。
S125において、第1端末11は第1表示制御処理を行う。ここで、第1表示制御処理は、例えば、第1端末11を操作するユーザがアバター80Aを操作し、図16に示されるアバター80Aが仮想会場310の内部に位置した場合において図17のような表示画面を表示する処理を指す。
S131において、サーバ装置20は第1判定処理を行う。ここで、第1判定処理は、第1データが、所定の条件(第1条件)を満たすか否かを判定する。S131において、サーバ装置20が、第1条件を満たしたと判定した場合には、第1端末11の表示部140を制御する第2制御データを決定して当該第2制御データを第1端末11に送信し、S141の処理が実行される。一方、S131において、第1端末11が、第1条件を満たしていないと判定した場合には、S131の処理が繰り返される。
S131における第1条件は、例えば、仮想会場310内の所定の位置又は仮想会場310内の所定の領域に位置することである。ここで、「所定の領域」とは、例えば、表示領域311を基準として所定の距離以内を指す。また、ここで「第1条件」とは、例えば、表示領域311を指定することであってもよい。また、「第1条件」とは、例えば、ユーザが端末10を操作してアバター80Aが椅子81に着席することであってもよい。また、「第1条件」とは、例えば、仮想会場310内の所定の位置又は仮想会場310内の所定の領域に位置すること、及び、表示領域311を指定すること、であってもよい。また、「第1条件」とは、例えば、ユーザが端末10を操作してアバター80Aが椅子81に着席すること、及び、表示領域311を指定すること、であってもよい。
S141において、第1端末11は、当該第2制御データに基づいて第1端末11の表示部140を制御する処理(第2表示制御処理)を行う。これにより、第1端末11の表示部140は、図17に代えて、図18又は図19を表示する。
S183において、サーバ装置20は、第1データに基づいて分析データを決定する。そして、サーバ装置20は、決定した分析データを機器70に送信する。サーバ装置20は、例えば、第1データを受信する度に、分析データを決定し、決定した分析データを機器70に送信する。
S193において、サーバ装置20は、第1データに基づいて広告データを決定する。なお、当該広告データは、第1データに基づいて決定されるデータであって第1端末11を操作する第1ユーザ向けのデータを含む。S193において、サーバ装置20は、決定した第1ユーザ向けの広告データを第1端末11に送信する。
また、図20のS193及び図21のS193に関して、アバター80が、所定の運営団体によって開催されるイベントを行う仮想会場310に入場し、仮想会場310において再生される動画を視聴した履歴がある場合には、第1端末11に送信される広告データは、例えば、所定の運営団体が将来開催するイベントに関する案内に関するデータを含みうる。当該データは、テキストデータ、画像データ、及び、動画データ、の少なくともいずれかを含む。
また、図20のS193及び図21のS193に関して、上述した広告データは、例えば、第1データに基づいて決定される広告に関する第2データを格納するデータベースにアクセスするURLを含むデータであってもよい。また、上述した広告データは、例えば、既にバッチ処理などでアプリ(アプリケーション)内にダウンロード済であってもよい。この場合には、サーバ装置20は、第1端末11に対して、送信対象のデータに対応するIDに関するデータを送信し、第1端末11は、当該IDに基づいて広告データに関する表示を行ってもよい。
図11は、端末10から送信されるデータの例を示す。図11においては、第1ユーザ、第2ユーザ、及び、第3ユーザの各々が自身の端末10を用いてアバターの操作を行う場合において、サーバ装置20が、各端末10から受信する各種データについて記載されている。ここで、各種データは、例えば、「年齢」、「性別」、「現在位置」、「仮想オブジェクト」、「チャット履歴」、及び、「コンテンツ視聴履歴」、「パーツID」、「簡易アバター」に関するデータである。ここで、「パーツID」は、例えば、アバターを特定するためのデータである。「簡易アバター」は、例えば、男性及び女性を含む性別に応じたパターンのIDに関するデータである。
なお、上述した第1データは、例えば、図11における第1ユーザに関する少なくともいずれかの内容を含みうる。
ここで、上述の「年齢」に関して、図11には、第1ユーザの年齢が21歳であり、第2ユーザの年齢が31歳であり、第3ユーザの年齢が41歳である例が示されている。
また、上述の「性別」に関して、図11には、第1ユーザのアバターの性別が男性であり、第2ユーザのアバターの性別が女性であり、第3ユーザのアバターの性別が男性である例が示されている。
また、上述の「現在位置」に関して、図11には、第1ユーザの操作するアバターが、位置A01に存在し、第2ユーザの操作するアバターが、位置B01に存在し、第3ユーザの操作するアバターが、位置C01に存在する例が示されている。
また、上述の「仮想オブジェクト」に関して、図11には、第1ユーザの操作するアバターが時刻A11において仮想オブジェクトA12を価格A13にて購入し、第2ユーザの操作するアバターが時刻B11において仮想オブジェクトB12を開き、第3ユーザの操作するアバターが時刻C11において仮想オブジェクトC12を取得する例が示されている。仮想オブジェクトB22は、例えば、ドアである。
また、上述の「チャット履歴」に関して、図11には、第1ユーザの端末が、時刻A21に位置A22で第3ユーザの端末にメッセージ「こんにちは」を送信し、第2ユーザは、いずれの他のユーザとのチャット履歴も無く、第3ユーザの端末が、時刻C21に位置C22で第1ユーザの端末からメッセージ「こんにちは」を受信する例が示されている。
また、上述の「コンテンツ視聴履歴」に関して、図11には、第1ユーザのアバターが、時刻A31に位置A32において起立してコンテンツを視聴開始し、第2ユーザのアバターが、時刻B31を位置B32において座席B33でコンテンツを2時間視聴し、第3ユーザのアバターが、時刻C31に位置C32においてコンテンツを視聴終了して座席C33から離席する例が示されている。
なお、上述の「年齢」に関して、ユーザの年齢を示す例について説明したが、これに限定されない。例えば、上述の「年齢」は、ユーザが属する年齢層を示すものであってもよい。例えば、21歳以上30歳以下をカテゴリ1と定義する場合に、第1ユーザの年齢がカテゴリ1に属することを示してもよい。また、例えば、31歳以上40以下がカテゴリ2と定義する場合に、第2ユーザの年齢がカテゴリ2に属することを示してもよい。また、例えば、41歳以上50歳以下がカテゴリ3と定義する場合に、第3ユーザの年齢がカテゴリ3に属することを示してもよい。このようにして、例えば、図20のS183又は図21のS183において分析データを決定して分析データが機器70に送信される場合において、ユーザの具体的な個人情報を機器70に送信しないで年齢に関するデータをマーケティング等に用いることができる。
また、上述の「現在位置」に関して、特定時刻におけるアバターの位置を示す例について説明したが、これに限定されない。例えば、アバターが仮想空間300内を所定期間内に移動した軌跡を示すデータを含んでいてもよい。
また、上述の「チャット履歴」に関して、第1ユーザが、時刻A21に位置A22で第3ユーザの端末にメッセージ「こんにちは」を送信する例を説明したが、当該メッセージの内容は、これに限定されない。また、一のユーザの端末から他のユーザの端末に送信するデータは、テキスト、絵文字、音声メッセージ、画像、及び、動画、のうち少なくともいずれかを含むものであってもよい。
また、図11に示される第1データは、上述した例に限定されず、「行動履歴」に関するデータを含んでもよい。「行動履歴」に関するデータは、例えば、アバター80が仮想会場310に入場した時刻、アバター80が仮想会場310から退室した時刻、アバター80が仮想会場310に滞在した時間、アバター80が仮想会場310で表示領域311に表示される対象の視聴を開始した時刻、アバター80が仮想会場310で表示領域311に表示される対象を視聴した時間(期間)、アバター80が仮想会場310で表示領域311に表示される対象の視聴を終了した時刻、アバター80が椅子81に着席した時刻、アバター80が椅子81に離席した時刻、アバター80が椅子81に着席してから離席するまでの時間、及び、アバター80が椅子81に着席する場合において椅子81の位置データ、一の端末10を操作するユーザが他の端末10を操作するユーザが操作する端末10から受信したメッセージを含む受信データに関する履歴、及び、一の端末10を操作するユーザが他の端末10を操作するユーザが操作する端末10に送信したメッセージを含む送信データに関する履歴、のうち少なくともいずれかを含んでもよい。
また、サーバ装置20は、図11に記載される内容のうちいずれの内容に関するデータを機器70に送信するかを選択してもよい。例えば、機器70に送信されるデータが、図11に記載されるチャット履歴に関する内容を含む場合において、サーバ装置20は、図11に記載の内容のうち当該チャット履歴に関する内容を除いたデータを機器70に送信してもよい。
また、サーバ装置20は、図11に記載される内容の少なくとも一部を変更したデータを機器70に送信してもよい。例えば、サーバ装置20は、第1ユーザのアバターが位置A01に位置することを示すデータを機器70に送信することに代えて、第1ユーザのアバターが位置A01の近傍に位置することを示すデータを機器70に送信してもよい。
また、機器70及び第2端末12のうち一方から、機器70及び第2端末12のうち他方へのメッセージを含むデータを受信する場合に、当該メッセージを含むデータを他の端末10に送信しなくともよい。このようにして、第2端末12と機器70との間においてやり取りされるデータは、第2端末12以外の端末10以外に送信されることがない。したがって、第2端末12と機器70との間において送信及び受信されるデータが、第2端末12を操作するユーザの個人情報に関するデータを含む場合において、当該個人情報が第2端末12以外の端末10を操作するユーザに知られる可能性を低減することができる。
なお、表示部140が表示領域314を表示してユーザ同士がチャットを行う場合において、当該チャットにおけるユーザIDとアバター80とは、互いに紐づく構成であってもよいし、互いに紐づかない構成であってもよい。
以上のように、本開示によれば、第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示し、前記第1データに基づいて、第1条件を満たすか否かを判定し、前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する。このようにして、仮想空間300内においてアバター80Aを移動させる場合において、表示部140はアバター80Aを表示するため、第1ユーザは操作しているアバター80Aの動作及び/又は位置を容易に把握することができる。一方、仮想空間300内においてコンテンツを視聴する場合においては、ユーザは複雑な操作を行うことなく、表示領域311の表示(コンテンツ)を最適化し、ユーザが操作するアバター80を非表示とすることで当該ユーザは表示領域311に表示されるコンテンツの視聴に没頭でき、また、スマートフォンのような比較的小さい表示画面の端末10を用いて本開示のアプリケーションを実行する場合においても表示切り替えを容易かつ適切に行うことができる。
5.変形例
なお、図20においては、サーバ装置20が、S141の後に、S183及びS193の処理を行う例について説明したが、これに限定されない。例えば、サーバ装置20が、S131の前に、第1端末11から第1データを受信してもよい。これにより、サーバ装置20が、S131の前にS183の処理を行い、分析データを機器70に送信してもよい。また、例えば、サーバ装置20が、S131の前にS193の処理を行い、広告データを第1端末11に送信してもよい。このようにして、サーバ装置20は、第1データを受信したタイミングと、受信した第1データに基づいて決定される分析データを機器70に送信するタイミングと、の時間を小さくすることができる。また、第1端末11、サーバ装置20、及び、機器70の各々の処理が、図20、図21のように同一のフローチャート上で一連の一つのフローとして行われるものに限定されず、第1端末11、サーバ装置20、及び、機器70の各々の処理が、同時並行的に別のステップとして行われてもよい。図20のS183及びS193における処理が、図20に記載のS183及びS193に以外の処理と同時並行的に行われてもよい。図21のS183及びS193における処理が、図21に記載のS183及びS193に以外の処理と同時並行的に行われてもよい。例えば、第1ユーザがアバター80Aを移動させて対象を表示する操作を行う度に、図20又は図21のS183及びS193の処理が一連の動作として行われなくともよいし、第1ユーザがアバター80Aを移動させる操作を行う度に、図20又は図21のS183及びS193の処理が一連の動作として行われなくともよい。
また、図14に示されるように、図3に示される端末10以外に、第1センサ102a、第2センサ102b、カメラ102c、及び、マイクロフォン102dが設けられていてもよい。図14は、図3に示される端末10及び端末10に接続される構成の一例を示すブロック図である。ここで、端末10と、第1センサ102a、第2センサ102b、カメラ102c、及び、マイクロフォン102dの各々と、は、例えば、有線又は無線で接続される。
第1センサ102aは、例えば、有線又は無線で、カメラ102cと接続される。カメラ102cは、例えば、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。カメラ102cは、例えば、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたものを用いることが可能である。第2センサ102bは、例えば、有線又は無線で、マイクロフォン102dに接続される。なお、第1センサ102a及びカメラ102cが一の構成としても設けられていてもよい。また、第2センサ102b及びマイクロフォン102dが一の構成としても設けられていてもよい。
このようにして、端末10は、カメラ102cにより撮像された画像をサーバ装置20に送信してもよい。また、第1端末11は、マイクロフォン102dに入力された音声データをサーバ装置20に送信してもよい。また、第1端末11は、カメラ102c及びマイクロフォン102dを用いた動画データをサーバ装置20に送信してもよい。
図15は、トークンを送信及び使用して計算環境においてビデオをレンダリングすることを含む、本明細書において説明される実施形態、技法、及び、技術が実装されうる適切な計算環境1400の一般化された例を示す。 例えば、計算環境1400は、本明細書で記載されるように、端末装置(あるいは配信者、あるいは視聴者)、又は、配信サーバシステムなどのうちいずれかを実装することができる。
技術が、多様である汎用又は専用の計算環境で実装されうるため、計算環境1400は、技術の使用又は機能の範囲に関していかなる制限を示唆することを意図するものではない。例えば、本明細書において開示された技術は、様々な携帯用の装置、様々なマルチプロセッサシステム、様々なマイクロプロセッサベース又はプログラム可能な家庭用電化製品、様々なネットワークPC、様々なミニコンピュータ、様々なメインフレームコンピュータ、などを含む、他の様々なコンピュータシステム構成で実装されてもよい。本明細書において開示される技術は、通信ネットワークを通じてリンクされる遠隔処理装置によってタスクが実行される分散計算環境で実施されてもよい。分散計算環境においては、プログラムモジュールはローカル及びリモートの両方のメモリストレージ装置に配置されてもよい。
図15を参照して、計算環境1400は、少なくとも1つの中央処理装置1410及びメモリ1420を含む。図15では、この最も基本的な構成1430は、破線内に含まれている。中央処理装置1410は、コンピュータにより実行可能な命令を実行し、中央処理装置1410は、実プロセッサ又は仮想プロセッサであってもよい。マルチプロセッシングシステムでは、複数のプロセッシングユニットが、コンピュータにより実行可能な命令を実行して処理力を向上させるため、複数のプロセッサは、同時に稼働できる。メモリ1420は、揮発性メモリ(例えば、レジスタ、キャッシュ、RAM)、不揮発性メモリ(例えば、ROM、EEPROM、フラッシュメモリ等)、又は、これら2つの幾つかの組み合わせであってもよい。メモリ1420は、例えば、本明細書に記載の技術を実装することができる、ソフトウェア1480、様々な画像、及び、ビデオを格納する。計算環境は、追加の様々な機能を有していいてもよい。例えば、計算環境1400は、ストレージ1440、1又は複数の入力装置1450、1又は複数の出力装置1460、及び、1又は複数の通信接続1470を含む。バス、コントローラ、又は、ネットワーク、などの相互接続機構(図示なし)は、計算環境1400の様々なコンポーネントを相互接続する。通常、オペレーティングシステムソフトウェア(図示なし)は、計算環境1400で実行される他のソフトウェア用にオペレーティング環境を提供し、及び、計算環境1400の様々なコンポーネントの様々なアクティビティを調整する。
ストレージ1440は、脱着可能であってもよいし、あるいは、脱着可能でなくてもよく、磁気ディスク、磁気テープ若しくはカセット、CD-ROM、CD-RW、DVD、又は、データを記憶するために用いられ且つ計算環境1400内にアクセスされうる他のいかなる媒体を含む。 ストレージ1440は、本明細書で記載される技術を実装するために用いられうる、ソフトウェア1480、プラグインデータ、及び、メッセージ、のための命令を格納する。
1又は複数の入力装置1450は、キーボード、キーパッド、マウス、タッチスクリーンディスプレイ、ペン、若しくは、トラックボールなどのタッチ入力装置、音声入力装置、走査装置、又は、計算環境1400に入力を提供する別の装置、であってもよい。オーディオの場合、1又は複数の入力装置1450は、アナログ若しくはデジタル形式のオーディオ入力を受け入れるサウンドカード若しくは類似の装置、又は、様々なオーディオサンプルを計算環境1400に提供するCD-ROMリーダーであってもよい。1又は複数の出力装置1460は、ディスプレイ、プリンタ、スピーカ、CDライタ、又は、計算環境1400からの出力を提供する別の装置であってもよい。
1又は複数の通信接続1470は、通信媒体(例えば、接続ネットワーク)を介して別の計算エンティティへの通信を可能にする。通信媒体は、コンピュータにより実行可能な命令、圧縮グラフィックスデータ、ビデオ、又は、変調データ信号に含まれる他のデータ、などのデータを伝達する。1又は複数の通信接続1470は、有線接続(例えば、メガビット若しくはギガビットイーサネット、インフィニバンド、又は、電気若しくは光ファイバー接続を介したファイバーチャネル)に限定されるものでなく、無線技術(例えば、Bluetooth、WiFi(IEEE 802.11a/b/n)、WiMax、セルラー、衛星、レーザー、赤外線、経由のRF接続)、並びに、本明細書において開示された様々なエージェント、様々なブリッジ、及び、宛先エージェントの様々なデータコンシューマ、にネットワーク接続を提供するための他の適切な様々な通信接続を含む。仮想ホスト環境においては、1又は複数の通信接続は、仮想ホストによって提供される仮想化されたネットワーク接続であってもよい。
本明細書において開示された様々な方法の様々な実施形態は、計算クラウド1490において、本明細書において開示された技術の全て又は一部を実装するコンピュータにより実行可能な複数の命令を用いて実行されうる。例えば、様々なエージェントは、計算環境において様々な脆弱性スキャン機能を実行可能である一方、エージェントプラットフォーム(例えば、ブリッジ)、及び、宛先エージェントデータのコンシューマサービスは、計算クラウド1490の内部に位置する様々なサーバで実行可能である。
コンピュータにより読み取り可能な媒体は、計算環境1400内でアクセスされうる任意の利用可能な媒体である。限定するものではなく、一例として、計算環境1400に関して、コンピュータにより読み取り可能な媒体は、メモリ1420及び/又はストレージ1440を含む。容易に理解されるように、コンピュータにより読み取り可能な媒体という用語は、メモリ1420及び記憶装置1440などのデータ記憶用の媒体を含み、変調された様々なデータ信号などの伝送媒体を含まない。
第35の態様によるコンピュータプログラムは、「少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示し、前記第1データに基づいて、第1条件を満たすか否かを判定し、前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
第36の態様によるコンピュータプログラムは、「少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、通信回線を介して、第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを受信し、前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示させるように前記表示部を制御する第1制御データを決定し、前記通信回線を介して前記第1制御データを前記第1端末に送信し、前記第1制御データを前記第1端末に送信した後に、前記第1データに基づいて、第1条件を満たすか否かを判定し、前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第2制御データを決定し、前記通信回線を介して前記第2制御データを前記第1端末に送信する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
第37の態様によるコンピュータプログラムは、上述の第35の態様又は第36の態様において、「前記第1条件は、前記第1データが、前記第1位置を含む領域の一部を選択する操作データを含むこと、前記第1データが、前記表示部に表示される一の対象を選択する操作データを含むこと、又は、前記第1データが、前記アバターが第1領域内に存在することを示すデータを含むこと、である、」ことを特徴とする。
第38の態様によるコンピュータプログラムは、上述の第35~第37のいずれかの態様において「前記第2表示は、前記アバターを含まない」ことを特徴とする。
第39の態様によるコンピュータプログラムは、上述の第37又は第38の態様において「前記第1条件は、前記第1データが前記表示部に表示される一の対象を選択する操作データを含むことであり、前記対象は、前記アバターが着席可能な仮想オブジェクトである、」ことを特徴とする。
第40の態様によるコンピュータプログラムは、上述の第37又は第38の態様において「前記第1条件は、前記第1データが前記表示部に表示される一の対象を選択する操作データを含むことであり、前記対象は、前記第1表示とは別に前記表示部に表示される表示である、」ことを特徴とする。
第41の態様によるコンピュータプログラムは、第35~第40のいずれかの態様において、「前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられる、」ことを特徴とする。
第42の態様によるコンピュータプログラムは、上述の第37に従属する第41、又は、第38に従属する第41のいずれかの態様において「前記第1条件は、前記第1データが前記表示部に表示される一の対象を選択する操作データを含むことであり、前記対象は、前記動画である、」ことを特徴とする。
第43の態様によるコンピュータプログラムは、上述の第37に従属する第41、又は、第38に従属する第41のいずれかの態様において、「前記第1条件は、前記第1データが、前記アバターが前記第1領域内に存在することを示すデータを含むことであり、前記第1領域は、前記少なくとも一の仮想会場のうちいずれかの仮想会場内の領域である、」ことを特徴とする。
第44の態様によるコンピュータプログラムは、上述の第35~第43のいずれかの態様において、「前記第2表示は、前記第1表示の一部が前記表示部に占める割合を大きくなるように前記第1表示の一部を拡大した表示である、」ことを特徴とする。
第45の態様によるコンピュータプログラムは、上述の第35~第43の態様において「前記第1条件を満たす場合に、前記仮想空間内に存在する仮想オブジェクトに対応する表示を前記表示部の全領域に表示する、」ことを特徴とする。
第46の態様によるコンピュータプログラムは、上述の第35~第45のいずれかの態様において、「前記第1表示が、前記アバターの移動の指示に用いられる操作可能な仮想オブジェクトを表示する場合において、前記第1条件を満たすと判定された場合に、前記第2表示は、操作可能な前記仮想オブジェクトを表示しない、」ことを特徴とする。
第47の態様によるコンピュータプログラムは、上述の第35~第45のいずれかの態様において「前記第1表示が、前記第1端末を含む少なくとも一の端末のうちいずれかの端末から送信されるメッセージを表示する表示領域を表示する場合において、前記第1条件を満たすと判定された場合に、前記第2表示は、前記表示領域を表示しない、」ことを特徴とする。
第48の態様によるコンピュータプログラムは、上述の第35~第45のいずれかの態様において、「前記第1表示が、前記第1端末を含む少なくとも一の端末のうちいずれかの端末から送信されるメッセージを表示する表示領域を表示する場合において、前記第1条件を満たすと判定された場合に、前記第2表示は、前記表示領域を表示せず且つ前記表示領域の表示に用いられるアイコンを表示し、前記アイコンは、操作されることで前記表示領域を表示させる、」ことを特徴とする。
第49の態様によるコンピュータプログラムは、上述の第35~第48のいずれかの態様において、「前記第2表示が前記表示部に表示されている場合において、前記アバターの移動に関する操作入力を受け付けない、」ことを特徴とする。
第50の態様によるコンピュータプログラムは、上述の第35又は第35に従属する第37~第48のいずれかの態様において、「前記第2表示が前記表示部に表示されている場合において、前記アバターの移動に関する入力を取得した場合には、前記第2表示から前記第1表示に表示を切り替えるように前記表示部を制御する、」ことを特徴とする。
第51の態様によるコンピュータプログラムは、上述の第36又は第36に従属する第37~第48のいずれかの態様において、「前記通信回線を介して前記第2制御データを前記第1端末に送信した後に、前記第1端末から前記アバターの移動に関する入力を取得した場合には、前記第2表示から前記第1表示に表示を切り替えるように前記表示部を制御する第3制御データを決定し、前記通信回線を介して前記第3制御データを前記第1端末に送信する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
第52の態様によるコンピュータプログラムは、上述の第46に従属する第50、又は、上述の第46に従属する第51の態様において、「前記第2表示が前記表示部に表示されている場合において前記アバターの移動に関する入力を取得した場合には、前記第2表示から切り替えられて前記表示部に表示される前記第1表示は、操作可能な前記仮想オブジェクトを表示する、」ことを特徴とする。
第53の態様によるコンピュータプログラムは、上述の第47に従属する第50、又は、上述の第47に従属する第51のいずれかの態様において、「前記第2表示が前記表示部に表示されている場合において前記アバターの移動に関する入力を取得した場合には、前記第2表示から切り替えられて前記表示部に表示される前記第1表示は、前記表示領域を表示する、」ことを特徴とする。
第54の態様によるコンピュータプログラムは、上述の第48に従属する第50、又は、上述の第48に従属する第51の態様において、「前記第2表示が前記表示部に表示されている場合において前記アバターの移動に関する入力を取得した場合には、前記第2表示から切り替えられて前記表示部に表示される前記第1表示は、前記表示領域を表示し且つ前記アイコンを表示しない、」ことを特徴とする。
第55の態様によるコンピュータプログラムは、上述の第35~第54のいずれかの態様において、「前記第1データは、前記アバターの前記仮想空間内における行動履歴に関するデータ、及び、前記アバターを操作するユーザのデータ、のうち少なくともいずれかを含む、」ことを特徴とする。
第56の態様によるコンピュータプログラムは、上述の第41に従属する第55の態様において「前記行動履歴に関するデータは、前記アバターの前記動画を視聴する視聴履歴に関するデータ、前記アバターの前記動画の視聴時間に関するデータ、前記アバターの前記仮想会場への入場履歴に関するデータ、前記アバターの前記仮想会場での滞在時間に関するデータ、前記アバターの前記仮想会場からの退場履歴に関するデータ、前記アバターから前記仮想空間内に存在する仮想オブジェクトに対する作用履歴に関するデータ、前記第1端末及び前記第1端末とは異なる第2端末のうち一方から前記第1端末及び前記第2端末のうち他方に対するメッセ―ジを送信する場合における前記メッセージが送信される第1端末の位置に関するデータ、前記仮想オブジェクトの購入履歴に関するデータ、及び、前記仮想オブジェクトが着席可能で且つ前記アバターが前記仮想オブジェクトに着席する場合における前記仮想オブジェクトの位置に関するデータ、のうち少なくともいずれかを含む、」ことを特徴とする。
第57の態様によるコンピュータプログラムは、上述の第35~第56のいずれかの態様において、「前記第1データは、前記第1端末及び前記第1端末とは異なる第2端末以外の第3端末に送信される、」ことを特徴とする。
第58の態様によるコンピュータプログラムは、上述の第57の態様において、「前記第1データを受信したか否かを判定し、前記第1データを受信した場合に、前記第1データを前記第3端末に送信される、」ことを特徴とする。
第59の態様によるコンピュータプログラムは、上述の第57又は第58のいずれかの態様において、「前記第1データを受信する周期は、前記制御データが決定される周期よりも短い、」ことを特徴とする。
第60の態様によるコンピュータプログラムは、上述の第57又は第58のいずれかの態様において「前記第3端末は、前記仮想会場を運営する運営者又は運営団体によって操作される第1端末である、」ことを特徴とする。
第61の態様によるコンピュータプログラムは、上述の第35~第60のいずれかの態様において「前記第1データに基づいて決定される広告に関する第2データが、前記第1端末に送信される、」ことを特徴とする。
第62の態様によるコンピュータプログラムは、第35~第60のいずれかの態様において「前記第1データに基づいて決定される広告に関する第2データを格納するデータベースにアクセスするURLを含むデータが、前記第1端末に送信される、」ことを特徴とする。
第63の態様によるコンピュータプログラムは、第35~第62のいずれかの態様において「前記仮想空間は3次元空間である、」ことを特徴とする。
第64の態様によるコンピュータプログラムは、第35~第63のいずれかの態様において「前記通信回線がインターネットを含む、」ことを特徴とする。
第65の態様によるコンピュータプログラムは、上述の第35~第64のいずれかの態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、」ことを特徴とする。
第66の態様によるコンピュータプログラムは、第35~第65のいずれかの態様において「前記少なくとも1つのプロセッサが、サーバ装置、スマートフォン、タブレット、携帯電話、または、パーソナルコンピュータに搭載される、」ことを特徴とする。
第67の態様による方法は、「第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得する工程と、前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示する工程と、前記第1データに基づいて第1条件を満たすか否かを判定する工程と、前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第1制御データを決定する工程と、前記第1制御データに基づいて前記表示部を制御する工程と、を含む、」ことを特徴とする。
第68の態様による方法は、「通信回線を介して、第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを受信する工程と、前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示させるように前記表示部を制御する第1制御データを決定する工程と、前記通信回線を介して前記第1制御データを前記第1端末に送信する工程と、前記第1制御データを前記第1端末に送信した後に、前記第1データに基づいて第1条件を満たすか否かを判定する工程と、前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第1制御データを決定する工程と、前記通信回線を介して前記第2制御データを前記第1端末に送信する工程と、を含む、」ことを特徴とする。
第69の態様による方法は、第67又は第68の態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第70の態様による方法は、第67~第69のいずれかの態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、」ことを特徴とする。
第71の態様によるサーバ装置は、「第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示し、前記第1データに基づいて第1条件を満たすか否かを判定し、前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第1制御データを決定し、前記第1制御データに基づいて前記表示部を制御する、」ことを特徴とする。
第72の態様によるサーバ装置は、第71の態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第73の態様によるサーバ装置は、第71又は第72の態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む。
このように、本開示の技術は、従来よりも快適性が損なわれないようにするコンピュータプログラム、方法、及び、サーバ装置を提供することができる。
<第3実施形態>
従来、複数の仮想世界間をアバターが移動可能となるように構成される仮想世界システムが知られている(特表2014-529792号公報)。しかしながら、特表2014-529792号公報においては、仮想世界において複数のユーザの各々が自身のアバターを用いてメッセージを通じてコミュニケーション可能であることが開示されているに留まる。なお、特表2014-529792号公報は、引用によりその全体が本明細書に組み入れられる。本開示は、従来よりも特定のユーザ同士のコミュニケーションを促進するコンピュータプログラム、方法、及び、サーバ装置を提供する。
従来、複数の仮想世界間をアバターが移動可能となるように構成される仮想世界システムが知られている(特表2014-529792号公報)。しかしながら、特表2014-529792号公報においては、仮想世界において複数のユーザの各々が自身のアバターを用いてメッセージを通じてコミュニケーション可能であることが開示されているに留まる。なお、特表2014-529792号公報は、引用によりその全体が本明細書に組み入れられる。本開示は、従来よりも特定のユーザ同士のコミュニケーションを促進するコンピュータプログラム、方法、及び、サーバ装置を提供する。
1.システム1000の構成
図1は、一実施形態に係るシステム1000の構成の一例を示すブロック図である。図1に示すように、システム1000は、例えば、図示しない通信回線(通信網)に接続される複数の端末10と、通信回線に接続される1又は複数のサーバ装置20と、を含む。端末10は、第1端末11を含む。端末10は、更に、第2端末12を含んでもよい。また、サーバ装置20は、例えば、第1サーバシステム21及び第2サーバシステム22を含む。
図1は、一実施形態に係るシステム1000の構成の一例を示すブロック図である。図1に示すように、システム1000は、例えば、図示しない通信回線(通信網)に接続される複数の端末10と、通信回線に接続される1又は複数のサーバ装置20と、を含む。端末10は、第1端末11を含む。端末10は、更に、第2端末12を含んでもよい。また、サーバ装置20は、例えば、第1サーバシステム21及び第2サーバシステム22を含む。
通信回線は、携帯電話網、無線ネットワーク(例えば、Bluetooth、(IEEE 802.11a/b/nといったような)WiFi、WiMax、セルラー、衛星、レーザー、赤外線、を介したRF接続)、固定電話網、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及び/又は、イーサネットネットワークを、これらに限定することなく含むことができる。
1-1.端末10
端末10は、例えば、通信回線を介して、1又は複数のサーバ装置20に接続される。端末10は、例えば、スマートフォン、タブレット装置、及び/又はパーソナルコンピュータである。端末10は、例えば、所定のアプリケーションをインストールして当該所定のアプリケーションを実行可能に構成される。また、端末10は、サーバ装置20(第2サーバシステム22)からウェブページ(例えば、HTMLドキュメント、幾つかの例では、JavaScript又はPHPコードといったような実行可能なコードを符号化したHTMLドキュメント)を受信することができる。
端末10は、例えば、通信回線を介して、1又は複数のサーバ装置20に接続される。端末10は、例えば、スマートフォン、タブレット装置、及び/又はパーソナルコンピュータである。端末10は、例えば、所定のアプリケーションをインストールして当該所定のアプリケーションを実行可能に構成される。また、端末10は、サーバ装置20(第2サーバシステム22)からウェブページ(例えば、HTMLドキュメント、幾つかの例では、JavaScript又はPHPコードといったような実行可能なコードを符号化したHTMLドキュメント)を受信することができる。
なお、以後、端末10を操作するユーザを単にユーザと称し、第1端末11を操作するユーザを第1ユーザと称することがあるものとする。また、図1には、複数の端末10として、例えば、第1端末11が設けられる例について示されているが、これに限定されない。複数の端末10は、例えば、2以上の端末を含んでもよい。また、以後の説明において、第1端末11を端末10と称することがあるものとする。
1-2.サーバ装置20
第1サーバシステム21は、配信サーバ装置21A1、サーバ記憶装置21A2を備える。配信サーバ装置21A1は、例えば、端末10において実行されるアプリケーションに関して要求されるデータを端末10から受信する。また、配信サーバ装置21A1は、例えば、当該要求に応じて、端末10において実行されるアプリケーションに用いられるデータを端末10に送信する。サーバ記憶装置21A2は、例えば、配信サーバ装置21A1から端末10に送信するデータを格納する。また、サーバ記憶装置21A2は、例えば、配信サーバ装置21A1が端末10から受信したデータを格納する。また、第1サーバシステム21は、例えば、端末10により実行されるアプリケーションにおいて用いられるデータを端末10に送信する。また、第1サーバシステム21は、例えば、端末10から受信したデータを機器70に送信する。
第1サーバシステム21は、配信サーバ装置21A1、サーバ記憶装置21A2を備える。配信サーバ装置21A1は、例えば、端末10において実行されるアプリケーションに関して要求されるデータを端末10から受信する。また、配信サーバ装置21A1は、例えば、当該要求に応じて、端末10において実行されるアプリケーションに用いられるデータを端末10に送信する。サーバ記憶装置21A2は、例えば、配信サーバ装置21A1から端末10に送信するデータを格納する。また、サーバ記憶装置21A2は、例えば、配信サーバ装置21A1が端末10から受信したデータを格納する。また、第1サーバシステム21は、例えば、端末10により実行されるアプリケーションにおいて用いられるデータを端末10に送信する。また、第1サーバシステム21は、例えば、端末10から受信したデータを機器70に送信する。
なお、端末10がアプリケーションを実行する例について説明したが、これに限定されない。例えば、端末10にインストールされるウェブブラウザを用いて、当該アプリケーションを実行することと同等の処理を実行するようにしてもよい。このように、端末10にインストールされるウェブブラウザを用いる場合には、例えば、サーバ装置20は、ウェブサーバ(図示省略)を含んでいてもよい。サーバ装置20が、ウェブサーバ(図示省略)を含む場合には、ウェブサーバは、HTML5等のHTML文書に関するデータを送信し、端末10は、当該ウェブブラウザを用いて当該HTML文書に関するデータを表示し、端末10(当該ウェブブラウザ)に対してユーザ指示データが送信され、サーバ装置20は、表示制御を行う。サーバ装置20は、当該表示制御を行うことで、表示データを生成し、当該表示データを端末10(当該ウェブブラウザ)に送信する。なお、当該ウェブブラウザでJavaScript(登録商標)などのスクリプトを用いて表示制御を行ってもよい。
また、図1においては、第1サーバシステム21が、配信サーバ装置21A1、サーバ記憶装置21A2を備える例について説明したが、これに限定されない。例えば、第1サーバシステム21が、配信サーバ装置21A1及びサーバ記憶装置21A2に加えて他の構成を含んでいてもよい。この場合において、当該他の構成が、配信サーバ装置21A1及びサーバ記憶装置21A2のうち少なくともいずれかの機能を有してもよい。また、例えば、第1サーバシステム21が、配信サーバ装置21A1及びサーバ記憶装置21A2の機能を備える単一の構成によって構成されていてもよい。
第2サーバシステム22は、コンテンツに関するデータを端末10に送信するサーバである。ここで、例えば、ユーザが端末10を操作してアプリケーションを実行する場合を想定する。この場合において、第2サーバシステム22が、当該アプリケーションの実行中に、コンテンツに関するデータの要求を端末10から受信した場合に、第2サーバシステム22は、コンテンツに関するデータを端末10に送信する。第2サーバシステム22から端末10に送信されるコンテンツに関するデータは、例えば、動画に関するデータである。
1-3.機器70
機器70(第3端末)は、例えば、仮想会場を運営する運営者又は運営団体によって操作される端末である。機器70は、第1サーバシステム21に所定のデータを送信し、第1サーバシステム21から送信される所定のデータを受信する。機器70の具体的な構成については後述する。
機器70(第3端末)は、例えば、仮想会場を運営する運営者又は運営団体によって操作される端末である。機器70は、第1サーバシステム21に所定のデータを送信し、第1サーバシステム21から送信される所定のデータを受信する。機器70の具体的な構成については後述する。
2.各装置のハードウェア構成
次に、端末10、及び、サーバ装置20の各々が有するハードウェア構成の一例について説明する。
次に、端末10、及び、サーバ装置20の各々が有するハードウェア構成の一例について説明する。
2-1.端末10のハードウェア構成
各端末10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末10(サーバ装置20)のハードウェア構成の一例を示すブロック図である。なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されている。
各端末10のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末10(サーバ装置20)のハードウェア構成の一例を示すブロック図である。なお、図2において、括弧内の参照符号は、後述するようにサーバ装置20に関連して記載されている。
図2に示すように、各端末10は、例えば、中央処理装置14と、主記憶装置15と、入出力インターフェース装置16と、入力装置17と、補助記憶装置18と、出力装置19と、を含む。図2に示される構成同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置14は、「CPU」と称され、主記憶装置15に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置15に記憶させる。さらに、中央処理装置14は、入出力インターフェース装置16を介して、入力装置17、補助記憶装置18及び出力装置19等を制御することができる。端末10は、1又はそれ以上のこのような中央処理装置14を含むことが可能である。
主記憶装置15は、「メモリ」と称され、入力装置17、補助記憶装置18及び通信回線30(サーバ装置20等)から、入出力インターフェース装置16を介して受信した命令及びデータ、並びに、中央処理装置14の演算結果を記憶する。主記憶装置15は、揮発性メモリ(例えば、レジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(例えば、リードオンリーメモリ(ROM)、EEPROM、フラッシュメモリ)、及び、ストレージ(例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、磁気テープ、光学媒体)、といったようなコンピュータにより読み取り可能な媒体を、これらに限定することなく含むことができる。容易に理解されるように、「コンピュータにより読み取り可能な記録媒体」という用語は、変調されたデータ信号すなわち一時的な信号といったような送信媒体ではなく、メモリ及びストレージといったようなデータストレージのための媒体を含むことができる。
入力装置17は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含む。センサは、後述するように、1又はそれ以上のカメラ等及び/又は1又はそれ以上のマイク等を含むセンサをこれらに限定することなく含むことができる。
補助記憶装置18は、主記憶装置15よりも大きな容量を有する記憶装置である。上述した特定のアプリケーション(動画配信用アプリケーション、動画視聴用アプリケーション等)やウェブブラウザアプリケーション等を構成する命令及びデータ(コンピュータプログラム)を記憶することができる。さらに、補助記憶装置18は、中央処理装置14により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インターフェース装置16を介して、主記憶装置15に送信することができる。補助記憶装置18は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
出力装置19は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
このようなハードウェア構成にあっては、中央処理装置14が、補助記憶装置18に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置15にロードする。中央処理装置14は、ロードした命令及びデータを演算することにより、入出力インターフェース装置16を介して出力装置19を制御し、或いはまた、入出力インターフェース装置16及び通信回線2を介して、他の装置(例えばサーバ装置20、他の端末10)との間で様々なデータの送受信を行うことができる。
2-2.サーバ装置20のハードウェア構成
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(配信サーバ装置21A1及びサーバ記憶装置21A2の各々)のハードウェア構成としては、例えば、上述した各端末10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
各サーバ装置20のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置20(配信サーバ装置21A1及びサーバ記憶装置21A2の各々)のハードウェア構成としては、例えば、上述した各端末10のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置20が有する構成要素に対する参照符号は、図2において括弧内に示されている。
図2に示すように、各サーバ装置20は、主に、中央処理装置24と、主記憶装置25と、入出力インターフェース装置26と、入力装置27と、補助記憶装置28と、出力装置29と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置24、主記憶装置25、入出力インターフェース装置26、入力装置27、補助記憶装置28、及び、出力装置29は、それぞれ、上述した各端末10に含まれる、中央処理装置14、主記憶装置15、入出力インターフェース装置16、入力装置17、補助記憶装置18及び出力装置19と略同一なものとすることができる。
このようなハードウェア構成にあっては、中央処理装置24が、補助記憶装置28に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置25にロードする。中央処理装置24は、ロードした命令及びデータを演算することにより、入出力インターフェース装置26を介して出力装置29を制御し、或いはまた、入出力インターフェース装置26及び通信回線2を介して、他の装置(例えば各端末10)との間で様々なデータの送受信を行うことができる。
なお、サーバ装置20は、中央処理装置24に代えて又は中央処理装置24とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでもよい。
3.各装置の機能
次に、端末10、及び、サーバ装置20の各々が有する機能の一例について、それぞれ、図3、及び、図4を用いて説明する。
次に、端末10、及び、サーバ装置20の各々が有する機能の一例について、それぞれ、図3、及び、図4を用いて説明する。
3-1.端末10の機能
図3は、図1に示した端末10の機能の一例を示すブロック図である。図3に示すように、端末10は、例えば、通信部110と、取得部120と、制御部130と、表示部140と、ユーザインターフェース部150と、記憶部160と、を含む。
図3は、図1に示した端末10の機能の一例を示すブロック図である。図3に示すように、端末10は、例えば、通信部110と、取得部120と、制御部130と、表示部140と、ユーザインターフェース部150と、記憶部160と、を含む。
(1)通信部110
通信部110は、例えば、サーバ装置20に各種データを送信するために用いられる。また、通信部210は、例えば、サーバ装置20から各種データを受信するために用いられる。通信部210において受信したデータは、例えば、制御部130に送られる。
通信部110は、例えば、サーバ装置20に各種データを送信するために用いられる。また、通信部210は、例えば、サーバ装置20から各種データを受信するために用いられる。通信部210において受信したデータは、例えば、制御部130に送られる。
(2)取得部120
取得部120は、例えば、ユーザから操作に関する操作データを取得する。また、取得部120は、例えば、各種センサによって検出されるデータを取得する。取得部120において取得されたデータは、例えば、制御部130に送られる。取得部120は、例えば、後述する図26のS121及び図27のS121の処理を行う。例えば、操作データは、次のデータのうちの1つ又はそれ以上を含むことができる。
・ユーザがタッチパッドディスプレイをどのようにスワイプしたかを示すデータ
・配信者がタッチパッドディスプレイのどの箇所をタッチしたかを示すデータ
・ユーザがいずれのオブジェクトをタップ又はクリックしたかを示すデータ
・ユーザがタッチパッドディスプレイをどのようにドラッグしたかを示すデータ
・他のそのような操作データ
取得部120は、例えば、ユーザから操作に関する操作データを取得する。また、取得部120は、例えば、各種センサによって検出されるデータを取得する。取得部120において取得されたデータは、例えば、制御部130に送られる。取得部120は、例えば、後述する図26のS121及び図27のS121の処理を行う。例えば、操作データは、次のデータのうちの1つ又はそれ以上を含むことができる。
・ユーザがタッチパッドディスプレイをどのようにスワイプしたかを示すデータ
・配信者がタッチパッドディスプレイのどの箇所をタッチしたかを示すデータ
・ユーザがいずれのオブジェクトをタップ又はクリックしたかを示すデータ
・ユーザがタッチパッドディスプレイをどのようにドラッグしたかを示すデータ
・他のそのような操作データ
なお、上述の「他のそのような操作データ」は、例えば、ユーザが端末10の表示画面上のいずれかの箇所をタッチしたか(指定したか)か示すデータである。ユーザが端末10の表示画面上において指定した箇所が仮想空間300内のいずれかの箇所に対応する場合には、当該ユーザのアバターは、例えば、仮想空間300内の当該箇所に移動する。なお、取得部120が取得するデータは、非操作に関するデータ(操作をしなかったことを示すデータ)であってもよく、例えば、特定時間(特定期間)端末10を操作しなかったことを示すデータ、及び/又は、仮想空間300内のある特定の場所に入らなかったことを示すデータである。
(3)制御部130
制御部130は、例えば、通信部110において受信したデータに基づいて各種制御を行う。また、制御部130は、取得部120において取得したデータに基づいて各種制御を行う。制御部130は、例えば、後述する図26のS131、図26のS141、及び、図27のS141の処理を行う。
制御部130は、例えば、通信部110において受信したデータに基づいて各種制御を行う。また、制御部130は、取得部120において取得したデータに基づいて各種制御を行う。制御部130は、例えば、後述する図26のS131、図26のS141、及び、図27のS141の処理を行う。
(4)表示部140
表示部140は、例えば、制御部130から出力される制御データに基づく表示内容を表示する。表示部140は、例えば、所定のアプリケーションを選択する画面を表示する。また、表示部140は、例えば、所定のアプリケーションを選択して所定のアプリケーションを実行した場合において仮想空間内に関する画面を表示する。
表示部140は、例えば、制御部130から出力される制御データに基づく表示内容を表示する。表示部140は、例えば、所定のアプリケーションを選択する画面を表示する。また、表示部140は、例えば、所定のアプリケーションを選択して所定のアプリケーションを実行した場合において仮想空間内に関する画面を表示する。
(5)ユーザインターフェース部150
ユーザインターフェース部150は、アプリケーションの実行に用いられる様々なデータをユーザの操作を介して入力する用途で用いられる。
ユーザインターフェース部150は、アプリケーションの実行に用いられる様々なデータをユーザの操作を介して入力する用途で用いられる。
(6)記憶部160
記憶部160は、アプリケーションの実行に用いられる様々なデータを記憶することができる。記憶部160は、表示部140を制御するために用いられるデータを記憶する。記憶部160は、例えば、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する。なお、記憶部160は、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する場合に限定されるものに限定されず、他のアバターの生成に用いられるモジュールデータを記憶してもよい。
記憶部160は、アプリケーションの実行に用いられる様々なデータを記憶することができる。記憶部160は、表示部140を制御するために用いられるデータを記憶する。記憶部160は、例えば、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する。なお、記憶部160は、第1ユーザのアバターの生成に用いられるモジュールデータを記憶する場合に限定されるものに限定されず、他のアバターの生成に用いられるモジュールデータを記憶してもよい。
なお、モジュールデータは、例えば、アバターを生成するためのパーツに関するデータである。ここで、アバターを生成するためのパーツは、例えば、アバターの各パーツ(目、鼻、口、眉毛、肌の色、髪型、髪の色、服、体、等)のデータを含む。また、モジュールデータは、アバターを生成するための各パーツに対応して割り当てられるIDに関するデータを含む。なお、アバターのパーツが体である場合には、アバターを生成するためのパーツに関するデータは、痩せ型、やや痩せ型、標準、やや肥満、肥満、など、体型に関して細分化されたデータを含んでいてもよい。
また、表示部140が、第1アバター80A以外のアバター80(他人のアバター)を表示する場合において、サーバ装置20が、第1アバター80A以外のアバター80の生成に用いられるIDデータを第1端末11に送信し、第1端末11が、当該IDデータに基づいて、第1アバター80A以外のアバター80を構築する構成であってもよい。
また、表示部140が、第1アバター80A以外のアバター80(他人のアバター)を表示する場合において、表示部140は、第1アバター80A以外のアバター80を黒色に着色して表示してもよいし、第1アバター80A以外のアバター80に対応するユーザの性別(例えば、男性又は女性)に基づいて決定されるパーツ及び/又は色彩を用いて男性用または女性用の2択の第1アバター80A以外のアバター80を表示してもよい。
3-2.サーバ装置20の機能
図4は、図1に示したサーバ装置20の機能の一例を示すブロック図である。図4に示されるように、サーバ装置20は、例えば、通信部210と、記憶部220と、制御部230と、を含む。
図4は、図1に示したサーバ装置20の機能の一例を示すブロック図である。図4に示されるように、サーバ装置20は、例えば、通信部210と、記憶部220と、制御部230と、を含む。
(1)通信部210
通信部210は、例えば、端末10に各種データを送信するために用いられる。また、通信部210は、例えば、端末10から各種データを受信するために用いられる。通信部210において受信したデータは、制御部230に送られる。
通信部210は、例えば、端末10に各種データを送信するために用いられる。また、通信部210は、例えば、端末10から各種データを受信するために用いられる。通信部210において受信したデータは、制御部230に送られる。
(2)記憶部220
記憶部220は、アプリケーションの実行に用いられる様々なデータを記憶する。記憶部220は、例えば、第1端末11から送信される第1データを記憶する。第1端末11から送信される第1データは、例えば、第1アバター80Aに関するデータを含む。第1データは、「行動履歴」に関するデータを含んでいてもよい。なお、第1端末11から送信される第1データ、及び、「行動履歴」に関するデータの詳細については後述する。
記憶部220は、アプリケーションの実行に用いられる様々なデータを記憶する。記憶部220は、例えば、第1端末11から送信される第1データを記憶する。第1端末11から送信される第1データは、例えば、第1アバター80Aに関するデータを含む。第1データは、「行動履歴」に関するデータを含んでいてもよい。なお、第1端末11から送信される第1データ、及び、「行動履歴」に関するデータの詳細については後述する。
(3)制御部230
制御部230は、例えば、通信部210において受信したデータに基づいて各種制御を行う。制御部230は、例えば、後述する図26のS183、図26のS193、図27のS133、図27のS183、及び、図27のS193の処理を行う。
制御部230は、例えば、通信部210において受信したデータに基づいて各種制御を行う。制御部230は、例えば、後述する図26のS183、図26のS193、図27のS133、図27のS183、及び、図27のS193の処理を行う。
図5は、第1端末11を操作してアプリケーションを起動することで第1端末11の表示部140に表示される表示例を示す図である。図5に示されるように、表示部140には仮想空間300が表示される。仮想空間300は、例えば、3次元空間である。仮想空間内300内には、アバター80、及び、仮想会場310が示されている。
アバター80は、ユーザの操作により、例えば、歩行、走行、及び、跳躍(ジャンプ)、のうち少なくともいずれかを行うことが出来るように構成されている。また、アバター80は、例えば、ユーザの操作により、仮想オブジェクトを調べる、仮想オブジェクトを押す、仮想オブジェクトを引く、仮想オブジェクトを持ち上げる、仮想オブジェクトに着席する、仮想オブジェクトを購入する、仮想オブジェクトにアイテムを渡す、ことが出来るように構成されている。ここで、仮想オブジェクトは、例えば、アバター、ドア、食料品、入場券、椅子、展示物などである。なお、端末10を用いてユーザがアバター80を操作すると、当該操作に関するデータが、サーバ装置20に送信される。
上述の「仮想オブジェクトを調べる」という操作により、当該仮想オブジェクトに関する説明が表示部140に表示される。当該仮想オブジェクトを説明する文は、例えば、当該仮想オブジェクトの名称、当該仮想オブジェクトの用途、及び、当該仮想オブジェクトの価格、のうち少なくともいずれかである。当該仮想オブジェクトに関する説明は、例えば、文章、画像、および、動画、の少なくともいずれかである。
上述の「仮想オブジェクトを押す」という操作、「仮想オブジェクトを引く」という操作、「仮想オブジェクトを持ち上げる」という操作により、当該仮想オブジェクトの仮想空間300内での位置を変更させることができる。
上述の「仮想オブジェクトに着席する」という操作により、アバター80が当該仮想オブジェクトに着席する。なお、アバター80は当該仮想オブジェクト以外の特定の場所に着席可能であるように構成されていてもよい。また、アバター80が当該仮想オブジェクトに着席する場合、または、アバター80が当該仮想オブジェクト以外の特定の場所に着席する場合を想定する。この場合において、表示部140は、アバター80が着席する前における表示画面とは別の表示画面(例えば、UI操作部やチャット画面がない表示画面)を表示してもよいし、アバター80が着席する前において存在したユーザインターフェースを非表示にしてもよい。表示部140が、アバター80が着席する前における表示画面とは別の表示画面を表示する場合において、表示部140は、表示対象の画面等が全画面表示になるような表示を行ってもよい。
上述の「仮想オブジェクトを購入する」という操作により、例えば、当該仮想オブジェクトを購入することができる。当該仮想オブジェクトが着用可能である場合には、アバター80が購入した当該仮想オブジェクトを身に着けることでアバター80の外観を変化させることができる。
なお、表示部140に表示されるアバターのうち、操作するアバター80以外のアバター80は、ユーザによって操作されるアバターであってもよいし、仮想空間300内での動作について予め決定されていてもよい。ここで、アバター80が、仮想空間300内での動作について予め決定されている場合には、アバター80は、NPC(Non Player Character)として動作することを意味する。
また、図5に示されるアバター80の外観はすべて同一であるが、これに限定されない。アバター80を操作するユーザに関するデータに基づいてアバター80の外観を決定してもよい。例えば、アバター80を操作するユーザが男性である場合にはアバター80の外観が男性であってもよい。また、例えば、アバター80を操作するユーザが女性である場合にはアバター80の外観が女性であってもよい。また、アバター80の外観は、ユーザが選択したアバターのパーツのIDに基づいて決定されてもよく、各々相違してもよい。ここで、上述の「各々相違してもよい」は、例えば、客観的に同一ではないものの類似する外観であってもよいし、客観的に全く異なる外観であってもよい。
また、ユーザの動作に連動して仮想空間内のアバターの動作が変化してもよい。例えば、ユーザが頷く動作をした場合に仮想空間内のアバターも同様に頷く動作をしてもよい。ここで、動作データは、例えば、モーションキャプチャシステムを用いて取得され得る。本開示による利益を有する当業者により容易に理解されるように、本件出願において開示される装置及び方法とともに使用され得る幾つかの例の適切なモーションキャプチャシステムは、パッシブマーカ若しくはアクティブマーカを用いた又はマーカを用いない光学式モーションキャプチャシステムと、慣性式及び磁気式の非光学式システムとを含む。モーションデータは、モーションデータを動画又は他のイメージデータに変換するコンピュータに結合された、(CCD(電荷結合デバイス)又はCMOS(相補型金属酸化膜半導体)イメージセンサといったような)イメージキャプチャ装置を用いて取得され得る。
図5に示される第1アバター80Aを操作する場合には、例えば、表示部140は、図16のような画面を表示する。
図16は、端末10の表示部140に表示される表示例を示す図である。具体的には、図16は、第1端末11を用いて第1ユーザが第1アバター80Aを操作する場合において、第1端末11の表示部140に表示される例を示す図である。図16に示されるように、例えば、表示部140は、アバター80、第1アバター80A、及び、仮想会場310を表示する。ここで、表示部140は、第1アバター80Aの背面を表示しており、第1端末11を操作する第1ユーザの視線と、第1ユーザに対応する第1アバター80Aの視線と、が同じ方向である。表示部140は、例えば、第1アバター80Aよりも図16の紙面手前方向に位置する仮想視点を基準として第1アバター80Aを含む仮想空間内の領域を表示する。表示部140は、仮想空間のうち第1アバター80Aの進行方向を含む領域を表示する。なお、端末10を用いて第1アバター80Aを操作することで、表示部140が表示する仮想空間内の領域が変更されうる。例えば、端末10を用いて第1アバター80Aの進行方向を180度変更することで、図16における第1アバター80Aの後方領域を表示することができる。このように、端末10を用いて第1アバター80Aを操作することで、図16には表示されていない領域を表示部140は表示することができる。第1端末11を操作する第1ユーザが第1アバター80Aを操作し、図16に示される第1アバター80Aが仮想会場310の内部に位置すると、例えば図17のような表示画面が表示される。
なお、図16において、第1ユーザによる第1アバター80Aの操作が行われると、第1端末11は、例えば、第1アバター80Aの仮想空間300内の位置に関するデータを取得する。また、例えば、第1端末11が取得した第1アバター80Aの仮想空間300内の位置に関するデータはサーバ装置20に送信される。なお、第1端末11が第1アバター80Aの仮想空間300内の位置に関するデータを取得するタイミングは任意のタイミングであってよい。また、例えば、第1端末11が取得した第1アバター80Aの仮想空間300内の位置に関するデータがサーバ装置20に送信されるタイミングについても任意のタイミングであってよい。
また、第1端末11の表示部140のうち任意の領域をタッチ操作することができるようになっていてもよい。また、第1端末11が加速度センサ(図示省略)を備え、第1端末11を動作させた場合において、当該加速度センサに基づいて、表示部140が表示する表示領域及び/又は方向を変更できる構成であってもよい。
ここで、上述の「任意の領域」は、例えば、図16の領域301及び/又は表示領域314を含む。領域301及び/又は表示領域314は、タッチ操作を行うことにより所定の表示制御を行うための操作ユーザインターフェースである。また、「タッチ操作」は、例えば、タップ、ダブルタップ、スワイプ、フリック、ピンチイン、及び、ピンチアウト、のうち少なくともいずれかの操作を指す。また、領域301及び/又は表示領域314は、図16の表示を行う場合のみならず、後述する他の図面(例えば、図22及び図8の少なくともいずれか)の表示を行う場合においても同一の位置又は異なる位置に表示されていてもよい。
また、領域301は、図16に記載されているように、2つ設けられていてもよいし、1つ又は3つ以上設けられていてもよい。なお、領域301が2つ以上に設けられる場合において、一の領域301が、例えば、第1アバター80Aを歩行させるために用いられる領域に対応し、他の領域301が、例えば、第1アバター80Aをジャンプさせるために用いられる領域に対応する。このようにして、領域301をタッチ操作することで第1アバター80Aを歩行又はジャンプさせることができる。
ここで、第1アバター80Aを歩行又はジャンプさせるためのタッチ操作は、例えば、第1アバター80Aの領域301をタップ又はダブルタップする操作である。また、第1アバター80Aを歩行又はジャンプさせるためのタッチ操作を行う領域は領域301以外の領域であってもよい。
表示領域314は、アバター80に対応するユーザが入力するメッセージを表示する領域である。表示部140が表示領域314を表示する場合において、表示領域314には、第1端末11から送信されるメッセージ、及び、第1端末以外の端末から送信されるメッセージ、のうち少なくともいずれかのメッセージが表示される。ここで、表示領域314に表示されるメッセージは、第1端末宛のメッセージを表示してもよいし、表示領域314に表示されるメッセージは、第1端末以外の端末間でやり取りされるメッセージを表示してもよい。したがって、表示領域314は、仮想空間300内に存在する少なくとも一のアバター80に対応するユーザが閲覧及び/又はチャット可能な領域、または、仮想空間300内の特定の場所に存在する少なくとも一のアバター80に対応するユーザが閲覧及び/又はチャット可能な領域として機能する。
このようにして、第1端末11は、第1ユーザが表示部140の表示領域314を介して全アバター80のうち少なくとも一のアバター80に対応するユーザとチャットすることができる。例えば、第1端末11は、第1ユーザが表示部140の表示領域314を介して、所定の領域内(同一の領域内)に存在する全アバター80に対応するユーザとチャットすることができる。ここで、第1ユーザとチャットするユーザは、個人のユーザ又は出展企業である。また、表示領域314に複数のメッセージを表示する場合において、表示領域314内に全てのメッセージを表示できないような場合に、タッチ操作を行うことで、表示領域314内に表示されていないメッセージを表示することができる。ここで、表示領域314内に全てのメッセージを表示できないような場合におけるタッチ操作は、例えば、スワイプである。
なお、表示部140に表示領域314が表示される条件は、アバター80が仮想会場310内に位置している場合に限定されない。例えば、アバター80が仮想空間300内の所定領域内に位置している場合に、当該所定領域に対応する表示領域を表示部140に表示してもよい。すなわち、アバター80が存在する位置に応じて、表示部140に表示する表示領域が決定されてもよい。これにより、ユーザは、自身のアバター80が存在する領域と同一領域に存在する他のアバター80に対応するユーザとメッセージをやり取りすることができる。また、ユーザは、特定の属性のユーザとのチャットを行うことができる。したがって、ユーザは、興味、関心、及び/又は属性が共通する他のユーザと容易にコミュニケーションを図ることができる。
また、表示領域314に表示されるメッセージの送信元の端末は、例えば、仮想会場310内に存在するアバターを操作するユーザが用いる端末である。ただし、表示領域314が表示されるメッセージの送信元の端末に対応するアバターは、仮想会場310に表示されていてもよいし、仮想会場310に表示されていなくともよい。
また、表示領域314には、購入可能な商品を表示してもよい。当該商品は、例えば、仮想会場310を運営する運営者又は運営団体に関連する商品である。表示領域314には、当該商品とともに、当該商品に関する内容、及び、当該商品の購入を促す内容を表示してもよい。ここで、当該商品の購入を促す内容は「買い物かごに入れる」等の表示であって且つ選択可能に構成される。また、ユーザが端末10を用いて表示領域314に表示される少なくとも一の商品の購入手続を進める操作をすることで、例えば、端末10にインストールされるブラウザが起動され、当該商品を購入するために用いられる内容の入力を要求するページが表示部140に表示される。
また、図16に示されるように、表示部140は、第1アバター80Aの動作に関わらず所定の位置に表示領域314を表示してもよいし、第1アバター80Aの動作に伴って異なる位置に表示領域314を表示してもよい。また、表示部140は、第1アバター80Aの動作に関わらず同一の大きさで表示領域314を表示してもよいし、第1アバター80Aの動作に伴って異なる大きさで表示領域314を表示してもよい。また、第1アバター80Aに対応する第1端末11からメッセージが送信された場合に、表示部140は、第1アバター80Aの周囲に当該メッセージを表示してもよい。また、第1アバター80A以外のアバター80に対応する端末10からメッセージが送信された場合に、表示部140が当該アバター80を表示している場合には、表示部140は当該アバター80の周囲に当該メッセージを表示してもよい。表示部140は、第1アバター80Aの周囲に当該メッセージを表示する場合において、例えば、吹き出しを表示し、また、当該吹き出しの中に当該メッセージを表示してもよい。
また、例えば、図16に示されるように、点321をタップ又はダブルタップする操作を行うと、表示部140は、第1アバター80Aと点321とを結ぶ線分322を表示し、第1アバター80Aは、線分322に沿って点321まで歩行する。なお、点321及び線分322は、任意の色であってよい。また、第1アバター80Aを歩行させるためのタッチ操作は、第1アバター80Aのいずれかの領域をフリックする操作を行うことで進行方向を変更した後に変更後の進行方向の仮想直線上の任意の点をタップ又はダブルタップする操作である。
また、例えば、図16に示されるように、表示部140は、アイコン323を表示してもよい。アイコン323は、操作されることで表示領域314の表示と非表示を切り替える用途で用いられる。表示部140は、アイコン323を操作することで表示領域314を表示する場合に、アイコン323を表示しなくてもよいし、継続してアイコン323を表示してもよい。
図22は、端末10の表示部140に表示される仮想会場310における表示画面の例を示す図である。図22は、第1端末11を操作する第1ユーザが第1アバター80Aを操作し、図16に示される第1アバター80Aが仮想会場310の内部に位置することで、場面が切り替わり、これにより、表示画面が切り替わる。なお、第1アバター80Aが仮想会場310の外部(例えば図16)に存在する場合における表示画面を第1端末11のウェブブラウザを用いて表示する場合におけるURLは、第1アバター80Aが仮想会場310の内部(例えば図22)に存在する場合における表示画面を第1端末11のウェブブラウザを用いて表示する場合におけるURLとは異なる。したがって、第1端末11のウェブブラウザを用いる場合において、図16に示される第1アバター80Aが仮想会場310の内部に位置すると、URLが変更されることとなる。図22に示されるように、アバター80、第1アバター80A、椅子81、表示領域311、表示領域312、アバター313、及び、スライダー330が示されている。なお、スライダー330は必須の構成ではない。ここで、仮想会場310は、例えば、展示会またはイベント会場などのブースである。椅子81は、少なくとも一つ設けられる。アバター80、第1アバター80Aは、仮想会場310内の第1領域に位置しているものとする。
椅子81は、例えば、アバター80が着席可能な仮想オブジェクトである。例えば、第1ユーザが第1アバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、アバター80は椅子81に着席する。また、例えば、第1ユーザが第1アバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、第1端末11の表示画面には特定の椅子に座るかどうかを尋ねるメッセージが表示される。第1端末11の表示画面に特定の椅子に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を操作して当該メッセージに対して特定の椅子に座る意思を示す所定の操作を行うと、アバター80は椅子81に着席する。なお、着席可能な仮想オブジェクトと共に、又は、着席可能な仮想オブジェクトに代えて、仮想区間300内の特定の場所を指定した場合にアバター80を着席させる構成を採用してもよい。この場合において、仮想区間300内の特定の場所に近づいて所定の操作を行うことで、第1端末11の表示画面には当該特定の場所に座るかどうかを尋ねるメッセージが表示されてもよい。第1端末11の表示画面に当該特定の場所に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を操作して当該メッセージに対して当該特定の場所に座る意思を示す所定の操作を行うと、アバター80は当該特定の場所に座るように構成されてもよい。
表示領域311には、例えば、各種説明を行う資料が表示され、及び/又は、動画が表示される。表示領域312には、仮想会場310を運営する団体の名称、説明会のテーマ、などが表示される。アバター313は、例えば、仮想会場310を進行するスタッフを模したアバターである。アバター313は、ユーザによって操作されるアバターであってもよいし、仮想空間300内での動作について予め決定されているアバターであってもよい。ここで、アバター80が仮想空間300内での動作について予め決定されて動作する場合には、当該アバターは、上述したNPCとして動作することを意味する。
仮想会場310において、所定の時刻になると、例えば、所定の説明が開始される。ここで、仮想空間内で用いられる時刻は、現実の時刻と同一となるように同期する時刻であってもよいし、現実の時刻とは別に仮想空間300内で用いられる時刻であってもよい。なお、仮想会場310において所定の説明が開始される条件は、時刻に関する条件でなくともよい。例えば、仮想会場310において所定の説明が開始される条件は、例えば、仮想会場310に存在するアバターが所定数以上になった場合、または、特定のアバターが仮想会場310内に位置した場合、などであってもよい。
なお、複数のアバターが同時刻において一つの座席に重複して着席できるように構成されていてもよい。例えば、図22の左側の椅子81にアバター80が着席している状態で、ユーザが端末10を用いて第1アバター80Aを操作して図22の左側の椅子81に第1アバター80Aを着席させることができる構成であってもよい。このようにして、例えば、仮想会場310内に位置するアバターの総数が椅子81の総数を上回る場合においても、表示領域311に表示されるコンテンツを視聴する全てのアバターを仮想会場310内において着席させることができる。
図8は、端末10の表示部140に表示される表示例を示す図である。図8にはライブ会場410が示されている。ライブ会場410は、仮想空間300内に設けられる会場の例である。図8に示されるように、ライブ会場410の内部には複数の椅子81が設けられている。椅子81は、例えば、アバター80が着席可能な仮想オブジェクトである。例えば、第1ユーザが第1アバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、アバター80は椅子81に着席する。また、例えば、第1ユーザが第1アバター80Aを操作して複数の椅子81のうち特定の椅子に近づいて所定の操作を行うことで、第1端末11の表示画面には特定の椅子に座るかどうかを尋ねるメッセージが表示される。第1端末11の表示画面に特定の椅子に座るかどうかを尋ねるメッセージが表示される場合において、ユーザが端末10を用いて当該メッセージに対して特定の椅子に座る意思を示す所定の操作を行うと、アバター80は椅子81に着席する。
所定の時刻になると、動画が表示領域411において再生される。ここで、仮想空間内で用いられる時刻は、現実の時刻と同一となるように同期する時刻であってもよいし、現実の時刻とは別に仮想空間300内で用いられる時刻であってもよい。なお、動画が表示領域411において再生される条件は、時刻に関する条件でなくともよい。例えば、動画が表示領域411において再生される条件は、例えば、ライブ会場410に存在するアバターが所定数以上になった場合、または、特定のアバターがライブ会場410内に位置した場合、などであってもよい。
なお、複数のアバターが同時刻において一つの座席に重複して着席できるように構成されていてもよい。例えば、図8の最左端の椅子81にアバター80が着席している状態で、ユーザが端末10を用いて第1アバター80Aを操作して図8の最左端の椅子81に第1アバター80Aを着席させることができる構成であってもよい。このようにして、例えば、ライブ会場410内に位置するアバターの総数が椅子81の総数を上回る場合においても、表示領域411に表示されるコンテンツを視聴する全てのアバターをライブ会場410内において着席させることができる。
また、図8においては、ライブ会場410内に第1アバター80Aが示されていないが、これに限定されない。ライブ会場410内において第1アバター80Aを表示部140に表示し、第1ユーザが用いる第1端末11の操作に応じて表示部140内で第1アバター80Aが動作するように構成されていてもよい。
なお、所定の時刻において開始される所定の説明は、図22の表示領域311又は図8の表示領域411に所定の内容を表示、及び/又は、音声の出力、によって行われる。当該説明は、例えば、動画である。当該動画は、例えば、所定の説明動画、コンサート等のイベント動画、映画等の動画、並びに、リアルタイムのVtuberの動き及び/又は演技を反映した動画、のうちいずれかである。当該説明が動画である場合には、端末10は、第2サーバシステム22に対して動画に関するデータを要求する。そして、第2サーバシステム22は、当該要求に応答して動画に関するデータを端末10に送信する。これにより、端末10は、第2サーバシステム22から動画に関するデータを受信して動画を視聴することができる。
図23~図25に示されるように、仮想空間300内には、例えば、第1待合室310A、仮想会場310B、及び、第2待合室310C、が設けられている。ここで、第1待合室310Aは、例えば、仮想会場310Bの入口側に位置する。また、第2待合室310Cは、例えば、仮想会場310Bの出口側に位置する。なお、第1待合室310A、仮想会場310B、及び、第2待合室310Cは、後述するような空間であることに限定されず、仮想空間300内の任意の空間であってもよい。
第1ユーザは、第1アバター80Aを操作することで、第1待合室310Aから仮想会場310Bに第1アバター80Aを移動させることができる。また、第1ユーザは、第1アバター80Aを操作することで、仮想会場310Bから第2待合室310Cに第1アバター80Aを移動させることができる。
図23は、仮想空間300内のレイアウトの例を示す平面図である。図23に示されるように、第1待合室310Aには、第1アバター80Aと、異なる2人のユーザの各々に対応するアバター80と、が位置している。第1アバター80Aが第1待合室310Aに存在する場合には、第1端末11の表示部140は、第1アバター80Aを操作する第1ユーザが第1待合室310Aに存在する他のアバター80を操作するユーザとチャットすることが可能な表示領域314を表示する。このようにして、第1アバター80Aを操作する第1ユーザは、仮想会場310Bに入場して表示領域311に表示されるコンテンツを視聴する予定の他のユーザとチャットを行うことができる。また、第1アバター80Aを操作する第1ユーザは、仮想会場310Bに存在するアバター80を操作するユーザの端末10から送信されるメッセージを受信することがない。したがって、第1アバター80Aを操作する第1ユーザは、仮想会場310Bに存在するアバター80を操作するユーザの端末10が表示領域311に表示されるコンテンツに関するメッセージを送信しても、第1アバター80Aを操作する第1ユーザの第1端末11は当該メッセージを受信しない。以上のようにして、第1アバター80Aを操作する第1ユーザは、仮想会場310Bに入場して表示領域311に表示されるコンテンツを視聴する前に当該コンテンツの内容を意図しないで把握する可能性を低減することができる。
なお、図23に示されるように、第1アバター80Aが第1待合室310Aに存在する場合において、第1端末11が表示領域314を表示する条件(第1条件)は、第1アバター80Aが第1待合室310Aに存在することのみでもよいし、第1アバター80Aが第1待合室310Aに存在することに加えて他の条件を含んでいてもよい。例えば、第1条件は、第1アバター80Aが第1待合室310Aに存在し、且つ、現在又は過去に第1待合室310A内の仮想オブジェクトに対して所定の操作を行うことであってもよい。第1待合室310A内の仮想オブジェクトに対する所定の操作は、例えば、第1待合室310A内で購入可能な飲食物を購入する操作を含む。
図23に示されるように、第1アバター80Aが第1待合室310Aに存在する場合において、第1アバター80Aが仮想会場310Bに向かって移動すると、図24に示されるように、第1アバター80Aが仮想会場310Bに位置する。なお、第1アバター80Aが第1待合室310Aから仮想会場310Bに入場するための条件(第2条件)を設けてもよい。第2条件は、例えば、第1アバター80Aが仮想空間300内で購入可能な仮想オブジェクトを有することである。仮想空間300内で購入可能な仮想オブジェクトは、例えば、仮想会場310Bに入るための入場券である。
図24は、仮想空間300内のレイアウトの例を示す平面図である。図24に示されるように、仮想会場310Bには、第1アバター80Aと、異なる2人のユーザの各々に対応するアバター80と、が位置し、表示領域311が設けられている。第1アバター80Aが仮想会場310Bに存在する場合には、第1端末11の表示部140は、第1アバター80Aを操作する第1ユーザが仮想会場310Bに存在する他のアバター80を操作するユーザとチャットすることが可能な表示領域314を表示する。したがって、表示領域311に表示されるコンテンツを視聴している他のユーザとチャットを行うことができる。
なお、図24に示されるように、第1アバター80Aが仮想会場310Bに存在する場合において、第1端末11が表示領域314を表示する条件(第1条件)は、第1アバター80Aが仮想会場310Bに存在することのみでもよいし、第1アバター80Aが仮想会場310Bに存在することに加えて他の条件を含んでいてもよい。例えば、第1条件は、第1アバター80Aが仮想会場310Bに存在し、且つ、現在又は過去に仮想会場310B内の仮想オブジェクトに対して所定の操作を行うことであってもよい。仮想会場310B内の仮想オブジェクトに対して所定の操作を行うことは、例えば、表示領域311を選択する操作を含む。また、仮想会場310B内の仮想オブジェクトに対して所定の操作を行うことは、例えば、第1アバター80Aが着席可能な仮想オブジェクトに着席すること、及び、表示領域311を選択したこと、のうち少なくともいずれかである。また、仮想会場310B内の仮想オブジェクトに対して所定の操作を行うことは、例えば、表示領域311を選択して所定事項を体験することであってもよい。ここで、「所定事項を体験する」とは、例えば、表示領域311に表示されるコンテンツを視聴すること、ゲームの試遊をすること、クイズに回答すること、なにかを購入または受領すること等のユーザが能動的もしくは受動的に何かしらの体験をすることである。なお、購入または受領する対象は、例えば、所定の領域(例えば、仮想会場310B)に入場するための入場券である。
図24に示されるように、第1アバター80Aが仮想会場310Bに存在する場合において、第1アバター80Aが第2待合室310Cに向かって移動すると、図25に示されるように、第1アバター80Aが第2待合室310Cに位置する。なお、第1アバター80Aが仮想会場310Bから第2待合室310Cに移動するための条件(第2条件)を設けてもよい。第2条件は、例えば、第1アバター80Aが仮想会場310Bに存在する状態で表示領域311に表示されるコンテンツ(例えば、動画)が所定時間以上再生されて終了したことである。また、第2条件は、例えば、第1アバター80Aが着席可能な仮想オブジェクトに着席した後に前記仮想オブジェクトから離席したことである。
図25は、仮想空間300内のレイアウトの例を示す平面図である。図25に示されるように、第2待合室310Cには、第1アバター80Aと、異なる2人のユーザの各々に対応するアバター80と、が位置している。第1アバター80Aが第2待合室310Cに存在する場合には、第1端末11の表示部140は、第1アバター80Aを操作する第1ユーザが第2待合室310Cに存在する他のアバター80を操作するユーザとチャットすることが可能な表示領域314を表示する。このようにして、第1アバター80Aを操作する第1ユーザは、仮想会場310Bにおいて表示領域311に表示されるコンテンツを視聴して終了したユーザ間でチャットを行うことができる。
なお、図25に示されるように、第1アバター80Aが第2待合室310Cに存在する場合において、第1端末11が表示領域314を表示する条件(第1条件)は、第1アバター80Aが第2待合室310Cに存在することのみでもよいし、第1アバター80Aが第2待合室310Cに存在することに加えて他の条件を含んでいてもよい。例えば、第1条件は、第1アバター80Aが第2待合室310Cに存在し、且つ、現在又は過去に第2待合室310C内の仮想オブジェクトに対して所定の操作を行うことであってもよい。
ここで、仮想会場310Bは、例えば、図22の仮想会場310に相当する。また、仮想会場310Bは、例えば、図8のライブ会場410に相当する。仮想会場310Bが、図8のライブ会場410に相当する場合には、図23~図25における表示領域311は、表示領域411に相当する。
また、仮想空間300内には、例えば、第1待合室310A、仮想会場310B、及び、第2待合室310C、が設けられる例について説明したが、これに限定されない。例えば、待合室の数は、例えば3つ以上であってもよい。また、待合室は、仮想会場310Bの入口側及び出口側のうち1つのみ設けられていてもよい。
以上のように、第1ユーザの経験状態に応じて当該第1ユーザとチャットできるユーザが異なる。具体的には、第1ユーザが第1アバター80Aを操作して所定事項を体験する前に当該第1ユーザとチャット可能なユーザ、第1ユーザが第1アバター80Aを操作して所定事項を体験している間に当該第1ユーザとチャット可能なユーザ、及び、第1ユーザが第1アバター80Aを操作して所定事項を体験した後に当該第1ユーザとチャット可能なユーザ、は、例えば、各々異なる。このように、第1ユーザの経験状態に応じて当該第1ユーザとチャット可能なユーザが異なるため、当該第1ユーザは、当該第1ユーザの状況と同一又は類似する状況下にある他のユーザと、チャットを通じて、体感及び/又は経験を共有しやすくなる。また、第1ユーザは、当該所定事項を体験する前に、意図しないで、当該所定事項に関する内容(例えば、結論)を把握する可能性を低減することができる。なお、第1ユーザが第1アバター80Aを操作して所定事項を体験する前における当該第1アバター80Aの位置、第1ユーザが第1アバター80Aを操作して所定事項を体験している間における当該第1アバター80Aの位置、及び、第1ユーザが第1アバター80Aを操作して所定事項を体験した後における当該第1アバター80Aの位置、が各々異なる場合には、第1ユーザの経験状態は、例えば、第1ユーザのアバターの80A位置データに基づいて決定されうる。このようにして、第1ユーザの端末10は、例えば、第1ユーザの第1アバター80Aの経験状態に基づいて、当該経験状態に対応するチャット画面を表示する。これに関し、3つの異なる体験(体験1~体験3)及び3人の異なるユーザ(第1ユーザ~第3ユーザ)を仮定すると、体験1をしている第1ユーザと、体験2をしている第2ユーザと、体験3をしている第3ユーザとはそれぞれ異なるチャットに参加することになる。第1ユーザの経験状態が、第1ユーザの第1アバター80Aの位置データに基づいて決定される場合には、第1ユーザの端末10は、例えば、第1ユーザの第1アバター80Aの位置データに基づいて、当該位置データに対応するチャット画面を表示することになりうる。これに関し、3つの異なる会場(会場A~会場C)及び3人の異なるユーザ(第1ユーザ~第3ユーザ)を仮定すると、会場Aに位置するアバター80に対応する第1ユーザと、会場Bに位置するアバター80に対応する第2ユーザと、会場Cに位置するアバター80に対応する第3ユーザとはそれぞれ異なるチャットに参加することになる。
なお、上述の説明においては、第1ユーザの端末10は、例えば、第1ユーザの第1アバター80Aの経験状態に基づいて、当該経験状態に対応するチャット画面を表示する例について説明したが、これに限定されない。第1ユーザの端末10は、例えば、第1ユーザのアバターの行動履歴に基づいて、当該行動履歴に対応するチャット画面を表示してもよい。第1ユーザの第1アバター80Aの行動履歴は、例えば、第1アバター80Aが過去に特定の領域に位置したことを示す履歴である。ここで、「特定の領域」とは、仮想空間300内の少なくとも一の領域である。「特定の領域」は、例えば、第1待合室310A、仮想会場310B、及び、第2待合室310Cのうち少なくとも何れかであってもよい。行動履歴に対応するチャット画面を表示する場合において、当該チャット画面は、同一の行動履歴を有するアバターに対応するユーザの端末10にのみ表示されうる。
ここで、「特定の領域」が第1待合室310Aであり、第1ユーザの第1アバター80A及び他のユーザのアバターが、第1待合室310Aに過去に位置した履歴がある場合には、第1ユーザの第1アバター80Aの現在位置及び他のユーザのアバターの現在位置によらないで、第1ユーザ及び当該他のユーザは同一のチャット画面を介してコミュニケーションを図ることができる。なお、当該チャット画面は、第1待合室310Aに過去に位置した履歴があるアバターに対応するユーザの端末10にのみ表示される。
また、「特定の領域」が第1待合室310A及び仮想会場310Bであり、第1ユーザの第1アバター80A及び他のユーザのアバターが、第1待合室310A及び仮想会場310Bに過去に位置した履歴がある場合には、第1ユーザの第1アバター80Aの現在位置及び他のユーザのアバターの現在位置によらないで、第1ユーザ及び当該他のユーザは同一のチャット画面を介してコミュニケーションを図ることができる。なお、当該チャット画面は、第1待合室310A及び仮想会場310Bに過去に位置した履歴があるアバターに対応するユーザの端末10にのみ表示される。
また、「特定の領域」が第1待合室310A、仮想会場310B、及び、第2待合室310Cであり、第1ユーザの第1アバター80A及び他のユーザのアバターが、第1待合室310A、仮想会場310B、及び、第2待合室310Cに過去に位置した履歴がある場合には、第1ユーザの第1アバター80Aの現在位置及び他のユーザのアバターの現在位置によらないで、第1ユーザ及び当該他のユーザは同一のチャット画面を介してコミュニケーションを図ることができる。なお、当該チャット画面は、第1待合室310A、仮想会場310B、及び、第2待合室310Cに過去に位置した履歴があるアバターに対応するユーザの端末10にのみ表示される。
このようにして、第1ユーザは、過去に、当該第1ユーザの状況と同一又は類似する状況下にあった他のユーザと、チャットを通じて、体感及び/又は経験を共有しやすくなる。また、例えば、「特定の領域」に関連する運営側の主催者とのチャットができるなど特典としての意味をなすことができる。なお、第1待合室310A、仮想会場310B、及び、第2待合室310Cの各々において対応する体験がある場合において、例えば、同一の体験履歴があるユーザの端末10にのみチャット画面が表示されることになる。具体的には例えば、第1待合室310A、仮想会場310B、及び、第2待合室310Cの各々において対応する体験がある場合において、第1待合室310A、仮想会場310B、及び、第2待合室310Cの各々に対応する体験を全て体験したユーザの端末10にのみチャット画面が表示されることになる。こうすることで、複数の領域(位置)をスタンプラリー的に訪れたユーザにだけ主催者側や運営側(マスコットやアイドルなどを含む)とチャットができるというような特別な特典としてチャットを機能させることができ、ユーザによる領域の移動を促進させることができる。
また、ユーザ同士でコミュニケーションを行うために用いられるチャット画面の表示を終了する条件を設けてもよい。例えば、ユーザ同士がチャット画面を通じてコミュニケーションを行っている場合において、以下の(1)~(4)のうち少なくとも何れかを満たした場合に、当該チャット画面を終了してもよい。
(1)アバターが所定の領域外に位置した場合
(2)所定の体験が終了した場合
(3)所定時間が経過した場合
(4)所定の言動を行う
(1)アバターが所定の領域外に位置した場合
(2)所定の体験が終了した場合
(3)所定時間が経過した場合
(4)所定の言動を行う
ここで、「(1)アバターが所定の領域外に位置した場合」とは、例えば、第1アバター80Aが、第1待合室310Aから第1待合室310A以外の領域に位置した場合である。例えば、第1待合室310Aに位置する第1アバター80Aに対応する第1ユーザが、第1待合室310Aに位置する他のアバター80に対応するユーザとチャット画面を通してコミュニケーションを行い、第1待合室310Aに位置する第1アバター80Aが、第1待合室310Aから仮想会場310Bに移動した場合には、第1ユーザの端末10は当該チャット画面の表示を終了する。この場合において、第1アバター80Aに対応するユーザは、第1待合室310Aに位置する他のアバター80に対応するユーザとチャットを行うことはできなくなる。なお、第1待合室310A以外の領域は、仮想会場310Bに限定されない。第1待合室310A以外の領域は、例えば、第1待合室310Aに隣接する他の領域(第1待合室310Aの入口側の領域)であってもよい。
また、「(1)アバターが所定の領域外に位置した場合」とは、例えば、第1アバター80Aが、仮想会場310Bから仮想会場310B以外の領域に位置した場合である。例えば、仮想会場310Bに位置する第1アバター80Aに対応するユーザが、仮想会場310Bに位置する他のアバター80に対応するユーザとチャット画面を通してコミュニケーションを行い、仮想会場310Bに位置する第1アバター80Aが、仮想会場310Bから第2待合室310Cに移動した場合には、第1ユーザの端末10は当該チャット画面の表示を終了する。この場合において、第1アバター80Aに対応する第1ユーザは、仮想会場310Bに位置する他のアバター80に対応するユーザとチャットを行うことはできなくなる。なお、第1待合室310A以外の領域は、第2待合室310Cに限定されない。仮想会場310B以外の領域は、例えば、第1待合室310Aであってもよい。
また、「(1)アバターが所定の領域外に位置した場合」とは、例えば、第1アバター80Aが、第2待合室310Cから第2待合室310C以外の領域に位置した場合である。例えば、第2待合室310Cに位置する第1アバター80Aに対応する第1ユーザが、第2待合室310Cに位置する他のアバター80に対応するユーザとチャット画面を通してコミュニケーションを行い、第2待合室310Cに位置する第1アバター80Aが、第2待合室310Cから第2待合室310Cに隣接する他の領域(第2待合室310Cの出口側の領域)に移動した場合には、第1ユーザの端末10は当該チャット画面の表示を終了する。この場合において、第1アバター80Aに対応するユーザは、第2待合室310Cに位置する他のアバター80に対応するユーザとチャットを行うことはできなくなる。なお、第2待合室310C以外の領域は、第2待合室310Cの出口側の領域に限定されるものではない。第2待合室310C以外の領域は、例えば、仮想会場310Bであってもよい。
また、上述の「(2)所定の体験が終了した場合」は、例えば、表示領域311に表示されるコンテンツを視聴し終わったことを含む。また、当該コンテンツは、例えば、映画である。また、上述の「(3)所定時間経過」に関し、当該所定時間は、任意の期間であってよい。また、上述の「(3)所定時間経過」に関し、所定時間のカウントを開始するタイミングは、例えば、第1ユーザが用いる端末10がチャット画面の表示を開始したタイミングである。また、「(4)所定の言動を行う」は、第1ユーザが端末10を介して入力した文章が否定的な内容である場合において、当該文章がチャット画面に表示されることを指す。なお、上述の「否定的な内容」は、例えば、所定の対象を誹謗中傷する文字である。「(4)所定の言動を行う」は、チャット画面に参加する特定のユーザに向けられてもよいし、チャット画面に参加する特定のユーザ以外に向けられてもよいし、表示領域311に表示されるコンテンツに向けられてもよい。このように「(4)所定の言動を行う」場合にチャット画面の表示を終了することで、以後、チャット画面に参加するユーザのうち所定の言動を行うユーザ以外のユーザに対して不快感を与える可能性を低減することができる。
4.システム1000の動作
図26及び図27を参照してシステム1000の動作について説明する。図26及び図27は、図1に示したシステム1000を用いて行われる動作の一例を示すフローチャートである。
図26及び図27を参照してシステム1000の動作について説明する。図26及び図27は、図1に示したシステム1000を用いて行われる動作の一例を示すフローチャートである。
まず、図26を参照して、S111~S193について順に説明する。
S111において、第1ユーザは第1端末11を操作してアプリケーションを起動する。その後、S121において、第1端末11は第1データを取得する。
ここで、第1データは、例えば、第1ユーザの第1端末11を用いて操作される仮想空間内の第1アバター80Aに関するデータを含む。また、第1データは、ユーザの操作データや操作履歴データであって、例えば、第1ユーザの第1アバター80Aの位置に関するデータを含んでもよい。また、第1データは、例えば、第1ユーザの第1端末11を用いて操作される仮想空間内のアバターの仮想空間内での行動履歴に関するデータを含んでもよい。
S131において、第1端末11は第1判定処理を行う。ここで、第1判定処理は、第1データが、所定の条件(第1条件)を満たすか否かを判定する処理である。S131において、第1端末11が、第1条件を満たしたと判定した場合には、第1端末11の表示部140を制御する制御データを決定し、S141の処理が実行される。一方、S131において、第1端末11が、第1条件を満たしていないと判定した場合には、S131の処理が繰り返される。
S131における第1条件は、例えば、第1アバター80Aが仮想空間300内の所定の位置又は所定の領域内に位置することである。ここで、「所定の領域」とは、例えば、表示領域311を基準として所定の距離以内を指す。なお、S131における第1条件は、ユーザの処理状況(体験状況)に関する条件であってもよい。具体的には、例えば、S131における第1条件は、例えば、所定の処理を行う前(所定の体験をする前)であること、所定の処理を行っている最中(所定の体験を行っている最中)であること、及び、所定の処理を行った後(所定の体験をした後)であること、のうち少なくともいずれかを含む条件であってもよい。S131における第1条件が、ユーザの処理状況(体験状況)に関する条件である場合には、第1判定処理は、ユーザの処理状況(体験状況)に応じた判定を行いうる。
S131において、上述の第1条件を満たす場合に、第1端末11は、例えば、第1アバター80Aの位置データに関するデータをサーバ装置20に送信する。これに応答して、サーバ装置20は、第1アバター80Aの位置データに関するデータに基づいて、他のユーザの端末10から送信されるメッセージを表示する表示領域314に関するデータを第1端末11に送信する。
S141において、第1端末11は第1表示制御処理を行う。ここで、第1表示制御処理は、例えば、第1端末11の表示部140が、表示領域314を表示する処理を指す。
S141の後に、第1端末11は、サーバ装置20に第1データを送信する。なお、S141の前に、第1端末11は、サーバ装置20に第1データを送信してもよい。
S183において、サーバ装置20は、第1データに基づいて分析データを決定する。そして、サーバ装置20は、決定した分析データを機器70に送信する。サーバ装置20は、例えば、第1データを受信する度に、分析データを決定し、決定した分析データを機器70に送信する。
S193において、サーバ装置20は、第1データに基づいて広告データを決定する。なお、当該広告データは、第1データに基づいて決定されるデータであって第1端末11を操作する第1ユーザ向けのデータを含む。S193において、サーバ装置20は、決定した第1ユーザ向けの広告データを第1端末11に送信する。
次に、図27を参照して、S111~S193について順に説明する。
S111において、第1ユーザは第1端末11を操作することでアプリケーションを起動する。その後、S121において、第1端末11は第1データを取得する。
ここで、第1データは、例えば、第1ユーザの第1端末11を用いて操作される仮想空間内の第1アバター80Aに関するデータを含む。また、第1データは、ユーザの操作データや操作履歴データであって、例えば、第1ユーザの第1アバター80Aの位置に関するデータを含んでもよい。また、第1データは、例えば、第1ユーザの第1端末11を用いて操作される仮想空間内のアバターの仮想空間内での行動履歴に関するデータを含んでもよい。
S121の後、第1端末11は当該第1データをサーバ装置20に送信する。
S133において、サーバ装置20は第1判定処理を行う。ここで、第1判定処理は、第1データが、所定の条件(第1条件)を満たすか否かを判定する処理である。S133において、サーバ装置20が、第1条件を満たしたと判定した場合には、第1端末11の表示部140を制御する制御データを決定して当該制御データを第1端末11に送信し、S141の処理が実行される。一方、S131において、第1データが、第1条件を満たしていないと判定した場合には、S131の処理が繰り返される。
S133における第1条件は、例えば、仮想空間300内の所定の位置又は所定の領域内に位置することである。ここで、「所定の領域」とは、例えば、表示領域311を基準として所定の距離以内を指す。
S141において、第1端末11は表示制御処理を行う。ここで、第1表示制御処理は、例えば、第1端末11の表示部140が、表示領域314を表示する処理を指す。
S183において、サーバ装置20は、第1データに基づいて分析データを決定する。そして、サーバ装置20は、決定した分析データを機器70に送信する。サーバ装置20は、例えば、第1データを受信する度に、分析データを決定し、決定した分析データを機器70に送信する。
S193において、サーバ装置20は、第1データに基づいて広告データを決定する。なお、当該広告データは、第1データに基づいて決定されるデータであって第1端末11を操作する第1ユーザ向けのデータを含む。S193において、サーバ装置20は、決定した第1ユーザ向けの広告データを第1端末11に送信する。
また、図26のS193及び図27のS193に関して、アバター80が、所定の運営団体によって開催されるイベントを行う仮想会場310に入場し、仮想会場310において再生される動画を視聴した履歴がある場合には、第1端末11に送信される広告データは、例えば、所定の運営団体が将来開催するイベントに関する案内に関するデータを含みうる。当該データは、テキストデータ、画像データ、及び、動画データ、の少なくともいずれかを含む。
また、図26のS193及び図27のS193に関して、上述した広告データは、例えば、第1データに基づいて決定される広告に関するデータを格納するデータベースにアクセスするURLを含むデータであってもよい。また、上述した広告データは、例えば、既にバッチ処理などでアプリ(アプリケーション)内にダウンロード済であってもよい。この場合には、サーバ装置20は、第1端末11に対して、送信対象のデータに対応するIDに関するデータを送信し、第1端末11は、当該IDに基づいて広告データに関する表示を行ってもよい。
また、図26及び/又は図27の処理において、第1端末11は、第1アバター80A以外の少なくともいずれかのアバター80の位置、及び、第1アバター80A以外のアバター80の総数、のうち少なくともいずれかを含む第2データを受信してもよい。第1端末11は、例えば、サーバ装置20から第2データを受信する。また、第1端末11は、第3条件を満たすか否かを判定し、前記第3条件を満たすと判定された場合に、前記第2データに基づいて、第1端末11の表示部140を制御する第2制御データを決定し、前記第2制御データに基づいて表示部140を制御してもよい。なお、第3条件は、第1アバター80A以外のアバター80の総数が第1値以上である場合、又は、第1アバター80A以外のアバター80の総数が第2値以下である場合、である。ここで、前記第1値は、前記第2値よりも大きい。具体的には、例えば、第1端末11は、第1アバター80A以外のアバター80の総数が第1値以上であるため第3条件を満たす場合に、第1端末11の表示部140は、現在表示している第1アバター80A以外のアバター80の総数よりも少ない数のアバター80を表示する。また、具体的には、例えば、第1端末11は、第1アバター80A以外のアバター80の総数が第2値以下であるため第3条件を満たす場合に、第1端末11の表示部140は、現在表示している第1アバター80A以外のアバター80の総数よりも多い数のアバター80を表示する。
図11は、端末10から送信されるデータの例を示す。図11においては、第1ユーザ、第2ユーザ、及び、第3ユーザの各々が自身の端末10を用いてアバターの操作を行う場合において、サーバ装置20が、各端末10から受信する各種データについて記載されている。ここで、各種データは、例えば、「年齢」、「性別」、「現在位置」、「仮想オブジェクト」、「チャット履歴」、及び、「コンテンツ視聴履歴」、「パーツID」、「簡易アバター」に関するデータである。ここで、「パーツID」は、例えば、アバターを特定するためのデータである。「簡易アバター」は、例えば、男性及び女性を含む性別に応じたパターンのIDに関するデータである。
なお、上述した第1データは、例えば、図11における第1ユーザに関する少なくともいずれかの内容を含みうる。
ここで、上述の「年齢」に関して、図11には、第1ユーザの年齢が21歳であり、第2ユーザの年齢が31歳であり、第3ユーザの年齢が41歳である例が示されている。
また、上述の「性別」に関して、図11には、第1ユーザのアバターの性別が男性であり、第2ユーザのアバターの性別が女性であり、第3ユーザのアバターの性別が男性である例が示されている。
また、上述の「現在位置」に関して、図11には、第1ユーザの操作するアバターが、位置A01に存在し、第2ユーザの操作するアバターが、位置B01に存在し、第3ユーザの操作するアバターが、位置C01に存在する例が示されている。
また、上述の「仮想オブジェクト」に関して、図11には、第1ユーザの操作するアバターが時刻A11において仮想オブジェクトA12を価格A13にて購入し、第2ユーザの操作するアバターが時刻B11において仮想オブジェクトB12を開き、第3ユーザの操作するアバターが時刻C11において仮想オブジェクトC12を取得する例が示されている。仮想オブジェクトB22は、例えば、ドアである。
また、上述の「チャット履歴」に関して、図11には、第1ユーザの端末が、時刻A21に位置A22で第3ユーザの端末にメッセージ「こんにちは」を送信し、第2ユーザは、いずれの他のユーザとのチャット履歴も無く、第3ユーザの端末が、時刻C21に位置C22で第1ユーザの端末からメッセージ「こんにちは」を受信する例が示されている。
また、上述の「コンテンツ視聴履歴」に関して、図11には、第1ユーザのアバターが、時刻A31に位置A32において起立してコンテンツを視聴開始し、第2ユーザのアバターが、時刻B31を位置B32において座席B33でコンテンツを2時間視聴し、第3ユーザのアバターが、時刻C31に位置C32においてコンテンツを視聴終了して座席C33から離席する例が示されている。
なお、上述の「年齢」に関して、ユーザの年齢を示す例について説明したが、これに限定されない。例えば、上述の「年齢」は、ユーザが属する年齢層を示してもよい。例えば、21歳以上30歳以下をカテゴリ1と定義する場合に、第1ユーザの年齢がカテゴリ1に属することを示してもよい。また、例えば、31歳以上40以下がカテゴリ2と定義する場合に、第2ユーザの年齢がカテゴリ2に属することを示してもよい。また、例えば、41歳以上50歳以下がカテゴリ3と定義する場合に、第3ユーザの年齢がカテゴリ3に属することを示してもよい。このようにして、例えば、図26のS183又は図27のS183において分析データを決定して分析データが機器70に送信される場合において、ユーザの具体的な個人情報を機器70に送信しないで年齢に関するデータをマーケティング等に用いることができる。
また、上述の「現在位置」に関して、特定時刻におけるアバターの位置を示す例について説明したが、これに限定されない。例えば、アバターが仮想空間300内を所定期間内に移動した軌跡を示すデータを含んでいてもよい。
また、上述の「チャット履歴」に関して、第1ユーザが、時刻A21に位置A22で第3ユーザの端末にメッセージ「こんにちは」を送信する例を説明したが、当該メッセージの内容は、これに限定されない。また、一のユーザの端末から他のユーザの端末に送信するデータは、テキスト、絵文字、音声メッセージ、画像、及び、動画、のうち少なくともいずれかを含んでもよい。
また、図11に示される第1データは、上述した例に限定されず、「行動履歴」に関するデータを含んでもよい。「行動履歴」に関するデータは、例えば、アバター80が仮想会場310に入場した時刻、アバター80がライブ会場410に入場した時刻、アバター80が仮想会場310から退室した時刻、アバター80がライブ会場410から退室した時刻、アバター80が仮想会場310に滞在した時間、アバター80がライブ会場410に滞在した時間、アバター80が仮想会場310で表示領域311に表示される対象の視聴を開始した時刻、アバター80がライブ会場410で動画の視聴を開始した時刻、アバター80が仮想会場310で表示領域311に表示される対象を視聴した時間(期間)、アバター80がライブ会場410で動画を視聴した時間(期間)、アバター80が仮想会場310で表示領域311に表示される対象の視聴を終了した時刻、アバター80がライブ会場410で動画の視聴を終了した時刻、アバター80が椅子81に着席した時刻、アバター80が椅子81に離席した時刻、アバター80が椅子81に着席してから離席するまでの時間、及び、アバター80が椅子81に着席する場合において椅子81の位置データ、一の端末10を操作するユーザが他の端末10を操作するユーザが操作する端末10から受信したメッセージを含む受信データに関する履歴、及び、一の端末10を操作するユーザが他の端末10を操作するユーザが操作する端末10に送信したメッセージを含む送信データに関する履歴、のうち少なくともいずれかを含んでもよい。
また、サーバ装置20は、図11に記載される内容のうちいずれの内容に関するデータを機器70に送信するかを選択してもよい。例えば、機器70に送信されるデータが、図11に記載されるチャット履歴に関する内容を含む場合において、サーバ装置20は、図11に記載の内容のうち当該チャット履歴に関する内容を除いたデータを機器70に送信してもよい。
また、サーバ装置20は、図11に記載される内容の少なくとも一部を変更したデータを機器70に送信してもよい。例えば、サーバ装置20は、第1ユーザのアバターが位置A01に位置することを示すデータを機器70に送信することに代えて、第1ユーザのアバターが位置A01の近傍に位置することを示すデータを機器70に送信してもよい。
また、機器70及び第2端末12のうち一方から、機器70及び第2端末12のうち他方へのメッセージを含むデータを受信する場合に、当該メッセージを含むデータを他の端末10に送信しなくともよい。このようにして、第2端末12と機器70との間においてやり取りされるデータは、第2端末12以外の端末10以外に送信されることがない。したがって、第2端末12と機器70との間において送信及び受信されるデータが、第2端末12を操作するユーザの個人情報に関するデータを含む場合において、当該個人情報が第2端末12以外の端末10を操作するユーザに知られる可能性を低減することができる。
なお、表示部140が表示領域314を表示してユーザ同士がチャットを行う場合において、当該チャットにおけるユーザIDとアバター80とは、互いに紐づく構成であってもよいし、互いに紐づかない構成であってもよい。
以上のように、本開示によれば、第1ユーザの第1端末11を用いて操作される仮想空間300内の第1アバター80Aが存在する第1位置に関する第1データを取得し、前記第1位置が第1領域内である第1条件を満たすか否かを判定し、前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバター80のうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域314に関するデータを受信し、表示領域314を第1端末11の表示部140に表示する。このため、複数のユーザの各々は、自身が有する端末10の表示部140が表示する表示領域314を介して、自身と関連性の高いユーザとのコミュニケーションを図ることができる。したがって、従来よりも特定のユーザ同士のコミュニケーションを促進することができる。
5.変形例
なお、図26においては、サーバ装置20が、S141の後に、S183及びS193の処理を行う例について説明したが、これに限定されない。例えば、サーバ装置20が、S131の前に、第1端末11から第1データを受信してもよい。これにより、サーバ装置20が、S131の前にS183の処理を行い、分析データを機器70に送信してもよい。また、例えば、サーバ装置20が、S131の前にS193の処理を行い、広告データを第1端末11に送信してもよい。このようにして、サーバ装置20は、第1データを受信したタイミングと、受信した第1データに基づいて決定される分析データを機器70に送信するタイミングと、の時間を小さくすることができる。また、第1端末11、サーバ装置20、及び、機器70の各々の処理が、図26、図27のように同一のフローチャート上で一連の一つのフローとして行われるものに限定されず、第1端末11、サーバ装置20、及び、機器70の各々の処理が、同時並行的に別のステップとして行われてもよい。図26のS183及びS193における処理が、図26に記載のS183及びS193以外の処理と同時並行的に行われてもよい。図27のS183及びS193における処理が、図27に記載のS183及びS193以外の処理と同時並行的に行われてもよい。例えば、第1ユーザが第1アバター80Aを移動させて対象を表示する操作を行う度に、図26又は図27のS183及びS193の処理が一連の動作として行われなくともよいし、第1ユーザが第1アバター80Aを移動させる操作を行う度に、図26又は図27のS183及びS193の処理が一連の動作として行われなくともよい。
また、図14に示されるように、図3に示される端末10以外に、第1センサ102a、第2センサ102b、カメラ102c、及び、マイクロフォン102dが設けられていてもよい。図14は、図3に示される端末10及び端末10に接続される構成の一例を示すブロック図である。ここで、端末10と、第1センサ102a、第2センサ102b、カメラ102c、及び、マイクロフォン102dの各々と、は、例えば、有線又は無線で接続される。
第1センサ102aは、例えば、有線又は無線で、カメラ102cと接続される。カメラ102cは、例えば、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。カメラ102cは、例えば、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラに含まれたものを用いることが可能である。第2センサ102bは、例えば、有線又は無線で、マイクロフォン102dに接続される。なお、第1センサ102a及びカメラ102cが一の構成としても設けられていてもよい。また、第2センサ102b及びマイクロフォン102dが一の構成としても設けられていてもよい。
このようにして、端末10は、カメラ102cにより撮像された画像をサーバ装置20に送信してもよい。また、第1端末11は、マイクロフォン102dに入力された音声データをサーバ装置20に送信してもよい。また、第1端末11は、カメラ102c及びマイクロフォン102dを用いた動画データをサーバ装置20に送信してもよい。
図15は、トークンを送信及び使用して計算環境においてビデオをレンダリングすることを含む、本明細書において説明される実施形態、技法、及び、技術が実装されうる適切な計算環境1400の一般化された例を示す。 例えば、計算環境1400は、本明細書で記載されるように、端末装置、又は、配信サーバシステムなどのうちいずれかを実装することができる。
技術が、多様である汎用又は専用の計算環境で実装されうるため、計算環境1400は、技術の使用又は機能の範囲に関していかなる制限を示唆することを意図しない。例えば、本明細書において開示された技術は、様々な携帯用の装置、様々なマルチプロセッサシステム、様々なマイクロプロセッサベース又はプログラム可能な家庭用電化製品、様々なネットワークPC、様々なミニコンピュータ、様々なメインフレームコンピュータ、などを含む、他の様々なコンピュータシステム構成で実装されてもよい。本明細書において開示される技術は、通信ネットワークを通じてリンクされる遠隔処理装置によってタスクが実行される分散計算環境で実施されてもよい。分散計算環境においては、プログラムモジュールはローカル及びリモートの両方のメモリストレージ装置に配置されてもよい。
図15を参照して、計算環境1400は、少なくとも1つの中央処理装置1410及びメモリ1420を含む。図15では、この最も基本的な構成1430は、破線内に含まれている。中央処理装置1410は、コンピュータにより実行可能な命令を実行し、中央処理装置1410は、実プロセッサ又は仮想プロセッサであってもよい。マルチプロセッシングシステムでは、複数のプロセッシングユニットが、コンピュータにより実行可能な命令を実行して処理力を向上させるため、複数のプロセッサは、同時に稼働できる。メモリ1420は、揮発性メモリ(例えば、レジスタ、キャッシュ、RAM)、不揮発性メモリ(例えば、ROM、EEPROM、フラッシュメモリ等)、又は、これら2つの幾つかの組み合わせであってもよい。メモリ1420は、例えば、本明細書に記載の技術を実装することができる、ソフトウェア1480、様々な画像、及び、ビデオを格納する。計算環境は、追加の様々な機能を有していいてもよい。例えば、計算環境1400は、ストレージ1440、1又は複数の入力装置1450、1又は複数の出力装置1460、及び、1又は複数の通信接続1470を含む。バス、コントローラ、又は、ネットワーク、などの相互接続機構(図示なし)は、計算環境1400の様々なコンポーネントを相互接続する。通常、オペレーティングシステムソフトウェア(図示なし)は、計算環境1400で実行される他のソフトウェア用にオペレーティング環境を提供し、及び、計算環境1400の様々なコンポーネントの様々なアクティビティを調整する。
ストレージ1440は、脱着可能であってもよいし、あるいは、脱着可能でなくてもよく、磁気ディスク、磁気テープ若しくはカセット、CD-ROM、CD-RW、DVD、又は、データを記憶するために用いられ且つ計算環境1400内にアクセスされうる他のいかなる媒体を含む。 ストレージ1440は、本明細書で記載される技術を実装するために用いられうる、ソフトウェア1480、プラグインデータ、及び、メッセージ、のための命令を格納する。
1又は複数の入力装置1450は、キーボード、キーパッド、マウス、タッチスクリーンディスプレイ、ペン、若しくは、トラックボールなどのタッチ入力装置、音声入力装置、走査装置、又は、計算環境1400に入力を提供する別の装置、であってもよい。オーディオの場合、1又は複数の入力装置1450は、アナログ若しくはデジタル形式のオーディオ入力を受け入れるサウンドカード若しくは類似の装置、又は、様々なオーディオサンプルを計算環境1400に提供するCD-ROMリーダーであってもよい。1又は複数の出力装置1460は、ディスプレイ、プリンタ、スピーカ、CDライタ、又は、計算環境1400からの出力を提供する別の装置であってもよい。
1又は複数の通信接続1470は、通信媒体(例えば、接続ネットワーク)を介して別の計算エンティティへの通信を可能にする。通信媒体は、コンピュータにより実行可能な命令、圧縮グラフィックスデータ、ビデオ、又は、変調データ信号に含まれる他のデータ、などのデータを伝達する。1又は複数の通信接続1470は、有線接続(例えば、メガビット若しくはギガビットイーサネット、インフィニバンド、又は、電気若しくは光ファイバー接続を介したファイバーチャネル)に限定されず、無線技術(例えば、Bluetooth、WiFi(IEEE 802.11a/b/n)、WiMax、セルラー、衛星、レーザー、赤外線、経由のRF接続)、並びに、本明細書において開示された様々なエージェント、様々なブリッジ、及び、宛先エージェントの様々なデータコンシューマ、にネットワーク接続を提供するための他の適切な様々な通信接続を含む。仮想ホスト環境においては、1又は複数の通信接続は、仮想ホストによって提供される仮想化されたネットワーク接続であってもよい。
本明細書において開示された様々な方法の様々な実施形態は、計算クラウド1490において、本明細書において開示された技術の全て又は一部を実装するコンピュータにより実行可能な複数の命令を用いて実行されうる。例えば、様々なエージェントは、計算環境において様々な脆弱性スキャン機能を実行可能である一方、エージェントプラットフォーム(例えば、ブリッジ)、及び、宛先エージェントデータのコンシューマサービスは、計算クラウド1490の内部に位置する様々なサーバで実行可能である。
コンピュータにより読み取り可能な媒体は、計算環境1400内でアクセスされうる任意の利用可能な媒体である。限定されず、一例として、計算環境1400に関して、コンピュータにより読み取り可能な媒体は、メモリ1420及び/又はストレージ1440を含む。容易に理解されるように、コンピュータにより読み取り可能な媒体という用語は、メモリ1420及び記憶装置1440などのデータ記憶用の媒体を含み、変調された様々なデータ信号などの伝送媒体を含まない。
上述した様々な実施形態は、矛盾又は不都合が生じない限りにおいて相互に組み合わせて用いることが可能である。本明細書に開示された発明の原理が適用され得る多くの可能な実施形態を考慮すれば、例示された様々な実施形態は好ましい様々な例に過ぎず、特許請求の範囲に係る発明の技術的範囲をこれらの好ましい様々な例に限定すると考えるべきではない、と理解されたい。実際には、特許請求の範囲に係る発明の技術的範囲は、添付した特許請求の範囲により定められる。したがって、特許請求の範囲に記載された発明の技術的範囲に属するすべてについて、本発明者らの発明として、特許の付与を請求する。
第74の態様によるコンピュータプログラムは、「少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、第1ユーザの第1端末を用いて操作される仮想空間内の第1アバターが存在する第1位置に関する第1データを取得し、前記第1位置が第1領域内である第1条件を満たすか否かを判定し、前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域に関するデータを受信し、前記表示領域を前記第1端末の表示部に表示する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
第75の態様によるコンピュータプログラムは、「少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、通信回線を介して、仮想空間内の第1アバターを操作する第1ユーザの第1端末から、前記第1アバターが存在する第1位置に関する第1データを受信し、前記第1位置が第1領域内である第1条件を満たすか否かを判定し、前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域を決定し、前記通信回線を介して、前記表示領域を前記端末の表示部に表示するように前記表示部を制御する制御データを前記第1端末に送信する、ように前記少なくとも一のプロセッサを機能させる、」ことを特徴とする。
第76の態様によるコンピュータプログラムは、上述の第74の態様又は第75の態様において、「前記表示部は、前記少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを前記表示領域に表示する、」ことを特徴とする。
第77の態様によるコンピュータプログラムは、上述の第74~第76のいずれかの態様において「前記表示部は、前記第1端末から送信されるメッセージを前記表示領域に表示する、」ことを特徴とする。
第78の態様によるコンピュータプログラムは、上述の第77の態様において「前記第1端末から送信されるメッセージは、前記少なくともいずれかのアバターを操作するユーザの端末に送信される、」ことを特徴とする。
第79の態様によるコンピュータプログラムは、上述の第74~第78のいずれかの態様において「前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられ、前記第1領域は、前記少なくとも一の仮想会場のうちいずれかの仮想会場内の領域である、
」ことを特徴とする。
」ことを特徴とする。
第80の態様によるコンピュータプログラムは、第74~第78のいずれかの態様において、「前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられ、前記第1領域は、前記少なくとも一の仮想会場のうち第1仮想会場の入口側に位置し且つ前記第1仮想会場とは異なる前記仮想空間内の領域、又は、前記少なくとも一の仮想会場のうち第1仮想会場の出口側に位置し且つ前記第1仮想会場とは異なる前記仮想空間内の領域、である、」ことを特徴とする。
第81の態様によるコンピュータプログラムは、上述の第80の態様において「第2条件を満たしたか否かを判定し、前記第2条件を満たした場合で且つ前記第1アバターが前記第1仮想会場及び前記第1領域のうち一方から前記一の仮想会場及び前記第1領域のうち他方に向かう所定の動作を行った場合に、前記表示部は、前記他方に関連する表示画面を表示する、」ことを特徴とする。
第82の態様によるコンピュータプログラムは、上述の第81の態様において、「前記第2条件は、前記第1アバターが前記第1仮想会場に存在する状態で前記動画が所定時間以上再生されて終了したこと、前記第1アバターが着席可能な仮想オブジェクトに着席して前記仮想オブジェクトから離席したこと、及び、前記第1アバターが前記仮想空間内で購入可能な仮想オブジェクトを有すること、のうち少なくともいずれかを含む、」ことを特徴とする。
第83の態様によるコンピュータプログラムは、上述の第74~第82のいずれかの態様において、「前記表示部は、前記ユーザの端末から前記メッセージが送信される場合に、前記ユーザが操作するアバターの周囲に前記メッセージを表示する、」ことを特徴とする。
第84の態様によるコンピュータプログラムは、上述の第74~第83のいずれかの態様において「前記第1データは、前記第1アバターが存在する第1位置に関するデータ、及び、前記第1端末の操作を用いて一の仮想オブジェクトに対して行われた所定の操作に関するデータ、を含み、前記第1条件は、前記第1位置が第1領域内であること、且つ、第1領域内に存在し又は前記第1領域内に過去に存在した前記少なくともいずれかのアバターを操作するユーザが端末を用いて前記一の仮想オブジェクトに対して所定の操作を行うこと、であり、前記表示領域は、前記少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域である、」ことを特徴とする。
第85の態様によるコンピュータプログラムは、上述の第74~第84のいずれかの態様において、「前記少なくともいずれかのアバターの前記仮想空間内における動作は、予め決定されている、」ことを特徴とする。
第86の態様によるコンピュータプログラムは、上述の第74又は第74に従属する第76~第85のいずれかの態様において「前記他の少なくともいずれかのアバターの位置、及び、前記他の少なくともいずれかのアバターの総数、のうち少なくともいずれかを含む第2データを受信し、第3条件を満たすか否かを判定し、前記第3条件を満たすと判定された場合に、前記第2データに基づいて、前記第1ユーザの端末の表示部を制御する第2制御データを決定し、前記第2制御データに基づいて前記表示部を制御する、」ことを特徴とする。
第87の態様によるコンピュータプログラムは、上述の第75又は第75に従属する第76~第85のいずれかの態様において、「前記他の少なくともいずれかのアバターの位置、及び、前記他の少なくともいずれかのアバターの総数、のうち少なくともいずれかを含む第2データを受信し、第3条件を満たすか否かを判定し、前記第3条件を満たすと判定された場合に、前記第2データに基づいて、前記第1ユーザの端末の表示部を制御する第2制御データを決定し、前記第2制御データを前記第1端末に送信する、」ことを特徴とする。
第88の態様によるコンピュータプログラムは、上述の第86又は第87の態様において、「前記第3条件は、前記他の少なくとも一のアバターの総数が第1値以上である場合、又は、前記他の少なくとも一のアバターの総数が第2値以下である場合、であり、前記第1値は、前記第2値よりも大きい、」ことを特徴とする。
第89の態様によるコンピュータプログラムは、上述の第74~第88のいずれかの態様において、「前記仮想空間は3次元空間である、」ことを特徴とする。
第90の態様によるコンピュータプログラムは、上述の第74~第89のいずれかの態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第91の態様によるコンピュータプログラムは、上述の第74~第90のいずれかの態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、前記通信回線がインターネットを含む、」ことを特徴とする。
第92の態様によるコンピュータプログラムは、上述の第74~第91のいずれかの態様において、「前記少なくとも1つのプロセッサが、サーバ装置、スマートフォン、タブレット、携帯電話、または、パーソナルコンピュータに搭載される、」ことを特徴とする。
第93の態様による方法は、「第1ユーザの第1端末を用いて操作される仮想空間内の第1アバターが存在する第1位置に関する第1データを取得する工程と、前記第1位置が第1領域内である第1条件を満たすか否かを判定する工程と、前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域に関するデータを受信する工程と、前記表示領域を前記第1端末の表示部に表示する工程と、を含む、」ことを特徴とする。
第94の態様による方法は、「通信回線を介して、仮想空間内の第1アバターを操作する第1ユーザの第1端末から、前記第1アバターが存在する第1位置に関する第1データを受信する工程と、前記第1位置が第1領域内である第1条件を満たすか否かを判定する工程と、前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域を決定する工程と、前記通信回線を介して、前記表示領域を前記端末の表示部に表示するように前記表示部を制御する制御データを前記第1端末に送信する工程と、を含む、」ことを特徴とする。
第95の態様による方法は、上述の第93又は第94の態様において「前記通信回線がインターネットを含む、」ことを特徴とする。
第96の態様による方法は、上述の第93~第95のいずれかの態様において、「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、」ことを特徴とする。
第97の態様によるサーバは、「通信回線を介して、仮想空間内の第1アバターを操作する第1ユーザの第1端末から、前記第1アバターが存在する第1位置に関する第1データを受信し、前記第1位置が第1領域内である第1条件を満たすか否かを判定し、前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域を決定し、前記通信回線を介して、前記表示領域を前記端末の表示部に表示するように前記表示部を制御する制御データを前記第1端末に送信する、」ことを特徴とする。
第98の態様によるサーバは、上述の第97の態様において、「前記通信回線がインターネットを含む、」ことを特徴とする。
第99の態様によるサーバは、上述の第97又は第98のいずれかの態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、」ことを特徴とする。
このように、本開示の技術は、従来よりも快適性が損なわれないようにするコンピュータプログラム、方法、及び、サーバ装置を提供することができる。
本出願は、以下の3つの日本国特許出願に基づき、これらの日本国特許出願による優先権の利益を享受する。これらの日本国特許出願の全体の内容が引用により本明細書に組み入れられる。
(1)「コンピュータプログラム、方法、及び、サーバ装置」と題して2020年11月19日に提出された日本国特許出願第2020-192452
(2)「コンピュータプログラム、方法、及び、サーバ装置」と題して2020年12月21日に提出された日本国特許出願第2020-211293
(3)「コンピュータプログラム、方法、及び、サーバ」と題して2021年1月29日に提出された日本国特許出願第2021-013627
(1)「コンピュータプログラム、方法、及び、サーバ装置」と題して2020年11月19日に提出された日本国特許出願第2020-192452
(2)「コンピュータプログラム、方法、及び、サーバ装置」と題して2020年12月21日に提出された日本国特許出願第2020-211293
(3)「コンピュータプログラム、方法、及び、サーバ」と題して2021年1月29日に提出された日本国特許出願第2021-013627
2 通信網
10 端末
11 第1端末
12 第2端末
14、24 中央処理装置
15、25 主記憶装置
16、26 入出力インターフェース
17、27 入力装置
18、28 補助記憶装置
19、29 出力装置
20 サーバ装置
21 第1サーバシステム
21A1 配信サーバ装置
21A2 サーバ記憶装置
22 第2サーバシステム
70 機器
80、80A、313 アバター
81 椅子
102a 第1センサ
102b 第2センサ
102c カメラ
102d マイクロフォン
104 処理部
110 通信部
120 取得部
130 制御部
140 表示部
150 ユーザインターフェース部
160 記憶部
210 通信部
220 記憶部
230 制御部
300 仮想空間
301、314 領域
310 仮想会場
311、312 表示領域
321 点
322 線分
410 ライブ会場
411 表示領域
1000 システム
1400 計算環境
1410 処理ユニット
1420 メモリ
1430 構成
1440 ストレージ
1450 入力装置
1460 出力装置
1470 通信接続
1480 ソフトウェア指示
1490 計算クラウド
10 端末
11 第1端末
12 第2端末
14、24 中央処理装置
15、25 主記憶装置
16、26 入出力インターフェース
17、27 入力装置
18、28 補助記憶装置
19、29 出力装置
20 サーバ装置
21 第1サーバシステム
21A1 配信サーバ装置
21A2 サーバ記憶装置
22 第2サーバシステム
70 機器
80、80A、313 アバター
81 椅子
102a 第1センサ
102b 第2センサ
102c カメラ
102d マイクロフォン
104 処理部
110 通信部
120 取得部
130 制御部
140 表示部
150 ユーザインターフェース部
160 記憶部
210 通信部
220 記憶部
230 制御部
300 仮想空間
301、314 領域
310 仮想会場
311、312 表示領域
321 点
322 線分
410 ライブ会場
411 表示領域
1000 システム
1400 計算環境
1410 処理ユニット
1420 メモリ
1430 構成
1440 ストレージ
1450 入力装置
1460 出力装置
1470 通信接続
1480 ソフトウェア指示
1490 計算クラウド
Claims (99)
- 少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、
第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、
通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、
前記第1データは、前記第1ユーザのアバターの位置を含み、
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、
前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、
前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、
前記制御データに基づいて前記表示画面を制御する、ように前記少なくとも一のプロセッサを機能させる、
コンピュータプログラム。 - 少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、
通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、
前記第1データは、前記第1ユーザのアバターの位置を含み、
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、
前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、
前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、
前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する、ように前記少なくとも一のプロセッサを機能させる、
コンピュータプログラム。 - 前記制御データは、前記第2データに含まれる前記アバターの位置に基づいて決定される前記表示画面に表示する前記少なくとも一のユーザのアバターの位置、及び、前記第2データに含まれる前記アバターの総数に基づいて決定される前記表示画面に表示する前記少なくとも一のユーザのアバターの総数、のうち少なくともいずれかに関するデータを含む、
請求項1又は請求項2に記載のコンピュータプログラム。 - 前記所定の条件は、
前記第1ユーザのアバターが前記第1領域に位置する場合、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が第1値以上である場合、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が第2値以下である場合、前記少なくとも一のユーザのアバターのうち前記第1領域に位置する一のアバターから第1距離以内に位置するアバターの数が第3値以上である場合、及び、前記少なくとも一のユーザのアバターのうち前記第1領域に位置する一のアバターから前記第1距離以内に位置するアバターの数が第4値以下である場合、の少なくともいずれかであり、
前記第1値は、前記第2値よりも大きく、前記第3値は、前記第4値よりも大きい、
請求項1~請求項3のいずれか一項に記載のコンピュータプログラム。 - 前記第2データは、
前記少なくとも一のユーザのアバターの性別に関するデータを含む、
請求項1~請求項4のいずれか一項に記載のコンピュータプログラム。 - 前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられ、
前記第1領域は、前記少なくとも一の仮想会場のうちいずれかの仮想会場内の領域である、
請求項1~請求項5のいずれか一項に記載のコンピュータプログラム。 - 前記第2データが、前記少なくとも一のユーザのアバターの位置に関するデータを含む場合において、前記少なくとも一のユーザのアバターの位置は、前記仮想会場内における位置を示し、
前記制御データに含まれる、前記少なくとも一のユーザのアバターの前記位置は、前記仮想会場内の位置である、
請求項6に記載のコンピュータプログラム。 - 前記第1ユーザのアバター及び第2ユーザのアバターの生成に用いられるモジュールデータを記憶する、
請求項1または請求項1に従属する請求項3~請求項7のいずれか一項に記載のコンピュータプログラム。 - 前記第1ユーザの端末に対して前記少なくとも一のユーザのアバターの生成を要求するデータを前記第1ユーザの端末に送信する、
請求項2又は請求項2に従属する請求項3~請求項7のいずれか一項に記載のコンピュータプログラム。 - 前記第1データ及び前記第2データのうち少なくともいずれかは、
前記アバターの前記仮想空間内における行動履歴に関するデータ、及び、前記アバターを操作するユーザのデータ、のうち少なくともいずれかを含む、
請求項1~請求項9のいずれか一項に記載のコンピュータプログラム。 - 前記行動履歴に関するデータは、
前記アバターの前記動画を視聴する視聴履歴に関するデータ、前記アバターの前記動画の視聴時間に関するデータ、前記アバターの前記仮想会場への入場履歴に関するデータ、前記アバターの前記仮想会場での滞在時間に関するデータ、前記アバターの前記仮想会場からの退場履歴に関するデータ、前記アバターから前記仮想空間内に存在する仮想オブジェクトに対する作用履歴に関するデータ、前記第1ユーザの端末及び前記少なくとも一のユーザの端末のうち一方から前記第1ユーザの端末及び前記少なくとも一のユーザの端末のうち他方に対するメッセ―ジを送信する場合における前記メッセージが送信される端末の位置に関するデータ、前記仮想オブジェクトの購入履歴に関するデータ、及び、前記仮想オブジェクトが着席可能で且つ前記アバターが前記仮想オブジェクトに着席する場合における前記仮想オブジェクトの位置に関するデータ、のうち少なくともいずれかを含む、
請求項6に従属する請求項10に記載のコンピュータプログラム。 - 前記第1データ及び前記第2データのうち少なくともいずれかは、前記第1ユーザの端末及び前記少なくとも一のユーザの端末以外の第3端末に送信される、
請求項1~請求項11のいずれか一項に記載のコンピュータプログラム。 - 前記第1データ及び前記第2データのうち少なくともいずれかを受信したか否かを判定し、前記第1データ及び前記第2データのうち少なくともいずれかを受信した場合に、受信した前記第1データ及び前記第2データのうち少なくともいずれかが、前記第3端末に送信される、
請求項12に記載のコンピュータプログラム。 - 前記第1データを受信する周期は、前記制御データが決定される周期よりも短い、
請求項12又は請求項13に記載のコンピュータプログラム。 - 前記第3端末は、前記仮想会場を運営する運営者又は運営団体によって操作される端末である、
請求項12~請求項14のいずれか一項に記載のコンピュータプログラム。 - 前記第1データに基づいて決定される広告に関する第3データが、前記第1ユーザの端末に送信される、及び/又は、前記第2データに基づいて決定される広告に関する第4データが、前記少なくとも一のユーザの端末に送信される、
請求項1~請求項15のいずれか一項に記載のコンピュータプログラム。 - 前記第1データに基づいて決定される広告に関する第3データを格納するデータベースにアクセスするURLを含むデータが、前記第1ユーザの端末に送信される、及び/又は、前記第2データに基づいて決定される広告に関する第4データを格納するデータベースにアクセスするURLを含むデータが、前記少なくとも一のユーザの端末に送信される、
請求項1~請求項15のいずれか一項に記載のコンピュータプログラム。 - 前記第1ユーザのアバター及び前記少なくとも一のユーザのアバターが所定時刻において前記仮想空間内に存在する場合で且つ前記少なくとも一のユーザのアバターのいずれかに対応するユーザの端末から送信される第1メッセージを含むデータを受信する場合に、前記第1ユーザの端末の表示画面内の第1表示領域に前記仮想空間を表示し且つ前記第1表示領域内に前記第1メッセージを表示する、
請求項1、請求項1に従属する請求項3~8のいずれか一項、又は、請求項1に従属する請求項10~請求項17のいずれか一項、に記載のコンピュータプログラム。 - 前記第1ユーザのアバター及び前記少なくとも一のユーザのアバターが所定時刻において前記仮想空間内に存在する場合で且つ前記少なくとも一のユーザのアバターのいずれかに対応するユーザの端末から送信される第1メッセージを含むデータを受信する場合に、前記第1ユーザの端末の表示画面内の第1表示領域に前記仮想空間を表示し且つ前記第1表示領域内に前記第1メッセージを表示させるデータを送信する、
請求項2、請求項2に従属する請求項3~請求項7のいずれか一項、又は、請求項2に従属する請求項9~請求項17のいずれか一項、に記載のコンピュータプログラム。 - 前記第3端末、及び、前記少なくとも一のユーザの端末、のうち一方から、前記第3端末、及び、前記少なくとも一のユーザの端末、のうち他方への第3メッセージを含むデータを受信する場合に、前記第3メッセージを含むデータを前記第1ユーザの端末に送信しない、
請求項19に記載のコンピュータプログラム。 - 前記第2データは、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数に関するデータを含み、
前記所定の条件は、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第1値以上である場合、及び、前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第2値以下である場合、のいずれかであり、
複数の時刻の各々の時刻における前記第2データを記憶し、
第1時刻において前記所定の条件を満たすと判定された場合に、前記複数の時刻のうち第2時刻から前記第1時刻までの期間における前記総数の累計を決定し、前記決定に基づいて前記制御データを決定する、
請求項4又は請求項4に従属する請求項5~請求項20のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第1値以上である場合には、前記累計を決定するための対象となる期間が短くなるように前記第2時刻を決定し、
前記少なくとも一のユーザのアバターのうち前記第1領域に位置するアバターの総数が前記第2値以下である場合には、前記累計を決定するための対象となる期間が長くなるように前記第2時刻を決定する、
請求項21に記載のコンピュータプログラム。 - 前記仮想空間は3次元空間である、
請求項1~請求項22のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも一のユーザのアバターの前記仮想空間内における動作は、予め決定されている、
請求項1~請求項23のいずれか一項に記載のコンピュータプログラム。 - 前記通信回線がインターネットを含む、
請求項1~請求項24のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項1~請求項25のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、サーバ装置、スマートフォン、タブレット、携帯電話、または、パーソナルコンピュータに搭載される、
請求項1~請求項26のいずれか一項に記載のコンピュータプログラム。 - 第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データを取得する工程と、
通信回線を介して、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信する工程と、
前記第1データは、前記第1ユーザのアバターの位置を含み、
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、
前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定する工程と、
前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定する工程と、
前記制御データに基づいて前記表示画面を制御する工程と、を含む、
方法。 - 通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信する工程と、
前記第1データは、前記第1ユーザのアバターの位置を含み、
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、
前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定する工程と、
前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定する工程と、
前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する工程と、を含む、
方法。 - 前記通信回線がインターネットを含む、
請求項28又は請求項29に記載の方法。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項28~請求項30のいずれか一項に記載の方法。 - 通信回線を介して、第1ユーザの端末を用いて操作される仮想空間内のアバターに関する第1データ、及び、前記第1ユーザ以外の少なくとも一のユーザの各々のユーザの端末を用いて操作される仮想空間内のアバターに関する第2データを受信し、
前記第1データは、前記第1ユーザのアバターの位置を含み、
前記第2データは、前記少なくとも一のユーザのアバターの位置、及び、前記少なくとも一のユーザのアバターのうち前記仮想空間内の第1領域に位置するアバターの総数、のうち少なくともいずれかを含み、
前記第1ユーザのアバターの位置、または、前記第2データが、所定の条件を満たすか否かを判定し、
前記所定の条件を満たすと判定された場合に、前記第1ユーザの端末の表示画面を制御する制御データを決定し、前記通信回線を介して前記制御データを前記第1ユーザの端末に送信する、
サーバ装置。 - 前記通信回線がインターネットを含む、
請求項32に記載のサーバ装置。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項32又は請求項33に記載のサーバ装置。 - 少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、
第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、
前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示し、
前記第1データに基づいて、第1条件を満たすか否かを判定し、
前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する、ように前記少なくとも一のプロセッサを機能させる、
コンピュータプログラム。 - 少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、
通信回線を介して、第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを受信し、
前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示させるように前記表示部を制御する第1制御データを決定し、
前記通信回線を介して前記第1制御データを前記第1端末に送信し、
前記第1制御データを前記第1端末に送信した後に、前記第1データに基づいて、第1条件を満たすか否かを判定し、
前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第2制御データを決定し、
前記通信回線を介して前記第2制御データを前記第1端末に送信する、ように前記少なくとも一のプロセッサを機能させる、
コンピュータプログラム。 - 前記第1条件は、
前記第1データが、前記第1位置を含む領域の一部を選択する操作データを含むこと、前記第1データが、前記表示部に表示される一の対象を選択する操作データを含むこと、又は、前記第1データが、前記アバターが第1領域内に存在することを示すデータを含むこと、である、
請求項35又は請求項36に記載のコンピュータプログラム。 - 前記第2表示は、前記アバターを含まない、
請求項35~請求項37のいずれか一項に記載のコンピュータプログラム。 - 前記第1条件は、
前記第1データが前記表示部に表示される一の対象を選択する操作データを含むことであり、
前記対象は、
前記アバターが着席可能な仮想オブジェクトである、
請求項37又は請求項38に記載のコンピュータプログラム。 - 前記第1条件は、
前記第1データが前記表示部に表示される一の対象を選択する操作データを含むことであり、
前記対象は、
前記第1表示とは別に前記表示部に表示される表示である、
請求項37又は請求項38に記載のコンピュータプログラム。 - 前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられる、
請求項35~請求項40のいずれか一項に記載のコンピュータプログラム。 - 前記第1条件は、
前記第1データが前記表示部に表示される一の対象を選択する操作データを含むことであり、
前記対象は、前記動画である、
請求項37に従属する請求項41、又は、請求項38に従属する請求項41に記載のコンピュータプログラム。 - 前記第1条件は、
前記第1データが、前記アバターが前記第1領域内に存在することを示すデータを含むことであり、
前記第1領域は、前記少なくとも一の仮想会場のうちいずれかの仮想会場内の領域である、
請求項37に従属する請求項41、又は、請求項38に従属する請求項41に記載のコンピュータプログラム。 - 前記第2表示は、
前記第1表示の一部が前記表示部に占める割合を大きくなるように前記第1表示の一部を拡大した表示である、
請求項35~請求項43のいずれか一項に記載のコンピュータプログラム。 - 前記第1条件を満たす場合に、前記仮想空間内に存在する仮想オブジェクトに対応する表示を前記表示部の全領域に表示する、
請求項35~43のいずれか一項に記載のコンピュータプログラム。 - 前記第1表示が、前記アバターの移動の指示に用いられる操作可能な仮想オブジェクトを表示する場合において、前記第1条件を満たすと判定された場合に、前記第2表示は、操作可能な前記仮想オブジェクトを表示しない、
請求項35~45のいずれか一項に記載のコンピュータプログラム。 - 前記第1表示が、前記第1端末を含む少なくとも一の端末のうちいずれかの端末から送信されるメッセージを表示する表示領域を表示する場合において、前記第1条件を満たすと判定された場合に、前記第2表示は、前記表示領域を表示しない、
請求項35~45のいずれか一項に記載のコンピュータプログラム。 - 前記第1表示が、前記第1端末を含む少なくとも一の端末のうちいずれかの端末から送信されるメッセージを表示する表示領域を表示する場合において、前記第1条件を満たすと判定された場合に、前記第2表示は、前記表示領域を表示せず且つ前記表示領域の表示に用いられるアイコンを表示し、前記アイコンは、操作されることで前記表示領域を表示させる、
請求項35~45のいずれか一項に記載のコンピュータプログラム。 - 前記第2表示が前記表示部に表示されている場合において、前記アバターの移動に関する操作入力を受け付けない、
請求項35~48のいずれか一項に記載のコンピュータプログラム。 - 前記第2表示が前記表示部に表示されている場合において、前記アバターの移動に関する入力を取得した場合には、前記第2表示から前記第1表示に表示を切り替えるように前記表示部を制御する、
請求項35又は請求項35に従属する請求項37~請求項48のいずれか一項に記載のコンピュータプログラム。 - 前記通信回線を介して前記第2制御データを前記第1端末に送信した後に、前記第1端末から前記アバターの移動に関する入力を取得した場合には、前記第2表示から前記第1表示に表示を切り替えるように前記表示部を制御する第3制御データを決定し、
前記通信回線を介して前記第3制御データを前記第1端末に送信する、ように前記少なくとも一のプロセッサを機能させる、
請求項36又は請求項36に従属する請求項37~請求項48のいずれか一項に記載のコンピュータプログラム。 - 前記第2表示が前記表示部に表示されている場合において前記アバターの移動に関する入力を取得した場合には、前記第2表示から切り替えられて前記表示部に表示される前記第1表示は、操作可能な前記仮想オブジェクトを表示する、
請求項46に従属する請求項50、又は、請求項46に従属する請求項51に記載のコンピュータプログラム。 - 前記第2表示が前記表示部に表示されている場合において前記アバターの移動に関する入力を取得した場合には、前記第2表示から切り替えられて前記表示部に表示される前記第1表示は、前記表示領域を表示する、
請求項47に従属する請求項50、又は、請求項47に従属する請求項51に記載のコンピュータプログラム。 - 前記第2表示が前記表示部に表示されている場合において前記アバターの移動に関する入力を取得した場合には、前記第2表示から切り替えられて前記表示部に表示される前記第1表示は、前記表示領域を表示し且つ前記アイコンを表示しない、
請求項48に従属する請求項50、又は、請求項48に従属する請求項51に記載のコンピュータプログラム。 - 前記第1データは、
前記アバターの前記仮想空間内における行動履歴に関するデータ、及び、前記アバターを操作するユーザのデータ、のうち少なくともいずれかを含む、
請求項35~請求項54のいずれか一項に記載のコンピュータプログラム。 - 前記行動履歴に関するデータは、
前記アバターの前記動画を視聴する視聴履歴に関するデータ、前記アバターの前記動画の視聴時間に関するデータ、前記アバターの前記仮想会場への入場履歴に関するデータ、前記アバターの前記仮想会場での滞在時間に関するデータ、前記アバターの前記仮想会場からの退場履歴に関するデータ、前記アバターから前記仮想空間内に存在する仮想オブジェクトに対する作用履歴に関するデータ、前記第1端末及び前記第1端末とは異なる第2端末のうち一方から前記第1端末及び前記第2端末のうち他方に対するメッセ―ジを送信する場合における前記メッセージが送信される第1端末の位置に関するデータ、前記仮想オブジェクトの購入履歴に関するデータ、及び、前記仮想オブジェクトが着席可能で且つ前記アバターが前記仮想オブジェクトに着席する場合における前記仮想オブジェクトの位置に関するデータ、のうち少なくともいずれかを含む、
請求項41に従属する請求項55に記載のコンピュータプログラム。 - 前記第1データは、前記第1端末及び前記第1端末とは異なる第2端末以外の第3端末に送信される、
請求項35~請求項56のいずれか一項に記載のコンピュータプログラム。 - 前記第1データを受信したか否かを判定し、前記第1データを受信した場合に、前記第1データを前記第3端末に送信される、
請求項57に記載のコンピュータプログラム。 - 前記第1データを受信する周期は、前記制御データが決定される周期よりも短い、
請求項57又は請求項58に記載のコンピュータプログラム。 - 前記第3端末は、前記仮想会場を運営する運営者又は運営団体によって操作される第1端末である、
請求項57~請求項58のいずれか一項に記載のコンピュータプログラム。 - 前記第1データに基づいて決定される広告に関する第2データが、前記第1端末に送信される、
請求項35~請求項60のいずれか一項に記載のコンピュータプログラム。 - 前記第1データに基づいて決定される広告に関する第2データを格納するデータベースにアクセスするURLを含むデータが、前記第1端末に送信される、
請求項35~請求項60のいずれか一項に記載のコンピュータプログラム。 - 前記仮想空間は3次元空間である、
請求項35~請求項62のいずれか一項に記載のコンピュータプログラム。 - 前記通信回線がインターネットを含む、
請求項35~請求項63のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項35~請求項64のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、サーバ装置、スマートフォン、タブレット、携帯電話、または、パーソナルコンピュータに搭載される、
請求項35~請求項65のいずれか一項に記載のコンピュータプログラム。 - 第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得する工程と、
前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示する工程と、
前記第1データに基づいて第1条件を満たすか否かを判定する工程と、
前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第1制御データを決定する工程と、
前記第1制御データに基づいて前記表示部を制御する工程と、を含む、
方法。 - 通信回線を介して、第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを受信する工程と、
前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示させるように前記表示部を制御する第1制御データを決定する工程と、
前記通信回線を介して前記第1制御データを前記第1端末に送信する工程と、
前記第1制御データを前記第1端末に送信した後に、前記第1データに基づいて第1条件を満たすか否かを判定する工程と、
前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第1制御データを決定する工程と、
前記通信回線を介して前記第2制御データを前記第1端末に送信する工程と、を含む、
方法。 - 前記通信回線がインターネットを含む、
請求項67又は請求項68に記載の方法。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項67~請求項69のいずれか一項に記載の方法。 - 第1ユーザの第1端末を用いて操作される仮想空間内のアバターに関する第1データを取得し、
前記第1データに基づいて、前記アバターを含む第1表示を前記第1端末の表示部に表示し、前記第1データに基づいて第1条件を満たすか否かを判定し、
前記第1条件を満たすと判定した場合に、前記仮想空間のうち前記アバターが存在する第1位置に基づいて、前記第1表示から第2表示に表示を切り替えるように前記表示部を制御する第1制御データを決定し、
前記第1制御データに基づいて前記表示部を制御する、
サーバ装置。 - 前記通信回線がインターネットを含む、
請求項71に記載のサーバ装置。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項71又は請求項72に記載のサーバ装置。 - 少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、
第1ユーザの第1端末を用いて操作される仮想空間内の第1アバターが存在する第1位置に関する第1データを取得し、
前記第1位置が第1領域内である第1条件を満たすか否かを判定し、
前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域に関するデータを受信し、
前記表示領域を前記第1端末の表示部に表示する、ように前記少なくとも一のプロセッサを機能させる、
コンピュータプログラム。 - 少なくとも一のプロセッサにより実行されるコンピュータプログラムであって、
通信回線を介して、仮想空間内の第1アバターを操作する第1ユーザの第1端末から、前記第1アバターが存在する第1位置に関する第1データを受信し、
前記第1位置が第1領域内である第1条件を満たすか否かを判定し、
前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域を決定し、
前記通信回線を介して、前記表示領域を前記端末の表示部に表示するように前記表示部を制御する制御データを前記第1端末に送信する、ように前記少なくとも一のプロセッサを機能させる、
コンピュータプログラム。 - 前記表示部は、
前記少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを前記表示領域に表示する、
請求項74又は請求項75に記載のコンピュータプログラム。 - 前記表示部は、
前記第1端末から送信されるメッセージを前記表示領域に表示する、
請求項74~請求項76のいずれか一項に記載のコンピュータプログラム。 - 前記第1端末から送信されるメッセージは、前記少なくともいずれかのアバターを操作するユーザの端末に送信される、
請求項77に記載のコンピュータプログラム。 - 前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられ、
前記第1領域は、前記少なくとも一の仮想会場のうちいずれかの仮想会場内の領域である、
請求項74~請求項78のいずれか一項に記載のコンピュータプログラム。 - 前記仮想空間内には、動画が配信される空間である少なくとも一の仮想会場が設けられ、
前記第1領域は、
前記少なくとも一の仮想会場のうち第1仮想会場の入口側に位置し且つ前記第1仮想会場とは異なる前記仮想空間内の領域、又は、前記少なくとも一の仮想会場のうち第1仮想会場の出口側に位置し且つ前記第1仮想会場とは異なる前記仮想空間内の領域、である、
請求項74~請求項78のいずれか一項に記載のコンピュータプログラム。 - 第2条件を満たしたか否かを判定し、
前記第2条件を満たした場合で且つ前記第1アバターが前記第1仮想会場及び前記第1領域のうち一方から前記一の仮想会場及び前記第1領域のうち他方に向かう所定の動作を行った場合に、前記表示部は、前記他方に関連する表示画面を表示する、
請求項80に記載のコンピュータプログラム。 - 前記第2条件は、
前記第1アバターが前記第1仮想会場に存在する状態で前記動画が所定時間以上再生されて終了したこと、前記第1アバターが着席可能な仮想オブジェクトに着席して前記仮想オブジェクトから離席したこと、及び、前記第1アバターが前記仮想空間内で購入可能な仮想オブジェクトを有すること、のうち少なくともいずれかを含む、
請求項81に記載のコンピュータプログラム。 - 前記表示部は、
前記ユーザの端末から前記メッセージが送信される場合に、前記ユーザが操作するアバターの周囲に前記メッセージを表示する、
請求項74~請求項82のいずれか一項に記載のコンピュータプログラム。 - 前記第1データは、
前記第1アバターが存在する第1位置に関するデータ、及び、前記第1端末の操作を用いて一の仮想オブジェクトに対して行われた所定の操作に関するデータ、を含み、
前記第1条件は、
前記第1位置が第1領域内であること、且つ、第1領域内に存在し又は前記第1領域内に過去に存在した前記少なくともいずれかのアバターを操作するユーザが端末を用いて前記一の仮想オブジェクトに対して所定の操作を行うこと、であり、
前記表示領域は、前記少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域である、
請求項74~請求項83のいずれか一項に記載のコンピュータプログラム。 - 前記少なくともいずれかのアバターの前記仮想空間内における動作は、予め決定されている、
請求項74~請求項84のいずれか一項に記載のコンピュータプログラム。 - 前記他の少なくともいずれかのアバターの位置、及び、前記他の少なくともいずれかのアバターの総数、のうち少なくともいずれかを含む第2データを受信し、
第3条件を満たすか否かを判定し、
前記第3条件を満たすと判定された場合に、前記第2データに基づいて、前記第1ユーザの端末の表示部を制御する第2制御データを決定し、
前記第2制御データに基づいて前記表示部を制御する、
請求項74又は請求項74に従属する請求項76~85のいずれか一項に記載のコンピュータプログラム。 - 前記他の少なくともいずれかのアバターの位置、及び、前記他の少なくともいずれかのアバターの総数、のうち少なくともいずれかを含む第2データを受信し、
第3条件を満たすか否かを判定し、
前記第3条件を満たすと判定された場合に、前記第2データに基づいて、前記第1ユーザの端末の表示部を制御する第2制御データを決定し、
前記第2制御データを前記第1端末に送信する、
請求項75又は請求項75に従属する請求項76~85のいずれか一項に記載のコンピュータプログラム。 - 前記第3条件は、
前記他の少なくとも一のアバターの総数が第1値以上である場合、又は、前記他の少なくとも一のアバターの総数が第2値以下である場合、であり、前記第1値は、前記第2値よりも大きい、
請求項86又は請求項87に記載のコンピュータプログラム。 - 前記仮想空間は3次元空間である、
請求項74~請求項88のいずれか一項に記載のコンピュータプログラム。 - 前記通信回線がインターネットを含む、
請求項74~請求項89のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項74~請求項90のいずれか一項に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、サーバ装置、スマートフォン、タブレット、携帯電話、または、パーソナルコンピュータに搭載される、
請求項74~請求項91のいずれか一項に記載のコンピュータプログラム。 - 第1ユーザの第1端末を用いて操作される仮想空間内の第1アバターが存在する第1位置に関する第1データを取得する工程と、
前記第1位置が第1領域内である第1条件を満たすか否かを判定する工程と、
前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域に関するデータを受信する工程と、
前記表示領域を前記第1端末の表示部に表示する工程と、を含む、
方法。 - 通信回線を介して、仮想空間内の第1アバターを操作する第1ユーザの第1端末から、前記第1アバターが存在する第1位置に関する第1データを受信する工程と、
前記第1位置が第1領域内である第1条件を満たすか否かを判定する工程と、
前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域を決定する工程と、
前記通信回線を介して、前記表示領域を前記端末の表示部に表示するように前記表示部を制御する制御データを前記第1端末に送信する工程と、を含む、
方法。 - 前記通信回線がインターネットを含む、
請求項93又は請求項94に記載の方法。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項93~請求項95のいずれか一項に記載の方法。 - 通信回線を介して、仮想空間内の第1アバターを操作する第1ユーザの第1端末から、前記第1アバターが存在する第1位置に関する第1データを受信し、
前記第1位置が第1領域内である第1条件を満たすか否かを判定し、
前記第1条件を満たす場合に、前記第1領域内に存在し又は前記第1領域内に過去に存在した他の少なくとも一のアバターのうち少なくともいずれかのアバターを操作するユーザの端末から送信されるメッセージを表示する表示領域を決定し、
前記通信回線を介して、前記表示領域を前記端末の表示部に表示するように前記表示部を制御する制御データを前記第1端末に送信する、
サーバ装置。 - 前記通信回線がインターネットを含む、
請求項97に記載のサーバ装置。 - 前記少なくとも1つのプロセッサが、
中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む、
請求項97又は請求項98のいずれか一項に記載のサーバ装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/936,762 US20230018262A1 (en) | 2020-11-19 | 2022-09-29 | Computer programs, methods, and server devices |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-192452 | 2020-11-19 | ||
JP2020192452A JP7130719B2 (ja) | 2020-11-19 | 2020-11-19 | コンピュータプログラム、方法、及び、サーバ装置 |
JP2020-211293 | 2020-12-21 | ||
JP2020211293A JP7129463B2 (ja) | 2020-12-21 | 2020-12-21 | コンピュータプログラム、方法、及び、サーバ装置 |
JP2021013627A JP7132373B2 (ja) | 2021-01-29 | 2021-01-29 | コンピュータプログラム、方法、及び、サーバ |
JP2021-013627 | 2021-06-23 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/936,762 Continuation US20230018262A1 (en) | 2020-11-19 | 2022-09-29 | Computer programs, methods, and server devices |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022107880A1 true WO2022107880A1 (ja) | 2022-05-27 |
Family
ID=81708025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/042600 WO2022107880A1 (ja) | 2020-11-19 | 2021-11-19 | コンピュータプログラム、方法、及び、サーバ装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230018262A1 (ja) |
WO (1) | WO2022107880A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6995416B1 (ja) * | 2021-06-09 | 2022-01-14 | クラスター株式会社 | アバター出力装置、端末装置、アバター出力方法、およびプログラム |
US11789602B1 (en) * | 2022-04-18 | 2023-10-17 | Spatial Systems Inc. | Immersive gallery with linear scroll |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217142A (ja) * | 2007-02-28 | 2008-09-18 | Copcom Co Ltd | プログラムおよびコンピュータシステム |
JP2013020389A (ja) * | 2011-07-08 | 2013-01-31 | Dowango:Kk | 会場設置ディスプレイシステム |
JP2016152619A (ja) * | 2015-08-04 | 2016-08-22 | 株式会社 ディー・エヌ・エー | ビデオチャットを提供するサーバ、プログラム及び方法 |
JP2018128966A (ja) * | 2017-02-10 | 2018-08-16 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP2019192174A (ja) * | 2018-04-27 | 2019-10-31 | 株式会社コロプラ | プログラム、情報処理装置、および方法 |
WO2019234879A1 (ja) * | 2018-06-07 | 2019-12-12 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理方法およびコンピュータプログラム |
-
2021
- 2021-11-19 WO PCT/JP2021/042600 patent/WO2022107880A1/ja active Application Filing
-
2022
- 2022-09-29 US US17/936,762 patent/US20230018262A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217142A (ja) * | 2007-02-28 | 2008-09-18 | Copcom Co Ltd | プログラムおよびコンピュータシステム |
JP2013020389A (ja) * | 2011-07-08 | 2013-01-31 | Dowango:Kk | 会場設置ディスプレイシステム |
JP2016152619A (ja) * | 2015-08-04 | 2016-08-22 | 株式会社 ディー・エヌ・エー | ビデオチャットを提供するサーバ、プログラム及び方法 |
JP2018128966A (ja) * | 2017-02-10 | 2018-08-16 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP2019192174A (ja) * | 2018-04-27 | 2019-10-31 | 株式会社コロプラ | プログラム、情報処理装置、および方法 |
WO2019234879A1 (ja) * | 2018-06-07 | 2019-12-12 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理方法およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230018262A1 (en) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102701209B1 (ko) | 3차원 공간에서 가상 객체들 선택 | |
WO2022107880A1 (ja) | コンピュータプログラム、方法、及び、サーバ装置 | |
US20140132630A1 (en) | Apparatus and method for providing social network service using augmented reality | |
JP6883140B1 (ja) | 情報処理システム、情報処理方法およびコンピュータプログラム | |
JP6822413B2 (ja) | サーバ装置及び情報処理方法、並びにコンピュータ・プログラム | |
US20230219003A1 (en) | Advertising display system | |
JP2024073473A (ja) | コンピュータプログラム、方法、及び、サーバ装置 | |
US12015759B2 (en) | Information processing system, information processing method, and information processing program | |
WO2022124233A1 (ja) | コンピュータプログラム、方法、及び、サーバ | |
CN116490249A (zh) | 信息处理装置、信息处理系统、信息处理方法和信息处理终端 | |
US20230252706A1 (en) | Information processing system, information processing method, and computer program | |
JP7480965B2 (ja) | コンピュータプログラム、方法、及び、サーバ | |
JP2022097990A (ja) | コンピュータプログラム、方法、及び、サーバ装置 | |
JP7507437B2 (ja) | コンピュータプログラム、方法、及び、サーバ | |
JP2022090618A (ja) | コンピュータプログラム、方法、及び、サーバ | |
JP7265085B1 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
US20240214485A1 (en) | Information processing system, information processing method, and program | |
Guo et al. | Synchronous mixed reality (SMR): A personalized virtual‐real fusion framework with high immersion and effective interaction | |
TWI839830B (zh) | 混合現實交互方法、裝置、電子設備及介質 | |
WO2023032264A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR102266311B1 (ko) | 동영상 서비스 제공 방법 및 장치 | |
US20240007700A1 (en) | Program, information processing method, and information processing device | |
Grinyer et al. | Improving Inclusion of Virtual Reality Through Enhancing Interactions in Low-Fidelity VR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21894751 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21894751 Country of ref document: EP Kind code of ref document: A1 |