WO2024038895A1 - 方法、サーバー、端末、および、基地局 - Google Patents

方法、サーバー、端末、および、基地局 Download PDF

Info

Publication number
WO2024038895A1
WO2024038895A1 PCT/JP2023/029714 JP2023029714W WO2024038895A1 WO 2024038895 A1 WO2024038895 A1 WO 2024038895A1 JP 2023029714 W JP2023029714 W JP 2023029714W WO 2024038895 A1 WO2024038895 A1 WO 2024038895A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
information
real space
server
base station
Prior art date
Application number
PCT/JP2023/029714
Other languages
English (en)
French (fr)
Inventor
豊 村上
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Publication of WO2024038895A1 publication Critical patent/WO2024038895A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Definitions

  • the present disclosure relates to a method, a server, a terminal, and a base station.
  • the server includes a character module and spatial information. Then, the terminal accesses the server, and the server causes the character to appear in the virtual space using the spatial information.
  • Patent Document 1 As a conventional technique, there is a technique for making a character appear in a virtual space alone, as shown in Patent Document 1, and the technique shown in Patent Document 1 is a technique that links a virtual space and a real space. It is not a technology, and its use is limited to making characters move in virtual space. Therefore, there is a problem that it is not a more diversified system suitable for the actual environment where terminals and users exist.
  • the present disclosure causes a character (avatar) to appear in a virtual space based on the position of a terminal (or user) in real space.
  • a server understood based on the present disclosure includes a communication unit and a processor, and the communication unit receives information indicating that a first terminal is staying in a first area of real space. , the processor generates information on a first avatar corresponding to the first terminal, and the communication unit transmits information on the first avatar to a second terminal displaying a first virtual space corresponding to a first region of real space. and display it on the display screen of the second terminal.
  • the server of the present disclosure can display a first avatar corresponding to a terminal staying in a first region of real space in a first virtual space corresponding to the first region of real space. This allows the terminal to easily participate in a virtual space that corresponds to the real space in which it stays.
  • FIG. 1 is a diagram showing an example of a system configuration in the first embodiment.
  • FIG. 2 is a diagram illustrating an example of the configuration of a server in the first embodiment.
  • FIG. 3A is a diagram showing another example of the system configuration in the first embodiment.
  • FIG. 3B is a sequence diagram illustrating an example of communication between the server and the terminal in the first embodiment.
  • FIG. 4A is a diagram illustrating an example of real space in the first embodiment.
  • FIG. 4B is a diagram illustrating an example of the correspondence between real space and virtual space in the first embodiment.
  • FIG. 5 is a diagram showing another example of the system configuration in the first embodiment.
  • FIG. 6 is a diagram illustrating an example of real space and base station arrangement in the first embodiment.
  • FIG. 7A is a diagram illustrating an example of transmission information in the first embodiment.
  • FIG. 7B is a diagram illustrating another example of transmission information in the first embodiment.
  • FIG. 8 is a diagram illustrating another example of the real space and the arrangement of base stations in the first embodiment.
  • FIG. 9 is a diagram illustrating another example of the real space and the arrangement of base stations in the first embodiment.
  • FIG. 10A is a diagram illustrating another example of the correspondence between real space and virtual space in the first embodiment.
  • FIG. 10B is a diagram illustrating another example of the correspondence between real space and virtual space in the first embodiment.
  • FIG. 11 is a diagram showing another example of the system configuration in the first embodiment.
  • FIG. 12 is a diagram illustrating another example of the real space and the arrangement of base stations in the first embodiment.
  • FIG. 13 is a diagram illustrating another example of the real space and the arrangement of base stations in the first embodiment.
  • FIG. 14 is a diagram illustrating another example of the real space and the arrangement of base stations in the first embodiment.
  • FIG. 15 is a diagram showing an example of an antenna configuration.
  • FIG. 16A is a diagram illustrating an example of beamforming performed by a base station and a terminal.
  • FIG. 16B is a diagram illustrating another example of beamforming performed by a base station and a terminal.
  • FIG. 16C is a diagram illustrating an example of a coordinate system in the first embodiment.
  • FIG. 17A is a diagram illustrating an example of character display in the virtual space in the first embodiment.
  • FIG. 17B is a diagram illustrating another example of character display in the virtual space in the first embodiment.
  • FIG. 17A is a diagram illustrating an example of character display in the virtual space in the first embodiment.
  • FIG. 17B is a diagram illustrating another example of character display in the virtual space in the first embodiment
  • FIG. 18 is a diagram showing an example of a system configuration in the second embodiment.
  • FIG. 19A is a diagram illustrating an example of the configuration of a server in the second embodiment.
  • FIG. 19B is a diagram illustrating an example of a system configuration in the second embodiment.
  • FIG. 19C is a diagram illustrating an example of a process for associating objects and characters in the second embodiment.
  • FIG. 20 is a diagram showing an example of a system configuration in the second embodiment.
  • FIG. 21 is a diagram showing an example of a system configuration in the second embodiment.
  • FIG. 22 is a diagram illustrating an example of base station capability information in Embodiment 3.
  • FIG. 23 is a diagram illustrating an example of terminal capability information in the third embodiment.
  • FIG. 19A is a diagram illustrating an example of the configuration of a server in the second embodiment.
  • FIG. 19B is a diagram illustrating an example of a system configuration in the second embodiment.
  • FIG. 19C is a diagram illustrating an example
  • FIG. 24A is a diagram illustrating an example of the configuration of a base station in Embodiment 3.
  • FIG. 24B is a diagram illustrating another example of the configuration of a base station in Embodiment 3.
  • FIG. 24C is a diagram illustrating another example of the configuration of a base station in Embodiment 3.
  • FIG. 25A is a diagram illustrating an example of the configuration of a terminal in Embodiment 3.
  • FIG. 25B is a diagram illustrating another example of the configuration of a terminal in Embodiment 3.
  • FIG. 25C is a diagram illustrating another example of the configuration of a terminal in Embodiment 3.
  • FIG. 25D is a diagram illustrating another example of the configuration of a terminal in Embodiment 3.
  • FIG. 25A is a diagram illustrating an example of the configuration of a base station in Embodiment 3.
  • FIG. 24B is a diagram illustrating another example of the configuration of a base station in Embodiment 3.
  • FIG. 25C is
  • FIG. 26 is a diagram illustrating an example of the operation of a base station in Embodiment 3.
  • FIG. 27 is a diagram illustrating an example of terminal setting information in Embodiment 3.
  • FIG. 28A is a diagram illustrating an example of interactions among a terminal, a base station, and a server in Embodiment 3.
  • FIG. 28B is a diagram illustrating an example of setting a character display area and a non-display setting area in the virtual space in the third embodiment.
  • FIG. 28C is a diagram illustrating another example of setting the character display area and non-display setting area in the virtual space in the third embodiment.
  • FIG. 28D is a diagram illustrating another example of setting the character display area and non-display setting area in the virtual space in the third embodiment.
  • FIG. 28E is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 29A is a diagram illustrating an example of a situation in real space in Embodiment 3.
  • FIG. 29B is a diagram illustrating an example of display method settings in Embodiment 3.
  • FIG. 29C is a diagram illustrating another example of display method settings in Embodiment 3.
  • FIG. 29D is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 29E is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 29A is a diagram illustrating an example of a situation in real space in Embodiment 3.
  • FIG. 29B is a diagram illustrating an example of display method settings in Embodiment 3.
  • FIG. 29C is a diagram illustrating another example of display method settings in Embodi
  • FIG. 30A is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 30B is a diagram illustrating an example of push notification settings in Embodiment 3.
  • FIG. 30C is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 31A is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 31B is a diagram illustrating an example of push notification settings in Embodiment 3.
  • FIG. 31C is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 31D is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 31E is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 32A is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 32B is a diagram illustrating another example of display method settings in Embodiment 3.
  • FIG. 32C is a diagram illustrating another example of display method settings in Embodiment 3.
  • FIG. 32D is a diagram illustrating another example of display method settings in Embodiment 3.
  • FIG. 32E is a diagram illustrating another example of display method settings in Embodiment 3.
  • FIG. 32A is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 32B is a diagram illustrating another example of display
  • FIG. 32F is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 3.
  • FIG. 33A is a diagram illustrating an example of a system configuration in Embodiment 4.
  • FIG. 33B is a diagram illustrating an example of a system configuration in Embodiment 4.
  • FIG. 33C is a diagram showing another example of the system configuration in Embodiment 4.
  • FIG. 33D is a diagram showing another example of the system configuration in Embodiment 4.
  • FIG. 34A is a diagram illustrating an example of interactions among a terminal, a base station, and a server in Embodiment 5.
  • FIG. 34B is a diagram illustrating an example of character motion settings in Embodiment 5.
  • FIG. 34C is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 5.
  • FIG. 34D is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 5.
  • FIG. 35 is a diagram illustrating an example of interaction between the device and the server in the fifth embodiment.
  • FIG. 36A is a diagram illustrating an example of the state of real space in Embodiment 6.
  • FIG. 36B is a diagram illustrating an example of the state of the virtual space in the sixth embodiment.
  • FIG. 37A is a diagram illustrating an example of the state of the virtual space.
  • FIG. 37B is a diagram illustrating another example of the state of the virtual space.
  • FIG. 38A is a diagram illustrating an example of a system configuration in Embodiment 6.
  • FIG. 38B is a diagram showing another example of the system configuration in Embodiment 6.
  • FIG. 39 is a diagram illustrating an example of interaction between an advertisement providing device or an information providing device and a server in Embodiment 6.
  • FIG. 40 is a diagram illustrating an example of interaction between a terminal or a device and a server in Embodiment 6.
  • FIG. 41 is a diagram illustrating another example of interaction between a terminal or a device and a server in Embodiment 6.
  • FIG. 42 is a diagram illustrating another example of interaction between the advertisement providing device or the information providing device and the server in Embodiment 6.
  • FIG. 43 is a diagram showing another example of interaction between a terminal or a device and a server in Embodiment 6.
  • FIG. 44 is a diagram illustrating another example of interaction between the advertisement providing device or information providing device, the terminal or device, and the server in Embodiment 6.
  • FIG. 45 is a diagram illustrating an example of a system configuration in Embodiment 7.
  • FIG. 46 is a diagram illustrating an example of the configuration of a modulated signal transmitted by a terminal in Embodiment 7.
  • FIG. 47A is a diagram illustrating an example of the configuration of modulated signals transmitted by a base station and a terminal in Embodiment 7.
  • FIG. 47B is a diagram illustrating an example of the configuration of modulated signals transmitted by a base station and a terminal in Embodiment 7.
  • FIG. 48A is a diagram illustrating an example of interaction between a terminal and a server in Embodiment 8.
  • FIG. 48B is a diagram illustrating an example of character motion settings set by the terminal in Embodiment 8.
  • FIG. 48C is a diagram illustrating an example of the states of a terminal and a sensor in Embodiment 8.
  • FIG. 48D is a diagram illustrating an example of a configuration of information transmitted by a terminal in Embodiment 8.
  • FIG. 48E is a diagram illustrating an example of a configuration of information transmitted by a base station in Embodiment 8.
  • FIG. 48F is a diagram illustrating an example of the status of a base station and a sensor in Embodiment 8.
  • FIG. 48A is a diagram illustrating an example of interaction between a terminal and a server in Embodiment 8.
  • FIG. 48B is a diagram illustrating an example of character motion settings set by the terminal in Embodiment 8.
  • FIG. 48C is a diagram illustrating an example
  • FIG. 48G is a diagram illustrating an example of the states of the terminal and the imaging device in Embodiment 8.
  • FIG. 48H is a diagram illustrating an example of a system configuration in Embodiment 8.
  • FIG. 48I is a diagram illustrating an example of the states of a terminal and a photographing device in Embodiment 8.
  • FIG. 49 is a diagram illustrating an example of character motion settings set by the terminal in Embodiment 8.
  • FIG. 50A is a diagram illustrating a setting example regarding display of attributes of a character corresponding to a terminal in Embodiment 9.
  • FIG. 50B is a diagram illustrating an example of a configuration of terminal setting information transmitted by a terminal in Embodiment 9.
  • FIG. 51 is a diagram illustrating another example of interaction between a terminal, a base station, and a server in Embodiment 9.
  • FIG. 52 is a diagram showing an example of a character corresponding to a terminal in the virtual space in Embodiment 9.
  • FIG. 53A is a diagram illustrating an example of a real space situation in Embodiment 10.
  • FIG. 53B is a diagram illustrating an example of a real space situation in Embodiment 10.
  • FIG. 54A is a diagram illustrating an example of a state of a virtual space corresponding to a real space in Embodiment 10.
  • FIG. 54B is a diagram illustrating an example of a state of a virtual space corresponding to a real space in Embodiment 10.
  • FIG. 54C is a diagram illustrating an example of a state of a virtual space corresponding to a real space in Embodiment 10.
  • FIG. 55A is a diagram illustrating an example of a real space situation in Embodiment 10.
  • FIG. 55B is a diagram illustrating an example of a real space situation in Embodiment 10.
  • FIG. 56A is a diagram illustrating an example of a state of a virtual space corresponding to a real space in Embodiment 10.
  • FIG. 56B is a diagram illustrating an example of a state of a virtual space corresponding to a real space in Embodiment 10.
  • FIG. 56C is a diagram illustrating an example of a state of a virtual space corresponding to a real space in Embodiment 10.
  • FIG. 57 is a diagram illustrating an example of interaction between an advertisement providing device or an information providing device and a server in Embodiment 10.
  • FIG. 58 is a diagram illustrating an example of interaction between an advertisement providing device or an information providing device and a server in Embodiment 10.
  • FIG. 59 is a diagram illustrating an example of interaction between a terminal or a device and a server in Embodiment 10.
  • FIG. 60 is a diagram illustrating an example of a system configuration in Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of interaction between a terminal or a device and a server in Embodiment 10.
  • FIG. 62A is a diagram illustrating an example of the states of a sensor, a terminal, and a base station in Embodiment 11.
  • FIG. 62B is a diagram illustrating an example of the states of a sensor, a terminal, and a base station in Embodiment 11.
  • FIG. 62C is a diagram illustrating an example of the configuration of a terminal in Embodiment 11.
  • FIG. 63A is a diagram illustrating an example of interaction between a terminal or a device and a server in Embodiment 11.
  • FIG. 63B is a diagram illustrating an example of interaction between a sensor, a terminal or device, and a server in Embodiment 11.
  • FIG. 64A is a diagram illustrating an example of the configuration of a server in Embodiment 11.
  • FIG. 64B is a diagram illustrating an example of the configuration of the analysis section in Embodiment 11.
  • FIG. 65 is a diagram illustrating an example of a real space situation in the eleventh embodiment.
  • FIG. 66 is a diagram illustrating an example of a display screen displayed by the first terminal in Embodiment 11.
  • FIG. 67A is a diagram illustrating an example of a real space situation in Embodiment 11.
  • FIG. 67B is a diagram illustrating an example of interaction between a device and a server in Embodiment 11.
  • FIG. 67C is a diagram illustrating an example of interaction between a terminal, a device, and a server in Embodiment 11.
  • FIG. 68 is a diagram showing the position of a character corresponding to a device in the virtual space in Embodiment 11.
  • FIG. 69 is a diagram illustrating an example of a real space situation in the eleventh embodiment.
  • FIG. 70A is a diagram illustrating an example of interaction between a terminal and a server in Embodiment 11.
  • FIG. 70B is a diagram illustrating an example of a virtual space when a user using a terminal in Embodiment 11 makes payment.
  • FIG. 71A is a diagram illustrating an example of interaction between a device and a server in Embodiment 11.
  • FIG. 71B is a diagram illustrating an example of interaction between a terminal, a device, and a server in Embodiment 11.
  • FIG. 71C is a diagram illustrating an example of a user's state in real space in Embodiment 11.
  • FIG. 71D is a diagram illustrating an example of a virtual space when a user using a terminal in Embodiment 11 performs payment.
  • FIG. 71A is a diagram illustrating an example of interaction between a terminal and a server in Embodiment 11.
  • FIG. 70B is a diagram illustrating an example of a virtual space when a user
  • FIG. 72 is a diagram illustrating an example of the configuration of a modulated signal transmitted by a base station in Embodiment 12.
  • FIG. 73 is a diagram illustrating an example of the configuration of a modulated signal transmitted by a terminal in Embodiment 12.
  • FIG. 74A is a diagram showing the basic configuration of the system of each embodiment.
  • FIG. 74B is a diagram illustrating an example of basic processing of the system of each embodiment.
  • FIG. 75 is a diagram showing a conventional system configuration for making characters appear in a virtual space.
  • a first method according to an aspect of the invention understood based on the present disclosure is a method implemented by a server, in which control information indicating that a first terminal is staying in a first region of real space is transmitted. and transmitting information corresponding to the first terminal to a second terminal displaying a first virtual space corresponding to a first area of the real space, and displaying information corresponding to the first terminal on the display screen of the second terminal. Display the corresponding image.
  • the method of the above aspect can display information corresponding to a terminal staying in the first area of the real space in the first virtual space corresponding to the first area of the real space. This allows the terminal to easily participate in a virtual space that corresponds to the real space in which it stays.
  • a second method according to an aspect of the invention understood based on the present disclosure is that in the first method, the second terminal is located outside the first region of the real space.
  • the method of the above aspect allows terminals to participate in the first virtual space independently of their positions, and terminals to participate in the first virtual space depending on their location in the first area of the real space. They can coexist. This enables communication between a user who participates in a virtual space corresponding to the real space in which the terminal stays and a user who participates in the virtual space regardless of location.
  • a third method according to an aspect of the invention understood based on the present disclosure is that in the first method, the control information is information indicating that the first terminal is communicating with a first base station. be.
  • the method of the above aspect can facilitate the correspondence between the virtual space and the real space by associating the real space with the base station.
  • a fourth method according to an aspect of the invention understood based on the present disclosure is that in the third method, a first base station different from the first base station and the first base station is located in the first region of the real space. Two base stations are associated.
  • the method of the above aspect can improve the flexibility of associating base stations and virtual spaces by associating a plurality of base stations in real space with the same virtual space.
  • a fifth method according to an aspect of the invention understood based on the present disclosure is that in the third method, the first virtual space has a first area in the real space that is different from the first area in the real space. A second area in real space is associated.
  • the method of the above aspect can improve the flexibility of associating regions of real space with virtual space by associating multiple regions of real space with the same virtual space.
  • a sixth method according to one aspect of the invention understood based on the present disclosure is that in the third method, the first region of the real space is attached to the first region of the virtual space.
  • the method of the above aspect makes it possible to set in detail the area in the virtual space to be associated with the area in the real space, and it is possible to improve the flexibility of the association between the area in the real space and the virtual space.
  • a seventh method according to an aspect of the invention understood based on the present disclosure is that in the third method, the location information of the first terminal is acquired from the first base station, and the location information of the first terminal is acquired based on the location information of the first terminal. , changing the position in the first virtual space where the image corresponding to the first terminal is displayed.
  • the method of the above aspect makes it possible to change the position where the image corresponding to the first terminal is displayed in the virtual space according to the detailed position of the terminal in the real space area, so that the more detailed position of the terminal can be changed.
  • Location-based virtual space services can be provided.
  • a server understood based on the present disclosure includes a communication unit and a processor, and the communication unit receives control information indicating that a first terminal is staying in a first area of real space.
  • the processor generates information corresponding to the first terminal, and the communication unit transmits the information to a second terminal displaying the first virtual space corresponding to the first area of the real space, and the communication unit generates information corresponding to the first terminal. display on the display screen.
  • the server of the above aspect can display the first avatar corresponding to the terminal staying in the first area of the real space in the first virtual space corresponding to the first area of the real space. This allows the terminal to easily participate in a virtual space that corresponds to the real space in which it stays.
  • An eighth method is a method implemented by a terminal, in which the terminal communicates with a first base station located in a first region of real space, and Control information including an identifier indicating the first base station and an identifier indicating the terminal is transmitted to a server that provides a first virtual space corresponding to the first area of .
  • the method of the above aspect allows a terminal staying in the first area of the real space to easily participate in the first virtual space corresponding to the first area of the real space.
  • a ninth method according to an aspect of the invention understood based on the present disclosure is that in the eighth method, sensing is performed to generate location information of the terminal with the first base station, and the location information is generated. Send to the server.
  • the method of the above aspect can provide a virtual space service according to the detailed position of the terminal within the real space area.
  • a terminal understood based on the present disclosure includes a communication unit and a processor, the communication unit communicates with a first base station located in a first area of real space, and the communication unit communicates with a first base station located in a first area of real space. generates control information including an identifier indicating the first base station and an identifier indicating the terminal, and transmits the control information to a server that provides a first virtual space corresponding to a first area of the real space. .
  • the terminal of the above aspect allows a terminal staying in the first area of the real space to easily participate in the first virtual space corresponding to the first area of the real space.
  • a tenth method is a method implemented by a base station located in a first region of real space, the base station staying in the first region of real space.
  • control information including an identifier indicating the first base station and an identifier indicating the first terminal to a server that communicates with the first terminal located in the station and provides the first virtual space corresponding to the first area of the real space.
  • Send is a method implemented by a base station located in a first region of real space, the base station staying in the first region of real space.
  • control information including an identifier indicating the first base station and an identifier indicating the first terminal to a server that communicates with the first terminal located in the station and provides the first virtual space corresponding to the first area of the real space.
  • the method of the above aspect allows a terminal staying in the first area of the real space to easily participate in the first virtual space corresponding to the first area of the real space.
  • An eleventh method according to an aspect of the invention understood based on the present disclosure is the tenth method, in which sensing is performed to generate location information of the first terminal, and the location information is transmitted to the server.
  • the method of the above aspect can provide a virtual space service according to the detailed position of the terminal within the real space area.
  • a base station understood based on the present disclosure includes a communication unit and a processor, the base station is arranged in a first area of real space, and the communication unit is arranged in a first area of real space.
  • the processor generates control information including an identifier indicating the first base station and an identifier indicating the first terminal, and the communication unit communicates with the first terminal staying in the real space. Control information is transmitted to a server that provides a first virtual space corresponding to the area.
  • the base station of the above aspect allows a terminal staying in the first region of real space to easily participate in the first virtual space corresponding to the first region of real space.
  • real space may also be referred to as “(physical) real space” or “universe.” Further, the real space may be “AR (Augmented Reality) (a world in which the real world is virtually extended)”. For example, real space can be taken as the physical world in which we live. Real space may be called by other names. The above points are the same throughout this specification.
  • virtual space can be called “cyber space,” “metaverse space,” “multiverse space,” “virtual space,” “VR (Virtual Reality),” or “virtual world.” good. Note that the virtual space may be called by another name. The above points are the same throughout this specification.
  • the character may be called an "avatar” or an "object”.
  • an avatar may be regarded as an alter ego of the user owning the terminal that appears in a game, the Internet, or a virtual space. Note that the character may be called by another name.
  • FIG. 1 shows an example of "the configuration of a system that makes a character appear in a virtual space based on the position of a terminal existing in a real space" in this embodiment.
  • the inside of the ellipse 100_1 is real space #1.
  • Terminal #1 of 101_1 and terminal #2 of 101_2 exist in real space #1.
  • the real space is defined as the inside of the ellipse, the real space does not have to be represented inside the ellipse.
  • the real space is represented inside the ellipse. Note that this point is the same throughout this embodiment and the entire specification.
  • base station #1 of 102_1 exists in real space #1, but base station #1 of 102_1 may exist in a real space other than real space #1.
  • the base station #1 of 102_1 is communicating with devices including the server 104 via the network 103. Communication at this time may be wired and/or wireless communication, for example.
  • the base station #1 of 102_1 is communicating, for example, wirelessly with terminals including "terminal #1 of 101_1 and terminal #2 of 101_2.” (Wired and/or wireless communication may be used.)
  • base station #1 of 102_1 is equipped with a transmitter for wireless communication and a receiver for wireless communication.
  • terminals including "terminal #1 of 101_1 and terminal #2 of 101_2" are equipped with a transmitter for wireless communication and a receiver for wireless communication.
  • the base station #1 of 102_1 is equipped with a transmitting unit for sensing and a receiving unit for sensing.
  • the transmitter for sensing and the transmitter for wireless communication may be separate or may be shared.
  • Base station #1 of 102_1 may include a position estimation system such as GPS (Global Positioning System, Global Positioning Satellite).
  • the terminals including "terminal #1 of 101_1 and terminal #2 of 101_2" are equipped with a transmitter for sensing and a receiver for sensing. Note that the transmitter for sensing and the transmitter for wireless communication may be separate or may be shared.
  • the terminals including "terminal #1 of 101_1 and terminal #2 of 101_2" may be equipped with a position estimation system such as GPS.
  • base station #1 of 102_1 estimates terminals including "terminal #1 of 101_1 and terminal #2 of 101_2.” At this time, for example, as shown in Patent Document 2, Patent Document 3, and Patent Document 4, in any of the following methods, the base station #1 of 102_1 determines whether "Terminal #1 of 101_1, Terminal #1 of 101_2" 2" may be obtained (or information on sensing results).
  • Base station #1 of 102_1 transmits a signal for sensing. Then, the terminal receives the signal for this sensing and estimates the position (or obtains the sensing result). The terminal transmits this location information (or sensing result information) to base station #1 of 102_1. As a result, base station #1 of 102_1 obtains location information (or sensing result information) of terminals including "terminal #1 of 101_1 and terminal #2 of 101_2.”
  • Base station #1 of 102_1 transmits a signal for sensing. Then, the status of the signal for sensing changes in the terminal, and base station #1 of 102_1 catches this change (receives radio waves corresponding to the signal for sensing), and base station #1 of 102_1: Estimate the location of the device (or obtain sensing results). As a result, base station #1 of 102_1 obtains location information (or sensing result information) of terminals including "terminal #1 of 101_1 and terminal #2 of 101_2.”
  • Terminals such as "terminal #1 at 101_1 and terminal #2 at 101_2" transmit signals for sensing. Then, base station #1 of 102_1 receives this signal for sensing and estimates the position (or obtains the sensing result). As a result, base station #1 of 102_1 obtains location information (or sensing result information) of terminals including "terminal #1 of 101_1 and terminal #2 of 101_2.”
  • the signal for sensing may be transmitted by the base station #1 of 102_1, or by the terminal.
  • methods for base station #1 in 102_1 to obtain location information (or information on sensing results) of terminals including "terminal #1 in 101_1 and terminal #2 in 101_2" include method 1, method 2, and method 3. It is not limited to this, and it is possible to widely apply methods described in documents including Patent Document 2, Patent Document 3, and Patent Document 4.
  • the terminals including "terminal #1 of 101_1 and terminal #2 of 101_2" may estimate their own positions using a position estimation system such as GPS. At this time, the terminal transmits the estimated location information to the base station #1 of 102_1, and thereby the base station #1 of 102_1 can determine the location of the terminals including "terminal #1 of 101_1 and terminal #2 of 101_2". You will get information.
  • a position estimation system such as GPS
  • Patent Document 2 As processing for sensing at base stations and terminals, for example, as shown in Patent Document 2, Patent Document 3, and Patent Document 4, direction of arrival estimation methods such as the MUSIC (Multiple Signal Classification) method are used. Sensing processing based on direction using angle of arrival using direction estimation, etc., and sensing processing based on distance using, for example, reception timing difference or transmission/reception time difference, etc. can be applied.
  • MUSIC Multiple Signal Classification
  • processing for sensing at base stations and terminals includes, for example, “positioning (sensing) based on reference signal timing differences” and “received signal power” used in NR (New Radio) systems.
  • Positioning (sensing) based on the received power of the reference signal (reference signal) measured by the terminal (or base station) "Angle of arrival” (received signal received power) RX-Tx Time Difference (RX-Tx Time Difference)
  • RTT Raundtrip time
  • Ranging (sensing) using RTT (Roundtrip time) "AoA (Angle of arrival) and/or AoD (Angle of departure)”
  • TDOA Time difference of arrival
  • Patent Document 2 When processing for sensing at base stations and terminals, as shown in Patent Document 2, Patent Document 3, and Patent Document 4, triangulation using multiple antennas is performed to estimate the position (or obtain results). In addition, when processing for sensing at base stations and terminals, as shown in Patent Document 2, Patent Document 3, and Patent Document 4, triangulation is performed using other devices to estimate the position ( Alternatively, sensing results may be obtained).
  • processing for estimating the position of an object processing for detecting the presence or absence of an object, processing for estimating the distance between a first object and a second object, processing for predicting the material/substance of an object, and detecting the movement of an object.
  • processing processing to estimate the situation around a device capable of sensing, processing to estimate the distance between a device capable of sensing and an object, processing to detect the external shape of an object, processing to estimate gestures, processing to estimate human movement.
  • Processing for estimating the shape of a part of the human body Processing for estimating the movement of a part of the human body, Processing for detecting a person, Processing for detecting a part of a person, Processing for authenticating a person, Processing for authentication, processing for estimating the movement of objects, processing for estimating the shape of objects, processing for detecting objects, and processing for authenticating objects.
  • the process of detecting the position of an object it may be possible to simultaneously detect the object and the movement of the object. Further, in the process of detecting the presence or absence of an object or the process of detecting the outer shape of the object, it is also possible to specify the target object. That is, at the time of sensing, one or more processes, or two or more processes exemplified above may be performed.
  • the system shown in FIG. 1 includes a storage section that holds "data related to virtual space," a “control section” that controls the appearance and movement of characters, etc. in the virtual space, and “control section” that controls the appearance and movement of characters in the virtual space.
  • the base station #1 of 102_1, the server 104, the terminal #101 of 101_101, the terminal #2 of 101_102, and the devices are connected to the network 103. This allows devices such as "terminal #2, device 101_102" to communicate.
  • terminal #101 of 101_101 and terminal #2 of 101_102 will communicate with base station #1 of 102_1. Then, terminal #101 of 101_101 and terminal #2 of 101_102 communicate with devices such as "server 104, terminal #101 of 101_101, terminal #2 of 101_102, equipment” via base station #1 of 102_1 and network 103. Communication will take place.
  • system configuration in this embodiment is not limited to that shown in FIG. It is sufficient if there is one or more.
  • FIG. 2 is an example of the configuration of the server 104 in FIG. 1.
  • an interface 200 receives an input signal 201 and outputs an output signal 202.
  • the interface 200 is also connected to a spatial information storage section 211, a character information storage section 212 for each terminal, a character "control section" 213 based on the position in real space, an output information generation section 214, and a character generation section 215.
  • a spatial information storage section 211 for each terminal
  • a character information storage section 212 for each terminal
  • a character "control section” 213 based on the position in real space
  • an output information generation section 214 a character generation section 215.
  • the spatial information storage unit 211 is a part that stores information regarding virtual space.
  • information about virtual space may be, for example, “two-dimensional space data", “three-dimensional space data”, or “three-dimensional space data It may also be “transformed data for representation in dimensions”.
  • virtual space objects that correspond to objects that exist in real space, such as buildings, facilities, equipment, plazas, and parks” may be placed in the virtual space. Therefore, the information regarding virtual space may include information on "virtual space object".
  • the information regarding the virtual space may be updated using the input signal 201, for example.
  • information regarding the virtual space in which the object of "virtual space object” is updated, the position of "virtual space object” is updated, etc. is stored in the spatial information storage unit 211 according to the input signal 201. It turns out.
  • the output information generation section 214 generates information from the information obtained from the spatial information storage section 211, the information obtained from the character information storage section 212 for each terminal, and the information obtained from the character "control section" 213 based on the position in real space. , generate output information regarding the virtual space for provision to other devices such as terminals. Then, output information regarding the virtual space is output from the server 104 as an output signal 202. Note that the output information regarding the virtual space will be delivered to one or more terminals accessing the server 104.
  • a device such as a terminal that has obtained the information of the output signal 202 generates the display content of the virtual space based on the output signal 202 and displays it on the device's built-in display device and/or an external display device. I will do it.
  • display devices include, for example, mobile phones, cell phones, smartphones, tablets, tablet PCs (Personal Computers), personal computers (however, they may be equipped with a monitor or may be connected to a monitor), Laptop computers, TVs, devices connected to monitors, game consoles, portable game consoles, AR glasses, AR goggles, monitors that can display AR, devices connected to monitors that can display AR, VR glasses, VR goggles, VR Monitors capable of displaying VR, devices connected to monitors capable of displaying VR, MR (Mixed Reality) glasses, monitors capable of displaying MR, devices connected to monitors capable of displaying MR, car navigation systems, head-mounted displays, head-mounted displays Possible examples include a device connected to a monitor, a device connected to a monitor, a projector, a device connected to a projector, etc., but are not limited to these.
  • the terminal #1 of 101_1 may communicate with the server 104 via the base station #1 of 102_1 as shown in FIG.
  • the server 104 may also be communicating with the server 104 via the network 103 (instead of via the network 103).
  • the terminal may communicate with the server 104 via the base station #1 of 102_1, or may communicate with the server 104 via the network 103.
  • the terminal transmits terminal information to the server 104 (301).
  • the terminal information is information that allows the server 104 to identify the terminal (and/or the user), and includes, for example, SIM (Subscriber Identity Module) information, telephone number information, (user's or terminal Items that are "device and/or user information" such as e-mail address information (which can be used), ID (identification) held by the user, device ID, SNS (Social networking service) information, etc. shall be. Therefore, the server 104 obtains the terminal information (351).
  • SIM Subscriber Identity Module
  • telephone number information such as e-mail address information (which can be used)
  • ID identification
  • SNS Social networking service
  • the terminal transmits the character information to the server 104 (302). Therefore, server 104 will obtain character information (352).
  • the terminal may obtain character source information from the character generation unit 215 included in the server 104 in FIG. You may also obtain the underlying information. This allows the terminal to generate character information. Alternatively, the terminal may generate the character using its own functions.
  • the server 104 stores information on a set of terminal information and character information for that terminal in the character information storage unit 212 for each terminal in FIG. 2. Therefore, the character information storage unit 212 for each terminal in FIG. 2 stores "information on a set of terminal information and character information for that terminal" for each terminal. For example, in the case of FIG. 1, the character information storage unit 212 for each terminal in FIG. "Information on the set of terminal information and character information of that terminal", “Information on the set of terminal information and character information of that terminal" of terminal #101 of 101_101, "Information of set of terminal information and character information of that terminal” of terminal #102 of 101_102 information.
  • the operation is described as “terminal information”, but it is possible to implement the same operation using "user information or identification information” instead of “terminal information”. Further, in other explanations, the operation is described as “terminal information”, but it is possible to similarly implement using "user information or identification information” instead of "terminal information”.
  • control unit 213 The operation of the character "control unit” 213 based on the position in real space in FIG. 2 will be explained. We will explain the relationship between real space and virtual space.
  • FIG. 4A shows an example of real space.
  • the inside of the ellipse 100_0 is named real space #0
  • the inside of the ellipse 100_0 is named real space #1
  • the inside of the ellipse 100_2 is named real space #2.
  • real spaces other than "real space #0, real space #1, and real space #2" may exist in the real space.
  • FIG. 4B shows the relationship between real space and virtual space in FIG. 4A.
  • - "Real space #0" in FIG. 4A is associated with “virtual space #0”.
  • - "Real space #1” in FIG. 4A is associated with “virtual space #1”.
  • - "Real space #2” in FIG. 4A is associated with “virtual space #2”. ... becomes.
  • real space #X and “virtual space #X” may have a digital twin relationship.
  • "real space #X” and “virtual space #X” do not have to be complete digital twins; for example, “real space #X” and “virtual space #X” are partially digital twins. It may be a relationship. Note that the sizes of the spaces represented by "real space #X” and “virtual space #X” may be the same or different.
  • the relationship may be such that when the position in "real space #X" is determined, the position in "virtual space #X” is determined (this point will be explained later).
  • Digital twin refers to a technological concept that transfers and reproduces data related to things and environments obtained in physical space (e.g., real space) in cyberspace (e.g., virtual space). Data and information obtained from sensor devices in real space using IoT (Internet of Things) technology are reflected in cyberspace exactly like a mirror, so they are called digital twins, or "digital twins.” .
  • IoT Internet of Things
  • terminal #1 of 101_1 exists in real space #1
  • terminal #1 of 101_1 cooperates with base station #1 of 102_1 to perform sensing-related operations.
  • base station #1 of 102_1 and terminal #1 of 101_1 share the position information of terminal #1 of 101_1 in real space #1.
  • the location information of terminal #1 of 101_1 in real space #1 may be "absolute location information such as longitude and latitude where terminal #1 of 101_1 exists", or
  • the position information in real space #1 is "difference information (which may also be called relative position information) between the position where terminal #1 of 101_1 exists and the position where base station #1 of 102_1 exists". Good too.
  • the base station #1 of 102_1 transmits the position information of the terminal #1 of 101_1 in the real space #1 to the server 104.
  • the location information is obtained, and the "position of terminal #1 of 101_1 in real space #1" is known.
  • the server 104 may obtain the location information of the base station #1 of 102_1, and thereby the server 104 obtains the location information of the terminal #1 of 101_1 in real space #1, The position in real space #1 will be known. Further, the server 104 obtains information about the terminal #1 of 101_1 from the terminal #1 of 101_1 via the base station #1 of 102_1.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs the character information corresponding to the terminal #1 of 101_1 by obtaining the information of the terminal #1 of 101_1.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #1 of 101_1 in #1 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #1 of 101_1” output by the character information storage unit 212 for each terminal, Character based on position in real space "Information for controlling the position of the character corresponding to terminal #1 of 101_1 in virtual space #1 associated with real space #1” output by the "control unit” 213 Based on this, in virtual space #1, "character corresponding to terminal #1 of 101_1” is set to "position of character corresponding to terminal #1 of 101_1 in virtual space #1 associated with real space #1".
  • the output information generation unit 214 of the server 104 in FIG. ” is output from the server 104.
  • the output signal 202 may include information on other virtual spaces (for example, virtual space #2, virtual space #3, . . . ).
  • terminal #1 of 101_1 moves in real space #1 and the position of terminal #1 of 101_1 in real space #1 is updated, it is associated with real space #1 according to the operation explained above.
  • the position of "the character corresponding to terminal #1 of 101_1" in virtual space #1 is updated, and the output information generation unit 214 of the server 104 in FIG.
  • An output signal 202 containing output information regarding virtual space #1 is output from the server 104.
  • terminal #1 of 101_1 estimates its position in real space #1 using a position estimation system such as GPS that terminal #1 of 101_1 is equipped with, and estimates its position in real space #1 using base station #1 of 102_1.
  • Terminal #1 of 101_1 and 101_1 may share position information of terminal #1 of 101_1 in real space #1.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #1 of 101_1 and base station #1 of 102_1 it is possible to perform the same implementation using other terminals and other base stations.
  • terminal #1 of 101_1 moves to real space #2. It is assumed that terminal #1 at 101_1 cooperates with base station #2 at 102_2 and performs sensing-related operations. As a result, base station #2 of 102_2 and terminal #1 of 101_1 share the position information of terminal #1 of 101_1 in real space #2.
  • the location information of terminal #1 in 101_1 in real space #2 may be "absolute location information such as longitude and latitude where terminal #1 in 101_1 exists", or The location information in real space #2 is "difference information (which may also be called relative location information) between the location where terminal #1 of 101_1 exists and the location where base station #2 of 102_2 exists". Good too.
  • the base station #2 of 102_2 will transmit the position information of the terminal #1 of 101_1 in the real space #2 to the server 104.
  • the location information is obtained, and the "position of terminal #1 of 101_1 in real space #2" is known.
  • the server 104 may obtain the location information of the base station #2 of 102_2, and thereby obtain the location information of the terminal #1 of 101_1 in real space #2.
  • the position in real space #2 will be known. Further, the server 104 obtains information about the terminal #1 of 101_1 from the terminal #1 of 101_1 via the base station #2 of 102_2.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs the character information corresponding to the terminal #1 of 101_1 by obtaining the information of the terminal #1 of 101_1.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #1 of 101_1 in #2 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #1 of 101_1” output by the character information storage unit 212 for each terminal, Character based on position in real space "Information for controlling the position of the character corresponding to terminal #1 of 101_1 in virtual space #2 associated with real space #2” output by the "control unit” 213 Based on this, in virtual space #2, "character corresponding to terminal #1 of 101_1” is set to "position of character corresponding to terminal #1 of 101_1 in virtual space #2 associated with real space #2".
  • An output signal 202 containing output information regarding virtual space #2 including " is output from the server 104.
  • the output signal 202 may include information on other virtual spaces (for example, virtual space #1, virtual space #3, . . . ).
  • terminal #1 of 101_1 moves in real space #2 and the position of terminal #1 of 101_1 in real space #2 is updated, it is associated with real space #2 according to the operation explained above.
  • the position of "the character corresponding to terminal #1 of 101_1" in virtual space #2 is updated, and the output information generation unit 214 of the server 104 in FIG.
  • An output signal 202 containing output information regarding virtual space #2 is output from the server 104.
  • terminal #1 of 101_1 estimates its position in real space #2 using a position estimation system such as GPS that terminal #1 of 101_1 is equipped with, and estimates the position in real space #2 using base station #2 of 102_2.
  • Terminal #1 of 101_1 and 101_1 may share position information of terminal #1 of 101_1 in real space #2.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #1 of 101_1 and base station #2 of 102_2 it is possible to perform the same implementation using other terminals and other base stations.
  • FIG. 6 shows an example of real space and base station arrangement. Components that operate in the same manner as in FIG. 1 are given the same numbers.
  • the inside of the ellipse 100_0 is real space #0
  • the inside of the ellipse 100_1 is real space #1
  • the inside of the ellipse 100_2 is real space #2, and so on.
  • the communicable area of base station #0 of 102_0 includes real space #0
  • the communicable area of base station #1 of 102_1 includes real space #1
  • the communication area of base station #2 of 102_2 includes real space #0. It is assumed that real space #2 is included.
  • base station #0 of 102_0, base station #1 of 102_1, and base station #2 of 102_2 are communicating with the server 104 in FIGS. 1 and 5.
  • the base station #1 of 102_1 in FIG. 1 and the base station #2 of 102_2 in FIG. 5 transmit information as shown in FIG. 7A to the server 104.
  • base station #1 of 102_1 in FIG. 1 and base station #2 of 102_2 in FIG. 5 transmit cell ID information 701, terminal information 702, and location information 703 to server 104. shall be taken as a thing.
  • base station #1 at 102_1 in FIG. 1 (and information on terminal #2 of 101_2) will be transmitted to the server 104.
  • the server 104 learns the real space ID (here, real space #1) from the cell ID information 701, and thereby, from the "real space ID and virtual space ID" in FIG. 4B. , 101_1, the character corresponding to terminal #1 will appear in virtual space #1. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminals may transmit information as shown in FIG. 7B to base station #1 of 102_1. Therefore, the terminal may obtain cell ID information included in the modulated signal transmitted by base station #1 of 102_1, and transmit this cell ID information 751 to base station #1 of 102_1. Furthermore, the terminal may transmit its own terminal information 702 and location information 753 where the own terminal is located to the base station #1 of 102_1. Base station #1 of 102_1 will then transmit this information to server 104.
  • FIG. 8 shows an example of the real space and the arrangement of base stations. Components that operate in the same manner as in FIG. 1 are given the same numbers.
  • the inside of the ellipse 100_0 is real space #0
  • the inside of the ellipse 100_1 is real space #1
  • the inside of the ellipse 100_2 is real space #2, and so on.
  • base station #0_0 of 102_0_0 and base station #0_1 of 102_0_1 are communicating with the server 104 in FIGS. 1 and 5.
  • base station #0_0 of 102_0_0 transmits information as shown in FIG. 7A to the server 104.
  • base station #0_0 of 102_0_0 transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • base station #0_0 of 102_0_0 is communicating with terminal #1 of 101_1, for example.
  • base station #0_0 at 102_0_0 will transmit cell ID information 701, information about terminal #1 at 101_1 as terminal information 702, and location information about terminal #1 at 101_1 as location information 703 to the server 104. .
  • the server 104 learns the real space ID (here, real space #0) from the cell ID information 701, and thereby, from the "real space ID and virtual space ID" in FIG. 4B. , 101_1, the character corresponding to terminal #1 will appear in virtual space #0. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • terminal #1 of 101_1 may transmit information as shown in FIG. 7B to base station #0_0 of 102_0_0.
  • the terminal may obtain cell ID information included in the modulated signal transmitted by base station #0_0 of 102_0_0, and transmit this cell ID information 751 to base station #0_0 of 102_0_0.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to base station #0_0 of 102_0_0. Then, the base station #0_0 of 102_0_0 will transmit this information to the server 104.
  • base station #0_1 of 102_0_1 transmits information as shown in FIG. 7A to the server 104.
  • base station #0_1 of 102_0_1 transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • base station #0_1 of 102_0_1 is communicating with terminal #2 of 101_2, for example.
  • base station #0_1 at 102_0_1 will transmit cell ID information 701, information about terminal #2 at 101_2 as terminal information 702, and location information about terminal #2 at 101_2 as location information 703 to the server 104. .
  • the server 104 learns the real space ID (here, real space #0) from the cell ID information 701, and thereby, from the "real space ID and virtual space ID" in FIG. 4B. , 101_2, the character corresponding to terminal #2 will appear in virtual space #0. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to base station #0_1 of 102_0_1.
  • the terminal may obtain cell ID information included in the modulated signal transmitted by base station #0_1 of 102_0_1, and transmit this cell ID information 751 to base station #0_1 of 102_0_1.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station #0_1 of 102_0_1. Then, the base station #0_1 of 102_0_1 will transmit this information to the server 104.
  • real space #0 a plurality of base stations exist in real space #0, and thus real space #0 may be associated with a plurality of cell IDs.
  • the communicable area of base station #1_0 of 102_1_0 includes real space #1
  • the communicable area of base station #1_1 of 102_1_1 includes real space #1. Note that there may be other base stations whose communication area is real space #1.
  • base station #1_0 of 102_1_0 and base station #1_1 of 102_1_1 are communicating with the server 104 in FIGS. 1 and 5.
  • base station #1_0 of 102_1_0 transmits information as shown in FIG. 7A to the server 104.
  • base station #1_0 of 102_1_0 transmits cell ID information 701, terminal information 702, and location information 703 to server 104.
  • base station #1_0 of 102_1_0 is communicating with terminal #3 of 101_3, for example.
  • base station #1_0 at 102_1_0 will transmit cell ID information 701, information about terminal #3 at 101_3 as terminal information 702, and location information about terminal #3 at 101_3 as location information 703 to the server 104. .
  • the server 104 learns the real space ID (here, real space #1) from the cell ID information 701, and thereby, from the "real space ID and virtual space ID" in FIG. 4B. , 101_3, the character corresponding to terminal #3 will appear in virtual space #1. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to base station #1_0 of 102_1_0.
  • the terminal may obtain cell ID information included in the modulated signal transmitted by base station #1_0 of 102_1_0, and transmit this cell ID information 751 to base station #1_0 of 102_1_0.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station #1_0 of 102_1_0.
  • Base station #1_0 of 102_1_0 will then transmit this information to server 104.
  • base station #1_1 of 102_1_1 transmits information as shown in FIG. 7A to the server 104.
  • base station #1_1 of 102_1_1 transmits cell ID information 701, terminal information 702, and location information 703 to server 104.
  • base station #1_1 of 102_1_1 is communicating with terminal #4 of 101_4, for example.
  • base station #1_1 at 102_1_1 will transmit cell ID information 701, information about terminal #4 at 101_4 as terminal information 702, and location information about terminal #4 at 101_4 as location information 703 to the server 104. .
  • the server 104 learns the real space ID (here, real space #1) from the cell ID information 701, and thereby, from the "real space ID and virtual space ID" in FIG. 4B. , 101_4, the character corresponding to terminal #4 will appear in virtual space #1. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • terminal #4 of 101_4 may transmit information as shown in FIG. 7B to base station #1_1 of 102_1_1.
  • the terminal may obtain cell ID information included in the modulated signal transmitted by base station #1_1 of 102_1_1, and transmit this cell ID information 751 to base station #1_1 of 102_1_1.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station #1_1 of 102_1_1. Then, the base station #1_1 of 102_1_1 will transmit this information to the server 104.
  • real space #1 a plurality of base stations exist in real space #1, and thus real space #1 may be associated with a plurality of cell IDs.
  • FIG. 9 shows an example of real space and base station arrangement. Components that operate in the same manner as in FIG. 1 are given the same numbers.
  • the inside of the ellipse 100_0 is real space #0
  • the inside of the ellipse 100_1 is real space #1
  • the inside of the ellipse 100_2 is real space #2, and so on.
  • the communicable area of base station #0 of 102_0 includes real space #0, real space #1, and real space #2.
  • base station #0 of 102_0 transmits information as shown in FIG. 7A to the server 104.
  • base station #0 of 102_0 transmits cell ID information 701, terminal information 702, and location information 703 to server 104.
  • base station #0 of 102_0 is communicating with terminal #5 of 101_5, for example.
  • base station #0 at 102_0 will transmit cell ID information 701, information about terminal #5 at 101_5 as terminal information 702, and location information about terminal #5 at 101_5 as location information 703 to the server 104. .
  • the server 104 learns the real space ID (here, any of real space #0, real space #1, and real space #2) from the cell ID information 701, and thereby Based on the "real space ID and virtual space ID", the character corresponding to terminal #1 of 101_1 will appear in any of virtual space #0, virtual space #1, and virtual space #2. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • terminal #1 of 101_1 may transmit information as shown in FIG. 7B to base station #0 of 102_0.
  • the terminal may obtain cell ID information included in the modulated signal transmitted by base station #0 of 102_0, and transmit this cell ID information 751 to base station #0 of 102_0.
  • the terminal may transmit information 702 about its own terminal and location information 753 where the terminal is located to base station #0 of 102_0. Base station #0 of 102_0 will then transmit this information to server 104.
  • the base station includes a plurality of real spaces as communicable areas, and thereby a cell ID may be associated with a plurality of real spaces.
  • FIG. 4A shows an example of real space.
  • the inside of the ellipse 100_0 is named real space #0
  • the inside of the ellipse 100_0 is named real space #1
  • the inside of the ellipse 100_2 is named real space #2.
  • real spaces other than "real space #0, real space #1, and real space #2" may exist in the real space.
  • FIG. 10A and 10B show the relationship between real space and virtual space using FIG. 4A as an example.
  • - "Real space #0" is associated with “virtual space #0", “virtual space #1”, and “virtual space #2”.
  • - "Real space #1” and “real space #2” are associated with “virtual space #3”.
  • - "Real space #3” and “real space #4” are associated with "virtual space #4" and "virtual space #5".
  • - "Real space #5" and "real space #6" are associated with "virtual space #6", “virtual space #7", and “virtual space #8".
  • - "Real space #7", “real space #8", “real space #9", and “real space #10” are associated with “virtual space #9” and "virtual space #10”. ... becomes.
  • real space #X and “virtual space #Y” may have a digital twin relationship.
  • "real space #X” and “virtual space #Y” do not have to be complete digital twins; for example, “real space #X” and “virtual space #Y” are partially digital twins. It may be a relationship. Note that the sizes of the spaces represented by "real space #X” and “virtual space #Y” may be the same or different.
  • the relationship may be such that when the position in "real space #X" is determined, the position in "virtual space #Y" is determined.
  • the terminal and the base station are communicating, and that the terminal and the base station are performing sensing-related operations. It is assumed that the base station is communicating with the server 104 via the network 103.
  • terminal #1 of 101_1 exists in real space #0 described in FIG. 10A, and terminal #1 of 101_1 cooperates with base station #0 of 102_0 to perform sensing-related operations.
  • Base station #0 of 102_0 is assumed to be a base station whose communication area is real space #0.
  • base station #0 of 102_0 and terminal #1 of 101_1 are connected to terminal #1 of 101_1. It is assumed that position information in real space #0 is shared.
  • the location information of terminal #1 of 101_1 in real space #0 may be "absolute location information such as longitude and latitude where terminal #1 of 101_1 exists", or
  • the position information in real space #0 is "difference information (which may also be called relative position information) between the position where terminal #1 of 101_1 exists and the position where base station #0 of 102_0 exists”. Good too.
  • the base station #0 of 102_0 will transmit the location information of the terminal #1 of 101_1 in real space #0 to the server 104 (it may also transmit the cell ID of the base station #0 of 102_0), As a result, the server 104 obtains the position information of the terminal #1 of 101_1 in real space #0, and learns "the position of terminal #1 of 101_1 in real space #0." Note that when the server 104 obtains "difference information between the position where terminal #1 of 101_1 exists and the position where base station #0 of 102_0 exists" as the position information of terminal #1 of 101_1 in real space #0, , the server 104 may obtain the location information of the base station #0 of 102_0, and thereby the server 104 obtains the location information of the terminal #1 of 101_1 in real space #0, The position in real space #0 is known. Further, the server 104 obtains information about the terminal #1 of 101_1 from the terminal #1 of 101_1 via the base station #0 of 102_0
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs the character information corresponding to the terminal #1 of 101_1 by obtaining the information of the terminal #1 of 101_1.
  • the character "control unit” 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #1 of 101_1 in virtual space #1 or virtual space #2 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #1 of 101_1” output by the character information storage unit 212 for each terminal, Characters based on positions in real space "Character corresponding to terminal #1 of 101_1 in virtual space #0, virtual space #1, and virtual space #2 that are associated with real space #0" output by the "control unit” 213 Based on "information for controlling the position of virtual space #0, virtual space #1, virtual space #2", “virtual space #0, virtual space that is associated with real space #0"
  • Output information regarding virtual space #0, virtual space #1, and virtual space #2 including “character corresponding to terminal #1 of 101_1" is generated, and virtual space #0 including "character corresponding to terminal #1 of 101_1” is generated.
  • virtual space #1, and virtual space #2 an output signal 202 is output from the server 104. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #1 of 101_1 moves in real space #0 and the position of terminal #1 of 101_1 in real space #0 is updated, it is associated with real space #0 according to the operation explained above.
  • the position of "the character corresponding to terminal #1 of 101_1" in virtual space #0, virtual space #1, and virtual space #2 is updated, and the output information generation unit 214 in FIG.
  • An output signal 202 containing output information regarding virtual space #0, virtual space #1, and virtual space #2 including "the character corresponding to terminal #1" is output from the server 104.
  • terminal #1 of 101_1 estimates its position in real space #0 using a position estimation system such as GPS that terminal #1 of 101_1 is equipped with, and estimates its position in real space #0 using base station #0 of 102_0.
  • Terminal #1 of 101_1 and 101_1 may share position information of terminal #1 of 101_1 in real space #0.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #1 of 101_1 and base station #0 of 102_0 it is possible to perform the same implementation using other terminals and other base stations.
  • terminal #1 of 101_1 moves to real space #1 in FIG. 10A. It is assumed that terminal #1 at 101_1 cooperates with base station #1 at 102_1 and performs sensing-related operations, for example.
  • Base station #1 of 102_1 is assumed to be a base station whose communication area is real space #1.
  • base station #1 of 102_1 and terminal #1 of 101_1 are connected to terminal #1 of 101_1. It is assumed that position information in real space #1 is shared.
  • the location information of terminal #1 of 101_1 in real space #1 may be "absolute location information such as longitude and latitude where terminal #1 of 101_1 exists", or
  • the position information in real space #1 is "difference information (which may also be called relative position information) between the position where terminal #1 of 101_1 exists and the position where base station #1 of 102_1 exists”. Good too.
  • the base station #1 of 102_1 transmits the position information of the terminal #1 of 101_1 in the real space #1 to the server 104.
  • the location information is obtained, and the "position of terminal #1 of 101_1 in real space #1" is known.
  • the server 104 may obtain the location information of the base station #1 of 102_1, and thereby the server 104 obtains the location information of the terminal #1 of 101_1 in real space #1, The position in real space #1 will be known. Further, the server 104 obtains information about the terminal #1 of 101_1 from the terminal #1 of 101_1 via the base station #1 of 102_1.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs the character information corresponding to the terminal #1 of 101_1 by obtaining the information of the terminal #1 of 101_1.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #1 of 101_1 in virtual space #3 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #1 of 101_1” output by the character information storage unit 212 for each terminal, Character based on position in real space
  • Control unit 213 outputs "For controlling the position of the character corresponding to terminal #1 of 101_1 in virtual space #3 associated with real spaces #1 and #2"
  • terminal #1 of 101_1 is set to the position of the character corresponding to terminal #1 of 101_1 in virtual space #3 that is associated with real spaces #1 and #2”.
  • the server 104 outputs an output signal 202 containing output information regarding the virtual space #3 including the character corresponding to #1. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #1 of 101_1 estimates its position in real space #1 using a position estimation system such as GPS that terminal #1 of 101_1 is equipped with, and estimates its position in real space #1 using base station #1 of 102_1.
  • Terminal #1 of 101_1 and 101_1 may share position information of terminal #1 of 101_1 in real space #1.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #1 of 101_1 and base station #1 of 102_1 it is possible to perform the same implementation using other terminals and other base stations.
  • the terminal and the base station are communicating, and that the terminal and the base station are performing sensing-related operations. It is assumed that the base station is communicating with the server 104 via the network 103.
  • terminal #2 of 101_2 exists in real space #1 described in FIG. 10A, and terminal #2 of 101_2 cooperates with base station #1 of 102_1 to perform sensing-related operations.
  • Base station #1 of 102_1 is assumed to be a base station whose communication area is real space #1.
  • base station #1 of 102_1 and terminal #2 of 101_2 are connected to terminal #2 of 101_2. It is assumed that position information in real space #1 is shared.
  • the location information of terminal #2 of 101_2 in real space #1 may be "absolute location information such as longitude and latitude where terminal #2 of 101_2 exists", or the location information of terminal #2 of 101_2
  • the location information in real space #1 is "difference information (which may also be called relative location information) between the location where terminal #2 of 101_2 exists and the location where base station #1 of 102_1 exists”. Good too.
  • the base station #1 of 102_1 will transmit the location information of the terminal #2 of 101_2 in the real space #1 to the server 104 (it may also transmit the cell ID of the base station #1 of 102_1), As a result, the server 104 obtains the position information of the terminal #2 of 101_2 in real space #1, and learns "the position of terminal #2 of 101_2 in real space #1.” In addition, when the server 104 obtains "difference information between the position where terminal #2 of 101_2 exists and the position where base station #1 of 102_1 exists" as the position information of terminal #2 of 101_2 in real space #1.
  • the server 104 may obtain the location information of the base station #1 of 102_1, and thereby the server 104 obtains the location information of the terminal #2 of 101_2 in real space #1, The position in real space #1 will be known. Further, the server 104 obtains information about the terminal #2 of 101_2 from the terminal #2 of 101_2 via the base station #1 of 102_1.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs character information corresponding to terminal #2 of 101_2.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #2 of 101_2 in virtual space #3 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to terminal #2 of 101_2” output by the character information storage unit 212 for each terminal, Character based on position in real space
  • Control unit 213 outputs "For controlling the position of the character corresponding to terminal #2 of 101_2 in virtual space #3 that is associated with real spaces #1 and #2”
  • terminal #2 of 101_2 is set to the position of the character corresponding to terminal #2 of 101_2 in virtual space #3 that is associated with real spaces #1 and #2”.
  • the server 104 outputs an output signal 202 containing output information regarding the virtual space #3 including the character corresponding to #2. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #2 of 101_2 estimates its position in real space #1 using a position estimation system such as GPS that terminal #2 of 101_2 has, and estimates the position in base station #2 of 102_2.
  • Terminal #2 of 101_2 and 101_2 may share position information of terminal #2 of 101_2 in real space #1.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #2 of 101_2 and base station #1 of 102_1, it is possible to perform the same implementation using other terminals and other base stations.
  • terminal #2 of 101_2 moves to real space #3 in FIG. 10A. It is assumed that terminal #2 at 101_2 cooperates with base station #3 at 102_3 and performs sensing-related operations, for example.
  • Base station #3 of 102_3 is assumed to be a base station whose communication area is real space #3.
  • base station #3 of 102_3 and terminal #2 of 101_2 are connected to terminal #2 of 101_2. It is assumed that position information in real space #3 is shared.
  • the location information of terminal #2 in 101_2 in real space #3 may be "absolute location information such as longitude and latitude where terminal #2 in 101_2 exists” or
  • the position information in real space #3 is "difference information (which may also be called relative position information) between the position where terminal #2 of 101_2 exists and the position where base station #3 of 102_3 exists”. Good too.
  • the base station #3 of 102_3 transmits the position information of the terminal #2 of 101_2 in the real space #3 to the server 104.
  • the server 104 transmits the position information of the terminal #2 of 101_2 in the real space #3
  • the location information is obtained, and the "position of terminal #2 of 101_2 in real space #3" is known.
  • the server 104 may obtain the location information of the base station #3 of 102_3, and thereby the server 104 obtains the location information of the terminal #2 of 101_2 in real space #3, The position in real space #3 will be known. Further, the server 104 obtains information about the terminal #2 of 101_2 from the terminal #2 of 101_2 via the base station #3 of 102_3.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs character information corresponding to terminal #2 of 101_2.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #2 of 101_2 in virtual spaces #4 and #5 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to terminal #2 of 101_2” output by the character information storage unit 212 for each terminal, Character based on position in real space "Control unit” 213 outputs "Control the position of the character corresponding to terminal #2 of 101_2 in virtual spaces #4 and #5 that are associated with real spaces #3 and #4" In virtual spaces #4 and #5, based on the information to The output information generation unit 214 of the server 104 in FIG.
  • An output signal 202 is output from the server 104, which generates output information regarding virtual spaces #4 and #5, and includes output information regarding virtual spaces #4 and #5, which includes "characters corresponding to terminal #1 of 101_1.” At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #2 of 101_2 estimates its position in real space #3 using a position estimation system such as GPS that terminal #2 of 101_2 is equipped with, and estimates its position in real space #3 using base station #3 of 102_3.
  • Terminal #2 of 101_2 and 101_2 may share position information of terminal #2 of 101_2 in real space #3.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #2 of 101_2 and base station #3 of 102_3 it is possible to perform the same implementation using other terminals and other base stations.
  • the terminal and the base station are communicating, and that the terminal and the base station are performing sensing-related operations. It is assumed that the base station is communicating with the server 104 via the network 103.
  • terminal #3 of 101_3 exists in real space #3 described in FIG. 10A, and terminal #3 of 101_3 cooperates with base station #3 of 102_3 to perform sensing-related operations.
  • Base station #3 of 102_3 is assumed to be a base station whose communication area is real space #3.
  • base station #3 of 102_3 and terminal #3 of 101_3 are connected to terminal #3 of 101_3. It is assumed that position information in real space #3 is shared.
  • the location information of terminal #3 of 101_3 in real space #3 may be "absolute location information such as longitude and latitude where terminal #3 of 101_3 exists” or
  • the position information in real space #3 is "difference information (which may also be called relative position information) between the position where terminal #3 of 101_3 exists and the position where base station #3 of 102_3 exists”. Good too.
  • the base station #3 of 102_3 will transmit the location information of the terminal #3 of 101_3 in the real space #3 to the server 104 (it may also transmit the cell ID of the base station #3 of 102_3), As a result, the server 104 obtains the position information of the terminal #3 of 101_3 in real space #3, and learns "the position of terminal #3 of 101_3 in real space #3.” In addition, when the server 104 obtains "difference information between the position where terminal #3 of 101_3 exists and the position where base station #3 of 102_3 exists" as the position information of terminal #3 of 101_3 in real space #3.
  • the server 104 may obtain the location information of the base station #3 of 102_3, and thereby the server 104 obtains the location information of the terminal #3 of 101_3 in real space #3, The position in real space #3 will be known. Further, the server 104 obtains information about the terminal #3 of 101_3 from the terminal #3 of 101_3 via the base station #3 of 102_3.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs the character information corresponding to the terminal #3 of 101_3 by obtaining the information of the terminal #3 of 101_3.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #3 of 101_3 in virtual space #4 and virtual space #5 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #3 of 101_3” output by the character information storage unit 212 for each terminal, Character based on position in real space
  • the "control unit” 213 outputs "position of character corresponding to terminal #3 of 101_3 in virtual space #4 and virtual space #5 that are associated with real spaces #3 and #4" Terminal #101_3 in virtual space #4 and virtual space #5 that are associated with real spaces #3 and #4 in virtual space #4 and virtual space #5.
  • the server 104 includes the "character corresponding to the terminal #3 of 101_3" in the position of the character corresponding to Output information regarding virtual spaces #4 and virtual spaces #5 is generated, and an output signal 202 containing output information regarding virtual spaces #4 and virtual spaces #5 including "characters corresponding to terminal #3 of 101_3" is sent from the server 104. Output. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #3 of 101_3 estimates its position in real space #3 using a position estimation system such as GPS that terminal #3 of 101_3 is equipped with, and estimates its position in real space #3 using base station #3 of 102_3.
  • Terminal #3 of 101_3 and 101_3 may share position information of terminal #3 of 101_3 in real space #3. Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #3 of 101_3 and base station #3 of 102_3 it is possible to perform the same implementation using other terminals and other base stations.
  • terminal #3 of 101_3 moves to real space #5 in FIG. 10B. It is assumed that terminal #3 at 101_3 cooperates with base station #5 at 102_5 and performs sensing-related operations, for example.
  • Base station #5 of 102_5 is assumed to be a base station whose communication area is real space #5.
  • base station #5 of 102_5 and terminal #3 of 101_3 are connected to terminal #3 of 101_3. It is assumed that position information in real space #5 is shared.
  • the location information of terminal #3 in 101_3 in real space #5 may be "absolute location information such as longitude and latitude where terminal #3 in 101_3 exists” or
  • the position information in real space #5 is "difference information (which may also be called relative position information) between the position where terminal #3 of 101_3 exists and the position where base station #5 of 102_5 exists”. Good too.
  • the base station #5 of 102_5 transmits the position information of the terminal #3 of 101_3 in real space #5 to the server 104.
  • the location information is obtained, and the "position of terminal #3 of 101_3 in real space #5" is known.
  • the server 104 may obtain the location information of the base station #5 of 102_5, and thereby the server 104 obtains the location information of the terminal #3 of 101_3 in real space #5, The position in real space #5 will be known. Further, the server 104 obtains information about the terminal #3 of 101_3 from the terminal #3 of 101_3 via the base station #5 of 102_5.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs the character information corresponding to the terminal #3 of 101_3 by obtaining the information of the terminal #3 of 101_3.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #3 of 101_3 in virtual spaces #6, #7, and #8 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #3 of 101_3” output by the character information storage unit 212 for each terminal, Characters based on positions in real space "Control unit” 213 outputs "characters corresponding to terminal #3 of 101_3 in virtual spaces #6, #7, #8 that are associated with real spaces #5, #6" 101_3 in virtual spaces #6, #7, #8 associated with real spaces #5, #6 in virtual spaces #6, #7, #8 based on "information for controlling positions".
  • the output signal 202 may include information on other virtual spaces.
  • terminal #3 of 101_3 estimates its position in real space #5 using a position estimation system such as GPS that terminal #3 of 101_3 is equipped with, and estimates the position in real space #5 using base station #5 of 102_5.
  • Terminal #3 of 101_3 and 101_3 may share position information of terminal #3 of 101_3 in real space #5. Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #3 of 101_3 and base station #5 of 102_5 it is possible to perform the same implementation using other terminals and other base stations.
  • the terminal and the base station are communicating, and that the terminal and the base station are performing sensing-related operations. It is assumed that the base station is communicating with the server 104 via the network 103.
  • terminal #4 of 101_4 exists in real space #5 described in FIG. 10B, and terminal #4 of 101_4 cooperates with base station #5 of 102_5 to perform sensing-related operations.
  • Base station #5 at 102_5 is assumed to be a base station whose communication area is real space #5.
  • base station #5 at 102_5 and terminal #4 at 101_4 are connected to terminal #4 at 101_4. It is assumed that position information in real space #5 is shared.
  • the location information of terminal #4 in 101_4 in real space #5 may be "absolute location information such as longitude and latitude where terminal #4 in 101_4 exists” or
  • the position information in real space #5 is "difference information (which may also be called relative position information) between the position where terminal #4 of 101_4 exists and the position where base station #5 of 102_5 exists”. Good too.
  • base station #5 of 102_5 will transmit the location information of terminal #4 of 101_4 in real space #5 to the server 104 (it may also transmit the cell ID of base station #5 of 102_5), As a result, the server 104 obtains the position information of the terminal #4 of 101_4 in real space #5, and learns "the position of terminal #4 of 101_4 in real space #5.” Note that when the server 104 obtains "difference information between the position where terminal #4 of 101_4 exists and the position where base station #5 of 102_5 exists" as the position information of terminal #4 of 101_4 in real space #5, , the server 104 may obtain the location information of the base station #5 of 102_5, and thereby the server 104 obtains the location information of the terminal #4 of 101_4 in the real space #5, The position in real space #5 will be known. Further, the server 104 obtains information about the terminal #4 of 101_4 from the terminal #4 of 101_4 via the base station #5 of 102_5.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs character information corresponding to terminal #4 of 101_4.
  • the character "control unit" 213 based on the position of the real space in FIG. Information for controlling the position of the character corresponding to terminal #4 of 101_4 in virtual spaces #6, #7, and #8 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to terminal #4 of 101_4” output by the character information storage unit 212 for each terminal, Characters based on positions in real space "Control unit” 213 outputs "characters corresponding to terminal #4 of 101_4 in virtual spaces #6, #7, #8 that are associated with real spaces #5, #6" 101_4 in virtual spaces #6, #7, #8 associated with real spaces #5, #6 in virtual spaces #6, #7, #8 based on "information for controlling positions".
  • the output signal 202 may include information on other virtual spaces.
  • terminal #4 of 101_4 estimates its position in real space #5 using a position estimation system such as GPS that terminal #4 of 101_4 has, and estimates the position in real space #5 using base station #5 of 102_5.
  • Terminal #4 of 101_4 and 101_4 may share position information of terminal #4 of 101_4 in real space #5. Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #4 of 101_4 and base station #5 of 102_5 it is possible to perform the same implementation using other terminals and other base stations.
  • terminal #4 of 101_4 moves to real space #7 in FIG. 10B. It is assumed that terminal #4 at 101_4 cooperates with base station #7 at 102_7 and performs sensing-related operations, for example.
  • Base station #7 of 102_7 is assumed to be a base station whose communication area is real space #7.
  • base station #7 of 102_7 and terminal #4 of 101_4 are connected to terminal #4 of 101_4. It is assumed that position information in real space #7 is shared.
  • the location information of terminal #4 in 101_4 in real space #7 may be "absolute location information such as longitude and latitude where terminal #4 in 101_4 exists” or
  • the location information in real space #7 is "difference information (which may also be called relative location information) between the location where terminal #4 of 101_4 exists and the location where base station #7 of 102_7 exists”. Good too.
  • the base station #7 of 102_7 transmits the position information of the terminal #4 of 101_4 in real space #7 to the server 104.
  • the location information is obtained, and the "position of terminal #4 of 101_4 in real space #7" is known.
  • the server 104 may obtain the location information of the base station #7 of 102_7, and thereby the server 104 obtains the location information of the terminal #4 of 101_4 in the real space #7.
  • the position in real space #7 will be known.
  • the server 104 obtains information about the terminal #4 of 101_4 from the terminal #4 of 101_4 via the base station #7 of 102_7.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs character information corresponding to terminal #4 of 101_4.
  • the character "control unit" 213 based on the position of the real space in FIG. 2 of the server 104 obtains the position information of the terminal #4 of 101_4 in the real space #7, Information for controlling the position of the character corresponding to terminal #4 of 101_4 in virtual spaces #9 and #10 associated with 10 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to terminal #4 of 101_4” output by the character information storage unit 212 for each terminal,
  • the character “control unit” 213 based on the position in real space outputs “corresponds to terminal #4 of 101_4 in virtual spaces #9 and #10 that are associated with real spaces #7, #8, #9, and #10” In virtual spaces #9 and #10, based on "information for controlling the position of the character to
  • An output signal 202 containing output information regarding virtual spaces #9 and #10 including "characters corresponding to terminal #1 of 101_1" is generated by the server. It is output from 104. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #4 of 101_4 estimates its position in real space #7 using a position estimation system such as GPS that terminal #4 of 101_4 is equipped with, and estimates the position in real space #7 using base station #7 of 102_7.
  • Terminal #4 of 101_4 and 101_4 may share position information of terminal #4 of 101_4 in real space #7. Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #4 of 101_4 and base station #7 of 102_7 it is possible to perform the same implementation using other terminals and other base stations.
  • the terminal and the base station are communicating, and that the terminal and the base station are performing sensing-related operations. It is assumed that the base station is communicating with the server 104 via the network 103.
  • terminal #5 of 101_5 exists in real space #7 described in FIG. 10B, and terminal #5 of 101_5 cooperates with base station #7 of 102_7 to perform sensing-related operations.
  • Base station #7 of 102_7 is assumed to be a base station whose communication area is real space #7.
  • base station #7 of 102_7 and terminal #5 of 101_5 are connected to terminal #5 of 101_5. It is assumed that position information in real space #7 is shared.
  • the location information of terminal #5 in 101_5 in real space #7 may be "absolute location information such as longitude and latitude where terminal #5 in 101_5 exists” or
  • the position information in real space #7 is "difference information (which may also be called relative position information) between the position where terminal #5 of 101_5 exists and the position where base station #7 of 102_7 exists”. Good too.
  • base station #7 of 102_7 will transmit the location information of terminal #5 of 101_5 in real space #7 to server 104 (it may also transmit the cell ID of base station #7 of 102_7), As a result, the server 104 obtains the position information of the terminal #5 of 101_5 in real space #7, and learns "the position of terminal #5 of 101_5 in real space #7.” In addition, when the server 104 obtains "difference information between the position where terminal #5 of 101_5 exists and the position where base station #7 of 102_7 exists" as the position information of terminal #5 of 101_5 in real space #7.
  • the server 104 may obtain the location information of the base station #7 of 102_7, and thereby the server 104 obtains the location information of the terminal #5 of 101_5 in the real space #7, The position in real space #7 will be known. Further, the server 104 obtains information about the terminal #5 of 101_5 from the terminal #5 of 101_5 via the base station #7 of 102_7.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs character information corresponding to terminal #5 of 101_5.
  • the character "control unit" 213 based on the position of the real space in FIG. 2 of the server 104 obtains the position information of the terminal #5 of 101_5 in the real space #7, Information for controlling the position of the character corresponding to terminal #5 of 101_5 in virtual spaces #9 and #10 associated with terminal #10 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #5 of 101_5” output by the character information storage unit 212 for each terminal,
  • the character "control unit” 213 based on the position in real space outputs "corresponds to terminal #5 of 101_5 in virtual spaces #9 and #10 that are associated with real spaces #7, #8, #9, and #10" In virtual spaces #9 and #10, based on "information for controlling the position of the character to
  • An output signal 202 containing output information regarding virtual spaces #9 and #10 including "character corresponding to terminal #5 of 101_5" is generated by the server. It is output from 104. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #5 of 101_5 estimates its position in real space #7 using a position estimation system such as GPS that terminal #5 of 101_5 has, and estimates the position in real space #7 using base station #7 of 102_7.
  • Terminal #5 of 101_5 and 101_5 may share position information of terminal #5 of 101_5 in real space #7. Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #5 of 101_5 and base station #7 of 102_7 it is possible to perform the same implementation using other terminals and other base stations.
  • terminal #5 of 101_5 moves to real space #9 in FIG. 10B. It is assumed that terminal #5 at 101_5 cooperates with base station #9 at 102_9 and performs sensing-related operations, for example.
  • Base station #9 of 102_9 is assumed to be a base station whose communication area is real space #9.
  • base station #9 of 102_9 and terminal #5 of 101_5 are connected to terminal #5 of 101_5. It is assumed that position information in real space #9 is shared.
  • the location information of terminal #5 in 101_5 in real space #9 may be "absolute location information such as longitude and latitude where terminal #5 in 101_5 exists” or
  • the location information in real space #9 is "difference information (which may also be called relative location information) between the location where terminal #5 of 101_5 exists and the location where base station #9 of 102_9 exists”. Good too.
  • the base station #9 of 102_9 transmits the position information of the terminal #5 of 101_5 in the real space #9 to the server 104.
  • the server 104 transmits the position information of the terminal #5 of 101_5 in the real space #9
  • the location information is obtained, and the "position of terminal #5 of 101_5 in real space #9" is known.
  • the server 104 may obtain the location information of the base station #9 of 102_9, and thereby the server 104 obtains the location information of the terminal #5 of 101_5 in real space #9, The position in real space #9 will be known. Further, the server 104 obtains information about the terminal #5 of 101_5 from the terminal #5 of 101_5 via the base station #9 of 102_9.
  • the character information storage unit 212 for each terminal in FIG. 2 of the server 104 outputs character information corresponding to terminal #5 of 101_5.
  • the character "control unit" 213 based on the position of the real space in FIG. 2 of the server 104 obtains the position information of the terminal #5 of 101_5 in the real space #9, Information for controlling the position of the character corresponding to terminal #5 of 101_5 in virtual spaces #9 and #10 associated with terminal #10 is output.
  • the output information generation unit 214 in FIG. 2 of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to terminal #5 of 101_5” output by the character information storage unit 212 for each terminal,
  • the character “control unit” 213 based on the position in real space outputs “corresponds to terminal #5 of 101_5 in virtual spaces #9 and #10 that are associated with real spaces #7, #8, #9, and #10” In virtual spaces #9 and #10, based on "information for controlling the position of the character to
  • An output signal 202 containing output information regarding virtual spaces #9 and #10 including "characters corresponding to terminal #1 of 101_1" is generated by the server. It is output from 104. At this time, the output signal 202 may include information on other virtual spaces.
  • terminal #5 of 101_5 estimates its position in real space #9 using a position estimation system such as GPS that terminal #5 of 101_5 is equipped with, and estimates the position in real space #9 using base station #9 of 102_9.
  • Terminal #5 of 101_5 and 101_5 may share position information of terminal #5 of 101_5 in real space #9. Other operations can be performed in the same way as described above if they operate as described above.
  • terminal #5 of 101_5 and base station #9 of 102_9 it is possible to perform the same implementation using other terminals and other base stations.
  • a base station existing in real space #0 a base station existing in real space #1, a base station existing in real space #2, a base station existing in real space #3, A base station that exists in real space #4, a base station that exists in real space #5, a base station that exists in real space #6, a base station that exists in real space #7, a base station that exists in real space #8,
  • the relationship between real space and cell ID (identification) in a base station existing in real space #9, a base station existing in real space #10, etc. will be explained.
  • FIG. 12 shows an example of real space and base station arrangement.
  • the inside of the ellipse 100_a0 is called a real space #a0
  • the inside of the ellipse 100_a1 is called a real space #a1
  • the inside of the ellipse 100_a2 is called a real space #a2, and so on.
  • the communication area of base station #b0 of 102_b0 includes real space #a0
  • the communication area of base station #b1 of 102_b1 includes real space #a1
  • the communication area of base station #b2 of 102_b2 includes real space #a0. It is assumed that real space #a2 is included.
  • base station #b0 of 102_b0, base station #b1 of 102_b1, and base station #b2 of 102_b2 are communicating with the server 104 as shown in FIG. 11.
  • base stations such as base station #b0 of 102_b0, base station #b1 of 102_b1, and base station #b2 of 102_b2 transmit information as shown in FIG. 7A to the server 104.
  • the base station transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • the base station #b0 of 102_b0 transmits cell ID information 701, information 702 of the terminal communicating with the base station #b0 of 102_b0, and location information 703 of the terminal to the server 104.
  • the server 104 learns the real space ID (here, real space #a0) from the cell ID information 701, and thereby determines the real space ID and virtual space ID shown in FIGS. 10A and 10B.
  • ID a character corresponding to the terminal will appear in the virtual space. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to the base station (here, base station #b0 of 102_b0). Therefore, the terminal may obtain cell ID information included in the modulated signal transmitted by the base station and transmit this cell ID information 751 to the base station. Further, the terminal may transmit information 702 about its own terminal and location information 753 where the terminal is located to the base station. The base station will then transmit this information to the server 104.
  • FIG. 12 is shown as the relationship between the real space and the base station
  • FIG. 12 is just an example, and the relationship between the real space and the base station (cell ID) is not limited to the example shown in FIG. do not have.
  • the base station #b0 of 102_b0 in FIG. It may also be possible to perform communication and sensing processing with terminals existing in ⁇ a part of ⁇ (part of)'' (etc.).
  • base station #b0 (cell ID) of 102_b0 is "real space #a1 (or a part of real space #a1)” and/or “real space #a2 (or a part of real space #a2)". ⁇ Part)'' (etc.).
  • base station #b0 of 102_b0 exists in "real space #a1 (or part of real space #a1)” and/or "real space #a2 (or part of real space #a2)"
  • the character of the terminal is set to "real space #a1 (or part of real space #a1)” and/or “real space #a2 (or part of real space #a2)".
  • the characters will be made to appear in a virtual space corresponding to ⁇ Some of them''.
  • FIG. 13 shows an example of real space and base station arrangement.
  • the inside of the ellipse 100_a0 is defined as a real space #a0
  • the inside of the ellipse 100_a1 is defined as a real space #a1
  • the inside of the ellipse 100_a2 is defined as a real space #a2, and so on.
  • base station #b0_0 of 102_b0_0 and base station #b0_1 of 102_b0_1 are communicating with the server 104 as shown in FIG. 11.
  • base stations such as base station #b0_0 of 102_b0_0 and base station #b0_1 of 102_b0_1 transmit information as shown in FIG. 7A to the server 104.
  • the base station transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • the base station #b0_0 of 102_b0_0 will transmit to the server 104 cell ID information 701, information 702 of the terminal communicating with the base station #b0_0 of 102_b0_0, and location information 703 of the terminal.
  • the server 104 learns the real space ID (here, real space #a0) from the cell ID information 701, and thereby determines the real space ID and virtual space ID shown in FIGS. 10A and 10B.
  • ID a character corresponding to the terminal will appear in the virtual space. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to the base station (here, base station #b0_0 of 102_b0_0). Therefore, the terminal may obtain cell ID information included in the modulated signal transmitted by the base station and transmit this cell ID information 751 to the base station.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station.
  • the base station will then transmit this information to the server 104.
  • base station #b0_1 of 102_b0_1 transmits information as shown in FIG. 7A to the server 104.
  • the base station transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • the base station #b0_1 of 102_b0_1 transmits cell ID information 701, information 702 of the terminal communicating with the base station #b0_1 of 102_b0_1, and location information 703 of the terminal to the server 104.
  • the server 104 learns the real space ID (here, real space #a0) from the cell ID information 701, and thereby determines the real space ID and virtual space ID shown in FIGS. 10A and 10B.
  • ID a character corresponding to the terminal will appear in the virtual space. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to the base station (here, base station #b0_1 of 102_b0_1). Therefore, the terminal may obtain cell ID information included in the modulated signal transmitted by the base station and transmit this cell ID information 751 to the base station.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station.
  • the base station will then transmit this information to the server 104.
  • a plurality of base stations exist in the real space #a0, and thus the real space #a0 may be associated with a plurality of cell IDs.
  • base station #b1_0 of 102_b1_0 and base station #b1_1 of 102_b1_1 are communicating with the server 104 as shown in FIG. 11.
  • base stations such as base station #b1_0 of 102_b1_0 and base station #b1_1 of 102_b1_1 transmit information as shown in FIG. 7A to the server 104.
  • the base station transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • the base station #b1_0 of 102_b1_0 transmits cell ID information 701, information 702 of the terminal communicating with the base station #b1_0 of 102_b1_0, and location information 703 of the terminal to the server 104.
  • the server 104 learns the real space ID (here, real space #a1) from the cell ID information 701, and thereby determines the "real space ID and virtual space ID" shown in FIGS. 10A and 10B. ID", a character corresponding to the terminal will appear in the virtual space. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to the base station (here, base station #b1_0 of 102_b1_0). Therefore, the terminal may obtain cell ID information included in the modulated signal transmitted by the base station and transmit this cell ID information 751 to the base station.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station.
  • the base station will then transmit this information to the server 104.
  • base station #b0_1 of 102_b1_1 transmits information as shown in FIG. 7A to the server 104.
  • the base station transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • the base station #b1_1 of 102_b1_1 transmits cell ID information 701, information 702 of the terminal communicating with the base station #b1_1 of 102_b1_1, and location information 703 of the terminal to the server 104.
  • the server 104 learns the real space ID (here, real space #a1) from the cell ID information 701, and thereby determines the "real space ID and virtual space ID" shown in FIGS. 10A and 10B. ID", a character corresponding to the terminal will appear in the virtual space. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to the base station (here, base station #b1_1 of 102_b1_1). Therefore, the terminal may obtain cell ID information included in the modulated signal transmitted by the base station and transmit this cell ID information 751 to the base station.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station.
  • the base station will then transmit this information to the server 104.
  • a plurality of base stations exist in the real space #a1, and thus the real space #a1 may be associated with a plurality of cell IDs.
  • FIG. 13 is shown as the relationship between the real space and the base station
  • FIG. 13 is just an example, and the relationship between the real space and the base station (cell ID) is not limited to the example shown in FIG. do not have.
  • the base station #b0_0 of 102_b0_0 in FIG. It may also be possible to perform communication and sensing processing with terminals existing in ⁇ a part of ⁇ (part of)'' (etc.).
  • base station #b0_0 (cell ID of) of 102_b0_0 is "real space #a1 (or part of real space #a1)” and/or “real space #a2 (or part of real space #a2)". ⁇ Part)'' (etc.).
  • base station #b0_0 of 102_b0_0 exists in "real space #a1 (or part of real space #a1)” and/or "real space #a2 (or part of real space #a2)"
  • the character of the terminal is set to "real space #a1 (or part of real space #a1)” and/or “real space #a2 (or part of real space #a2)".
  • the characters will be made to appear in a virtual space corresponding to ⁇ Some of them''.
  • FIG. 14 shows an example of real space and base station arrangement.
  • the inside of the ellipse 100_a0 is defined as a real space #a0
  • the inside of the ellipse 100_a1 is defined as a real space #a1
  • the inside of the ellipse 100_a2 is defined as a real space #a2, and so on.
  • the communicable area of base station #b0 of 102_b0 includes real space #a0, real space #a1, and real space #a2.
  • base station #b0 of 102_b0 transmits cell ID information 701, terminal information 702, and location information 703 to the server 104.
  • the base station #b0 of 102_b0 transmits cell ID information 701, information 702 of the terminal communicating with the base station #b0 of 102_b0, and location information 703 of the terminal to the server 104.
  • the server 104 learns the real space ID (here, real space #b0, real space #b1, or real space #b2) from the cell ID information 701, and thereby , a character corresponding to the terminal is made to appear in the virtual space based on the "real space ID and virtual space ID" in FIG. 10B. Note that the detailed operation is as already explained.
  • the server can create a character corresponding to the terminal in the "real space, virtual space corresponding to the cell" where the terminal exists. It is possible to obtain the effect of being able to
  • the terminal may transmit information as shown in FIG. 7B to base station #b0 of 102_b0.
  • the terminal may obtain cell ID information included in the modulated signal transmitted by base station #b0 of 102_b0, and transmit this cell ID information 751 to base station #b0 of 102_b0.
  • the terminal may transmit its own terminal information 702 and location information 753 where its own terminal is located to the base station #b0 of 102_b0. Then, the base station #b0 of 102_b0 will transmit this information to the server 104.
  • the base station includes a plurality of real spaces as communicable areas, and thereby a cell ID may be associated with a plurality of real spaces.
  • FIG. 14 is shown as the relationship between the real space and the base station
  • FIG. 14 is just an example, and the relationship between the real space and the base station (cell ID) is not limited to the example shown in FIG. do not have.
  • sensing processing is performed between a base station and a terminal.
  • the characteristics of this point will be explained.
  • FIG. 15 is an example of the configuration of an antenna included in a base station and a terminal.
  • reference numeral 1501 indicates an antenna (element).
  • a base station or a terminal is equipped with 16 antennas. ) is possible.
  • the base station and the terminal can perform transmission directivity control (transmission beamforming) and reception directivity control (reception beamforming) as shown in FIGS. 16A and 16B.
  • a "transmission beam and/or reception beam 1601" can be formed by an antenna 1600 of a base station or a terminal configured as shown in FIG. It is possible to form a plurality of beams and/or reception beams 1601 in the x-y axis direction, and as shown in FIG. 16B, for example, a base station or a terminal configured as shown in FIG. With the antenna 1600, it is possible to form a "transmission beam and/or reception beam 1602", that is, it is possible to form a plurality of "transmission beams and/or reception beams 1602" in the z-axis direction. Become.
  • base stations and terminals can perform three-dimensional sensing processing, which allows base stations and terminals to perform three-dimensional position estimation (e.g., in addition to two-dimensional positions in latitude and longitude, This makes it possible to estimate the position in the horizontal direction.
  • the example of three-dimensional sensing is not limited to this example, and the terminal may perform three-dimensional position estimation using another position estimation system.
  • the server 104 that has obtained the location information of the terminal via the base station will make a character corresponding to the terminal appear based on the location information of the terminal. explain.
  • the terminal is associated with a character shaped like a "person", and the server 104 decides to cause a character shaped like a "person” corresponding to the terminal to appear in the virtual space based on the location information of the terminal.
  • Become. - The terminal performs sensing processing with the base station, and the base station and/or the terminal obtains location information of the terminal.
  • the server 104 then obtains the location information of the terminal. (Or, the terminal obtains its own location information using another location estimation system.)
  • a user carrying a terminal is riding a bus, and the bus is traveling on a road. At this time, it is assumed that the terminal is located several meters above the ground and is moving at the speed of the bus.
  • sensing processing is performed between the base station and the terminal (or the terminal uses another position estimation system), and the terminal It is assumed that the vehicle is located at a height of 4 m above the ground.
  • the server 104 obtains the three-dimensional position of the terminal. For example, as shown in FIG. 17A, the server 104 places a "person-shaped character corresponding to the terminal" in the virtual space on the road. A process of making the object appear at a height of 4 m above the ground (1700_1) may also be performed.
  • the server 104 can represent the character corresponding to the terminal in the virtual space in a position closer to that in the real space.
  • the server 104 obtains the three-dimensional position of the terminal, and for example, as shown in FIG. may appear on the ground (for example, at a height of 0 m) on the road (1700_2).
  • the server 104 can represent the character corresponding to the terminal in the virtual space with the height corrected relative to the position in the real space.
  • the "first method of making a character corresponding to the terminal appear in the virtual space in a three-dimensional equivalent as shown in FIG. 17A" and the "Fig. You may switch to the second method of correcting the height and making it appear as in 17B (depending on the correction method, it may be a method of making it appear in a two-dimensional equivalent).
  • the setting of which method to use, the first method or the second method may be performed by the terminal.
  • the terminal transmits this configuration information to the server 104 via the base station and the network.
  • the terminal may transmit this configuration information to the server 104 via the network.
  • the server 104 may set whether to use the first method or the second method.
  • the base station may set which of the first method and the second method to use. At this time, the base station transmits this configuration information and transmits it to the server 104 via the network.
  • the server 104 causes a character corresponding to the terminal to appear in the virtual space based on this setting information.
  • terminal #101 of 101_101 and terminal #102 of 101_102 in FIGS. 1 and 5 will be explained.
  • Terminal #101 of 101_101 and terminal #102 of 101_102 are communicating with the server 104 via the network 103, not via the base station, as shown in FIG. 3A.
  • terminals such as terminal #101 of 101_101 and terminal #102 of 101_102 communicate with the server 104 as described above, a procedure is performed to associate characters corresponding to the terminals.
  • the terminal transmits terminal information to the server 104 (301).
  • the terminal information is information that allows the server 104 to identify the terminal (and/or the user), and includes, for example, SIM (Subscriber Identity Module) information, telephone number information, (user's or terminal Items that are "device and/or user information" such as e-mail address information (which can be used), ID (identification) held by the user, device ID, SNS (Social networking service) information, etc. shall be. Therefore, the server 104 obtains the terminal information (351).
  • SIM Subscriber Identity Module
  • telephone number information such as e-mail address information (which can be used)
  • ID identification
  • SNS Social networking service
  • the terminal transmits the character information to the server 104 (302). Therefore, server 104 will obtain character information (352).
  • the terminal may obtain character source information from the character generation unit 215 included in the server 104 in FIG. You may also obtain the underlying information. This allows the terminal to generate character information. Alternatively, the terminal may generate the character using its own functions.
  • the server 104 stores information on a set of terminal information and character information for that terminal in the character information storage unit 212 for each terminal in FIG. 2. Therefore, the character information storage unit 212 for each terminal in FIG. 2 stores "information on a set of terminal information and character information for that terminal" for each terminal.
  • the operation is described as “terminal information”, but it is possible to implement the same operation using "user information or identification information” instead of “terminal information”. Further, in other explanations, the operation is described as “terminal information”, but it is possible to similarly implement using "user information or identification information” instead of "terminal information”.
  • the character information storage unit 212 stores the "terminal information and character information set information" of the terminal #101 in 101_101 in FIGS. 1 and 5, and the "terminal information and a set of character information for that terminal.''
  • the user operating the terminal #101 of 101_101 in FIGS. 1 and 5 accesses the server 104 via the network 103.
  • the user operating the terminal #101 of 101_101 in FIGS. 1 and 5 accesses the character motion control unit 216 in FIG. 2 of the server 104 via the network 103.
  • the part that controls the character becomes the character motion control section 216 in FIG.
  • the user can use the character corresponding to terminal #101 of 101_101 to communicate with other characters existing in the virtual space, contact them, send messages, chat (or make voice calls) You may also do so. It is assumed that the user can move the character corresponding to the terminal #101 of 101_101 in the virtual space, regardless of the position of the terminal #101 of 101_101 in the real space. In this way, the part that controls the character becomes the character motion control section 216 in FIG.
  • the user operating the terminal #102 of 101_102 in FIGS. 1 and 5 accesses the server 104 via the network 103.
  • the user operating the terminal #101 of 101_101 in FIGS. 1 and 5 accesses the character motion control unit 216 in FIG. 2 of the server 104 via the network 103.
  • the part that controls the character becomes the character motion control section 216 in FIG.
  • the user can use the character corresponding to terminal #102 of 101_102 to communicate with other characters (therefore, other terminals) existing in the virtual space, make contact, send messages, and chat. (or a voice call). It is assumed that the user can move the character corresponding to the terminal #102 of 101_102 in the virtual space, regardless of the position of the terminal #102 of 101_102 in the real space. In this way, the part that controls the character becomes the character motion control section 216 in FIG.
  • the server 104 has generated virtual space #1 related to real space #1 shown in FIG. As shown in FIG. 1, since terminal #1 of 101_1 and terminal #2 of 101_2 exist in real space #1, "character corresponding to terminal #1 of 101_1" and “terminal #2 of 101_2” This means that the server 104 generates virtual space #1 so that the character "corresponding to number 2" appears in virtual space #1. Then, the server 104 controls the position of "the character corresponding to terminal #1 of 101_1" in virtual space #1 according to the position of terminal #1 of 101_1 in real space. The position of "the character corresponding to terminal #2 of 101_2" in virtual space #1 is controlled according to the position of terminal #2 in real space.
  • the user operating terminal #101 in 101_101 that does not exist in real space #1 shown in FIG. 1 accesses the server 104 via the network 103, and the user operates terminal #101 in 101_101. Then, a character corresponding to terminal #101 of 101_101 appears in virtual space #1, or a character corresponding to terminal #101 of 101_101 moves in virtual space #1.
  • the user who operates terminal #101 of 101_101 uses the character corresponding to terminal #101 of 101_101 to create a "character corresponding to terminal #1 of 101_1 existing in real space #1" that exists in virtual space #1. You may communicate, contact, send messages, and chat (or make voice calls) with (users using).
  • the user who operates terminal #101 of 101_101 uses the character corresponding to terminal #101 of 101_101 to create a "character corresponding to terminal #102 of 101_102 that does not exist in real space #1” that exists in virtual space #1. You may communicate, contact, send messages, and chat (or make voice calls) with (users using).
  • the user operating terminal #1 of 101_1 uses the character corresponding to terminal #101 of 101_1 to create a "character corresponding to terminal #101 of 101_101 that does not exist in real space #1" that exists in virtual space #1. You may communicate, contact, send messages, and chat (or make voice calls) with (users using).
  • actions that a user performs in a virtual space, using a character corresponding to a terminal, toward a terminal corresponding to another character (or a user using the terminal) are not included in the above examples (communication, communication, etc.). It is not limited to chat, etc. For example, it may be "transmission of images (still images), transmission of videos, transmission of advertisements, distribution of advertisements, distribution of coupons", etc.
  • a base station has been described, but a base station can be defined as a TRP (Tx (Transmission)/Rx (Reception) point), repeater, access point, broadcast station, gNB (g Node B), eNB (eNB).
  • Node B nodes, servers, satellites, moving devices (based on electricity such as electric cars, electric bikes (e-bikes), electric bicycles, moving robots, electric scooters, electric bicycles, electric scooters) moving devices, automobiles, motorcycles, bicycles, ships, aircraft, airplanes, etc.), terminals, mobile phones, smartphones, tablets, laptops, personal computers, personal computers, home appliances (household electrical machinery and equipment), equipment in factories, IoT (Internet of Things) equipment, communication equipment, broadcasting equipment, etc.” It is possible to implement it in the same way.
  • moving devices based on electricity such as electric cars, electric bikes (e-bikes), electric bicycles, moving robots, electric scooters, electric bicycles, electric scooters moving devices, automobiles, motorcycles, bicycles, ships, aircraft, airplanes, etc.
  • terminals mobile phones, smartphones, tablets, laptops, personal computers, personal computers, home appliances (household electrical machinery and equipment), equipment in factories, IoT (Internet of Things) equipment, communication equipment, broadcasting equipment, etc.” It is possible to implement
  • the base station of this embodiment can be defined as "TRP, repeater, access point, broadcast station, gNB, eNB, node, server, satellite, moving device such as the above, terminal, mobile phone, smartphone, tablet, etc. It may also be referred to as "communication equipment/broadcasting equipment such as notebook computers, personal computers, personal computers, home appliances, equipment in factories, IoT equipment, etc.” The above points are the same in this specification.
  • the terminal can be defined as "TRP, base station, repeater, access point, broadcasting station, gNB, eNB, node, server, satellite, moving device such as the above-mentioned, etc.
  • Terminals mobile phones, smartphones, tablets, laptops, personal computers, personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.” It is.
  • the terminal of this embodiment is defined as "TRP, base station, repeater, access point, broadcasting station, gNB, eNB, node, server, satellite, moving device such as the above, terminal, mobile phone, smartphone, "tablets, notebook computers, personal computers, personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.”
  • TRP base station
  • repeater access point
  • broadcasting station gNB
  • eNB node
  • server satellite
  • moving device such as the above, terminal, mobile phone, smartphone, "tablets, notebook computers, personal computers, personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.”
  • the above points are the same in this specification.
  • a device such as a base station or a terminal transmits a modulated signal or a signal for sensing
  • one or more transmitting antennas are used.
  • a modulation signal and a signal for sensing may be transmitted.
  • a signal transmitted by a terminal such as a modulation signal, a signal for sensing
  • UL-SCH downlink shared channel
  • PUCCH physical uplink control channel
  • PUSCH physical uplink shared channel
  • PRACH Physical uplink shared channel
  • signals transmitted by the base station are PCH (paging channel), BCH (broadcast channel), DL-SCH (downlink shared channel), BCCH ( broadcast control channel), PCCH (paging control channel), CCCH (common control channel), common search space, PBCH (physical broadcast channel), SS (Synchronization Signals), PDCCH (physical downlink control channel), PDSCH (physical downlink shared channel).
  • PCH paging channel
  • BCH broadcast channel
  • DL-SCH downlink shared channel
  • BCCH broadcast control channel
  • PCCH paging control channel
  • CCCH common control channel
  • common search space common search space
  • PBCH physical broadcast channel
  • SS Synchromonization Signals
  • PDCCH physical downlink control channel
  • PDSCH physical downlink shared channel
  • the server 104 makes "characters corresponding to terminals" such as terminal #1 of 101_1, terminal #2 of 101_2, terminal #101 of 101_101, and terminal #102 of 101_102 appear in the virtual space.
  • characters corresponding to terminals such as terminal #1 of 101_1, terminal #2 of 101_2, terminal #101 of 101_101, and terminal #102 of 101_102 appear in the virtual space.
  • a character equivalent to a terminal" in a virtual space may include a "human-like character (or object, avatar),” “animal-like character (or object, avatar),” “bird-like character,” etc.
  • "Character like a car (or object, avatar)” "Bicycle-like character (or object, avatar)”
  • “Bike-like character (or object, avatar)” "Train-like character (or object, avatar)", “Train-like character (or object, avatar)” or “robot-like character (or object, avatar),” but is not limited to this.
  • the server 104 determines which of a plurality of predefined terminal types the terminal is, and displays objects associated with each state or objects selected from the object group in the virtual space. It may be displayed.
  • the correspondence between terminal types and objects is not limited to the above example. For example, objects shaped like different animals may be associated with different types of terminals, or objects with the same shape but different colors may be associated with different types of terminals.
  • the server 104 since terminal #1 of 101_1 exists in real space #1, the server 104, for example, stores a character corresponding to terminal #1 of 101_1 in virtual space #1 corresponding to real space #1. appears and controls the character corresponding to terminal #1 of 101_1. An example is shown in which the server 104 provides information about virtual space #1 to terminals including terminal #1 of 101_1.
  • the server 104 generates information for AR display as information provided to terminal #1 of 101_1, terminal #2 of 101_2, etc. existing in real space #1. Then, the server 104 may provide information for AR display to the terminals existing in real space #1, such as "terminal #1 of 101_1, terminal #2 of 101_2, etc.”. At this time, if a terminal with an AR display function exists in real space #1, that terminal will obtain information for AR display and display characters, objects, etc. at the specified position. .
  • the server 104 will generate information for AR display from the information of virtual space #1.
  • the server 104 selects from "information and position of characters and objects existing in virtual space #1", “information of characters and objects to be displayed superimposed on real space”, and “information on characters and objects to be displayed superimposed on real space”. , generates position information that is superimposed on the object's real space.
  • the server 104 sends "information about characters and objects to be displayed superimposed on real space” and "positional information of characters and objects to be displayed superimposed on real space to be displayed superimposed on real space” to real space #1.
  • ⁇ Terminal with AR display function'' exists in ⁇ Terminal with AR display function''. Characters, objects, etc. are displayed at specified positions based on ⁇ position information superimposed on objects in real space.''
  • terminals that exist in real space #1 and/or the terminals that do not exist in real space #1 such as "terminal #1 of 101_1, terminal #2 of 101_2, etc.” in FIG. 1, undergo the following processing. You may do so.
  • the terminal estimates its own position by aligning the three-dimensional map information with sensing data (LIDAR (Light Detection and Ranging) or point cloud data acquired by a camera, etc.).
  • the terminal estimates, for example, position and orientation information in three-dimensional map information as self-position information.
  • the terminal acquires data indicating the shape data and arrangement positions of surrounding objects from the server 104.
  • the terminal displays the object on a display screen displaying an image captured by the terminal's camera, on a transparent display of smart glasses, or the like.
  • the terminal may detect a plane such as the surrounding floor or desk top.
  • the plane detected here is assumed to be horizontal or nearly horizontal, but it may also be a vertical plane such as a wall, or a plane with any angle including horizontal or vertical. You may do so.
  • the terminal may detect objects including these objects, provide them to the server 104, and display them in the virtual space, or may process them as objects to be displayed in the AR space.
  • the terminal When displaying an object, the terminal does not use the installation position information set for the object as is, but also corrects the position where the object is displayed on the display screen based on the detected plane information. good. Note that this point is applicable to both display in virtual space and display in AR.
  • the location information obtained by other methods may be, for example, terminal location information estimated by a base station, terminal location information estimated by another device, location information obtained by GPS, or the like.
  • location information of the terminal estimated by the base station when a character is displayed in the virtual space based on the location information estimated by the base station, the object visible to the character in the virtual space , it is possible to reduce the possibility that differences will occur in objects displayed in AR in real space.
  • Embodiment 2 In this embodiment, a modification of Embodiment 1 will be described with respect to the configuration of a system that makes a character appear in a virtual space based on the position of a terminal existing in a real space, and the operation of each device.
  • real space may also be referred to as “(physical) real space” or “universe.” Further, the real space may be “AR (Augmented Reality) (a world in which the real world is virtually extended)”. For example, real space can be taken as the physical world in which we live. Real space may be called by other names. The above points are the same throughout this specification.
  • virtual space can be called “cyber space,” “metaverse space,” “multiverse space,” “virtual space,” “VR (Virtual Reality),” or “virtual world.” good. Note that the virtual space may be called by another name. The above points are the same throughout this specification.
  • the character may be called an "avatar” or an "object”.
  • an avatar may be regarded as an alter ego of the user owning the terminal that appears in a game, the Internet, or a virtual space. Note that the character may be called by another name.
  • FIG. 18 shows an example of "the configuration of a system that makes a character appear in a virtual space based on the position of a terminal existing in a real space" in this embodiment.
  • parts that operate in the same way as in FIG. 1 are given the same numbers, and some explanations will be omitted.
  • the inside of the ellipse 100_1 is real space #1.
  • Object #1 of 1801_1 and object #2 of 1801_2 exist in real space #1.
  • the real space is defined as the inside of the ellipse, the real space does not have to be represented inside the ellipse.
  • the real space is represented inside the ellipse. Note that this point is the same throughout this embodiment and the entire specification.
  • the photographing device #1 of 1802_1 exists in real space #1, but the photographing device #1 of 1802_1 may exist in a real space other than real space #1.
  • the photographing device #1 of 1802_1 may be a device that photographs still images, videos, etc., such as a camera, a smartphone, a personal computer, a surveillance camera, or a movie. Further, the photographing device #1 of 1802_1 may be a device having a sensing function using light, radio waves, etc., or a sensor using light such as infrared rays, radio waves, etc. Therefore, although it is called a photographing device, it is not limited to this name, and may simply be called a device or a sensing device.
  • Object #1 of 1801_1 and object #2 of 1801_2 may be "people”, “animals”, “moving devices such as cars, motorcycles, bicycles”, “things worn by people”, “devices”, etc. ” or “object”.
  • the photographing device #1 of 1802_1 is communicating with devices including the server 104 via the network 103. Communication at this time may be wired and/or wireless communication, for example.
  • the photographing device #1 of 1802_1 may communicate, for example, wirelessly with objects including "object #1 of 1801_1 and object #2 of 1801_2". (Wired and/or wireless communication may be used.)
  • the imaging device #1 of 1802_1 is equipped with a transmitter and a receiver for wireless or wired communication.
  • the objects including "object #1 of 1801_1 and object #2 of 1801_2" may include a transmitter for wireless communication and a receiver for wireless communication.
  • Photographing device #1 of 1802_1 may include a transmitting unit for sensing and a receiving unit for sensing. Note that the transmitter for sensing and the transmitter for wireless communication may be separate or may be shared.
  • the imaging device #1 of 1802_1 may be equipped with a position estimation system such as GPS.
  • the photographing device #1 of 1802_1 may hold information on the position where the photographing device #1 of 1802_1 is installed.
  • the objects including "object #1 of 1801_1 and object #2 of 1801_2" may include a transmitter for sensing and a receiver for sensing. Note that the transmitter for sensing and the transmitter for wireless communication may be separate or may be shared. Objects including "object #1 of 1801_1 and object #2 of 1801_2" may be equipped with a position estimation system such as GPS.
  • the photographing device #1 of 1802_1 estimates objects including "object #1 of 1801_1 and object #2 of 1801_2".
  • the estimation of objects including "object #1 of 1801_1 and object #2 of 1801_2" by the imaging device #1 of 1802_1 means that, for example, an object exists in an area that can be sensed by the imaging device #1 of 1802_1.
  • object estimation may include a process of determining what the object is, that is, detecting the type of the object.
  • object estimation may include processing for detecting the movement or state of the object.
  • the number of objects may be one instead of a plurality.
  • the detection result may be that the object is not detected.
  • the photographing device #1 of 1802_1 is 2" (or sensing result information) may be obtained.
  • Photographing device #1 of 1802_1 transmits a signal for sensing. Then, the object receives the signal for this sensing and estimates its position (or obtains the sensing result). The object transmits this position information (or sensing result information) to photographing device #1 of 1802_1. As a result, the imaging device #1 of 1802_1 obtains position information (or sensing result information) of objects including "object #1 of 1801_1 and object #2 of 1801_2".
  • Photographing device #1 of 1802_1 transmits a signal for sensing. Then, the state of the signal for sensing changes in the object, and the photographing device #1 of 1802_1 captures this change (receives radio waves corresponding to the signal for sensing), and the photographing device #1 of 1802_1 Estimate the position of an object (or obtain sensing results). As a result, the imaging device #1 of 1802_1 obtains position information (or sensing result information) of objects including "object #1 of 1801_1 and object #2 of 1801_2".
  • Method 2-3 Objects including "object #1 of 1801_1 and object #2 of 1801_2" transmit signals for sensing. Then, the photographing device #1 of 1802_1 receives this signal for sensing and estimates the position (or obtains the sensing result). As a result, the imaging device #1 of 1802_1 obtains position information (or sensing result information) of objects including "object #1 of 1801_1 and object #2 of 1801_2".
  • the signal for sensing may be transmitted by the photographing device #1 of 1802_1, or by the object.
  • the methods by which photographing device #1 of 1802_1 obtains position information (or information on sensing results) of objects including "object #1 of 1801_1 and object #2 of 1801_2" are method 2-1 and method 2-2.
  • Methods 2-3 are not limited, and methods described in documents including Patent Document 2, Patent Document 3, and Patent Document 4 can be widely applied.
  • objects including "object #1 of 1801_1 and object #2 of 1801_2" may estimate their own positions using a position estimation system such as GPS. At this time, the object transmits the estimated position information to the photographing device #1 of 1802_1, and as a result, the photographing device #1 of 1802_1 can locate the object including "object #1 of 1801_1 and object #2 of 1801_2". You will get information.
  • a position estimation system such as GPS.
  • the imaging device #1 of 1802_1 is considered as the base station #1 of 102_1 in FIG. 1, and the object is considered as the terminal in FIG.
  • the situation is similar to that of Form 1. Therefore, in the first embodiment, if the base station #1 of 102_1 is considered as the imaging device #1 of 1802_1 and the terminal is considered as an object, the explanation of the first embodiment can be applied to FIG. 18. Therefore, detailed explanation will be omitted here.
  • method 2-4 which is different from method 2-1, method 2-2, and method 2-3, will be explained.
  • Method 2-4 It is assumed that the photographing device #1 1802_1 in FIG. 18 includes, for example, one or more of an image sensor, an infrared sensor, and a photodiode. Then, the photographing device #1 of 1802_1 detects and/or recognizes objects including "object #1 of 1801_1 and object #2 of 1801_2" using a sensor. Then, the photographing device #1 of 1802_1 obtains position information of objects including "object #1 of 1801_1 and object #2 of 1801_2".
  • the photographing device #1 of 1802_1 holds position information, and the position where the photographing device #1 of 1802_1 is installed is also used as the position of objects including "object #1 of 1801_1 and object #2 of 1801_2”. good.
  • objects including "object #1 of 1801_1 and object #2 of 1801_2" are equipped with their own position estimation devices, such as GPS, and directly use the position information obtained by themselves.
  • the location information may be transmitted to the photographing device #1 of 1802_1, or the position information obtained by itself may be transmitted to the photographing device #1 of 1802_1 via "another device or network.”
  • the object including "object #1 of 1801_1 and object #2 of 1801_2" is, for example, a hat, clothing, an accessory, or a person.
  • the object #1 of 1801_1 may be, for example, a human character #1 (a character based on the shape of a person, a robot, etc.).
  • the shape of the character is not limited to these examples.
  • the server 104 holds this information. Note that the handling of "information regarding the association between object #1 of 1801_1 and character #1" will be explained later.
  • the object may include an identification code that enables detection and recognition, a pattern for identification, a color, a shape, a character, etc.
  • the photographing device #1 of 1802_1 detects and recognizes the object #1 of 1801_1 using a sensor, for example. At this time, for example, a moving image or a still image may be obtained. Note that this detection and recognition processing may be performed by the imaging device #1 of 1802_1. Alternatively, the data and information acquired by the imaging device #1 of 1802_1 may be transmitted to the server 104, and the server 104 may perform the detection and recognition processing.
  • the server 104 makes character #1 associated with object #1 of 1801_1 appear in virtual space #1 based on the information that "object #1 of 1801_1 has been recognized.” Note that when the server 104 makes the character #1 appear in the virtual space #1, the position where the character #1 is made to appear may be determined based on, for example, the position where the photographing device #1 of 1802_1 is installed. Additionally, the server 104 obtains the location where "object #1 of 1801_1" exists through communication, and based on this location information, the server 104 determines the location where character #1 will appear in virtual space #1. You may.
  • the object including "object #1 of 1801_1 and object #2 of 1801_2" is, for example, a hat, clothing, an accessory, or an animal.
  • the object #1 of 1801_1 may be, for example, an animal character #1 (a character based on the shape of an animal, a robot, etc.).
  • the shape of the character is not limited to these examples, and may simply be , may be a character), and the server 104 holds this information. Note that the handling of "information regarding the association between object #1 of 1801_1 and character #1" will be explained later.
  • the object may include an identification code that enables detection and recognition, a pattern for identification, a color, a shape, a character, etc.
  • the photographing device #1 of 1802_1 detects and recognizes the object #1 of 1801_1 using a sensor, for example. At this time, for example, a moving image or a still image may be obtained. Note that this detection and recognition processing may be performed by the imaging device #1 of 1802_1. Alternatively, the data and information acquired by the imaging device #1 of 1802_1 may be transmitted to the server 104, and the server 104 may perform the detection and recognition processing.
  • the server 104 makes character #1 associated with object #1 of 1801_1 appear in virtual space #1 based on the information that "object #1 of 1801_1 has been recognized.” Note that when the server 104 makes the character #1 appear in the virtual space #1, the position where the character #1 is made to appear may be determined based on, for example, the position where the photographing device #1 of 1802_1 is installed. Additionally, the server 104 obtains the location where "object #1 of 1801_1" exists through communication, and based on this location information, the server 104 determines the location where character #1 will appear in virtual space #1. You may.
  • the object including "object #1 of 1801_1 and object #2 of 1801_2" is, for example, a car, a bicycle, or a motorcycle.
  • the object may be a license plate.
  • the object #1 of 1801_1 is, for example, the character #1 of "car, bicycle, or motorcycle” (it may be a character based on the shape of a car, bicycle, motorcycle, robot, etc. However, the shape of the character etc. are not limited to these examples, and may simply be characters.), and the server 104 retains this information. Note that the handling of "information regarding the association between object #1 of 1801_1 and character #1" will be explained later. Further, the object may include an identification code that enables detection and recognition, a pattern for identification, a color, a shape, a character, etc.
  • the photographing device #1 of 1802_1 detects and recognizes the object #1 of 1801_1 using a sensor, for example. At this time, for example, a moving image or a still image may be obtained. Note that this detection and recognition processing may be performed by the imaging device #1 of 1802_1. Alternatively, the data and information acquired by the imaging device #1 of 1802_1 may be transmitted to the server 104, and the server 104 may perform the detection and recognition processing.
  • the server 104 makes character #1 associated with object #1 of 1801_1 appear in virtual space #1 based on the information that "object #1 of 1801_1 has been recognized.” Note that when the server 104 makes the character #1 appear in the virtual space #1, the position where the character #1 is made to appear may be determined based on, for example, the position where the photographing device #1 of 1802_1 is installed. Additionally, the server 104 obtains the location where "object #1 of 1801_1" exists through communication, and based on this location information, the server 104 determines the location where character #1 will appear in virtual space #1. You may.
  • objects including "object #1 of 1801_1 and object #2 of 1801_2" are, for example, buildings, stores, billboards (advertisements), facilities, street lamps, trees, flowers, objects, etc.
  • Object #1 of 1801_1 may be, for example, character #1 (a character corresponding to the object.
  • the shape of the character is not limited to these examples, and it may simply be a character.
  • the server 104 retains this information. Note that the handling of "information regarding the association between object #1 of 1801_1 and character #1" will be explained later.
  • the object may include an identification code that enables detection and recognition, a pattern for identification, a color, a shape, a character, etc.
  • the photographing device #1 of 1802_1 detects and recognizes the object #1 of 1801_1 using a sensor, for example. At this time, for example, a moving image or a still image may be obtained. Note that this detection and recognition processing may be performed by the imaging device #1 of 1802_1. Alternatively, the data and information acquired by the imaging device #1 of 1802_1 may be transmitted to the server 104, and the server 104 may perform the detection and recognition processing.
  • the server 104 makes character #1 associated with object #1 of 1801_1 appear in virtual space #1 based on the information that "object #1 of 1801_1 has been recognized.” Note that when the server 104 makes the character #1 appear in the virtual space #1, the position where the character #1 is made to appear may be determined based on, for example, the position where the photographing device #1 of 1802_1 is installed. Additionally, the server 104 obtains the location where "object #1 of 1801_1" exists through communication, and based on this location information, the server 104 determines the location where character #1 will appear in virtual space #1. You may.
  • the system shown in FIG. 18 is equipped with a storage section that holds "data related to the virtual space," a “control section” that controls the appearance and movement of characters, etc. in the virtual space, and a “control section” that controls the appearance and movement of characters in the virtual space.
  • the photographing device #1 of 1802_1, the server 104, the terminal #101 of 101_101, the terminal #2 of 101_102, and the devices are connected to the network 103. This allows devices such as "terminal #2, device 101_102" to communicate.
  • object #1 of 1801_1 and object #2 of 1801_2 may communicate with photographing device #1 of 1802_1.
  • the terminal #101 of 101_101 and the terminal #2 of 101_102 communicate with devices such as "server 104, object #1 of 1801_1, object #2 of 1801_2, equipment” via the imaging device #1 of 1802_1 and the network 103. Communication may take place.
  • system configuration in this embodiment is not limited to that shown in FIG. 18; it is sufficient that one or more objects exist, one or more imaging devices exist, and the server It is sufficient if there is one or more.
  • FIG. 19A is an example of the configuration of the server 104 in FIG. 18.
  • an interface 200 receives an input signal 201 and outputs an output signal 202.
  • the interface 200 also stores a spatial information storage section 211, a character information storage section 1912 for each object, a character "control section" 213 based on the position in real space, an output information generation section 214, a character generation section 215, and character information for each terminal. It is connected to the storage unit 212. Note that although it is called an interface, it may also be a bus.
  • the spatial information storage unit 211 is a part that stores information regarding virtual space.
  • information about virtual space may be, for example, “two-dimensional space data", “three-dimensional space data”, or “three-dimensional space data It may also be “transformed data for representation in dimensions”.
  • virtual space objects that correspond to objects that exist in real space, such as buildings, facilities, equipment, plazas, and parks” may be placed in the virtual space. Therefore, the information regarding virtual space may include information on "virtual space object".
  • the information regarding the virtual space may be updated using the input signal 201, for example.
  • information regarding the virtual space in which the object of "virtual space object” is updated, the position of "virtual space object” is updated, etc. is stored in the spatial information storage unit 211 according to the input signal 201. It turns out.
  • the output information generation section 214 generates information from the information obtained from the spatial information storage section 211, the information obtained from the character information storage section 1912 for each object, and the information obtained from the character "control section" 213 based on the position in real space. , generate output information regarding the virtual space for provision to other devices such as terminals. Further, output information regarding a virtual space to be provided to other devices such as a terminal may be generated from information obtained from the character information storage unit 212 for each terminal.
  • output information regarding the virtual space is output from the server 104 as an output signal 202. Note that the output information regarding the virtual space will be delivered to one or more terminals accessing the server 104.
  • a device such as a terminal that has obtained the information of the output signal 202 generates the display content of the virtual space based on the output signal 202 and displays it on the device's built-in display device and/or an external display device. I will do it.
  • display devices include, for example, mobile phones, cell phones, smartphones, tablets, tablet PCs (Personal Computers), personal computers (however, they may be equipped with a monitor or may be connected to a monitor), Laptop computers, TVs, devices connected to monitors, game consoles, portable game consoles, AR glasses, AR goggles, monitors that can display AR, devices connected to monitors that can display AR, VR glasses, VR goggles, VR Monitors capable of displaying VR, devices connected to monitors capable of displaying VR, MR (Mixed Reality) glasses, monitors capable of displaying MR, devices connected to monitors capable of displaying MR, car navigation systems, head-mounted displays, head-mounted displays Possible examples include a device connected to a monitor, a device connected to a monitor, a projector, a device connected to a projector, etc., but are not limited to these.
  • example configuration of the server is not limited to the example shown in FIG. 19A.
  • the operation of the character information storage unit 1912 for each object in FIG. 19A will be explained. As an example, the operation using terminal #1 of 101_1 will be explained.
  • terminal #1 of 101_1 is communicating with server 104 via network 103, as shown in FIG. 19B.
  • the terminal #1 of 101_1 is a terminal for registering the character #1 associated with the object #1 of 1801_1 in FIG.
  • the terminal transmits object information to the server 104 (1901).
  • the object information is information that allows the server 104 to identify an object, and is information that allows the imaging device #1 of 1802_1 in FIG. 18 to extract features through detection and recognition. do.
  • the photographing device #1 of 1802_1 is an image sensor
  • the object information may be still image or video data, or the object information may be information obtained by extracting object characteristics from the still image or video. Good too. Note that this is not limited to this example. Therefore, the server 104 will obtain object information (1951).
  • the terminal transmits the character information to the server 104 (1902). Therefore, the server 104 will obtain character information (1952).
  • the terminal may obtain character source information from the character generation unit 215 included in the server 104 in FIG. 19A, or obtain character information from a device different from the server 104. You may also obtain the underlying information. This allows the terminal to generate character information. Alternatively, the terminal may generate the character using its own functions.
  • the server 104 stores information on a set of object information and object character information in the character information storage unit 1912 for each object in FIG. 19A. Therefore, the character information storage unit 1912 for each object in FIG. 19A stores "information on a set of object information and object character information" for each object. For example, in the case of FIG. 18, the character information storage unit 1912 for each object in FIG. This means that the object's character information set information is stored.
  • the terminal may also send information about the terminal to the server 104.
  • SIM Subscriber Identity Module
  • telephone number information telephone number information
  • email address information of the user or that can be used by the terminal
  • ID identification
  • SNS Social networking service
  • the terminal corresponding to the character becomes able to communicate with other characters (other users, other terminals) in the virtual space.
  • FIG. 4A shows an example of real space.
  • the inside of the ellipse 100_0 is named real space #0
  • the inside of the ellipse 100_0 is named real space #1
  • the inside of the ellipse 100_2 is named real space #2.
  • real spaces other than "real space #0, real space #1, and real space #2" may exist in the real space.
  • FIG. 4B shows the relationship between real space and virtual space in FIG. 4A.
  • - "Real space #0" in FIG. 4A is associated with “virtual space #0”.
  • - "Real space #1” in FIG. 4A is associated with “virtual space #1”.
  • - "Real space #2” in FIG. 4A is associated with “virtual space #2”. ... becomes.
  • real space #X and “virtual space #X” may have a digital twin relationship.
  • "real space #X” and “virtual space #X” do not have to be complete digital twins; for example, “real space #X” and “virtual space #X” are partially digital twins. It may be a relationship. Note that the sizes of the spaces represented by "real space #X” and “virtual space #X” may be the same or different.
  • the relationship may be such that when the position in "real space #X" is determined, the position in "virtual space #X” is determined (this point will be explained later).
  • object #1 of 1801_1 exists in real space #1, and object #1 of 1801_1 is detected and recognized by photographing device #1 of 1802_1. Further, for example, the photographing device #1 of 1802_1 estimates the position of the object #1 of 1801_1 in the real space #1. At this time, the photographing device #1 of 1802_1 may estimate the position of the object #1 of 1801_1 based on its own position and the detected position of the object #1 of 1801_1, or the photographing device #1 of 1802_1 and the detected position of the object #1 of 1801_1 may be estimated. #1 may perform processing for sensing, and photographing device #1 of 1802_1 may estimate the position of object #1 of 1801_1.
  • the photographing device #1 of 1802_1 transmits the position information of the object #1 of 1801_1 in the real space #1 to the server 104, and as a result, the server 104 The location information is obtained, and the "position of object #1 of 1801_1 in real space #1" is known. Further, the server 104 obtains information about the object #1 of 1801_1 from the imaging device #1 of 1802_1. Note that the server 104 may obtain position information of object #1 of 1801_1 in real space #1 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #1 of 1801_1.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #1 of 1801_1 in the real space #1, and obtains the position information of the object #1 of 1801_1 in the virtual space associated with the real space #1. Information for controlling the position of the character corresponding to object #1 of 1801_1 in #1 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to object #1 of 1801_1” output by the character information storage unit 1912 for each object, Character based on position in real space "Information for controlling the position of the character corresponding to object #1 of 1801_1 in virtual space #1 associated with real space #1” output by the "control unit” 213 Based on this, in virtual space #1, "character corresponding to object #1 of 1801_1” is set to "position of character corresponding to object #1 of 1801_1 in virtual space #1 associated with real space #1".
  • the server 104 generates output information regarding virtual space #1 including "character corresponding to object #1 of 1801_1", and output information regarding virtual space #1 including "character corresponding to object #1 of 1801_1". ” is output from the server 104.
  • the output signal 202 may include information on other virtual spaces (for example, virtual space #2, virtual space #3, . . . ).
  • object #1 of 1801_1 moves in real space #1 and the position of object #1 of 1801_1 in real space #1 is updated, it is associated with real space #1 according to the operation explained above.
  • the position of "the character corresponding to object #1 of 1801_1" in virtual space #1 is updated, and the output information generation unit 214 in FIG.
  • An output signal 202 containing output information regarding virtual space #1 is output from the server 104.
  • object #1 of 1801_1 estimates its position in real space #1 using a position estimation system such as GPS that object #1 of 1801_1 has, and estimates the position of object #1 of 1801_1 via another device.
  • the server 104 may obtain position information of object #1 of 1801_1 in real space #1.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • object #1 of 1801_1 and photographing device #1 of 1802_1 are examples of object #1 of 1801_1 and photographing device #1 of 1802_1, the same implementation is possible using other objects and other photographing devices.
  • object #1 of 1801_1 is detected and recognized by photographing device #2 of 1802_2. Further, for example, the photographing device #2 of 1802_2 estimates the position of the object #1 of 1801_1 in the real space #2. At this time, the photographing device #2 of 1802_2 may estimate the position of the object #1 of 1801_1 based on its own position and the detected position of the object #1 of 1801_1, or the photographing device #2 of 1802_2 and the detected position of the object #1 of 1801_1 may be estimated. #1 may perform processing for sensing, and photographing device #2 of 1802_2 may estimate the position of object #1 of 1801_1.
  • the photographing device #2 of 1802_2 transmits the position information of the object #1 of 1801_1 in the real space #2 to the server 104.
  • the server 104 obtains information about the object #1 of 1801_1 from the imaging device #2 of 1802_2. Note that the server 104 may obtain position information of object #1 of 1801_1 in real space #2 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #1 of 1801_1.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #1 of 1801_1 in the real space #2, and obtains the position information of the object #1 of 1801_1 in the virtual space associated with the real space #2. Information for controlling the position of the character corresponding to object #1 of 1801_1 in #2 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to object #1 of 1801_1” output by the character information storage unit 1912 for each object, Character based on position in real space "Information for controlling the position of the character corresponding to object #1 of 1801_1 in virtual space #2 associated with real space #2” output by the "control unit” 213 Based on this, in virtual space #2, "character corresponding to object #1 of 1801_1” is set to "position of character corresponding to object #1 of 1801_1 in virtual space #2 associated with real space #2".
  • 19A of the server 104 generates output information regarding virtual space #2 including "the character corresponding to object #1 in 1801_1", and outputs the output information regarding virtual space #2 including "the character corresponding to object #1 in 1801_1".
  • An output signal 202 containing output information regarding virtual space #2 including " is output from the server 104.
  • the output signal 202 may include information on other virtual spaces (for example, virtual space #1, virtual space #3, . . . ).
  • object #1 of 1801_1 moves in real space #2 and the position of object #1 of 1801_1 in real space #2 is updated, it is associated with real space #2 according to the operation explained above.
  • the position of "the character corresponding to object #1 of 1801_1" in virtual space #2 is updated, and the output information generation unit 214 in FIG.
  • An output signal 202 containing output information regarding virtual space #2 is output from the server 104.
  • object #1 of 1801_1 estimates its position in real space #2 using a position estimation system such as GPS that object #1 of 1801_1 has, and estimates the position of object #1 of 1801_1 via another device.
  • the server 104 may obtain position information of object #1 of 1801_1 in real space #2.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • FIG. 4A shows an example of real space.
  • the inside of the ellipse 100_0 is named real space #0
  • the inside of the ellipse 100_0 is named real space #1
  • the inside of the ellipse 100_2 is named real space #2.
  • real spaces other than "real space #0, real space #1, and real space #2" may exist in the real space.
  • FIG. 10A and 10B show the relationship between real space and virtual space using FIG. 4A as an example.
  • - "Real space #0" is associated with “virtual space #0", “virtual space #1”, and “virtual space #2”.
  • - "Real space #1” and “real space #2” are associated with “virtual space #3”.
  • - "Real space #3” and “real space #4” are associated with "virtual space #4" and "virtual space #5".
  • - "Real space #5" and "real space #6" are associated with "virtual space #6", “virtual space #7", and “virtual space #8".
  • - "Real space #7", “real space #8", “real space #9", and “real space #10” are associated with “virtual space #9” and "virtual space #10”. ... becomes.
  • "real space #X” and “virtual space #Y” may have a digital twin relationship.
  • "real space #X” and “virtual space #Y” do not have to be complete digital twins; for example, “real space #X” and “virtual space #Y” are partially digital twins. It may be a relationship.
  • the sizes of the spaces represented by “real space #X” and “virtual space #Y” may be the same or different.
  • the scale ratio of "real space #X” and "virtual space #Y” is the axis that defines the space. They may be different or may be the same.
  • the axes that define a space are three axes of a three-dimensional coordinate system in a three-dimensional space, and two axes of a two-dimensional coordinate system in a two-dimensional space.
  • the relationship may be such that when the position in "real space #X" is determined, the position in "virtual space #Y" is determined.
  • FIG. 21 shows an example. Note that in FIG. 21, parts that operate in the same way as in FIGS. 1 and 18 are given the same numbers, and some explanations will be omitted.
  • the imaging device #0 of 1802_0 exists in the real space #0 of 100_0 and can communicate with the server 104 via the network 103.
  • Photographing device #1 1802_1 exists in real space #1 100_1 and can communicate with server 104 via network 103. ...
  • the imaging device #N of 1802_N exists in the real space #N of 100_N and can communicate with the server 104 via the network 103.
  • N is an integer of 2 or more.
  • the imaging device #i of 1802_i exists in the real space #i of 100_i and can communicate with the server 104 via the network 103.
  • i is an integer from 0 to N.
  • photographing devices existing in real space is not limited to this example, and any configuration in which one or more, or two or more photographing devices exist in real space may be used.
  • object #1 of 1801_1 exists in real space #0 of 100_0 described in FIG. 10A, and object #1 of 1801_1 is detected and recognized by imaging device #0 of 1802_0. shall be. Further, for example, the photographing device #0 of 1802_0 estimates the position of the object #1 of 1801_1 in the real space #0. At this time, the photographing device #0 of 1802_0 may estimate the position of the object #1 of 1801_1 based on its own position and the detected position of the object #1 of 1801_1, or the photographing device #0 of 1802_0 and the detected position of the object #1 of 1801_1 may be estimated. #1 may perform processing for sensing, and imaging device #0 of 1802_0 may estimate the position of object #1 of 1801_1.
  • the imaging device #0 of 1802_0 transmits the position information of the object #1 of 1801_1 in the real space #0 to the server 104.
  • the location information is obtained, and the "position of object #1 of 1801_1 in real space #0" is known.
  • the server 104 obtains information about object #1 at 1801_1 from imaging device #0 at 1802_0. Note that the server 104 may obtain position information of object #1 of 1801_1 in real space #0 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #1 of 1801_1.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #1 of 1801_1 in the real space #0, and obtains the position information of the object #1 of 1801_1 in the virtual space associated with the real space #0.
  • Information for controlling the position of the character corresponding to object #1 of 1801_1 in virtual space #1 or virtual space #2 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to object #1 of 1801_1” output by the character information storage unit 1912 for each object, Character based on position in real space "Character corresponding to object #1 of 1801_1 in virtual space #0, virtual space #1, and virtual space #2 that are associated with real space #0" output by the "control unit” 213 Based on "information for controlling the position of virtual space #0, virtual space #1, virtual space #2", "virtual space #0, virtual space that is associated with real space #0” #1, the character corresponding to object #1 of 1801_1 is placed in the position of the character corresponding to object #1 of 1801_1 in virtual space #2, and the output information generation unit 214 in FIG.
  • Output information regarding virtual space #0, virtual space #1, and virtual space #2 including "character corresponding to object #1 of 1801_1" is generated, and virtual space #0 including "character corresponding to object #1 of 1801_1” is generated.
  • virtual space #1, and virtual space #2 an output signal 202 is output from the server 104. At this time, the output signal 202 may include information on other virtual spaces.
  • object #1 of 1801_1 moves in real space #0 and the position of object #1 of 1801_1 in real space #0 is updated, it is associated with real space #0 according to the operation explained above.
  • the position of "the character corresponding to object #1 of 1801_1" in virtual space #0, virtual space #1, and virtual space #2 is updated, and the output information generation unit 214 in FIG.
  • An output signal 202 containing output information regarding virtual space #0, virtual space #1, and virtual space #2 including "character corresponding to object #1" is output from the server 104.
  • object #1 of 1801_1 estimates its position in real space #0 using a position estimation system such as GPS that object #1 of 1801_1 has, and estimates the position of object #1 of 1801_1 via another device.
  • the server 104 may obtain position information of object #1 of 1801_1 in real space #0.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • object #1 of 1801_1 moves to real space #1 of 100_1 in FIG. 10A.
  • object #1 of 1801_1 is detected and recognized by photographing device #1 of 1802_1. Further, for example, the photographing device #1 of 1802_1 estimates the position of the object #1 of 1801_1 in the real space #1. At this time, the photographing device #1 of 1802_1 may estimate the position of the object #1 of 1801_1 based on its own position and the detected position of the object #1 of 1801_1, or the photographing device #1 of 1802_1 and the detected position of the object #1 of 1801_1 may be estimated. #1 may perform processing for sensing, and photographing device #1 of 1802_1 may estimate the position of object #1 of 1801_1.
  • the photographing device #1 of 1802_1 transmits the position information of the object #1 of 1801_1 in the real space #1 to the server 104.
  • the server 104 The location information is obtained, and the "position of object #1 of 1801_1 in real space #1" is known. Further, the server 104 obtains information about the object #1 of 1801_1 from the imaging device #1 of 1802_1. Note that the server 104 may obtain position information of object #1 of 1801_1 in real space #1 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #1 of 1801_1.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #1 of 1801_1 in the real space #1, and associates it with the real spaces #1 and #2.
  • Information for controlling the position of the character corresponding to object #1 of 1801_1 in virtual space #3 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates information obtained from the spatial information storage unit 211, “character information corresponding to object #1 of 1801_1” output by the character information storage unit 1912 for each object, Character based on position in real space
  • Control unit 213 outputs "For controlling the position of the character corresponding to object #1 of 1801_1 in virtual space #3 associated with real spaces #1 and #2” In virtual space #3, based on the "position of the character corresponding to object #1 of 1801_1 in virtual space #3 that is associated with real spaces #1 and #2", "object #1 of 1801_1” is set.
  • 19A of the server 104 generates output information regarding virtual space #3 including "the character corresponding to object #1 of 1801_1", and arranges "the character corresponding to object #1 of 1801_1".
  • the server 104 outputs an output signal 202 containing output information regarding the virtual space #3 including the character corresponding to #1.
  • the output signal 202 may include information on other virtual spaces.
  • object #1 of 1801_1 estimates its position in real space #1 using a position estimation system such as GPS that object #1 of 1801_1 has, and estimates the position of object #1 of 1801_1 via another device.
  • the server 104 may obtain position information of object #1 of 1801_1 in real space #1.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • object #1 of 1801_1 and photographing device #1 of 1802_1 the same implementation is possible using other objects and other photographing devices.
  • object #2 of 1801_2 exists in real space #1 of 100_1 described in FIG. 10A, and object #2 of 1801_2 is detected and recognized by imaging device #1 of 1802_1. shall be. Further, for example, the photographing device #1 of 1802_1 estimates the position of the object #2 of 1801_2 in the real space #1. At this time, the photographing device #1 of 1802_1 may estimate the position of the object #2 of 1801_2 based on its own position and the detected position of the object #2 of 1801_2, or the photographing device #1 of 1802_1 and the detected position of the object #2 of 1801_2 may be estimated. #2 may perform processing for sensing, and photographing device #1 of 1802_1 may estimate the position of object #2 of 1801_2.
  • the photographing device #1 of 1802_1 transmits the position information of object #2 of 1801_2 in real space #1 to the server 104, and as a result, the server 104 transmits the position information of object #2 of 1801_2
  • the location information is obtained, and the "position of object #2 of 1801_2 in real space #1" is known. Further, the server 104 obtains information about the object #2 of 1801_2 from the imaging device #1 of 1802_1. Note that the server 104 may obtain position information of object #2 of 1801_2 in real space #1 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #2 of 1801_2.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #2 of 1801_2 in the real space #1, and associates it with the real spaces #1 and #2.
  • Information for controlling the position of the character corresponding to object #2 of 1801_2 in virtual space #3 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #2 of 1801_2” output by the character information storage unit 1912 for each object, Character based on position in real space
  • Control unit 213 outputs "For controlling the position of the character corresponding to object #2 of 1801_2 in virtual space #3 that is associated with real spaces #1 and #2” In virtual space #3, based on the "position of the character corresponding to object #2 of 1801_2 in virtual space #3 that is associated with real spaces #1 and #2", "object #2 of 1801_2”
  • 19A of the server 104 generates output information regarding virtual space #3 including "the character corresponding to object #2 of 1801_2", and arranges "the character corresponding to object #2 of 1801_2".
  • the server 104 outputs an output signal 202 containing output information regarding the virtual space #3 including the character corresponding to #2.
  • the output signal 202 may include information on other virtual spaces.
  • object #2 of 1801_2 estimates its position in real space #1 using a position estimation system such as GPS that object #2 of 1801_2 has, and estimates the position of object #2 of 1801_2 via another device.
  • the server 104 may obtain position information of object #2 of 1801_2 in real space #1.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • the photographing device #3 of 1802_3 estimates the position of the object #2 of 1801_2 in the real space #3.
  • the photographing device #3 of 1802_3 may estimate the position of the object #2 of 1801_2 based on its own position and the detected position of the object #2 of 1801_2, or the photographing device #3 of 1802_3 and the detected position of the object #2 of 1801_2 may be estimated.
  • #2 may perform processing for sensing, and photographing device #3 of 1802_3 may estimate the position of object #2 of 1801_2.
  • the photographing device #3 of 1802_3 transmits the position information of the object #2 of 1801_2 in the real space #3 to the server 104.
  • the server 104 obtains information about the object #2 of 1801_2 from the imaging device #3 of 1802_3. Note that the server 104 may obtain position information of object #2 of 1801_2 in real space #3 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #2 of 1801_2.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #2 of 1801_2 in the real space #3, and associates it with the real spaces #3 and #4.
  • Information for controlling the position of the character corresponding to object #2 of 1801_2 in virtual spaces #4 and #5 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #2 of 1801_2” output by the character information storage unit 1912 for each object, Character based on position in real space "Control unit” 213 outputs "Control the position of the character corresponding to object #2 of 1801_2 in virtual spaces #4 and #5 that are associated with real spaces #3 and #4" In virtual spaces #4 and #5, based on the information to The output information generation unit 214 in FIG. 19A of the server 104 places the "character corresponding to object #2 in 1801_2" in the "position", and the output information generation unit 214 in FIG.
  • An output signal 202 is output from the server 104, which generates output information regarding virtual spaces #4 and #5, and includes output information regarding virtual spaces #4 and #5, which includes "characters corresponding to object #2 of 1801_2.” At this time, the output signal 202 may include information on other virtual spaces.
  • object #2 of 1801_2 estimates its position in real space #3 using a position estimation system such as GPS that object #2 of 1801_2 has, and estimates the position of object #2 of 1801_2 via another device.
  • the server 104 may obtain position information of object #2 of 1801_2 in real space #3.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • the description is given using object #2 of 1801_2 and photographing device #3 of 1802_3, the same implementation is possible using other objects and other photographing devices.
  • object #3 of 1801_3 exists in real space #3 of 100_3 described in FIG. 10A, and object #3 of 1801_3 is detected and recognized by imaging device #3 of 1802_3. shall be. Further, for example, the photographing device #3 of 1802_3 estimates the position of the object #3 of 1801_3 in the real space #3. At this time, the photographing device #3 of 1802_3 may estimate the position of the object #3 of 1801_3 based on its own position and the detected position of the object #3 of 1801_3, or the photographing device #3 of 1802_3 and the detected position of the object #3 of 1801_3 may be estimated. #3 may perform processing for sensing, and photographing device #3 of 1802_3 may estimate the position of object #3 of 1801_3.
  • the photographing device #3 of 1802_3 transmits the position information of the object #3 of 1801_3 in the real space #3 to the server 104.
  • the server 104 obtains information about the object #3 of 1801_3 from the imaging device #3 of 1802_3. Note that the server 104 may obtain position information of object #3 of 1801_3 in real space #3 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #3 of 1801_3.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #3 of 1801_3 in the real space #3, and associates it with the real spaces #3 and #4.
  • Information for controlling the position of the character corresponding to object #3 of 1801_3 in virtual space #4 and virtual space #5 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #3 of 1801_3” output by the character information storage unit 1912 for each object, Character based on position in real space
  • the "control unit” 213 outputs "position of character corresponding to object #3 of 1801_3 in virtual space #4 and virtual space #5 that are associated with real spaces #3 and #4" Based on the information for controlling the virtual spaces #4 and #5, the object #1801_3 in the virtual spaces #4 and virtual spaces #5 that are associated with the real spaces #3 and #4 is The output information generation unit 214 in FIG.
  • 19A of the server 104 includes the "character corresponding to object #3 of 1801_3" in the "position of the character corresponding to object #3 of 1801_3".
  • Output information regarding virtual spaces #4 and virtual spaces #5 is generated, and an output signal 202 containing output information regarding virtual spaces #4 and virtual spaces #5 including "characters corresponding to object #3 of 1801_3" is sent from the server 104.
  • the output signal 202 may include information on other virtual spaces.
  • object #3 of 1801_3 estimates its position in real space #3 using a position estimation system such as GPS that object #3 of 1801_3 has, and estimates the position of object #3 of 1801_3 via another device.
  • the server 104 may obtain position information of object #3 of 1801_3 in real space #3.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • the photographing device #5 of 1802_5 estimates the position of the object #3 of 1801_3 in the real space #5.
  • the photographing device #5 of 1802_5 may estimate the position of the object #3 of 1801_3 based on its own position and the detected position of the object #3 of 1801_3, or the photographing device #5 of 1802_5 and the detected position of the object #3 of 1801_3 #3 may perform processing for sensing, and photographing device #5 of 1802_5 may estimate the position of object #3 of 1801_3.
  • the imaging device #5 of 1802_5 transmits the position information of the object #3 of 1801_3 in the real space #5 to the server 104, and as a result, the server 104 transmits the position information of the object #3 of the 1801_3 to the real space #5 of the object #3 of the server 104.
  • the server 104 obtains information about the object #3 of 1801_3 from the imaging device #5 of 1802_5. Note that the server 104 may obtain position information of object #3 of 1801_3 in real space #5 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #3 of 1801_3.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #3 of 1801_3 in the real space #5, and associates it with the real spaces #5 and #6.
  • Information for controlling the position of the character corresponding to object #3 of 1801_3 in virtual spaces #6, #7, and #8 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #3 of 1801_3” output by the character information storage unit 1912 for each object, Character based on the position of the real space
  • the "control unit” 213 outputs "the character corresponding to the object #3 of 1801_3 in the virtual spaces #6, #7, #8 that are associated with the real spaces #5, #6" 1801_3 in virtual spaces #6, #7, #8 associated with real spaces #5, #6 in virtual spaces #6, #7, #8.
  • output signal 202 may include information on other virtual spaces.
  • object #3 of 1801_3 estimates its position in real space #5 using a position estimation system such as GPS that object #3 of 1801_3 has, and estimates the position of object #3 of 1801_3 via another device.
  • the server 104 may obtain position information of object #3 of 1801_3 in real space #5.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • object #3 of 1801_3 and photographing device #5 of 1802_5 the same implementation is possible using other objects and other photographing devices.
  • object #4 of 1801_4 exists in real space #5 of 100_5 described in FIG. 10B, and object #4 of 1801_4 is detected and recognized by imaging device #5 of 1802_5. shall be. Further, for example, the photographing device #5 of 1802_5 estimates the position of the object #4 of 1801_4 in the real space #5. At this time, the photographing device #5 of 1802_5 may estimate the position of the object #4 of 1801_4 based on its own position and the detected position of the object #4 of 1801_4, or the photographing device #5 of 1802_5 and the detected position of the object #4 of 1801_4 may be estimated. #4 may perform processing for sensing, and photographing device #5 of 1802_5 may estimate the position of object #4 of 1801_4.
  • the photographing device #5 of 1802_5 transmits the position information of the object #4 of 1801_4 in the real space #5 to the server 104.
  • the server 104 and the "position of object #4 of 1801_4 in real space #5" is known.
  • the server 104 obtains information about object #4 of 1801_4 from photographing device #5 of 1802_5.
  • the server 104 may obtain position information of object #4 of 1801_4 in real space #5 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #4 of 1801_4.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #4 of 1801_4 in the real space #5, and associates it with the real spaces #5 and #6.
  • Information for controlling the position of the character corresponding to object #4 of 1801_4 in virtual spaces #6, #7, and #8 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #4 of 1801_4” output by the character information storage unit 1912 for each object, Character based on the position of the real space
  • the "control unit” 213 outputs "the character corresponding to the object #4 of 1801_4 in the virtual spaces #6, #7, #8 that are associated with the real spaces #5, #6" 1801_4 in virtual spaces #6, #7, #8 associated with real spaces #5, #6 in virtual spaces #6, #7, #8.
  • the output signal 202 may include information on other virtual spaces.
  • object #4 of 1801_4 estimates its position in real space #5 using a position estimation system such as GPS that object #4 of 1801_4 has, and estimates the position of object #4 of 1801_4 via another device.
  • the server 104 may obtain position information of object #4 of 1801_4 in real space #5. Other operations can be performed in the same way as described above if they operate as described above.
  • object #4 of 1801_4 moves to real space #7 of 100_3 in FIG. 10B. It is assumed that object #4 of 1801_4 is detected and recognized by photographing device #7 of 1802_7. Further, for example, the photographing device #7 of 1802_7 estimates the position of the object #4 of 1801_4 in the real space #7. At this time, the photographing device #7 of 1802_7 may estimate the position of the object #4 of 1801_4 based on its own position and the detected position of the object #4 of 1801_4, or the photographing device #7 of 1802_7 and the detected position of the object #4 of 1801_4 may be estimated. #4 may perform processing for sensing, and photographing device #7 of 1802_7 may estimate the position of object #4 of 1801_4.
  • the photographing device #7 of 1802_7 transmits the position information of the object #4 of 1801_4 in the real space #7 to the server 104.
  • the server 104 The location information is obtained, and the "position of object #4 of 1801_4 in real space #7" is known. Further, the server 104 obtains information about object #4 of 1801_4 from photographing device #7 of 1802_7. Note that the server 104 may obtain position information of object #4 of 1801_4 in real space #7 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #4 of 1801_4.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #4 of 1801_4 in the real space #7, and real space #7, #8, #9, # Information for controlling the position of the character corresponding to object #4 of 1801_4 in virtual spaces #9 and #10 associated with 10 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #4 of 1801_4” output by the character information storage unit 1912 for each object, "Corresponding to object #4 of 1801_4 in virtual spaces #9 and #10 that are associated with real spaces #7, #8, #9, and #10" output by the character "control unit” 213 based on the position in real space In virtual spaces #9 and #10, based on "information for controlling the position of the character to 10, the output information generation unit 214 in FIG.
  • An output signal 202 containing output information regarding virtual spaces #9 and #10 including "character corresponding to object #4 of 1801_4" is generated by the server. It is output from 104. At this time, the output signal 202 may include information on other virtual spaces.
  • object #4 of 1801_4 estimates its position in real space #7 using a position estimation system such as GPS that object #4 of 1801_4 has, and estimates the position of object #4 of 1801_4 via another device.
  • the server 104 may obtain position information of object #4 of 1801_4 in real space #7.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • object #4 of 1801_4 and photographing device #7 of 1802_7 the same implementation is possible using other objects and other photographing devices.
  • object #5 of 1801_5 exists in real space #7 of 100_7 described in FIG. 10B, and object #5 of 1801_5 is detected and recognized by imaging device #7 of 1802_7. shall be. Further, for example, the photographing device #7 of 1802_7 estimates the position of the object #5 of 1801_5 in the real space #7. At this time, the photographing device #7 of 1802_7 may estimate the position of the object #5 of 1801_5 based on its own position and the detected position of the object #5 of 1801_5, or the photographing device #7 of 1802_7 and the detected position of the object #5 of 1801_5 may be estimated. #5 may perform processing for sensing, and photographing device #7 of 1802_7 may estimate the position of object #5 of 1801_5.
  • the photographing device #7 of 1802_7 transmits the position information of the object #5 of 1801_5 in real space #7 to the server 104, and as a result, the server 104 , and the "position of object #5 of 1801_5 in real space #7" is known. Additionally, the server 104 obtains information about object #5 at 1801_5 from imaging device #7 at 1802_7. Note that the server 104 may obtain position information of object #5 of 1801_5 in real space #7 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #5 of 1801_5.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #5 of 1801_5 in the real space #7, and real space #7, #8, #9, # Information for controlling the position of the character corresponding to object #5 of 1801_5 in virtual spaces #9 and #10 associated with 10 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #5 of 1801_5” output by the character information storage unit 1912 for each object, "Corresponding to object #5 of 1801_5 in virtual spaces #9 and #10 that are associated with real spaces #7, #8, #9, and #10” output by the character "control unit” 213 based on the position in real space In virtual spaces #9 and #10, based on "information for controlling the position of the character to 10, the output information generation unit 214 in FIG.
  • the output signal 202 containing output information regarding virtual spaces #9 and #10 including "character corresponding to object #5 of 1801_5" is generated by the server. It is output from 104. At this time, the output signal 202 may include information on other virtual spaces.
  • object #5 of 1801_5 estimates its position in real space #7 using a position estimation system such as GPS that object #5 of 1801_5 has, and estimates the position of object #5 of 1801_5 via another device.
  • the server 104 may obtain position information of object #5 of 1801_5 in real space #7. Other operations can be performed in the same way as described above if they operate as described above.
  • the photographing device #9 of 1802_9 estimates the position of the object #5 of 1801_5 in the real space #9.
  • the photographing device #9 of 1802_9 may estimate the position of the object #5 of 1801_5 based on its own position and the detected position of the object #5 of 1801_5, or the photographing device #9 of 1802_9 and the detected position of the object #5 of 1801_5 may be estimated.
  • #5 may perform processing for sensing, and photographing device #9 of 1802_9 may estimate the position of object #5 of 1801_5.
  • the photographing device #9 of 1802_9 transmits the position information of object #5 of 1801_5 in real space #9 to the server 104, and thereby the server 104 transmits the position information of object #5 of 1801_5 in real space #9
  • the location information is obtained, and the "position of object #5 of 1801_5 in real space #9" is known.
  • the server 104 obtains information about object #5 of 1801_5 from photographing device #9 of 1802_9. Note that the server 104 may obtain position information of object #5 of 1801_5 in real space #9 from another device.
  • the character information storage unit 1912 for each object in FIG. 19A of the server 104 outputs character information corresponding to object #5 of 1801_5.
  • the character "control unit" 213 based on the position of the real space in FIG. 19A of the server 104 obtains the position information of the object #5 of 1801_5 in the real space #9, and real space #7, #8, #9, # Information for controlling the position of the character corresponding to object #5 of 1801_5 in virtual spaces #9 and #10 associated with 10 is output.
  • the output information generation unit 214 in FIG. 19A of the server 104 generates the information obtained from the spatial information storage unit 211, “character information corresponding to object #5 of 1801_5” output by the character information storage unit 1912 for each object, "Corresponding to object #5 of 1801_5 in virtual spaces #9 and #10 that are associated with real spaces #7, #8, #9, and #10” output by the character "control unit” 213 based on the position in real space In virtual spaces #9 and #10, based on "information for controlling the position of the character to 10, the output information generation unit 214 in FIG.
  • the output signal 202 containing output information regarding virtual spaces #9 and #10 including "character corresponding to object #5 of 1801_5" is generated by the server. It is output from 104. At this time, the output signal 202 may include information on other virtual spaces.
  • object #5 of 1801_5 estimates its position in real space #9 using a position estimation system such as GPS that object #5 of 1801_5 has, and estimates the position of object #5 of 1801_5 via another device.
  • the server 104 may obtain position information of object #5 of 1801_5 in real space #9.
  • Other operations can be performed in the same way as described above if they operate as described above.
  • object #5 of 1801_5 and photographing device #9 of 1802_9 the same implementation is possible using other objects and other photographing devices.
  • the relationship between the real space ID and the virtual space ID and the operation of each part associated with it have been explained.
  • the present invention is not limited to this, but as long as one or more real space IDs are associated with one or more virtual space IDs, it is possible to carry out the above-described implementation.
  • the server 104 which has obtained the position information of the object via the photographing device, causes a character corresponding to the object to appear in the virtual space based on the position information of the object.
  • a character corresponding to the object to appear in the virtual space based on the position information of the object.
  • ⁇ Objects are associated with characters in the shape of "people,” “animals,” and “moving things,” and the server 104 identifies characters that correspond to objects, such as “people,” “animals,” and “moving things,” based on the location information of the terminal. ”-shaped character will appear in the virtual space.
  • the photographing device obtains the position information of the object. Then, the server 104 obtains the position information of the object.
  • the object is detected by the imaging device as being located on the road (the longitude and latitude of the road may be obtained) and at a height of 4 m above the ground. shall be taken as a thing.
  • the server 104 obtains the three-dimensional position of the object, and for example, as shown in FIG. A process may also be performed in which a character is made to appear on the road at a height of 4 m from the ground (1700_1).
  • the photographing device may detect and recognize surrounding information other than the object, and cause the recognized surrounding situation to appear in the virtual space together with the object.
  • the server 104 can represent the character corresponding to the object in the virtual space in a position closer to the position in the real space.
  • the server 104 obtains the three-dimensional position of the object. For example, as shown in FIG. Processing may also be performed in which a ⁇ character'' appears on the ground (for example, at a height of 0 m) on the road (1700_2).
  • the server 104 can represent the character corresponding to the object in the virtual space with the height corrected relative to the position in the real space. This makes it possible to create a virtual space that improves situations that are physically incomprehensible in real space (for example, the phenomenon of people floating), and also makes it possible to infer personal information from information about characters that correspond to objects. It is possible to create a difficult situation and thereby obtain the effect of protecting personal information.
  • the "first method of making a character corresponding to an object appear in virtual space in a three-dimensional manner as shown in FIG. 17A” and "Fig. You may switch to the second method of correcting the height and making it appear as in 17B (depending on the correction method, it may be a method of making it appear in a two-dimensional equivalent).
  • the setting of whether to use the first method or the second method may be performed when setting objects on the server 104.
  • the server 104 may set whether to use the first method or the second method.
  • the server 104 causes a character corresponding to the object to appear in the virtual space based on the setting information.
  • terminal #101 of 101_101 and terminal #102 of 101_102 in FIGS. 18, 20, and 21 will be explained.
  • Terminal #101 of 101_101 and terminal #102 of 101_102 are communicating with the server 104 via the network 103.
  • terminals such as terminal #101 of 101_101 and terminal #102 of 101_102 communicate with the server 104, a procedure is performed to associate characters corresponding to the terminals.
  • the terminal transmits terminal information to the server 104 (301).
  • the terminal information is information that allows the server 104 to identify the terminal (and/or the user), and includes, for example, SIM (Subscriber Identity Module) information, telephone number information, (user's or terminal Items that are "device and/or user information" such as e-mail address information (which can be used), ID (identification) held by the user, device ID, SNS (Social networking service) information, etc. shall be. Therefore, the server 104 obtains the terminal information (351).
  • SIM Subscriber Identity Module
  • telephone number information such as e-mail address information (which can be used)
  • ID identification
  • SNS Social networking service
  • the terminal transmits the character information to the server 104 (302). Therefore, server 104 will obtain character information (352).
  • the terminal may obtain character source information from the character generation unit 215 included in the server 104 in FIG. 19A, or obtain character information from a device different from the server 104. You may also obtain the underlying information. This allows the terminal to generate character information. Alternatively, the terminal may generate the character using its own functions.
  • the server 104 stores information on a set of terminal information and character information for that terminal in the character information storage unit 212 for each terminal in FIG. 2. Therefore, the character information storage unit 212 for each terminal in FIG. 2 stores "information on a set of terminal information and character information for that terminal" for each terminal.
  • the operation is described as “terminal information”, but it is possible to implement the same operation using "user information or identification information” instead of “terminal information”. Further, in other explanations, the operation is described as “terminal information”, but it is possible to similarly implement using "user information or identification information” instead of "terminal information”.
  • the character information storage unit 212 stores the "information of the terminal information and the set of character information of the terminal" of the terminal #101 of 101_101 in FIGS. 18, 20, and 21, and the terminal #102 of This means that "information about a set of terminal information and character information for that terminal" is stored.
  • the user operating the terminal #101 of 101_101 in FIGS. 18, 20, and 21 accesses the server 104 via the network 103.
  • a user operating terminal #101 of 101_101 in FIGS. 18, 20, and 21 accesses character motion control unit 216 in FIG. 19A of server 104 via network 103.
  • the user operates terminal #101 of 101_101 to cause a character corresponding to terminal #101 of 101_101 to appear in the virtual space, or to move a character corresponding to terminal #101 of 101_101 in the virtual space.
  • the part that controls the character becomes the character motion control section 216 in FIG. 19A.
  • the user can use the character corresponding to terminal #101 of 101_101 to communicate with other characters existing in the virtual space, contact them, send messages, chat (or make voice calls) You may also do so.
  • the user operating the terminal #102 of 101_102 in FIGS. 18, 20, and 21 accesses the server 104 via the network 103.
  • the user operating the terminal #102 of 101_102 in FIGS. 18, 20, and 21 accesses the character motion control unit 216 in FIG. 2 of the server 104 via the network 103.
  • the part that controls the character becomes the character motion control section 216 in FIG. 19A.
  • the user can use the character corresponding to terminal #102 of 101_102 to communicate with other characters existing in the virtual space, contact them, send messages, chat (or make voice calls) You may also do so.
  • the server 104 has generated virtual space #1 related to real space #1 shown in FIG. As shown in FIG. 18, since object #1 of 1801_1 and object #2 of 1801_2 exist in real space #1, "character corresponding to object #1 of 1801_1” and “object #2 of 1801_2” This means that the server 104 generates virtual space #1 so that the character "corresponding to number 2" appears in virtual space #1. Then, the server 104 controls the position of "the character corresponding to object #1 of 1801_1” in virtual space #1 according to the position of object #1 of 1801_1 in real space, and the server 104 controls The position of "the character corresponding to object #2 of 1801_2" in virtual space #1 is controlled according to the position of object #2 in real space.
  • the user operating terminal #101 in 101_101 that does not exist in real space #1 shown in FIG. 18 accesses the server 104 via the network 103, and the user operates terminal #101 in 101_101. Then, a character corresponding to terminal #101 of 101_101 appears in virtual space #1, or a character corresponding to terminal #101 of 101_101 moves in virtual space #1.
  • the user who operates terminal #101 of 101_101 uses the character corresponding to terminal #101 of 101_101 to create a "character corresponding to object #1 of 1801_1 existing in real space #1" that exists in virtual space #1. You may communicate, contact, send messages, and chat (or make voice calls) with (users using). As already explained, at this time, the user operating terminal #101 of 101_101 communicates or contacts the terminal corresponding to "the character corresponding to object #1 of 1801_1" and the user using the terminal. , send messages, and chat (or make voice calls).
  • the user who operates terminal #101 of 101_101 uses the character corresponding to terminal #101 of 101_101 to create a "character corresponding to terminal #102 of 101_102 that does not exist in real space #1" that exists in virtual space #1. You may communicate, contact, send messages, and chat (or make voice calls) with (users using).
  • the user who operates the terminal corresponding to object #1 in 1801_1 uses the character corresponding to terminal #101 in 101_1 to display "terminal #101 in 101_101 that does not exist in real space #1" that exists in virtual space #1. You may also communicate, contact, send messages, and chat (or make voice calls) with (the user using) the corresponding character.
  • actions that a user performs in a virtual space using a character corresponding to a terminal toward a terminal corresponding to another character are not included in the above examples (communication, communication, etc.). It is not limited to chat, etc. For example, it may be "transmission of images (still images), transmission of videos, transmission of advertisements, distribution of advertisements, distribution of coupons", etc.
  • a character (avatar) associated with the object appears in a virtual space corresponding to the real space, so that objects, terminals, and terminals can be used. It is possible to provide a more diversified system suitable for the real environment in which the terminal and the user who uses the terminal exist, and the terminal and the user who uses the terminal can communicate with many other terminals (other users) in real space and virtual space. It is possible to achieve the effect of improving convenience.
  • the photographing device may be provided in the base station.
  • the base station is defined as a TRP (Tx (Transmission)/Rx (Reception) point), repeater, access point, broadcast station, gNB (g Node B), eNB (e Node B), node, server, satellite, etc.
  • Moving devices moveable devices based on electricity such as electric vehicles, electric bikes (e-bikes), electric bicycles, moving robots, electric kickboards, electric assist bicycles, electric assist kickboards, cars, motorcycles, bicycles, Communication equipment such as terminals, mobile phones, smartphones, tablets, laptops, personal computers, personal computers, home appliances (household electrical machinery and equipment), equipment in factories, IoT (Internet of Things) equipment, etc. ⁇ Broadcasting equipment, etc.” It is possible to implement it in the same way.
  • a base station can be defined as "TRP, repeater, access point, broadcast station, gNB, eNB, node, server, satellite, moving device such as the above, terminal, mobile phone, smartphone, tablet, laptop, personal computer, It may also be referred to as "personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.” The above points are the same in this specification.
  • the terminal can be defined as "TRP, base station, repeater, access point, broadcasting station, gNB, eNB, node, server, satellite, moving device such as the above-mentioned, etc.
  • Terminals mobile phones, smartphones, tablets, laptops, personal computers, personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.” It is.
  • the terminal of this embodiment is defined as "TRP, base station, repeater, access point, broadcasting station, gNB, eNB, node, server, satellite, moving device such as the above, terminal, mobile phone, smartphone, "tablets, notebook computers, personal computers, personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.”
  • TRP base station
  • repeater access point
  • broadcasting station gNB
  • eNB node
  • server satellite
  • moving device such as the above, terminal, mobile phone, smartphone, "tablets, notebook computers, personal computers, personal computers, home appliances, equipment in factories, communication equipment/broadcasting equipment such as IoT equipment, etc.”
  • the above points are the same in this specification.
  • one or more or two or more transmitting antennas may be used to transmit one or more modulated signals or signals for sensing. You may also send a signal for this purpose.
  • the above points are the same in this specification.
  • a signal transmitted by a terminal for example, a modulation signal, a signal for sensing
  • a signal transmitted by a terminal may belong to any of the UL-SCH, PUCCH, PUSCH, PRACH, etc. However, it is not limited to this.
  • signals transmitted by the base station are PCH, BCH, DL-SCH, BCCH, PCCH, CCCH, common search space, PBCH, SS, PDCCH. , PDSCH, etc.
  • PCH Physical Broadcast Channel
  • BCH Physical Broadcast Channel
  • DL-SCH Physical Broadcast Channel
  • BCCH Physical Broadcast Channel
  • PCCH Physical Broadcast Channel
  • CCCH Common Search space
  • PBCH Physical Broadcast Channel
  • SS Physical Downlink Control Channel
  • PDCCH. Physical Downlink Control signals
  • the server 104 provides "characters corresponding to objects" of "object #1 of 1801_1 and object #2 of 1801_2" in FIG.
  • a character corresponding to an object appears in a virtual space and a character corresponding to an object and a character corresponding to a terminal are controlled in the virtual space.
  • the "character corresponding to the terminal” may be any character, any object, or any avatar. Therefore, in this embodiment, the description "character” can be replaced with “object” or “avatar” and the same implementation is possible.
  • a character corresponding to an object or "a character corresponding to a terminal" in a virtual space may be a "human-like character (or object, avatar)" or “animal-like character (or object, avatar)”.
  • the server 104 determines which of a plurality of predefined terminal types the terminal is, and displays objects associated with each state or objects selected from the object group in the virtual space. It may be displayed.
  • the correspondence between terminal types and objects is not limited to the above example. For example, objects shaped like different animals may be associated with different types of terminals, or objects with the same shape but different colors may be associated with different types of terminals.
  • the server 104 determines which of a plurality of predefined object types the object is, and transfers the object associated with each state or the object selected from the object group into the virtual space. It may be displayed.
  • object types and objects is not limited to the above example. For example, objects shaped like different animals may be associated with each other depending on the type of object, or objects with the same shape but different colors may be associated with each other depending on the type of object.
  • the server 104 stores, for example, a character corresponding to object #1 of 1801_1 in virtual space #1 corresponding to real space #1.
  • the user controls the character corresponding to object #1 of 1801_1 using a terminal or the like.
  • An example is shown in which the server 104 provides information about virtual space #1 to the terminal.
  • the server 104 generates information for AR display as information provided to object #1 of 1801_1, object #2 of 1801_2, etc. existing in real space #1.
  • the server 104 may then provide information for AR display to terminals corresponding to objects existing in real space #1 such as "object #1 of 1801_1, object #2 of 1801_2, etc.”.
  • that terminal will obtain information for AR display and display characters, objects, etc. at the specified position. .
  • the server 104 will generate information for AR display from the information of virtual space #1.
  • the server 104 selects from "information and position of characters and objects existing in virtual space #1", “information of characters and objects to be displayed superimposed on real space”, and “information on characters and objects to be displayed superimposed on real space”. , generates position information that is superimposed on the object's real space.
  • the server 104 sends "information about characters and objects to be displayed superimposed on real space” and "positional information of characters and objects to be displayed superimposed on real space to be displayed superimposed on real space” to real space #1.
  • ⁇ Terminal with AR display function'' exists in ⁇ Terminal with AR display function''. Characters, objects, etc. are displayed at specified positions based on ⁇ position information superimposed on objects in real space.''
  • terminal may perform the following processing.
  • the terminal estimates its own position by aligning the three-dimensional map information with sensing data (point cloud data acquired by LIDAR or a camera, etc.).
  • the terminal estimates, for example, position and orientation information in three-dimensional map information as self-position information.
  • the terminal acquires data indicating the shape data and arrangement positions of surrounding objects from the server 104.
  • the terminal displays the object on a display screen displaying an image captured by the terminal's camera, on a transparent display of smart glasses, or the like.
  • the terminal may detect a plane such as the surrounding floor or desk top.
  • the plane detected here is assumed to be horizontal or nearly horizontal, but it may also be a vertical plane such as a wall, or a plane with any angle including horizontal or vertical. You may do so.
  • the terminal may detect objects including these objects, provide them to the server 104, and display them in the virtual space, or may process them as objects to be displayed in the AR space.
  • the terminal When displaying an object, the terminal does not use the installation position information set for the object as is, but also corrects the position where the object is displayed on the display screen based on the detected plane information. good. Note that this point is applicable to both display in virtual space and display in AR.
  • the location information obtained by other methods may be, for example, terminal location information estimated by a base station, terminal location information estimated by another device, location information obtained by GPS, or the like.
  • location information of the terminal estimated by the base station when a character is displayed in the virtual space based on the location information estimated by the base station, the object visible to the character in the virtual space , it is possible to reduce the possibility that differences will occur in objects displayed in AR in real space.
  • the virtual space configuration method described in Embodiment 1 and the virtual space configuration method described in Embodiment 2 may be used together.
  • the character corresponding to the terminal existing in the real space associated with the virtual space in Embodiment 1
  • the "real character associated with the virtual space” described in this embodiment There may also be a character corresponding to an object existing in space, or a character controlled using a terminal.
  • Embodiment 3 In this embodiment, a specific example of modulated signals transmitted by the base station and terminal described in Embodiment 1 will be described. As an example, explanation will be given using FIG. 1.
  • FIG. 22 shows an example of the configuration of base station capability information 2200 included in a modulated signal transmitted by a base station, taking base station #1 of 102_1 in FIG. 1 as an example.
  • the base station capability information 2200 includes, for example, "information 2211 on whether a location information providing service is being implemented,” “information 2212 on whether a virtual space providing service is being implemented,” “information 2212 on whether or not a virtual space providing service is being implemented,” and "information 2212 on whether a information 2213 indicating whether or not the real space supports a method of making a character corresponding to a terminal appear in the virtual space based on the virtual space.
  • the base station will transmit base station capability information 2200 to the terminal.
  • the base station capability information 2200 includes "information 2211 on whether a location information providing service is being implemented,” “information 2212 on whether a virtual space providing service is being implemented,” “information 2212 on whether or not a virtual space providing service is being implemented,” and “information 2212 on whether or not a
  • the configuration may include at least one piece of information 2213 indicating whether the virtual space is a real space that supports a method of making a character corresponding to a terminal appear in the virtual space.
  • Information 2211 on whether or not a location information providing service is being implemented is "information for notifying whether or not the base station has a function of estimating the location of a terminal.”
  • the base station can transmit modulated signals for estimating the terminal's location and receive modulated signals from the terminal. It means you haven't done it. Therefore, if the terminal receives "information 2211 indicating whether or not a location information providing service is being implemented" with information of "0", the base station and the terminal do not perform any exchange to estimate the terminal's location. It turns out. Therefore, the terminal does not request the base station to estimate its own position. Furthermore, the terminal does not request services related to virtual space using location information, as described in the first embodiment.
  • “Information 2212 on whether the base station is providing virtual space provision service” is “information on whether the base station supports the virtual space provision described in Embodiment 1” or Information on whether or not a virtual space in the communication area exists.
  • Information 2213 on whether the real space supports a method of making a character corresponding to a terminal appear in virtual space based on position information in real space is "information 2213 indicating whether or not the real space supports a method of making a character corresponding to a terminal appear in virtual space based on position information in real space”. This information indicates whether or not the station will communicate with the server in order to obtain the location information of the terminal and cause a character corresponding to the terminal from which the location information was obtained to appear in the virtual space.
  • the base station It shows that the service provides a virtual space in its own communication area, and that it is able to obtain the location information of the terminal and cause a character corresponding to the terminal whose location information was obtained to appear in the virtual space. become. Therefore, when the terminal receives the "information 2211 indicating whether or not the location information providing service is being implemented" of the information "1", the terminal informs the base station, "Based on its own location information, the virtual space You can make a request to have a character appear based on your location information.
  • the terminal can perform the "appearance of a character in the virtual space based on the terminal's position in the real space" explained in Embodiment 1. It is possible to judge whether or not the base station is compatible with the "service provided by the terminal", thereby having the advantage that the terminal can receive the service appropriately.
  • FIG. 23 shows the structure of the terminal capability information 2300 included in the modulated signal transmitted by the terminals, for example, terminal #1 of 101_1, terminal #2 of 101_2, terminal #101 of 101_101, and terminal #102 of 101_102 in FIG. An example is shown.
  • the terminal capability information 2300 includes, for example, "information 2311 on whether or not it supports a virtual space provision service", "information 2312 on whether it supports a location information service”, and "information 2312 on whether it supports a Information 2313 indicating whether a method for making a character corresponding to a terminal appear in a virtual space is supported or not is included.
  • the terminal will transmit terminal capability information 2300 to the base station.
  • the terminal capability information 2300 includes, for example, "information 2311 on whether or not it supports a virtual space providing service”, "information 2312 on whether it supports a location information service”, and "location information in real space”. Any configuration may be sufficient as long as it includes at least one piece of information 2313 indicating whether or not a method for making a character corresponding to a terminal appear in a virtual space based on the ⁇ information 2313'' is supported.
  • the base station receives "information 2211 indicating whether or not the location information providing service is being implemented" with information "0"
  • the base station sends information to the terminal in the virtual space described in Embodiment 1. do not initiate any interaction to provide you with services related to.
  • Information 2312 on whether the terminal supports location information service is "information for notifying whether or not the terminal has a function to obtain information on its own location.”
  • the terminal is capable of transmitting modulated signals for estimating its own location and receiving modulated signals from the base station. It shows that you haven't done it. Therefore, when the base station receives "information 2312 indicating whether or not location information service is supported" with "0" information, the base station and the terminal do not communicate to estimate the location of the terminal. It turns out.
  • the location of the terminal may be estimated by the base station or by the terminal.
  • “Information 2313 indicating whether or not a method for making a character corresponding to a terminal appear in virtual space based on position information in real space” is “As explained in Embodiment 1, the base station This is information on whether or not the device supports "communication with the server to obtain location information and to make a character corresponding to the terminal that obtained the location information appear in the virtual space.”
  • the base station when the base station receives information 2313 indicating whether or not a method for making a character corresponding to a terminal appear in virtual space based on position information in real space is supported, the base station can provide a terminal with a service that ⁇ makes a character appear in a virtual space based on the terminal's location information,'' based on the terminal's location information.
  • the base station and the server can obtain terminal location information". This indicates that the device is not compatible with a system that allows a character corresponding to the device to appear in virtual space based on location information. Therefore, when the base station receives "information 2313 indicating whether or not a method for making a character corresponding to a terminal appear in virtual space based on position information in real space" of information "0" is received, the base station does not provide terminals with a service that "makes a character appear in a virtual space based on the terminal's location information," based on the terminal's location information.
  • the base station when the terminal transmits the terminal capability information to the base station, the base station can perform the "appearance of a character in virtual space based on the position of the terminal in real space" explained in Embodiment 1. This has the advantage that the base station can appropriately provide the service.
  • FIG. 24A is a first configuration example of the base station.
  • the interface 2400 receives a first input signal 2401 and outputs a first output signal 2402.
  • the first input signal 2401 and the first output signal 2402 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2400 receives the second input signal 2403 and outputs the second output signal 2404.
  • the second input signal 2403 and the second output signal 2404 are signals for communicating with the server 104.
  • the interface 2400 is connected to a wireless communication processing section 2411, a position estimation processing section 2412, and a virtual space related processing section 2413. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2411 is a part that performs transmission processing and reception processing for performing wireless communication with the terminal in FIG. 1.
  • the position estimation processing unit 2412 is a part that interacts with the terminal in FIG. 1 and generates a transmitted signal and processes a received signal to estimate the terminal's position. A specific example of the process has been described in Embodiment 1, so the description will be omitted. Then, the position estimation processing unit 2412 obtains the position information of the terminal. Note that the base station may transmit the location information of the terminal to the server.
  • the virtual space related processing unit 2413 obtains terminal information and terminal position information, processes this information, and transmits this information to the server. As a result, the server performs processing for causing a character corresponding to the terminal to appear in the virtual space. Then, the server transmits data such as "data for virtual space display, terminal control data, data transmitted to the terminal, etc.” to the base station to be transmitted to the terminal.
  • the wireless communication processing unit 2411 obtains these data and performs processing for transmitting them to the terminal.
  • the base station may include components other than "the wireless communication processing section 2411, the position estimation processing section 2412, and the virtual space related processing section 2413."
  • the base station may include a position estimation processing unit using other systems such as GPS, an interface for connecting to other devices, and the like.
  • the base station may estimate the position of the terminal based on its own position.
  • the base station is equipped with an interface for connecting to other devices, it is also possible to connect to other devices.
  • the example configuration of the base station is not limited to the example shown in FIG. 24A.
  • the base station with the configuration shown in FIG. 24A is a base station that supports the "method for making a character corresponding to a terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Therefore, when transmitting the base station capability information 2200 in FIG. 22, the following transmission is performed.
  • the base station in FIG. 24A sets "information 2212 indicating whether or not a virtual space providing service is being implemented" to "1", and indicates that a virtual space exists for an area where the base station can communicate. This shows that there is.
  • the base station in FIG. 24A sets "information 2213 as to whether the virtual space supports a method of making a character corresponding to a terminal appear in the virtual space based on position information in the real space” as "1".
  • the base station is implementing a service that provides a virtual space in its own communication area, and it is possible to obtain the location information of a terminal and cause a character corresponding to the terminal that obtained the location information to appear in the virtual space. It shows that you can do it.
  • the base station in FIG. 24A provides "information 2213 indicating whether or not the real space supports a method of making a character corresponding to a terminal appear in the virtual space based on position information in the real space.” may be set to "0" to indicate that "the base station does not provide a service that provides virtual space in its own communication area.”
  • FIG. 24B will be described as another configuration example of the base station that transmits the base station capability information 2200 shown in FIG. 22. Components that operate in the same manner as in FIG. 24A are given the same numbers, and some explanations will be omitted.
  • FIG. 24B is a configuration example of a base station.
  • the interface 2400 receives a first input signal 2401 and outputs a first output signal 2402.
  • the first input signal 2401 and the first output signal 2402 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2400 receives the second input signal 2403 and outputs the second output signal 2404.
  • a second input signal 2403 and a second output signal 2404 are signals for communicating with a server or the like.
  • the interface 2400 is connected to a wireless communication processing section 2411 and a position estimation processing section 2412. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2411 is a part that performs transmission processing and reception processing for performing wireless communication with the terminal in FIG. 1.
  • the position estimation processing unit 2412 is a part that interacts with the terminal in FIG. 1 and generates a transmitted signal and processes a received signal to estimate the terminal's position. A specific example of the process has been described in Embodiment 1, so the description will be omitted. Then, the position estimation processing unit 2412 obtains the position information of the terminal. Note that the base station may transmit the location information of the terminal to the server.
  • the base station may include components other than "the wireless communication processing unit 2411 and the position estimation processing unit 2412."
  • the base station may include a position estimation processing unit using other systems such as GPS, an interface for connecting to other devices, and the like.
  • the base station may estimate the position of the terminal based on its own position.
  • the base station is equipped with an interface for connecting to other devices, it is also possible to connect to other devices.
  • the example configuration of the base station is not limited to the example shown in FIG. 24B.
  • the base station with the configuration shown in FIG. 24B is a base station that does not support the "method for making a character corresponding to a terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Become. Therefore, when transmitting the base station capability information 2200 in FIG. 22, the following transmission is performed.
  • the base station in FIG. 24B sets "information 2212 indicating whether or not a virtual space provision service is being implemented" to "0", and indicates that a virtual space exists for the area where the base station can communicate. This shows that there is no such thing.
  • the base station in FIG. 24B may include "information 2212 indicating whether or not a virtual space providing service is being implemented" and "a method for making a character corresponding to a terminal appear in virtual space based on position information in real space.” It is also possible to transmit base station capability information 2200 that does not include information 2213 indicating whether or not the real space supports .
  • the base station in FIG. 24B may not transmit the base station capability information 2200.
  • FIG. 24C will be described as another configuration example of the base station that transmits the base station capability information 2200 shown in FIG. 22. Components that operate in the same manner as in FIG. 24A are given the same numbers, and some explanations will be omitted.
  • FIG. 24C is a configuration example of a base station.
  • the interface 2400 receives a first input signal 2401 and outputs a first output signal 2402.
  • the first input signal 2401 and the first output signal 2402 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2400 receives the second input signal 2403 and outputs the second output signal 2404.
  • a second input signal 2403 and a second output signal 2404 are signals for communicating with a server or the like.
  • the interface 2400 is connected to a wireless communication processing section 2411. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2411 is a part that performs transmission processing and reception processing for performing wireless communication with the terminal in FIG. 1.
  • the base station may include components other than the "wireless communication processing unit 2411."
  • the base station may include a position estimation processing unit using other systems such as GPS, an interface for connecting to other devices, and the like.
  • the base station is equipped with an interface for connecting to other devices, it is also possible to connect to other devices.
  • the example configuration of the base station is not limited to the example shown in FIG. 24C.
  • the base station with the configuration shown in FIG. 24C is a base station that does not support the "method for making a character corresponding to a terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Become. Therefore, when transmitting the base station capability information 2200 in FIG. 22, the following transmission is performed.
  • the base station in FIG. 24C sets "information 2212 on whether or not a virtual space provision service is implemented" to "0", and indicates that a virtual space exists for the area where the base station can communicate. This shows that there is no such thing.
  • the base station in FIG. 24C may include "information 2211 indicating whether or not a location information providing service is being implemented," "information 2212 indicating whether a virtual space providing service is being implemented," "real space
  • the base station capability information 2200 may be transmitted that does not include the information 2213 indicating whether the virtual space supports a method of making a character corresponding to the terminal appear in the virtual space based on the position information in the real space.
  • the base station in FIG. 24C may not transmit the base station capability information 2200.
  • FIG. 25A is a first configuration example of the terminal.
  • the interface 2500 receives a first input signal 2501 and outputs a first output signal 2502.
  • the first input signal 2501 and the first output signal 2502 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2500 receives the second input signal 2503 and outputs the second output signal 2504.
  • the second input signal 2503 and second output signal 2504 are signals for communicating with other devices.
  • the interface 2500 is connected to a wireless communication processing section 2511, a position estimation processing section 2512, and a virtual space related processing section 2513. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2511 is a part that performs transmission processing and reception processing for performing wireless communication with the base station in FIG. 1.
  • the position estimation processing unit 2512 is a part that interacts with the base station in FIG. 1 and generates a transmission signal and processes a reception signal for estimating the position of the terminal. A specific example of the process has been described in Embodiment 1, so the description will be omitted. Note that the base station may transmit the location information of the terminal to the server.
  • the virtual space related processing unit 2513 handles information about itself (terminal) and location information about itself (terminal), and transmits this information to the server via the base station.
  • the server performs processing for causing a character corresponding to the terminal to appear in the virtual space.
  • the server transmits data such as "data for virtual space display, terminal control data, data transmitted to the terminal, etc.” to be transmitted to the terminal to the base station, and the base station transmits the data to the terminal.
  • the terminal may include components other than "the wireless communication processing unit 2511, the position estimation processing unit 2512, and the virtual space related processing unit 2513."
  • the terminal may include a position estimation processing unit using another system such as GPS, an interface for connecting to other devices, and the like.
  • the terminal estimates its own position using the position estimation processing unit that uses another system such as GPS. You may. Furthermore, for example, if the terminal is equipped with an interface for connecting to other devices, it is also possible to connect to the other devices.
  • the example configuration of the terminal is not limited to the example shown in FIG. 25A.
  • the terminal with the configuration shown in FIG. 25A is a terminal compatible with the "method for making a character corresponding to the terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Therefore, when transmitting the terminal capability information 2300 in FIG. 23, the following transmission is performed.
  • the terminal in FIG. 25A sets "information 2312 indicating whether or not it supports location information service” to "1", and the terminal transmits a modulated signal to estimate its own position, and transmits a modulated signal from the base station. This indicates that it is compatible with the reception of modulated signals.
  • FIG. 25B Another example of the configuration of the terminal that transmits the terminal capability information 2300 shown in FIG. 23 will be described with reference to FIG. 25B. Components that operate in the same manner as in FIG. 25A are given the same numbers, and some explanations will be omitted.
  • FIG. 25B is an example of the configuration of a terminal.
  • the interface 2500 receives a first input signal 2501 and outputs a first output signal 2502.
  • the first input signal 2501 and the first output signal 2502 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2500 receives the second input signal 2503 and outputs the second output signal 2504.
  • the second input signal 2503 and second output signal 2504 are signals for communicating with other devices.
  • the interface 2500 is connected to a wireless communication processing section 2511 and a position estimation processing section 2512. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2511 is a part that performs transmission processing and reception processing for performing wireless communication with the base station in FIG. 1.
  • the position estimation processing unit 2512 is a part that interacts with the base station in FIG. 1 and generates a transmission signal and processes a reception signal for estimating the position of a terminal. A specific example of the process has been described in Embodiment 1, so the description will be omitted. Note that the base station may transmit the location information of the terminal to the server.
  • the terminal may include components other than "the wireless communication processing unit 2511 and the position estimation processing unit 2512."
  • the terminal may include a position estimation processing unit using another system such as GPS, an interface for connecting to other devices, and the like.
  • the terminal estimates its own position using the position estimation processing unit that uses another system such as GPS. You may. Furthermore, for example, if the terminal is equipped with an interface for connecting to other devices, it is also possible to connect to the other devices.
  • the example configuration of the terminal is not limited to the example shown in FIG. 25B.
  • the terminal with the configuration shown in FIG. 25B is a terminal that does not support the "method for making a character corresponding to the terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Therefore, when transmitting the terminal capability information 2300 in FIG. 23, the following transmission is performed.
  • the terminal in FIG. 25B sets "information 2312 indicating whether or not it supports location information service” to "1", and the terminal transmits a modulated signal to estimate its own position, and transmits a modulated signal from the base station. This indicates that it is compatible with the reception of modulated signals.
  • FIG. 25C Another example of the configuration of the terminal that transmits the terminal capability information 2300 shown in FIG. 23 will be described with reference to FIG. 25C. Components that operate in the same manner as in FIG. 25A are given the same numbers, and some explanations will be omitted.
  • FIG. 25C is an example of the configuration of the terminal.
  • the interface 2500 receives a first input signal 2501 and outputs a first output signal 2502.
  • the first input signal 2501 and the first output signal 2502 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2500 receives the second input signal 2503 and outputs the second output signal 2504.
  • the second input signal 2503 and second output signal 2504 are signals for communicating with other devices.
  • the interface 2500 is connected to a wireless communication processing section 2511. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2511 is a part that performs transmission processing and reception processing for performing wireless communication with the base station in FIG. 1.
  • the terminal may include components other than the "wireless communication processing unit 2511."
  • the terminal may include a position estimation processing unit using another system such as GPS, an interface for connecting to other devices, and the like.
  • the terminal estimates its own position using the position estimation processing unit that uses another system such as GPS. You may. Furthermore, for example, if the terminal is equipped with an interface for connecting to other devices, it is also possible to connect to the other devices.
  • the example configuration of the terminal is not limited to the example shown in FIG. 25C.
  • the terminal with the configuration shown in FIG. 25C is a terminal that does not support the "method for making a character corresponding to the terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Therefore, when transmitting the terminal capability information 2300 in FIG. 23, the following transmission is performed.
  • the terminal in FIG. 25C sets "information 2312 on whether or not it supports location information service” to "0", and the terminal transmits a modulated signal for estimating its own position, and transmits a modulated signal from the base station. This indicates that it is not compatible with receiving modulated signals.
  • FIG. 25D Another example of the configuration of the terminal that transmits the terminal capability information 2300 shown in FIG. 23 will be described with reference to FIG. 25D. Components that operate in the same manner as in FIG. 25A are given the same numbers, and some explanations will be omitted.
  • FIG. 25D is an example of the configuration of a terminal.
  • the interface 2500 receives a first input signal 2501 and outputs a first output signal 2502.
  • the first input signal 2501 and the first output signal 2502 are signals for wireless communication, and are signals related to transmission and reception by the antenna.
  • the interface 2500 receives the second input signal 2503 and outputs the second output signal 2504.
  • the second input signal 2503 and second output signal 2504 are signals for communicating with other devices.
  • the interface 2500 is connected to a wireless communication processing section 2511, a virtual space related processing section 2513, and a position estimation section 2599. Note that although it is called an interface, it may also be a bus.
  • the wireless communication processing unit 2511 is a part that performs transmission processing and reception processing for performing wireless communication with the base station in FIG. 1.
  • the virtual space related processing unit 2513 handles information about itself (terminal) and location information about itself (terminal), and transmits this information to the server via the base station.
  • the server performs processing for causing a character corresponding to the terminal to appear in the virtual space.
  • the server transmits data such as "data for virtual space display, terminal control data, data transmitted to the terminal, etc.” to be transmitted to the terminal to the base station, and the base station transmits the data to the terminal.
  • the position estimating unit 2599 is a part for estimating the position of the terminal using other systems (eg, GPS, wireless LAN (local area network)). Note that the base station may transmit the location information of the terminal to the server.
  • other systems eg, GPS, wireless LAN (local area network)
  • the base station may transmit the location information of the terminal to the server.
  • the terminal may include components other than "the wireless communication processing unit 2511, the virtual space related processing unit 2513, and the position estimation unit 2599."
  • the terminal may include an interface for connecting to other devices.
  • the terminal is equipped with an interface for connecting to other devices, it will also be possible to connect to other devices.
  • the configuration example of the terminal is not limited to the example shown in FIG. 25D.
  • the terminal with the configuration shown in FIG. 25D is a terminal compatible with the "method for making a character corresponding to the terminal appear in virtual space based on position information of the terminal in real space" described in Embodiment 1. Therefore, when transmitting the terminal capability information 2300 in FIG. 23, the following transmission is performed.
  • the terminal in FIG. 25D sets "information 2312 indicating whether or not it supports location information service” to "0", and the terminal transmits a modulated signal for estimating its own position, and transmits a modulated signal from the base station. This indicates that it is not compatible with receiving modulated signals.
  • FIG. 26 is an example of interactions among the base station, terminal, and network (server) in FIG. 1.
  • the terminal transmits terminal identification information.
  • the base station obtains terminal identification information (2601).
  • the terminal transmits its own (terminal) location information.
  • the base station will obtain location information of the terminal (2602).
  • the method for a terminal to estimate its location information may be ⁇ the terminal estimates its own location through communication between the terminal and a base station,'' or ⁇ the terminal estimates its own location using the location estimation device it has. It is also possible to perform a position estimation.
  • the terminal may determine its relative position from the base station.
  • the base station estimates its own location, and using this location information and relative location information transmitted by the terminal, the base station may determine the (absolute) location of the terminal.
  • the terminal may determine its absolute position. Therefore, the terminal transmits absolute position information as the terminal's position information.
  • the base station estimates the location of the terminal through communication between the terminal and the base station.
  • the terminal transmits information instructing the base station to start position estimation.
  • the base station may obtain the relative position of the terminal from the base station.
  • the base station estimates its own location, and using this location information and relative location information of the terminal from the base station, the base station may determine the (absolute) location of the terminal.
  • the base station may determine the absolute location of the terminal.
  • the base station transmits the terminal identification information and the terminal location information to the server via the network (2611).
  • the server Based on the terminal identification information and the terminal location information, the server generates information regarding the virtual space, such as arranging a terminal-specific character in the virtual space.
  • the terminal may perform the "exchange between base station, terminal, and network (server)" in FIG. 26 again.
  • the terminal may transmit terminal identification information.
  • the server updates the position of the character (avatar) in the virtual space based on the position information of the terminal.
  • FIG. 27 shows a configuration regarding terminal setting information 2700 included in a modulated signal transmitted by a terminal, for example, terminal #1 of 101_1, terminal #2 of 101_2, terminal #101 of 101_101, and terminal #102 of 101_102 in FIG. An example is shown.
  • the terminal setting information 2700 includes, for example, "setting information 2711 regarding location information acquisition method,” “setting information 2712 regarding character display method,” and “method for making a character corresponding to the terminal appear in virtual space based on position information in real space.” "Information 2713 on whether or not the character is supported”, “Setting information 2714 on character display position”, “Setting information 2715 on character display method at speed”, “Setting information 2716 on push notification", etc. do.
  • the terminal will transmit terminal setting information 2700 to the base station.
  • the terminal setting information 2700 includes, for example, "setting information 2711 related to location information acquisition method", “setting information 2712 related to character display method”, and “setting information 2712 related to position information acquisition method”, “setting information 2712 related to character display method”, and “setting information 2712 related to location information acquisition method”, “setting information 2712 related to character display method”, and “setting information 2712 related to position information acquisition method”, “setting information 2712 related to character display method”, and “setting information 2712 related to position information acquisition method”, “setting information 2712 related to character display method”, “setting information 2712 related to position information acquisition method”, “setting information 2712 related to the character display method”, “setting information 2712 related to position information acquisition method”, “setting information 2712 related to the character display method”, “setting information 2712 related to the character display method”, “setting information 2712 related to the character display method”, “setting information 2712 related to the character display method”, “appearing a character corresponding to the terminal in the virtual space based on the position information in the real space” 2713, “setting information 2714 about character display position,”
  • Setting information 2711 regarding location information acquisition method is “information regarding the set location information acquisition method among the location information acquisition methods that can be supported by the terminal.”
  • the location information estimation methods that can be supported by a terminal include ⁇ a method in which the base station and the terminal communicate and the base station estimates the terminal's location'', and ⁇ a method in which the base station and the terminal communicate and the terminal estimates the terminal's location''.
  • setting information 2711 regarding location information acquisition method is 2-bit information. If the 2-bit information of the "setting information 2711 regarding location information acquisition method” is "00", the “method for the base station to communicate with the terminal and for the base station to estimate the location of the terminal” is set. This indicates that Therefore, the base station and the terminal will exchange "a method for the base station and the terminal to communicate and for the base station to estimate the location of the terminal.”
  • Setting information 2712 regarding character display method is "information regarding a method for displaying a character corresponding to a terminal in virtual space.”
  • a method for displaying a character corresponding to a terminal in virtual space there is a method for always displaying a character corresponding to a terminal in virtual space based on the position of the terminal in real space.
  • setting information 2712 regarding character display method is 2-bit information. If the 2-bit information of "character display method setting information 2712" is "00", "When displaying a character corresponding to the terminal in virtual space based on the position of the terminal in real space, the character This indicates that the display method is set. Therefore, the base station transmits the 2-bit information "00" of "character display method setting information 2712" from the terminal to the server, and the server processes it to display the character corresponding to this terminal, Virtual space information will be generated.
  • the base station transmits the 2-bit information "01" of "character display method setting information 2712" from the terminal to the server, and the server determines the location where the character display corresponding to this terminal is to be performed and the character display location.
  • Virtual space information will be generated based on location information that does not exist.
  • the base station transmits the 2-bit information "10" of "character display method setting information 2712" from the terminal to the server, and the server processes it so as not to display the character corresponding to this terminal, Virtual space information will be generated.
  • Information 2713 indicating whether or not a method for making a character corresponding to a terminal appear in virtual space based on location information in real space is supported is "Information 2713 indicating whether or not a method for making a character corresponding to a terminal appear in virtual space based on location information in real space” is "As explained in Embodiment 1, ⁇ Whether or not the terminal is compatible with a system that allows a character corresponding to the terminal to appear in virtual space based on the terminal information.''
  • information 2713 indicating whether or not a method for making a character corresponding to a terminal appear in virtual space based on position information in real space is supported is 1-bit information. If “information 2713 indicating whether or not a method for making a character corresponding to the terminal appear in virtual space based on location information in real space is supported” is "1", "the location information of the terminal is transmitted to the base station, This indicates that the device is compatible with a system that allows a character corresponding to the device to appear in virtual space based on location information acquired by the server.
  • the base station when the base station receives the information 2713 indicating whether or not the method of making a character corresponding to the terminal appear in the virtual space based on the position information in the real space is supported in the information "1", the base station The station can provide the terminal with a service that "makes a character appear in a virtual space based on the terminal's location information, based on the terminal's location information.”
  • Setting information 2714 regarding character display position is "information regarding the display position when displaying a character corresponding to a terminal in virtual space.”
  • methods for displaying the position of a character corresponding to a terminal in virtual space there are two methods: ⁇ a method of height-correcting the terminal position in real space and displaying it in virtual space''; , there is a method for displaying images in virtual space without height correction.
  • setting information 2714 regarding character display position is 1-bit information. If the 1-bit information of the "character display position setting information 2714" is "1", the setting is "a method for correcting the height of the terminal position in the real space and displaying it in the virtual space”. This shows that. Therefore, the base station transmits the 1-bit information "1" of "character display position setting information 2714" from the terminal to the server, and the server, when displaying the character corresponding to this terminal in the virtual space, Then, the virtual space information will be generated.
  • the base station transmits the 1-bit information "0" of "character display position setting information 2714" from the terminal to the server, and the server, when displaying the character corresponding to this terminal in the virtual space, Virtual space information is generated without any correction.
  • Setting information 2715 regarding the character display method based on speed is "information regarding the method for displaying a character corresponding to a terminal in consideration of speed in virtual space.”
  • ⁇ Displaying a character corresponding to a terminal in virtual space regardless of the speed of movement of the terminal'' ) "How to prevent the display of a character corresponding to a terminal in virtual space when conditions related to movement speed are met", "How to display a character corresponding to a terminal in virtual space when conditions related to movement speed (of a terminal) are met" It is assumed that there is a method for controlling the display of
  • setting information 2715 regarding character display method in speed is 2-bit information. If the 2-bit information of "setting information 2715 regarding character display method based on speed” is "00", then "method for displaying a character corresponding to the terminal in virtual space regardless of the moving speed (of the terminal)" This indicates that . Therefore, the base station transmits 2-bit information "00" of "setting information 2715 regarding character display method in speed” from the terminal to the server, and the server transmits the character corresponding to this terminal (of the terminal). Information about the virtual space is generated by processing and displaying information regardless of the speed of movement.
  • the base station transmits 2-bit information "01" of "setting information 2715 regarding character display method in speed” from the terminal to the server.
  • the base station also transmits location information of the terminal to the server.
  • the server estimates the moving speed of this terminal, and determines that the character corresponding to this terminal will not be displayed in the virtual space if the conditions regarding the moving speed are satisfied.
  • the server estimates the moving speed of this terminal, and if the conditions regarding the moving speed are not satisfied, determines that a character corresponding to this terminal should be displayed in the virtual space. Based on this, the server will generate virtual space information.
  • the terminal may estimate its own (terminal) moving speed and transmit the moving speed information to the server via the base station.
  • the base station transmits 2-bit information "10" of "setting information 2715 regarding character display method in speed” from the terminal to the server.
  • the base station also transmits location information of the terminal to the server.
  • the server estimates the moving speed of this terminal, and if the conditions regarding the moving speed are satisfied, determines that the display control of the character corresponding to this terminal in the virtual space should be performed.
  • the server estimates the moving speed of this terminal, and if the conditions regarding the moving speed are not satisfied, determines that a character corresponding to this terminal should be displayed in the virtual space. Based on this, the server will generate virtual space information.
  • the terminal may estimate its own (terminal) moving speed and transmit the moving speed information to the server via the base station. Further, a specific example of the method of "controlling the display of a character corresponding to the terminal in the virtual space when a condition regarding the moving speed (of the terminal) is satisfied" will be described later.
  • Setting information 2716 regarding push notifications is "information regarding whether the terminal is permitted to receive push notifications.”
  • setting information 2716 regarding push notifications is 1-bit information.
  • the base station transmits the 1-bit information "1" of "setting information 2716 regarding push notification” from the terminal to the server, and the server transmits the information to be transmitted as a push notification to this terminal via the base station. , will be sent to this terminal.
  • the base station transmits 1-bit information "0" of "setting information 2716 regarding push notification” from the terminal to the server, and the server does not generate information to be transmitted as a push notification.
  • Setting information 2717 regarding access to a character is "information regarding whether another character can access the character corresponding to the terminal.”
  • setting information 2717 regarding access to characters is 2-bit information. If the 2-bit information of "character access setting information 2717" is "01", it indicates that the setting is "allowing access from other characters”. . Therefore, the base station transmits 2-bit information "01" of "character access setting information 2717” from the terminal to the server, and the server transmits the 2-bit information "01” of "character access setting information 2717” from the terminal to the characters are set to be accessible, and based on this, information about the virtual space is generated.
  • the base station transmits the 2-bit information "00" of "character access setting information 2717” from the terminal to the server, and the server transmits the 2-bit information "00” of "character access setting information 2717” from the terminal to the Characters are set as inaccessible, and virtual space information is generated based on this.
  • the base station transmits the 2-bit information "10" of "character access setting information 2717" from the terminal to the server.
  • the virtual space information is generated based on the settings to control the access of the characters.
  • Setting information 2718 regarding the character display method in time is "information regarding the method for displaying a character corresponding to a terminal in virtual space in consideration of time.”
  • ⁇ Displaying a character corresponding to a terminal in virtual space regardless of time'' and ⁇ Displaying a character corresponding to a terminal based on time''. Assume that there is a method for controlling the display of images in virtual space.
  • setting information 2718 regarding character display method in time is 1-bit information. If the 1-bit information of the "setting information 2718 regarding character display method in time” is "1", the "method for displaying a character corresponding to a terminal in virtual space regardless of time” is set. This indicates that
  • the base station transmits the 1-bit information "1" of the "setting information 2718 regarding the character display method in time from the terminal" to the server, and the server displays the character corresponding to this terminal regardless of the time. This process is performed to generate virtual space information.
  • the base station transmits 1-bit information "0" of "setting information 2718 regarding the character display method in time” from the terminal to the server.
  • the terminal transmits, via the base station, information on the time when the character corresponding to the terminal (self) is not displayed in the virtual space and/or information on the time when the character corresponding to the terminal (self) is displayed in the virtual space. and transmit it to the server.
  • it is described as “via a base station", it is not necessary to go through a base station.
  • the server determines whether or not this terminal is available based on "information about the time when a character corresponding to the terminal (itself) is not displayed in the virtual space and/or information about when the character corresponding to the terminal (itself) is not displayed in the virtual space.” It is decided whether or not a character corresponding to the character will appear in the virtual space.
  • the "time information” may include date information or time information.
  • the base station and server can determine the terminal's location in real space in the form requested by the terminal. Based on this, it is possible to form a service that allows characters to appear in a virtual space.
  • FIG. 28A shows, for example, the ⁇ terminal'' in FIG. , a base station, and a server.
  • FIG. 28A shows interaction between the terminal and the server, in FIG. 28A, the terminal and the server may also communicate (communication) via a base station.
  • the terminal transmits "terminal information" (2801A). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • the terminal transmits "information regarding the start of character display and non-display settings (corresponding to the terminal) in the virtual space" (2802A).
  • the server obtains "information regarding the start of character display and non-display settings (corresponding to the terminal) in the virtual space" (2852A).
  • the terminal and the server will start the character display/non-display setting procedure in the virtual space (corresponding to the terminal).
  • the terminal transmits "information regarding the character display area (corresponding to the terminal) and non-display setting area in the virtual space" (2803A).
  • the server obtains "information regarding the character display area (corresponding to the terminal) and non-display setting area in the virtual space" (2853A).
  • the information is "information regarding the character display area (corresponding to the terminal) and non-display setting area in the virtual space"
  • the information may be information about either one of the "display area and non-display area”.
  • FIG. 28B shows an example of the settings of "character display area and non-display setting area (corresponding to the terminal) in virtual space" set by the terminal.
  • the setting is such that the character corresponding to the terminal is not displayed in the virtual space (character non-display).
  • the display unit installed in the terminal or the display device connected to the terminal has, for example, A character display area and a non-display setting area corresponding to the terminal may be displayed on a map corresponding to the real space and virtual space as shown in FIG. 28B.
  • the terminal transmits "information regarding the character display area (corresponding to the terminal) and non-display setting area in the virtual space" to the server (see FIG. 28A).
  • FIG. 28C shows an example of the settings of "character display area and non-display setting area (corresponding to the terminal) in virtual space" set by the terminal.
  • the display unit installed in the terminal or the display device connected to the terminal has, for example, A character display area and a non-display setting area corresponding to the terminal may be displayed on a map corresponding to the real space and virtual space as shown in FIG. 28C.
  • the terminal transmits "information regarding the character display area (corresponding to the terminal) and non-display setting area in the virtual space" to the server (see FIG. 28A).
  • FIG. 28D shows an example of the settings of "character display area and non-display setting area (corresponding to the terminal) in virtual space" set by the terminal.
  • the setting is such that the character corresponding to the terminal is not displayed in the virtual space (character non-display).
  • the display unit installed in the terminal or the display device connected to the terminal has, for example, A character display area and a non-display setting area corresponding to the terminal may be displayed on a map corresponding to the real space and virtual space as shown in FIG. 28D.
  • the terminal transmits "information regarding the character display area (corresponding to the terminal) and non-display setting area in the virtual space" to the server (see FIG. 28A).
  • FIG. 28E shows, for example, in FIG. It shows an example of "interactions between terminals, base stations, and servers.”
  • the terminal transmits "terminal information" to the server via the base station (2801C).
  • terminal information As shown in FIG. 28E, the terminal transmits "terminal information" to the server via the base station (2801C). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • the terminal and the base station communicate.
  • the base station then transmits "terminal location information" to the server (2899C).
  • the terminal may transmit "location information of the terminal (its own)” to the base station. (For this reason, a dotted arrow is shown in FIG. 28E.)
  • the server obtains "terminal location information" (2852C).
  • the server uses "information about the character display area and non-display setting area (corresponding to the terminal) in the virtual space" and "device location information” to determine the location in the virtual space corresponding to the "device location information”. Based on this judgment, the base station (2853C).
  • the terminal obtains "virtual space information based on information regarding the character display area (corresponding to the terminal) and character non-display area in the virtual space" (2802C), and uses the display section of the terminal or,
  • the virtual space may be displayed on a display device connected to the terminal.
  • “display/hide” of the display unit and display device of the character corresponding to the character (terminal) in the virtual space refers to "character display area (corresponding to the terminal) and non-display setting area in the virtual space” in FIG. 28A. It will be based on information.
  • FIG. 29A shows an example of the situation in real space of the terminal in FIG. 1 and the user carrying the terminal. It is assumed that a user 2901 is carrying a terminal 2902 and riding in a car 2900. At this time, it is assumed that the car 2900 is traveling at 50 km/h.
  • the terminal 2902 also moves at a speed of 50 km/h.
  • the character corresponding to the terminal 2902 is displayed.
  • the character will move at high speed in the virtual space. As a result, the following problems may occur.
  • a character corresponding to another terminal may access (for example, chat, send a message, communicate, etc.) a character corresponding to the terminal 2902.
  • FIG. 29A shows an example in which the user 2901 carrying the terminal 2902 is traveling in the car 2900
  • Electricity-based moving devices such as electric vehicles, electric motorcycles, electric bicycles, electric scooters, electric assist bicycles, electric assist scooters, trains, etc.; automobiles, motorcycles, bicycles, ships, aircraft, airplanes, trains, etc.
  • the terminal may be a moving robot, an electrically-based moving device such as an electric car, an electric motorcycle, an electric bicycle, an electric kickboard, an electric assist bicycle, an electric assist kickboard, a train, an automobile, a motorbike, a bicycle, etc.
  • the same method can be applied when the system is mounted on a moving device such as a ship, an aircraft, an airplane, a train, etc.
  • FIG. 29B shows, for example, the "example of interactions among the terminal, base station, and server” in FIG. 1 regarding "setting a method for displaying a character corresponding to a terminal in virtual space in consideration of speed.”
  • FIG. 29B shows interaction between the terminal and the server, in FIG. 29B, the terminal and the server may also communicate (communication) via a base station.
  • the terminal transmits "terminal information" (2901B). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • the terminal transmits "information regarding the start of setting regarding the character display method (corresponding to the terminal) in speed" (2902B).
  • the server obtains "information regarding the start of settings regarding the character display method (corresponding to the terminal) in speed" (2952B).
  • the terminal and the server will start the procedure regarding the character display method (corresponding to the terminal) in speed.
  • the terminal transmits "information regarding the character display method (corresponding to the terminal) in terms of speed" (2903B).
  • the server obtains "information regarding the character display method (corresponding to the terminal) in speed" (2953B).
  • FIG. 29C shows an example of the setting of "Character display method (corresponding to the terminal) in speed” set by the terminal.
  • FIG. 29C it is assumed that one of the following three settings is possible. Note that, for example, it may be displayed on the display unit or display device of the terminal as shown in FIG. 29C. ⁇ Display a character corresponding to the terminal in virtual space regardless of the moving speed (of the terminal) (2990) ⁇ When the conditions regarding the movement speed (of the terminal) are met, the character corresponding to the terminal is not displayed in the virtual space (2991) ⁇ When conditions related to the movement speed (of the terminal) are met, display control of the character corresponding to the terminal in the virtual space is performed (2992)
  • FIG. 29B shows an example when "2990: Display a character corresponding to the terminal in the virtual space regardless of the moving speed (of the terminal)" is selected by the terminal.
  • the setting ⁇ Do not display the character corresponding to the terminal in virtual space when the conditions related to the moving speed (of the terminal) are met (2991)'' is set to ⁇ When the moving speed of the terminal in real space is 30 km/h or higher, In this case, the character corresponding to the terminal will not be displayed in the virtual space, and when the moving speed of the terminal in real space is less than 30 km/h, the character corresponding to the terminal will be displayed in the virtual space.'' There may be.
  • the conditions regarding the moving speed (of the terminal) are not limited to this example.
  • the server can determine when the train is running and when the train is stopped at a station by comparing the terminal's location information with the train's route on the map. will be possible.
  • the terminal transmits "information regarding the character display method (corresponding to the terminal) in terms of speed" to the server (see FIG. 29B).
  • FIG. 29D shows an example of "interaction among the terminal, base station, and server" in FIG. 1 after "setting a method for displaying a character corresponding to a terminal in virtual space in consideration of speed".
  • the terminal transmits "terminal information" to the server via the base station (2901C).
  • terminal information As shown in FIG. 29D, the terminal transmits "terminal information" to the server via the base station (2901C). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • the terminal and the base station communicate. Then, the base station transmits "terminal location information" to the server (2999C). Note that at this time, the terminal may transmit "location information of the terminal (its own)" to the base station. (For this reason, a dotted arrow is shown in FIG. 29D.)
  • the server obtains "terminal location information" (2952C).
  • the base station also transmits "terminal speed information" to the server (2998C). Note that at this time, the terminal may transmit "speed information of the terminal (its own)" to the base station. (For this reason, a dotted arrow is shown in FIG. 29D.)
  • the server obtains "terminal speed information" (2953C). Then, the server determines whether or not to make a character corresponding to this terminal appear in the virtual space based on the "terminal location information" and "terminal speed information", and based on this determination, the virtual space information (" virtual space information based on information regarding the character display method in terms of speed. Note that an example of "determining whether or not to make a character corresponding to the terminal appear in the virtual space" is explained using FIG. 29B.
  • the server transmits "virtual space information based on information regarding the character display method in terms of speed" to the terminal via the base station (2954C).
  • the terminal will obtain “virtual space information based on information regarding the character display method in terms of speed” (2902C), and will display the virtual space on the display unit of the terminal or the display device connected to the terminal. May be displayed.
  • the "display method" of the display unit and display device of the character corresponding to itself (terminal) in the virtual space is based on the "information regarding the character display method (corresponding to the terminal) in terms of speed" in FIG. 29B. become.
  • FIG. 29E shows an example different from FIG. 29D of "interaction between terminal, base station, and server” in FIG. 1 after "setting a method for displaying a character corresponding to a terminal in virtual space in consideration of speed”. ing.
  • the terminal transmits "terminal information" to the server via the base station (2901C).
  • terminal information As shown in FIG. 29E, the terminal transmits "terminal information" to the server via the base station (2901C). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • the terminal and the base station communicate. Then, the base station transmits "terminal location information" to the server (2999C). Note that at this time, the terminal may transmit "location information of the terminal (its own)" to the base station. (For this reason, a dotted arrow is shown in FIG. 29D.)
  • the server obtains "terminal location information" (2952C).
  • the base station transmits "location information of the terminal” to the server (2999D).
  • the terminal may also transmit "location information of the terminal (its own)" to the base station. (For this reason, a dotted arrow is shown in FIG. 29E.)
  • the server obtains "terminal location information" (2952D). Then, the server estimates the moving speed of the terminal from the "terminal location information" twice, determines whether or not to make a character corresponding to this terminal appear in the virtual space, and uses the virtual space based on this determination. ("virtual space information based on information regarding character display method in terms of speed"). Note that an example of "determining whether or not to make a character corresponding to the terminal appear in the virtual space" is explained using FIG. 29B.
  • the moving speed of the terminal is estimated from the "terminal position information" twice, but the moving speed of the terminal may be estimated from the "terminal position information" multiple times. Furthermore, the moving speed of the terminal may be estimated by determining the position on the map from one or more pieces of "terminal position information.”
  • the server transmits "virtual space information based on information regarding the character display method in terms of speed" to the terminal via the base station (2954C).
  • the terminal will obtain “virtual space information based on information regarding the character display method in terms of speed” (2902C), and will display the virtual space on the display unit of the terminal or the display device connected to the terminal. May be displayed.
  • the "display method" of the display unit and display device of the character corresponding to itself (terminal) in the virtual space is based on the "information regarding the character display method (corresponding to the terminal) in terms of speed" in FIG. 29B. become.
  • FIG. 30A shows an "example of interactions among the terminal, base station, and server" in FIG. 1, for example, regarding “settings related to push notifications.”
  • FIG. 30A shows interaction between the terminal and the server, in FIG. 30A, the terminal and the server may also communicate (communication) via a base station.
  • terminal #A transmits "terminal information" (3001A). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • the server obtains "terminal information" (3051A). Since the specific operation has already been explained in Embodiment 1, etc., the explanation will be omitted.
  • terminal #A transmits "information regarding starting settings related to push notification" (3002A).
  • the server obtains "information regarding starting settings for push notifications" (3052A).
  • terminal #A and the server will start procedures regarding push notifications.
  • terminal #A transmits "information regarding push notification" (3003A).
  • the server obtains "information regarding push notifications" (3053A).
  • FIG. 30B shows an example of "push notification" settings set by the terminal.
  • FIG. 30B shows an example when "Receive push notification (3090)" is selected by the terminal.
  • the terminal will send "information regarding push notifications" to the server (see FIG. 30A).
  • FIG. 30C shows an example of "interactions between the terminal, base station, and server” in FIG. 1, for example, after “settings related to push notifications”.
  • terminal #A transmits "terminal information" to the server via the base station (3001C).
  • terminal information As shown in FIG. 30C, terminal #A transmits "terminal information" to the server via the base station (3001C). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • terminal #A and the base station communicate. Then, the base station transmits "location information of terminal #A" to the server (3099C). Note that at this time, the terminal #A may transmit "location information of the terminal (self) #A" to the base station. (For this reason, a dotted arrow is shown in FIG. 30C.)
  • the server obtains "location information of terminal #A" (3052C).
  • the server generates virtual space information based on various installations and transmits it to terminal #A via the base station (3053C). (At this time, information on the character corresponding to terminal #A is also included.)
  • Terminal #A obtains virtual space information (3002C).
  • terminal #B transmits "information to terminal #A" (3021C).
  • the information that terminal #B sends to terminal #A includes "communication, chat, image (still image) transmission, video transmission, advertisement transmission, distribution, coupon distribution,'' etc., but are not limited to these examples.
  • terminal #A is set to "receive push notifications” in “settings related to push notifications”
  • the server sends "information to terminal #A" obtained from terminal #B via the base station, for example. and transmits it to terminal #A (3054C).
  • Terminal #A obtains "information to terminal #A” (3003C), and this becomes a push notification.
  • terminal #A is set to "Do not receive push notifications” in “Settings related to push notifications"
  • the server will send "information to terminal #A" obtained from terminal #B via the base station, for example. , not sent to terminal #A.
  • a terminal in real space to control whether or not to obtain information from accesses from other terminals.
  • a user wearing AR glasses can know that other users and/or characters have accessed the site without notifying them, but a user who is not wearing AR glasses can also , other users, and/or characters can realize the effect that the access has been made.
  • FIG. 31A shows an "example of interactions among the terminal, base station, and server" in FIG. 1, for example, regarding “settings related to access to characters.”
  • FIG. 31A shows interaction between the terminal and the server, in FIG. 31A, the terminal and the server may also communicate (communication) via a base station.
  • terminal #A transmits "terminal information" (3101A). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • terminal #A transmits "information regarding the start of settings related to access to the character" (3102A).
  • the server obtains "information regarding the start of settings related to access to the character" (3152A).
  • the terminal #A and the server will start a procedure regarding whether or not another character can access the character (corresponding to the terminal).
  • terminal #A transmits "information regarding access to the character" (3103A).
  • the server obtains "information regarding access to the character" (3153A).
  • FIG. 31B shows an example of settings "related to access to characters" set by the terminal.
  • the information may be displayed on the display unit or display device of the terminal as shown in FIG. 31B.
  • ⁇ Allow access from other characters (3190) ⁇ Do not allow access from other characters (3191)
  • the terminal controls access from other characters based on conditions related to movement speed (3192)
  • 31B is an example when “Allow access from other characters (3190)" is selected by the terminal.
  • the setting "The terminal controls access from other characters based on conditions related to movement speed (3192)" is set to "When the terminal movement speed in real space is 30 km/h or more, access from other characters is The setting may be such that "access from other characters is permitted when the terminal's moving speed in real space is less than 30 km/h".
  • the conditions regarding the moving speed (of the terminal) are not limited to this example.
  • the terminal then transmits "information regarding access to the character" to the server (see FIG. 31A).
  • FIG. 31C shows an example of "interactions between the terminal, base station, and server” in FIG. 1 after the settings "related to access to characters" are made.
  • terminal #A transmits "terminal information" to the server via the base station (3101C). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • terminal #A and the base station communicate. Then, the base station transmits "location information of terminal #A" to the server (3199C). Note that at this time, the terminal #A may transmit "location information of the terminal (self) #A" to the base station. (For this reason, a dotted arrow is shown in FIG. 31C.)
  • the server obtains "location information of terminal #A" (3152C).
  • the server generates virtual space information based on various installations and transmits it to terminal #A via the base station (3153C). (At this time, information on the character corresponding to terminal #A is also included.)
  • Terminal #A obtains virtual space information (3102C).
  • terminal #B transmits "information to terminal #A" (3121C)
  • the information that terminal #B transmits to terminal #A is as described in Embodiment 1. Examples include "communication, chat, sending images (still images), sending videos, sending advertisements, distributing advertisements, distributing coupons,” but are not limited to these examples.
  • terminal #A is set to "Allow access from other characters (3190)" in “Settings related to character access," the server For example, the terminal #A transmits the "information" to the terminal #A via the base station (3154C). Terminal #A will obtain "information to terminal #A" (3103C), and this may be a push notification. Push notifications are as described above. Further, "information to terminal #A" does not have to be a push notification. For example, if the terminal #A is an AR display device, or if the terminal #A is connected to an AR display device, a display corresponding to information may be displayed on the terminal #A.
  • terminal #A is set to "Do not allow access from other characters (3191)" in “Settings related to access to characters"
  • the server will send "information to terminal #A" obtained from terminal #B. " is not transmitted to terminal #A via the base station, for example.
  • FIG. 31D shows an example different from FIG. 31C of "interaction between terminal, base station, and server" in FIG. 1, for example, after setting "related to access to character".
  • Components that operate in the same way as in FIG. 31C are given the same numbers, and some explanations will be omitted.
  • terminal #A transmits "terminal information" to the server via the base station (3101C). Note that a specific example of the terminal information has already been explained in Embodiment 1 and the like, so the explanation will be omitted.
  • terminal #A and the base station communicate. Then, the base station transmits "location information of terminal #A" to the server (3199C). Note that at this time, the terminal #A may transmit "location information of the terminal (self) #A" to the base station. (For this reason, a dotted arrow is shown in FIG. 31D.)
  • the server obtains "location information of terminal #A" (3152C).
  • the base station also transmits "speed information of terminal #A" to the server (3198D). At this time, terminal #A may also transmit "speed information of the terminal (its own)" to the base station. . (For this reason, a dotted arrow is shown in FIG. 31D.)
  • the server obtains "speed information of terminal #A" (3155D). The server then determines whether or not to permit access from other terminals based on the "location information of terminal #A" and "speed information of terminal #A,” and displays information about the virtual space based on this determination. Based on this determination, the information will be transmitted to terminal #A. Note that the example of "determine whether or not to transmit information to terminal #A" is explained using FIG. 31B.
  • the server generates virtual space information based on various installations and transmits it to terminal #A via the base station (3153C). (At this time, information on the character corresponding to terminal #A is also included.)
  • Terminal #A obtains virtual space information (3102C).
  • terminal #B transmits "information to terminal #A" (3121C)
  • the information that terminal #B transmits to terminal #A is as described in Embodiment 1. Examples include "communication, chat, sending images (still images), sending videos, sending advertisements, distributing advertisements, distributing coupons,” but are not limited to these examples.

Abstract

サーバーが実施する方法は、実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し(S7431またはS7432)、第1端末に対応する情報を実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、第2端末の表示画面に第1端末に対応する画像を表示させる(S7433)。

Description

方法、サーバー、端末、および、基地局
 本開示は、方法、サーバー、端末、および、基地局に関する。
 仮想空間にキャラクタを登場させる方法について提案されている。図75のように、サーバーは、キャラクタモジュール、空間情報を具備している。そして、端末は、サーバーにアクセスし、サーバーは、キャラクタを、空間情報を用いて仮想空間上に登場させる。
特開2015-122075号公報 国際公開第2020/122220号 国際公開第2021/045181号 国際公開第2021/215080号
 従来の技術としては、特許文献1に示されているような仮想空間単独でキャラクタを登場させるための技術があり、特許文献1に示されている技術は、仮想空間と実空間を連動させた技術ではなく、キャラクタを仮想空間上で動作させるのみでの使用に限られたものである。よって、端末、ユーザが存在する実環境に適したより多様化したシステムではないという課題がある。
 そこで、本開示は、端末(または、ユーザ)の実空間での位置に基づいて、キャラクタ(アバター)を仮想空間上に登場させる。
 本開示に基づいて把握される発明の一態様に係るサーバーは、通信部とプロセッサを備え、通信部は、実空間の第1領域に第1端末が滞在していることを示す情報を受信し、プロセッサは、第1端末に対応する第1アバターの情報を生成し、通信部は、第1アバターの情報を実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、第2端末の表示画面に表示させる。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示のサーバーは、実空間の第1領域に滞在する端末に対応する第1アバターを、実空間の第1領域に対応する第1仮想空間に表示させることができる。これにより、端末が滞在する実空間に応じた仮想空間への参加を容易に行うことができる。
 端末などの装置が存在する実空間の位置に連動して、装置に対応するキャラクタ(アバター)を仮想空間上に登場させることで、端末、ユーザが存在する実環境に適した、より多様化したシステムを提供することができるという効果を得ることができる。
図1は、実施の形態1におけるシステム構成の一例を示す図である。 図2は、実施の形態1におけるサーバーの構成の一例を示す図である。 図3Aは、実施の形態1におけるシステム構成の別の一例を示す図である。 図3Bは、実施の形態1におけるサーバーと端末との通信の一例を示すシーケンス図である。 図4Aは、実施の形態1における実空間の一例を示す図である。 図4Bは、実施の形態1における実空間と仮想空間の対応の一例を示す図である。 図5は、実施の形態1におけるシステム構成の別の一例を示す図である。 図6は、実施の形態1における実空間と基地局の配置の一例を示す図である。 図7Aは、実施の形態1における送信情報の一例を示す図である。 図7Bは、実施の形態1における送信情報の別の一例を示す図である。 図8は、実施の形態1における実空間と基地局の配置の別の一例を示す図である。 図9は、実施の形態1における実空間と基地局の配置の別の一例を示す図である。 図10Aは、実施の形態1における実空間と仮想空間の対応の別の一例を示す図である。 図10Bは、実施の形態1における実空間と仮想空間の対応の別の一例を示す図である。 図11は、実施の形態1におけるシステム構成の別の一例を示す図である。 図12は、実施の形態1における実空間と基地局の配置の別の一例を示す図である。 図13は、実施の形態1における実空間と基地局の配置の別の一例を示す図である。 図14は、実施の形態1における実空間と基地局の配置の別の一例を示す図である。 図15は、アンテナ構成の一例を示す図である。 図16Aは、基地局および端末が行うビームフォーミングの一例を示す図である。 図16Bは、基地局および端末が行うビームフォーミングの別の一例を示す図である。 図16Cは、実施の形態1における座標系の一例を示す図である。 図17Aは、実施の形態1における仮想空間のキャラクタ表示の一例を示す図である。 図17Bは、実施の形態1における仮想空間のキャラクタ表示の別の一例を示す図である。 図18は、実施の形態2におけるシステム構成の一例を示す図である。 図19Aは、実施の形態2におけるサーバーの構成の一例を示す図である。 図19Bは、実施の形態2におけるシステム構成の一例を示す図である。 図19Cは、実施の形態2におけるオブジェクトとキャラクタの対応付け処理の一例を示す図である。 図20は、実施の形態2におけるシステム構成の一例を示す図である。 図21は、実施の形態2におけるシステム構成の一例を示す図である。 図22は、実施の形態3における基地局能力情報の一例を示す図である。 図23は、実施の形態3における端末能力情報の一例を示す図である。 図24Aは、実施の形態3における基地局の構成の一例を示す図である。 図24Bは、実施の形態3における基地局の構成の別の一例を示す図である。 図24Cは、実施の形態3における基地局の構成の別の一例を示す図である。 図25Aは、実施の形態3における端末の構成の一例を示す図である。 図25Bは、実施の形態3における端末の構成の別の一例を示す図である。 図25Cは、実施の形態3における端末の構成の別の一例を示す図である。 図25Dは、実施の形態3における端末の構成の別の一例を示す図である。 図26は、実施の形態3における基地局の動作の一例を示す図である。 図27は、実施の形態3における端末設定情報の一例を示す図である。 図28Aは、実施の形態3における端末、基地局、サーバーのやりとりの一例を示す図である。 図28Bは、実施の形態3における仮想空間におけるキャラクタ表示エリアと非表示設定エリアの設定の一例を示す図である。 図28Cは、実施の形態3における仮想空間におけるキャラクタ表示エリアと非表示設定エリアの設定の別の一例を示す図である。 図28Dは、実施の形態3における仮想空間におけるキャラクタ表示エリアと非表示設定エリアの設定の別の一例を示す図である。 図28Eは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図29Aは、実施の形態3における実空間に置ける状況の一例を示す図である。 図29Bは、実施の形態3における表示方法の設定の一例を示す図である。 図29Cは、実施の形態3における表示方法の設定の別の一例を示す図である。 図29Dは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図29Eは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図30Aは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図30Bは、実施の形態3におけるプッシュ通知の設定の一例を示す図である。 図30Cは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図31Aは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図31Bは、実施の形態3におけるプッシュ通知の設定の一例を示す図である。 図31Cは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図31Dは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図31Eは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図32Aは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図32Bは、実施の形態3における表示方法の設定の別の一例を示す図である。 図32Cは、実施の形態3における表示方法の設定の別の一例を示す図である。 図32Dは、実施の形態3における表示方法の設定の別の一例を示す図である。 図32Eは、実施の形態3における表示方法の設定の別の一例を示す図である。 図32Fは、実施の形態3における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図33Aは、実施の形態4におけるシステム構成の一例を示す図である。 図33Bは、実施の形態4におけるシステム構成の一例を示す図である。 図33Cは、実施の形態4におけるシステム構成の別の一例を示す図である。 図33Dは、実施の形態4におけるシステム構成の別の一例を示す図である。 図34Aは、実施の形態5における端末、基地局、サーバーのやりとりの一例を示す図である。 図34Bは、実施の形態5におけるキャラクタの動作設定の一例を示す図である。 図34Cは、実施の形態5における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図34Dは、実施の形態5における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図35は、実施の形態5における装置とサーバーのやりとりの一例を示す図である。 図36Aは、実施の形態6における実空間の状態の一例を示す図である。 図36Bは、実施の形態6における仮想空間の状態の一例を示す図である。 図37Aは、仮想空間の状態の一例を示す図である。 図37Bは、仮想空間の状態の別の一例を示す図である。 図38Aは、実施の形態6におけるシステム構成の一例を示す図である。 図38Bは、実施の形態6におけるシステム構成の別の一例を示す図である。 図39は、実施の形態6における広告提供装置、または、情報提供装置とサーバーのやり取りの一例を示す図である。 図40は、実施の形態6における端末、または、装置とサーバーのやり取りの一例を示す図である。 図41は、実施の形態6における端末、または、装置とサーバーのやり取りの別の一例を示す図である。 図42は、実施の形態6における広告提供装置、または、情報提供装置とサーバーのやり取りの別の一例を示す図である。 図43は、実施の形態6における端末、または、装置とサーバーのやり取りの別の一例を示す図である。 図44は、実施の形態6における広告提供装置、または、情報提供装置と、端末、または、装置と、サーバーのやり取りの別の一例を示す図である。 図45は、実施の形態7におけるシステム構成の一例を示す図である。 図46は、実施の形態7における端末が送信する変調信号の構成の一例を示す図である。 図47Aは、実施の形態7における基地局および端末が送信する変調信号の構成の一例を示す図である。 図47Bは、実施の形態7における基地局および端末が送信する変調信号の構成の一例を示す図である。 図48Aは、実施の形態8における端末、サーバーのやりとりの一例を示す図である。 図48Bは、実施の形態8における端末が設定する、キャラクタの動作設定の一例を示す図である。 図48Cは、実施の形態8における端末とセンサーの状態の一例を示す図である。 図48Dは、実施の形態8における端末が送信する情報の構成の一例を示す図である。 図48Eは、実施の形態8における基地局が送信する情報の構成の一例を示す図である。 図48Fは、実施の形態8における基地局とセンサーの状態の一例を示す図である。 図48Gは、実施の形態8における端末と撮影装置の状態の一例を示す図である。 図48Hは、実施の形態8におけるシステム構成の一例を示す図である。 図48Iは、実施の形態8における端末と撮影装置の状態の一例を示す図である。 図49は、実施の形態8における端末が設定する、キャラクタの動作設定の一例を示す図である。 図50Aは、実施の形態9における端末に相当するキャラクタの属性の表示に関する設定例を示す図である。 図50Bは、実施の形態9における端末が伝送する端末の設定情報の構成の一例を示す図である。 図51は、実施の形態9における端末、基地局、サーバーのやりとりの別の一例を示す図である。 図52は、実施の形態9における仮想空間における端末に相当するキャラクタの一例を示す図である。 図53Aは、実施の形態10における実空間の状況の一例を示す図である。 図53Bは、実施の形態10における実空間の状況の一例を示す図である。 図54Aは、実施の形態10における実空間に相当する仮想空間の状態の一例を示す図である。 図54Bは、実施の形態10における実空間に相当する仮想空間の状態の一例を示す図である。 図54Cは、実施の形態10における実空間に相当する仮想空間の状態の一例を示す図である。 図55Aは、実施の形態10における実空間の状況の一例を示す図である。 図55Bは、実施の形態10における実空間の状況の一例を示す図である。 図56Aは、実施の形態10における実空間に相当する仮想空間の状態の一例を示す図である。 図56Bは、実施の形態10における実空間に相当する仮想空間の状態の一例を示す図である。 図56Cは、実施の形態10における実空間に相当する仮想空間の状態の一例を示す図である。 図57は、実施の形態10における広告提供装置または情報提供装置とサーバーのやりとりの一例を示す図である。 図58は、実施の形態10における広告提供装置または情報提供装置とサーバーのやりとりの一例を示す図である。 図59は、実施の形態10における端末または装置とサーバーのやりとりの一例を示す図である。 図60は、実施の形態10におけるシステム構成の一例を示す図である。 図61は、実施の形態10における端末または装置とサーバーのやりとりの一例を示す図である。 図62Aは、実施の形態11におけるセンサーと端末と基地局の状態の一例を示す図である。 図62Bは、実施の形態11におけるセンサーと端末と基地局の状態の一例を示す図である。 図62Cは、実施の形態11における端末の構成の一例を示す図である。 図63Aは、実施の形態11における端末または装置とサーバーのやりとりの一例を示す図である。 図63Bは、実施の形態11におけるセンサーと、端末または装置と、サーバーのやりとりの一例を示す図である。 図64Aは、実施の形態11におけるサーバーの構成の一例を示す図である。 図64Bは、実施の形態11における解析部の構成の一例を示す図である。 図65は、実施の形態11における実空間の状況の一例を示す図である。 図66は、実施の形態11における第1端末が表示している表示画面の一例を示す図である。 図67Aは、実施の形態11における実空間の状況の一例を示す図である。 図67Bは、実施の形態11における装置とサーバーのやりとりの一例を示す図である。 図67Cは、実施の形態11における端末と装置とサーバーのやりとりの一例を示す図である。 図68は、実施の形態11における仮想空間における装置に相当するキャラクタの位置を示す図である。 図69は、実施の形態11における実空間の状況の一例を示す図である。 図70Aは、実施の形態11における端末とサーバーのやりとりの一例を示す図である。 図70Bは、実施の形態11における端末を使用するユーザが精算を行う際の仮想空間の一例を示す図である。 図71Aは、実施の形態11における装置とサーバーのやりとりの一例を示す図である。 図71Bは、実施の形態11における端末と装置とサーバーのやりとりの一例を示す図である。 図71Cは、実施の形態11におけるユーザの実空間における状態の一例を示す図である。 図71Dは、実施の形態11における端末を使用するユーザが精算を行う際の仮想空間の一例を示す図である。 図72は、実施の形態12における基地局が送信する変調信号の構成の一例を示す図である。 図73は、実施の形態12における端末が送信する変調信号の構成の一例を示す図である。 図74Aは、各実施の形態のシステムの基本的な構成を示す図である。 図74Bは、各実施の形態のシステムの基本的な処理の一例を示す図である。 図75は、仮想空間上にキャラクタを登場させる従来のシステム構成を示す図である。
 本開示に基づいて把握される発明の一態様に係る第1の方法は、サーバーが実施する方法であって、実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し、前記第1端末に対応する情報を前記実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、前記第2端末の表示画面に前記第1端末に対応する画像を表示させる。
 上記態様の方法は、実空間の第1領域に滞在する端末に対応する情報を、実空間の第1領域に対応する第1仮想空間に表示させることができる。これにより、端末が滞在する実空間に応じた仮想空間への参加を容易に行うことができる。
 本開示に基づいて把握される発明の一態様に係る第2の方法は、第1の方法において、前記第2端末は、前記実空間の第1領域の外に位置している。
 上記態様の方法は、位置に依存せずに第1仮想空間に参加している端末と、実空間の第1領域に位置していることに応じて第1仮想空間に参加している端末を共存させることができる。これにより、端末が滞在する実空間に応じた仮想空間への参加するユーザと位置に依存せずに仮想空間に参加しているユーザとの間のコミュニケーションを可能にすることができる。
 本開示に基づいて把握される発明の一態様に係る第3の方法は、第1の方法において、前記制御情報は、前記第1端末が第1基地局と通信していることを示す情報である。
 上記態様の方法は、実空間の領域を基地局と対応付けることで、仮想空間と実空間の領域の対応付けを容易にすることができる。
 本開示に基づいて把握される発明の一態様に係る第4の方法は、第3の方法において、実空間の第1領域には、前記第1基地局と前記第1基地局とは異なる第2基地局が対応付けられている。
 上記態様の方法は、実空間の複数の基地局を同じ仮想空間に対応付けることで、基地局と仮想空間の対応付けの柔軟性を向上させることができる。
 本開示に基づいて把握される発明の一態様に係る第5の方法は、第3の方法において、第1仮想空間には、実空間の第1領域と、実空間の第1領域とは異なる実空間の第2領域が対応付けられている。
 上記態様の方法は、実空間の複数の領域を同じ仮想空間に対応付けることで、実空間の領域と仮想空間の対応付けの柔軟性を向上させることができる。
 本開示に基づいて把握される発明の一態様に係る第6の方法は、第3の方法において、実空間の第1領域は、仮想空間の第1領域と付けられている。
 上記態様の方法は、実空間の領域と対応付ける仮想空間内の領域を詳細に設定することが可能となり、実空間の領域と仮想空間の対応付けの柔軟性を向上させることができる。
 本開示に基づいて把握される発明の一態様に係る第7の方法は、第3の方法において、第1基地局から第1端末の位置情報を取得し、第1端末の位置情報に基づいて、前記第1端末に対応する画像を表示する第1仮想空間中の位置を変更する。
 上記態様の方法は、端末の実空間の領域内での詳細な位置に応じて、第1端末に対応する画像を仮想空間内で表示する位置を変更することが可能となり、端末のより詳細な位置に基づいた仮想空間サービスを提供することができる。
 本開示に基づいて把握される発明の一態様に係るサーバーは、通信部とプロセッサを備え、通信部は、実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し、プロセッサは、第1端末に対応する情報を生成し、通信部は、情報を実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、第2端末の表示画面に表示させる。
 上記態様のサーバーは、実空間の第1領域に滞在する端末に対応する第1アバターを、実空間の第1領域に対応する第1仮想空間に表示させることができる。これにより、端末が滞在する実空間に応じた仮想空間への参加を容易に行うことができる。
 本開示に基づいて把握される発明の一態様に係る第8の方法は、端末が実施する方法であって、実空間の第1領域に配置された第1基地局と通信を行い、実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と端末を示す識別子を含む制御情報を送信する。
 上記態様の方法は、実空間の第1領域に滞在する端末が実空間の第1領域に対応する第1仮想空間への参加を容易に行うことができる。
 本開示に基づいて把握される発明の一態様に係る第9の方法は、第8の方法において、第1基地局との間で当該端末の位置情報を生成するセンシングを実施し、位置情報を前記サーバーに対して送信する。
 上記態様の方法は、端末の実空間の領域内での詳細な位置に応じた仮想空間サービスを提供することができる。
 本開示に基づいて把握される発明の一態様に係る端末は、通信部とプロセッサを備え、通信部は、実空間の第1領域に配置された第1基地局と通信を行っており、プロセッサは、第1基地局を示す識別子と当該端末を示す識別子とを含む制御情報を生成し、実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、制御情報を送信する。
 上記態様の端末は、実空間の第1領域に滞在する端末が実空間の第1領域に対応する第1仮想空間への参加を容易に行うことができる。
 本開示に基づいて把握される発明の一態様に係る第10の方法は、実空間の第1領域に配置された基地局が実施する方法であって、実空間の第1領域に滞在している第1端末と通信を行い、実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と第1端末を示す識別子とを含む制御情報を送信する。
 上記態様の方法は、実空間の第1領域に滞在する端末が実空間の第1領域に対応する第1仮想空間への参加を容易に行うことができる。
 本開示に基づいて把握される発明の一態様に係る第11の方法は、第10の方法において、第1端末の位置情報を生成するセンシングを実施し、位置情報をサーバーに対して送信する。
 上記態様の方法は、端末の実空間の領域内での詳細な位置に応じた仮想空間サービスを提供することができる。
 本開示に基づいて把握される発明の一態様に係る基地局は、通信部とプロセッサを備え、基地局は実空間の第1領域に配置されており、通信部は、実空間の第1領域に滞在している第1端末と通信を行っており、プロセッサは、第1基地局を示す識別子と第1端末を示す識別子とを含む制御情報を生成し、通信部は、実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、制御情報を送信する。
 上記態様の基地局は、実空間の第1領域に滞在する端末が実空間の第1領域に対応する第1仮想空間への参加を容易に行うことができる。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本開示における送信装置について図面を参照して詳細に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示に基づいて把握される発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 本実施の形態では、実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるシステムの構成、および、各装置の動作について説明を行う。
 なお、実空間を「(フィジカルな)現実空間」、「ユニバース」と呼んでもよい。また、実空間は「AR(Augmented Reality)(拡張現実)(実世界を仮想的に拡張した世界)」であってもよい。実空間を、例として、我々の住む物理世界ととらえてもよい。実空間を別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 また、仮想空間を「サイバー空間」、「メタバース空間」、「マルチバース空間(の一つ)」、「バーチャル空間」、「VR(Virtual Reality)(仮想現実)」、「仮想世界」と呼んでもよい。なお、仮想空間を別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 さらに、キャラクタを「アバター」、「オブジェクト」と呼んでもよい。アバターを、例として、ゲーム、ネット、仮想空間の中で登場する、端末を保有しているユーザ自身の分身ととらえてもよい。なお、キャラクタを別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 図1は、本実施の形態における「実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるシステムの構成」の一例を示している。
 100_1の楕円の内側は、実空間#1である。そして、101_1の端末#1、101_2の端末#2は、実空間#1に存在している。なお、実空間を楕円の内側と定義しているが、実空間は楕円の内側であらわされなくてもよい。ここでは、説明を簡単にするために、実空間は楕円の内側であらわしている。なお、この点については、本実施の形態、また、本明細書全体にわたって同様である。
 図1において、102_1の基地局#1は実空間#1に存在しているものとなっているが、102_1の基地局#1は実空間#1以外の実空間に存在していてもよい。
 102_1の基地局#1は、ネットワーク103を介して、サーバー104を含む機器と通信を行っていることになる。この時の通信は、有線、および/または、無線による通信が例として考えられる。
 また、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末と例えば、無線による通信を行っているものとする。(有線、および/または、無線による通信であってもよい。)
 したがって、102_1の基地局#1は、無線通信のための送信部、および、無線通信のための受信部を具備することになる。
 同様に、「101_1の端末#1、101_2の端末#2」を含む端末は、無線通信のための送信部、および、無線通信のための受信部を具備することになる。
 また、102_1の基地局#1は、センシングのための送信部、および、センシングのための受信部を具備することになる。なお、センシングのための送信部と無線通信のための送信部は、別々であってもよいし、共用化してもよい。102_1の基地局#1は、GPS(Global Positioning System, Global Positioning Satellite)などの位置推定システムを具備していてもよい。
 「101_1の端末#1、101_2の端末#2」を含む端末は、センシングのための送信部、および、センシングのための受信部を具備することになる。なお、センシングのための送信部と無線通信のための送信部は、別々であってもよいし、共用化してもよい。「101_1の端末#1、101_2の端末#2」を含む端末は、GPSなどの位置推定システムを具備していてもよい。
 そして、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末を推定するものとする。このとき、例えば、特許文献2、特許文献3、特許文献4に示されているように、以下のいずれの方法で、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末の位置情報(または、センシング結果の情報)を得てもよい。
 方法1:
 102_1の基地局#1が、センシングのための信号を送信する。そして、端末がこのセンシングのための信号を受信し、位置を推定する(または、センシング結果を得る)。端末はこの位置情報(または、センシング結果の情報)を102_1の基地局#1に送信する。これにより、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末の位置情報(または、センシング結果の情報)を得ることになる。
 方法2:
 102_1の基地局#1が、センシングのための信号を送信する。そして、端末にこのセンシングのための信号の状況が変化し、この変化を102_1の基地局#1がとらえ(センシングのための信号に相当する電波を受信する)、102_1の基地局#1は、端末の位置を推定する(または、センシング結果を得る)。これにより、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末の位置情報(または、センシング結果の情報)を得ることになる。
 方法3:
 「101_1の端末#1、101_2の端末#2」などの端末が、センシングのための信号を送信する。そして、102_1の基地局#1がこのセンシングのための信号を受信し、位置を推定する(または、センシング結果を得る)。これにより、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末の位置情報(または、センシング結果の情報)を得ることになる。
 このように、センシングのための信号を、102_1の基地局#1が送信してもよいし、端末が送信してもよい。なお、102_1の基地局#1が「101_1の端末#1、101_2の端末#2」を含む端末の位置情報(または、センシング結果の情報)を得る方法は、方法1、方法2、方法3に限ったものではなく、特許文献2、特許文献3、特許文献4を含む文献で記載されている方法を広く適用することが可能である。
 また、別の方法として、「101_1の端末#1、101_2の端末#2」を含む端末は、GPSなどの位置推定システムを用いて、自身の位置を推定してもよい。このとき、端末は推定した位置情報を、102_1の基地局#1に送信し、これにより、102_1の基地局#1は、「101_1の端末#1、101_2の端末#2」を含む端末の位置情報を得ることになる。
 基地局、端末におけるセンシングのための処理として、例えば、特許文献2、特許文献3、特許文献4に示されているように、「MUSIC(Multiple Signal Classification)法などの到来方向推定法(Direction of Arrival Estimation)、方向推定などを用いた到来角を利用した方向に基づくセンシング処理」、「例えば、受信タイミング差や送受信の時間差などを利用した距離に基づくセンシング処理」を適用することができる。
 また、基地局、端末におけるセンシングのための処理として、例えば、NR(New Radio)システムで用いられている、「受信タイミング差(Reference signal timing difference)に基づく測位(センシング)」、「受信信号電力(Reference signal received power)(端末(または基地局)で測定される参照信号(リファレンス信号)の受信電力)に基づく測位(センシング)」、「受信信号到来角(Angle of arrival)(送信機から送信された電波の受信機からみた到来角のことで、一般的には2つ以上のアンテナで受信した電波の到達時間差により測定する)に基づく測位(センシング)」、「送受信時間差(RX-Tx time difference)に基づく測距(センシング)」、「RTT(Roundtrip time(往復遅延時間))を利用した測距(センシング)」、「AoA(Angle of arrival)、および/または、AoD(Angle of departure)を利用した測距(センシング)」、「TDOA(Time difference of arrival)(複数基地局(または、複数の装置)からの信号到達時間の差)を利用した測距(センシング)」を適用することができる。
 基地局、端末におけるセンシングのための処理の際、特許文献2、特許文献3、特許文献4に示されているように、複数のアンテナを用いた三角測量を行い、位置の推定(または、センシング結果を得る)を行ってもよい。また、基地局、端末におけるセンシングのための処理の際、特許文献2、特許文献3、特許文献4に示されているように、他の装置を利用して三角測量を行い、位置の推定(または、センシング結果を得る)を行ってもよい。
 なお、センシングの例として、例えば、以下が考えられる。物体の位置を推定する処理、物体の有無を検出する処理、第1の物体と第2の物体の距離推定などを推定する処理、物体の材質・物質を予測する処理、物体の動きを検出する処理、センシング実施可能な装置周辺の状況を推定する処理、センシング実施可能な装置と物体の距離を推定する処理、物体の外形を検出する処理、ジェスチャーを推定する処理、人の動きを推定する処理、人体の一部分の形状を推定する処理、人体の一部分の動きを推定する処理、人の検出をする処理、人の一部の検出をする処理、人の認証を行う処理、人の一部の認証を行う処理、物体の動きを推定する処理、物体の形状を推定する処理、物体の検出を行う処理、物体の認証を行う処理。
 なお、物体の位置を検出する処理では、物体の検出、物体の動きも同時に検出することが可能である場合がある。また、物体の有無を検出する処理、又は、物体の外形を検出する処理では、対象物を特定することも可能である。つまり、センシングの際、上述を例とする処理を1つ以上、または、2つ以上実施してもよい。
 図1のシステムには、「仮想空間に関連するデータ」を保持する記憶部を具備し、仮想空間におけるキャラクタなどの登場、動作などを制御する「制御部」を具備し、また、「他の装置からのデータに基づき仮想空間の情報を更新、制御」を行うサーバー104が存在している。なお、サーバーの構成、および、動作の詳細については、後で詳しく説明を行う。また、図1のシステムは、例えば、101_101の端末#101、101_102の端末#2、機器が存在している。
 102_1の基地局#1、サーバー104、101_101の端末#101、101_102の端末#2、機器は、ネットワーク103と接続されており、「102_1の基地局#1、サーバー104、101_101の端末#101、101_102の端末#2、機器」などの装置は、これにより、通信を行うことが可能となっている。
 また、101_101の端末#101、101_102の端末#2は、102_1の基地局#1と通信を行うことになる。そして、101_101の端末#101、101_102の端末#2は、102_1の基地局#1、ネットワーク103を介して、「サーバー104、101_101の端末#101、101_102の端末#2、機器」などの装置と通信を行うことになる。
 なお、本実施の形態におけるシステム構成は、図1に限ったものではなく、端末は、1つ以上存在していればよく、また、基地局についても1つ以上存在していればよく、サーバーも1つ以上存在していればよい。
 図2は、図1におけるサーバー104の構成の一例である。サーバー104は、例えば、インタフェース200は、入力信号201を入力とし、出力信号202を出力する。また、インタフェース200は、空間情報記憶部211、端末ごとのキャラクタ情報記憶部212、実空間の位置に基づくキャラクタ「制御部」213、出力情報生成部214、キャラクタ生成部215と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 空間情報記憶部211は、仮想空間に関する情報を記憶している部分である。なお、「仮想空間に関する情報」は、例えば、「2次元の空間のデータ」であってもよいし、「3次元の空間のデータ」であってもよいし、「3次元の空間データを2次元に表すための変換されたデータ」であってもよい。また、仮想空間に、「建物、施設、設備、広場、公園など実空間に存在する物体に相当する仮想空間用物体」を配置してもよい。したがって、仮想空間に関する情報は、「仮想空間用物体」の情報を含んでいてもよい。
 なお、仮想空間に関する情報は、例えば、入力信号201により、更新されてもよい。例えば、入力信号201により、「仮想空間用の物体」の物体の更新、「仮想空間用の物体」の位置の更新などが行われた仮想空間に関する情報が、空間情報記憶部211に記憶されることになる。
 端末ごとのキャラクタ情報記憶部212の動作については、後で詳しく説明を行う。
 実空間の位置に基づくキャラクタ「制御部」213の動作については、後で詳しく説明を行う。
 出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212から得られた情報、実空間の位置に基づくキャラクタ「制御部」213から得られた情報から、端末などの他の装置に提供するための仮想空間に関する出力情報を生成する。そして、仮想空間に関する出力情報は、出力信号202として、サーバー104から出力される。なお、仮想空間に関する出力情報は、サーバー104にアクセスしている一つ以上の端末に届けられることになる。
 したがって、出力信号202の情報を得た、例えば端末などの装置は、出力信号202に基づいて、仮想空間の表示内容を生成し、装置内蔵の表示装置、および/または、外部の表示装置に表示することになる。
 このとき、表示装置としては、例えば、モバイルフォン、携帯電話、スマートフォン、タブレット、タブレットPC(Personal Computer)、パソコン(ただし、モニタを搭載していてもよいし、モニタを接続できてもよい)、ノートパソコン、テレビ、モニタと接続された装置、ゲーム機、携帯ゲーム機、ARグラス、ARゴーグル、ARを表示できるモニタ、ARを表示できるモニタと接続された装置、VRグラス、VRゴーグル、VRを表示できるモニタ、VRを表示できるモニタと接続された装置、MR(Mixed Reality)グラス、MRを表示できるモニタ、MRを表示できるモニタと接続された装置、カーナビゲーションシステム、ヘッドマウントディスプレイ、ヘッドマウントディスプレイと接続された装置、モニタ、モニタと接続された装置、プロジェクタ、プロジェクタと接続された装置などが考えられるが、これらに限ったものではない。
 なお、サーバーの構成例は、図2の例に限ったものではない。
 図2における端末ごとのキャラクタ情報記憶部212の動作についての説明を行う。例として、101_1の端末#1に対応するキャラクタについて説明を行う。
 例えば、101_1の端末#1は、図1のように、102_1の基地局#1を介して、サーバー104と通信を行っていてもよいし、図3Aのように、(102_1の基地局#1を介さずに)ネットワーク103を介して、サーバー104と通信を行っていてもよい。
 したがって、端末は、102_1の基地局#1を介して、サーバー104と通信を行っていてもよいし、ネットワーク103を介して、サーバー104と通信を行っていてもよい。
 端末が上記のように、サーバー104と通信を行っている際に、端末に対応するキャラクタの対応付けを行う手続きについて、説明を行う。
 図3Bに示すように、端末は、端末情報を、サーバー104に送信する(301)。なお、端末情報は、サーバー104が端末(および/または、ユーザ)を識別することができる情報であり、例えば、SIM(Subscriber Identity Module)情報、電話番号の情報、(ユーザの、または、端末が使用することができる)メールアドレスの情報、ユーザが保有しているID(identification)、端末ID、SNS(Social networking service)の情報などの、「端末、および/または、ユーザの情報」であるものとする。したがって、サーバー104は、端末情報を得ることになる(351)。
 そして、端末は、キャラクタ情報を、サーバー104に送信する(302)。したがって、サーバー104は、キャラクタ情報を得ることになる(352)。
 なお、端末は、キャラクタ情報を生成する際、図2のサーバー104が具備するキャラクタ生成部215から、キャラクタのもとになる情報を得てもよいし、サーバー104とは異なる装置から、キャラクタのもとになる情報を得てもよい。これにより、端末はキャラクタ情報を生成することが可能となる。また、別の方法として、端末は、端末自身の機能を使ってキャラクタを生成してもよい。
 そして、サーバー104は、端末情報とその端末のキャラクタ情報のセットの情報を図2の端末ごとのキャラクタ情報記憶部212に記憶することになる。したがって、図2の端末ごとのキャラクタ情報記憶部212は、端末ごとの「端末情報とその端末のキャラクタ情報のセットの情報」を記憶していることになる。例えば、図1の場合、図2の端末ごとのキャラクタ情報記憶部212は、101_1の端末#1の「端末情報とその端末のキャラクタ情報のセットの情報」、101_2の端末#2の「端末情報とその端末のキャラクタ情報のセットの情報」、101_101の端末#101の「端末情報とその端末のキャラクタ情報のセットの情報」、101_102の端末#102の「端末情報とその端末のキャラクタ情報のセットの情報」を記憶していることになる。
 図3Bの説明において、「端末情報」として、動作の説明を行っているが、「端末情報」の代わりに「ユーザ情報、または、識別情報」としても同様に実施することが可能である。また、他の説明において、「端末情報」として、動作の説明を行っているが、「端末情報」の代わりに「ユーザ情報、または、識別情報」としても同様に実施することが可能である。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作について説明を行う。実空間と仮想空間の関係について説明を行う。
 図4Aは、実空間の例を示している。図4Aのように、実空間において、楕円100_0の内側を実空間#0と名付け、楕円100_0の内側を実空間#1と名付け、楕円100_2の内側を実空間#2と名付ける。なお、実空間には、「実空間#0、実空間#1、実空間#2」以外にも実空間が存在していてもよい。
 図4Bは、図4Aにおける実空間と仮想空間の関係を示している。例えば、
 ・図4Aにおける「実空間#0」は「仮想空間#0」と関連付けられている。
 ・図4Aにおける「実空間#1」は「仮想空間#1」と関連付けられている。
 ・図4Aにおける「実空間#2」は「仮想空間#2」と関連付けられている。
 ・・・
 となる。
 例えば、「実空間#X」と「仮想空間#X」(Xは以上の整数であるものとする)は、デジタルツインの関係であってもよい。ただし、「実空間#X」と「仮想空間#X」は完全なデジタルツインの関係でなくてもよく、例えば、「実空間#X」と「仮想空間#X」は一部がデジタルツインの関係であってもよい。なお、「実空間#X」、「仮想空間#X」が表現している空間の大きさは同じであってもよいし、異なっていてもよい。
 また、「実空間#X」における位置が決まると「仮想空間#X」における位置が決まるというような関係であってもよい(この点については、後で説明を行う)。
 なお、デジタルツインとは、フィジカルな現実空間(例えば、実空間)で得たモノや環境にまつわるデータを、サイバー空間(例えば、仮想空間)上に移管し再現する技術概念を指す。リアル空間でセンサーデバイスなどからIoT(Internet of Things)技術を駆使して得たデータ・情報を、鏡のようにそっくりサイバー空間に反映させるためデジタルツイン、つまり「デジタルの双子」と呼ぶことになる。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図1のように、例えば、101_1の端末#1が実空間#1に存在し、101_1の端末#1は、102_1の基地局#1と連携し、センシング関連の動作を行うものとする。これにより、102_1の基地局#1と101_1の端末#1は、101_1の端末#1の実空間#1における位置情報を共有するものとする。このとき、101_1の端末#1の実空間#1における位置情報は、「101_1の端末#1が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_1の端末#1の実空間#1における位置情報は、「101_1の端末#1が存在する位置と102_1の基地局#1が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_1の基地局#1は、101_1の端末#1の実空間#1における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_1の端末#1の実空間#1における位置情報を得、「101_1の端末#1の実空間#1における位置」を知ることになる。なお、サーバー104が、101_1の端末#1の実空間#1における位置情報として、「101_1の端末#1が存在する位置と102_1の基地局#1が存在する位置との差分情報」を得る場合、サーバー104は、102_1の基地局#1の位置情報を得てもよく、これにより、サーバー104は、101_1の端末#1の実空間#1における位置情報を得、「101_1の端末#1の実空間#1における位置」を知ることになる。また、サーバー104は、102_1の基地局#1を介して101_1の端末#1から、101_1の端末#1の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_1の端末#1の情報を得るにより、101_1の端末#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_1の端末#1の実空間#1における位置情報を得、実空間#1と対応付けされている仮想空間#1における101_1の端末#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_1の端末#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#1と対応付けされている仮想空間#1における101_1の端末#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#1において、「実空間#1と対応付けされている仮想空間#1における101_1の端末#1に対応するキャラクタの位置」に「101_1の端末#1に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#1に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#1に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間(例えば、仮想空間#2、仮想空間#3、・・・)の情報を含んでいてもよい。
 したがって、101_1の端末#1が実空間#1において移動し、101_1の端末#1の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#1と対応付けされている仮想空間#1における「101_1の端末#1に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#1に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_1の端末#1が、実空間#1における位置を、101_1の端末#1が具備しているGPSなどの位置推定システムを用いて推定し、102_1の基地局#1と101_1の端末#1は、101_1の端末#1の実空間#1における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_1の端末#1と102_1の基地局#1を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 そして、図5のように、例えば、101_1の端末#1が実空間#2に移動したものとする。101_1の端末#1は、102_2の基地局#2と連携し、センシング関連の動作を行うものとする。これにより、102_2の基地局#2と101_1の端末#1は、101_1の端末#1の実空間#2における位置情報を共有するものとする。このとき、101_1の端末#1の実空間#2における位置情報は、「101_1の端末#1が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_1の端末#1の実空間#2における位置情報は、「101_1の端末#1が存在する位置と102_2の基地局#2が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_2の基地局#2は、101_1の端末#1の実空間#2における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_1の端末#1の実空間#2における位置情報を得、「101_1の端末#1の実空間#2における位置」を知ることになる。なお、サーバー104が、101_1の端末#1の実空間#2における位置情報として、「101_1の端末#1が存在する位置と102_2の基地局#2が存在する位置との差分情報」を得る場合、サーバー104は、102_2の基地局#2の位置情報を得てもよく、これにより、サーバー104は、101_1の端末#1の実空間#2における位置情報を得、「101_1の端末#1の実空間#2における位置」を知ることになる。また、サーバー104は、102_2の基地局#2を介して101_1の端末#1から、101_1の端末#1の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_1の端末#1の情報を得るにより、101_1の端末#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_1の端末#1の実空間#2における位置情報を得、実空間#2と対応付けされている仮想空間#2における101_1の端末#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_1の端末#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#2と対応付けされている仮想空間#2における101_1の端末#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#2において、「実空間#2と対応付けされている仮想空間#2における101_1の端末#1に対応するキャラクタの位置」に「101_1の端末#1に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#2に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間(例えば、仮想空間#1、仮想空間#3、・・・)の情報を含んでいてもよい。
 したがって、101_1の端末#1が実空間#2において移動し、101_1の端末#1の実空間#2における位置が更新されると、上記で説明した動作にしたがって、実空間#2と対応付けされている仮想空間#2における「101_1の端末#1に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_1の端末#1が、実空間#2における位置を、101_1の端末#1が具備しているGPSなどの位置推定システムを用いて推定し、102_2の基地局#2と101_1の端末#1は、101_1の端末#1の実空間#2における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_1の端末#1と102_2の基地局#2を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 以上のように、実空間のIDと仮想空間のIDの関係、および、それに伴う各部の動作について説明を行ったが、実空間のIDと仮想空間のIDの関係は図4Bの例に限ったものではない。なお、別の例については、後で説明を行う。
 次に、実空間とセルID(identification)の関係について説明を行う。
 図6は、実空間と基地局の配置の例を示している。なお、図1と同様に動作するものについては、同一番号を付している。
 図6のように、楕円100_0の内側を実空間#0、楕円100_1の内側を実空間#1、楕円100_2の内側を実空間#2、・・・とする。
 そして、102_0の基地局#0の通信可能エリアは実空間#0を含むものとし、102_1の基地局#1の通信可能エリアは実空間#1を含むものとし、102_2の基地局#2の通信エリアは実空間#2を含むものとする。
 なお、102_0の基地局#0、102_1の基地局#1、102_2の基地局#2は、図1、図5におけるサーバー104と通信を行っているものとする。
 このとき、図1における102_1の基地局#1、および、図5における102_2の基地局#2は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、図1における102_1の基地局#1、および、図5における102_2の基地局#2は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、図1における102_1の基地局#1は、セルIDの情報701、端末情報702として101_1の端末#1の情報(および、101_2の端末#2の情報)、位置情報703として101_1の端末#1の位置情報(および、101_2の端末#2の情報)を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#1)を知り、これにより、図4Bの「実空間のIDと仮想空間のID」から、101_1の端末#1に対応するキャラクタを仮想空間#1に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末(ここでは、101_1の端末#1、端末101_2の端末#2)は、図7Bのような情報を、102_1の基地局#1に送信してもよい。したがって、端末は、102_1の基地局#1が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_1の基地局#1に送信してもよい。さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_1の基地局#1に送信してもよい。そして、102_1の基地局#1は、これらの情報を、サーバー104に伝送することになる。
 図8は、実空間と基地局の配置の例を示している。なお、図1と同様に動作するものについては、同一番号を付している。
 図8のように、楕円100_0の内側を実空間#0、楕円100_1の内側を実空間#1、楕円100_2の内側を実空間#2、・・・とする。
 そして、102_0_0の基地局#0_0の通信可能エリアは実空間#0を含むものとし、102_0_1の基地局#0_1の通信可能エリアは実空間#0を含むものとする。なお、実空間#0を通信エリアとする基地局が他に存在していてもよい。
 なお、102_0_0の基地局#0_0、102_0_1の基地局#0_1は、図1、図5におけるサーバー104と通信を行っているものとする。
 このとき、102_0_0の基地局#0_0は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、102_0_0の基地局#0_0は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 なお、102_0_0の基地局#0_0は、例えば、101_1の端末#1と通信を行っているものとする。
 例えば、102_0_0の基地局#0_0は、セルIDの情報701、端末情報702として101_1の端末#1の情報、位置情報703として101_1の端末#1の位置情報を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#0)を知り、これにより、図4Bの「実空間のIDと仮想空間のID」から、101_1の端末#1に対応するキャラクタを仮想空間#0に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末(ここでは、101_1の端末#1)、図7Bのような情報を、102_0_0の基地局#0_0に送信してもよい。
 したがって、端末は、102_0_0の基地局#0_0が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_0_0の基地局#0_0に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_0_0の基地局#0_0に送信してもよい。そして、102_0_0の基地局#0_0は、これらの情報を、サーバー104に伝送することになる。
 また、102_0_1の基地局#0_1は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、102_0_1の基地局#0_1は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 なお、102_0_1の基地局#0_1は、例えば、101_2の端末#2と通信を行っているものとする。
 例えば、102_0_1の基地局#0_1は、セルIDの情報701、端末情報702として101_2の端末#2の情報、位置情報703として101_2の端末#2の位置情報を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#0)を知り、これにより、図4Bの「実空間のIDと仮想空間のID」から、101_2の端末#2に対応するキャラクタを仮想空間#0に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末(ここでは、101_2の端末#2)は、図7Bのような情報を、102_0_1の基地局#0_1に送信してもよい。
 したがって、端末は、102_0_1の基地局#0_1が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_0_1の基地局#0_1に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_0_1の基地局#0_1に送信してもよい。そして、102_0_1の基地局#0_1は、これらの情報を、サーバー104に伝送することになる。
 このように、例えば、図8に示すように、実空間#0に複数の基地局が存在し、これにより、実空間#0は複数のセルIDと関連付けを行ってもよい。
 102_1_0の基地局#1_0の通信可能エリアは実空間#1を含むものとし、102_1_1の基地局#1_1の通信可能エリアは実空間#1を含むものとする。なお、実空間#1を通信エリアとする基地局が他に存在していてもよい。
 なお、102_1_0の基地局#1_0、102_1_1の基地局#1_1は、図1、図5におけるサーバー104と通信を行っているものとする。
 このとき、102_1_0の基地局#1_0は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、102_1_0の基地局#1_0は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 なお、102_1_0の基地局#1_0は、例えば、101_3の端末#3と通信を行っているものとする。
 例えば、102_1_0の基地局#1_0は、セルIDの情報701、端末情報702として101_3の端末#3の情報、位置情報703として101_3の端末#3の位置情報を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#1)を知り、これにより、図4Bの「実空間のIDと仮想空間のID」から、101_3の端末#3に対応するキャラクタを仮想空間#1に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末(ここでは、101_3の端末#3)は、図7Bのような情報を、102_1_0の基地局#1_0に送信してもよい。
 したがって、端末は、102_1_0の基地局#1_0が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_1_0の基地局#1_0に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_1_0の基地局#1_0に送信してもよい。そして、102_1_0の基地局#1_0は、これらの情報を、サーバー104に伝送することになる。
 また、102_1_1の基地局#1_1は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、102_1_1の基地局#1_1は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 なお、102_1_1の基地局#1_1は、例えば、101_4の端末#4と通信を行っているものとする。
 例えば、102_1_1の基地局#1_1は、セルIDの情報701、端末情報702として101_4の端末#4の情報、位置情報703として101_4の端末#4の位置情報を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#1)を知り、これにより、図4Bの「実空間のIDと仮想空間のID」から、101_4の端末#4に対応するキャラクタを仮想空間#1に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末(ここでは、101_4の端末#4)は、図7Bのような情報を、102_1_1の基地局#1_1に送信してもよい。
 したがって、端末は、102_1_1の基地局#1_1が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_1_1の基地局#1_1に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_1_1の基地局#1_1に送信してもよい。そして、102_1_1の基地局#1_1は、これらの情報を、サーバー104に伝送することになる。
 このように、例えば、図8に示すように、実空間#1に複数の基地局が存在し、これにより、実空間#1は複数のセルIDと関連付けを行ってもよい。
 なお、102_2_0の基地局#2_0の通信可能エリアは実空間#2を含むものとし、102_2_1の基地局#2_1の通信可能エリアは実空間#2を含むものとする。なお、実空間#2を通信エリアとする基地局が他に存在していてもよい。
 図9は、実空間と基地局の配置の例を示している。なお、図1と同様に動作するものについては、同一番号を付している。
 図9のように、楕円100_0の内側を実空間#0、楕円100_1の内側を実空間#1、楕円100_2の内側を実空間#2、・・・とする。
 そして、102_0の基地局#0の通信可能エリアは実空間#0、実空間#1、実空間#2を含むものとする。
 なお、102_0の基地局#0は、図1、図5におけるサーバー104と通信を行っているものとする。
 このとき、102_0の基地局#0は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、102_0の基地局#0は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 なお、102_0の基地局#0は、例えば、101_5の端末#5と通信を行っているものとする。
 例えば、102_0の基地局#0は、セルIDの情報701、端末情報702として101_5の端末#5の情報、位置情報703として101_5の端末#5の位置情報を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#0、実空間#1、実空間#2のいずれか)を知り、これにより、図4Bの「実空間のIDと仮想空間のID」から、101_1の端末#1に対応するキャラクタを仮想空間#0、仮想空間#1、仮想空間#2のいずれかに登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末(ここでは、101_1の端末#1)は、図7Bのような情報を、102_0の基地局#0に送信してもよい。
 したがって、端末は、102_0の基地局#0が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_0の基地局#0に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_0の基地局#0に送信してもよい。そして、102_0の基地局#0は、これらの情報を、サーバー104に伝送することになる。
 このように、例えば、図9に示すように、基地局は複数の実空間を通信可能エリアとして含み、これにより、セルIDは複数の実空間と関連付けを行ってもよい。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作の別の例について説明を行う。
 図4Aは、実空間の例を示している。図4Aのように、実空間において、楕円100_0の内側を実空間#0と名付け、楕円100_0の内側を実空間#1と名付け、楕円100_2の内側を実空間#2と名付ける。なお、実空間には、「実空間#0、実空間#1、実空間#2」以外にも実空間が存在していてもよい。
 図10A、図10Bは、図4Aを例とする実空間と仮想空間の関係を示している。例えば、
 ・「実空間#0」は「仮想空間#0」、「仮想空間#1」、「仮想空間#2」と関連付けられている。
 ・「実空間#1」、「実空間#2」は「仮想空間#3」と関連付けられている。
 ・「実空間#3」、「実空間#4」は「仮想空間#4」、「仮想空間#5」と関連付けられている。
 ・「実空間#5」、「実空間#6」は「仮想空間#6」、「仮想空間#7」、「仮想空間#8」と関連付けられている。
 ・「実空間#7」、「実空間#8」、「実空間#9」、「実空間#10」は「仮想空間#9」、「仮想空間#10」と関連付けられている。
 ・・・
 となる。
 例えば、「実空間#X」と「仮想空間#Y」(X、Yは以上の整数であるものとする)は、デジタルツインの関係であってもよい。ただし、「実空間#X」と「仮想空間#Y」は完全なデジタルツインの関係でなくてもよく、例えば、「実空間#X」と「仮想空間#Y」は一部がデジタルツインの関係であってもよい。なお、「実空間#X」、「仮想空間#Y」が表現している空間の大きさは同じであってもよいし、異なっていてもよい。
 また、「実空間#X」における位置が決まると「仮想空間#Y」における位置が決まるというような関係であってもよい。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 なお、図11のように、端末と基地局は通信を行っており、また、端末と基地局はセンシング関連の動作を実施しているものとする。そして、基地局は、ネットワーク103を介して、サーバー104と通信を行っているものとする。
 例えば、101_1の端末#1が図10Aで記載した実空間#0に存在し、101_1の端末#1は、102_0の基地局#0と連携し、センシング関連の動作を行うものとする。(102_0の基地局#0は、実空間#0を通信エリアにもつ基地局であるものとする。)これにより、102_0の基地局#0と101_1の端末#1は、101_1の端末#1の実空間#0における位置情報を共有するものとする。このとき、101_1の端末#1の実空間#0における位置情報は、「101_1の端末#1が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_1の端末#1の実空間#0における位置情報は、「101_1の端末#1が存在する位置と102_0の基地局#0が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_0の基地局#0は、101_1の端末#1の実空間#0における位置情報をサーバー104に伝送することになり(102_0の基地局#0のセルIDを伝送してもよい)、これにより、サーバー104は、101_1の端末#1の実空間#0における位置情報を得、「101_1の端末#1の実空間#0における位置」を知ることになる。なお、サーバー104が、101_1の端末#1の実空間#0における位置情報として、「101_1の端末#1が存在する位置と102_0の基地局#0が存在する位置との差分情報」を得る場合、サーバー104は、102_0の基地局#0の位置情報を得てもよく、これにより、サーバー104は、101_1の端末#1の実空間#0における位置情報を得、「101_1の端末#1の実空間#0における位置」を知ることになる。また、サーバー104は、102_0の基地局#0を介して101_1の端末#1から、101_1の端末#1の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_1の端末#1の情報を得るにより、101_1の端末#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_1の端末#1の実空間#0における位置情報を得、実空間#0と対応付けされている仮想空間#0、または、仮想空間#1、または、仮想空間#2における101_1の端末#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_1の端末#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#0と対応付けされている仮想空間#0、仮想空間#1、仮想空間#2における101_1の端末#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#0、仮想空間#1、仮想空間#2のいずれかにおいて、「実空間#0と対応付けされている仮想空間#0、仮想空間#1、仮想空間#2における101_1の端末#1に対応するキャラクタの位置」に「101_1の端末#1に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#0、仮想空間#1、仮想空間#2に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#0、仮想空間#1、仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_1の端末#1が実空間#0において移動し、101_1の端末#1の実空間#0における位置が更新されると、上記で説明した動作にしたがって、実空間#0と対応付けされている仮想空間#0、仮想空間#1、仮想空間#2における「101_1の端末#1に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#0、仮想空間#1、仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_1の端末#1が、実空間#0における位置を、101_1の端末#1が具備しているGPSなどの位置推定システムを用いて推定し、102_0の基地局#0と101_1の端末#1は、101_1の端末#1の実空間#0における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_1の端末#1と102_0の基地局#0を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 そして、例えば、101_1の端末#1が図10Aにおける実空間#1に移動したものとする。101_1の端末#1は、例えば、102_1の基地局#1と連携し、センシング関連の動作を行うものとする。(102_1の基地局#1は、実空間#1を通信エリアにもつ基地局であるものとする。)これにより、102_1の基地局#1と101_1の端末#1は、101_1の端末#1の実空間#1における位置情報を共有するものとする。このとき、101_1の端末#1の実空間#1における位置情報は、「101_1の端末#1が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_1の端末#1の実空間#1における位置情報は、「101_1の端末#1が存在する位置と102_1の基地局#1が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_1の基地局#1は、101_1の端末#1の実空間#1における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_1の端末#1の実空間#1における位置情報を得、「101_1の端末#1の実空間#1における位置」を知ることになる。なお、サーバー104が、101_1の端末#1の実空間#1における位置情報として、「101_1の端末#1が存在する位置と102_1の基地局#1が存在する位置との差分情報」を得る場合、サーバー104は、102_1の基地局#1の位置情報を得てもよく、これにより、サーバー104は、101_1の端末#1の実空間#1における位置情報を得、「101_1の端末#1の実空間#1における位置」を知ることになる。また、サーバー104は、102_1の基地局#1を介して101_1の端末#1から、101_1の端末#1の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_1の端末#1の情報を得るにより、101_1の端末#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_1の端末#1の実空間#1における位置情報を得、実空間#1、#2と対応付けされている仮想空間#3における101_1の端末#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_1の端末#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#1、#2と対応付けされている仮想空間#3における101_1の端末#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#3において、「実空間#1、#2と対応付けされている仮想空間#3における101_1の端末#1に対応するキャラクタの位置」に「101_1の端末#1に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#3に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_1の端末#1が実空間#1において移動し、101_1の端末#1の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#1、#2と対応付けされている仮想空間#3における「101_1の端末#1に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_1の端末#1が、実空間#1における位置を、101_1の端末#1が具備しているGPSなどの位置推定システムを用いて推定し、102_1の基地局#1と101_1の端末#1は、101_1の端末#1の実空間#1における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_1の端末#1と102_1の基地局#1を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作について説明を行う。
 なお、図11のように、端末と基地局は通信を行っており、また、端末と基地局はセンシング関連の動作を実施しているものとする。そして、基地局は、ネットワーク103を介して、サーバー104と通信を行っているものとする。
 例えば、101_2の端末#2が図10Aで記載した実空間#1に存在し、101_2の端末#2は、102_1の基地局#1と連携し、センシング関連の動作を行うものとする。(102_1の基地局#1は、実空間#1を通信エリアにもつ基地局であるものとする。)これにより、102_1の基地局#1と101_2の端末#2は、101_2の端末#2の実空間#1における位置情報を共有するものとする。このとき、101_2の端末#2の実空間#1における位置情報は、「101_2の端末#2が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_2の端末#2の実空間#1における位置情報は、「101_2の端末#2が存在する位置と102_1の基地局#1が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_1の基地局#1は、101_2の端末#2の実空間#1における位置情報をサーバー104に伝送することになり(102_1の基地局#1のセルIDを伝送してもよい)、これにより、サーバー104は、101_2の端末#2の実空間#1における位置情報を得、「101_2の端末#2の実空間#1における位置」を知ることになる。なお、サーバー104が、101_2の端末#2の実空間#1における位置情報として、「101_2の端末#2が存在する位置と102_1の基地局#1が存在する位置との差分情報」を得る場合、サーバー104は、102_1の基地局#1の位置情報を得てもよく、これにより、サーバー104は、101_2の端末#2の実空間#1における位置情報を得、「101_2の端末#2の実空間#1における位置」を知ることになる。また、サーバー104は、102_1の基地局#1を介して101_2の端末#2から、101_2の端末#2の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_2の端末#2の情報を得るにより、101_2の端末#2に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_2の端末#2の実空間#1における位置情報を得、実空間#1、#2と対応付けされている仮想空間#3における101_2の端末#2に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_2の端末#2に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#1、#2と対応付けされている仮想空間#3における101_2の端末#2に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#3において、「実空間#1、#2と対応付けされている仮想空間#3における101_2の端末#2に対応するキャラクタの位置」に「101_2の端末#2に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_2の端末#2に対応するキャラクタ」を含む仮想空間#3に関する出力情報を生成し、「101_2の端末#2に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_2の端末#2が実空間#1において移動し、101_2の端末#2の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#1、#2と対応付けされている仮想空間#3における「101_2の端末#2に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_2の端末#2に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_2の端末#2が、実空間#1における位置を、101_2の端末#2が具備しているGPSなどの位置推定システムを用いて推定し、102_2の基地局#2と101_2の端末#2は、101_2の端末#2の実空間#1における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_2の端末#2と102_1の基地局#1を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 そして、例えば、101_2の端末#2が図10Aにおける実空間#3に移動したものとする。101_2の端末#2は、例えば、102_3の基地局#3と連携し、センシング関連の動作を行うものとする。(102_3の基地局#3は、実空間#3を通信エリアにもつ基地局であるものとする。)これにより、102_3の基地局#3と101_2の端末#2は、101_2の端末#2の実空間#3における位置情報を共有するものとする。このとき、101_2の端末#2の実空間#3における位置情報は、「101_2の端末#2が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_2の端末#2の実空間#3における位置情報は、「101_2の端末#2が存在する位置と102_3の基地局#3が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_3の基地局#3は、101_2の端末#2の実空間#3における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_2の端末#2の実空間#3における位置情報を得、「101_2の端末#2の実空間#3における位置」を知ることになる。なお、サーバー104が、101_2の端末#2の実空間#3における位置情報として、「101_2の端末#2が存在する位置と102_3の基地局#3が存在する位置との差分情報」を得る場合、サーバー104は、102_3の基地局#3の位置情報を得てもよく、これにより、サーバー104は、101_2の端末#2の実空間#3における位置情報を得、「101_2の端末#2の実空間#3における位置」を知ることになる。また、サーバー104は、102_3の基地局#3を介して101_2の端末#2から、101_2の端末#2の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_2の端末#2の情報を得るにより、101_2の端末#2に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_2の端末#2の実空間#3における位置情報を得、実空間#3、#4と対応付けされている仮想空間#4、#5における101_2の端末#2に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_2の端末#2に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#3、#4と対応付けされている仮想空間#4、#5における101_2の端末#2に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#4、#5において、「実空間#3、#4と対応付けされている仮想空間#4、#5における101_2の端末#2に対応するキャラクタの位置」に「101_2の端末#2に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_2の端末#2に対応するキャラクタ」を含む仮想空間#4、#5に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#4、#5に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_2の端末#2が実空間#3において移動し、101_2の端末#2の実空間#3における位置が更新されると、上記で説明した動作にしたがって、実空間#3、#4と対応付けされている仮想空間#4、#5における「101_2の端末#2に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_2の端末#2に対応するキャラクタ」を含む仮想空間#4、#5に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_2の端末#2が、実空間#3における位置を、101_2の端末#2が具備しているGPSなどの位置推定システムを用いて推定し、102_3の基地局#3と101_2の端末#2は、101_2の端末#2の実空間#3における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_2の端末#2と102_3の基地局#3を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作について説明を行う。
 なお、図11のように、端末と基地局は通信を行っており、また、端末と基地局はセンシング関連の動作を実施しているものとする。そして、基地局は、ネットワーク103を介して、サーバー104と通信を行っているものとする。
 例えば、101_3の端末#3が図10Aで記載した実空間#3に存在し、101_3の端末#3は、102_3の基地局#3と連携し、センシング関連の動作を行うものとする。(102_3の基地局#3は、実空間#3を通信エリアにもつ基地局であるものとする。)これにより、102_3の基地局#3と101_3の端末#3は、101_3の端末#3の実空間#3における位置情報を共有するものとする。このとき、101_3の端末#3の実空間#3における位置情報は、「101_3の端末#3が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_3の端末#3の実空間#3における位置情報は、「101_3の端末#3が存在する位置と102_3の基地局#3が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_3の基地局#3は、101_3の端末#3の実空間#3における位置情報をサーバー104に伝送することになり(102_3の基地局#3のセルIDを伝送してもよい)、これにより、サーバー104は、101_3の端末#3の実空間#3における位置情報を得、「101_3の端末#3の実空間#3における位置」を知ることになる。なお、サーバー104が、101_3の端末#3の実空間#3における位置情報として、「101_3の端末#3が存在する位置と102_3の基地局#3が存在する位置との差分情報」を得る場合、サーバー104は、102_3の基地局#3の位置情報を得てもよく、これにより、サーバー104は、101_3の端末#3の実空間#3における位置情報を得、「101_3の端末#3の実空間#3における位置」を知ることになる。また、サーバー104は、102_3の基地局#3を介して101_3の端末#3から、101_3の端末#3の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_3の端末#3の情報を得るにより、101_3の端末#3に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_3の端末#3の実空間#3における位置情報を得、実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における101_3の端末#3に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_3の端末#3に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における101_3の端末#3に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#4、仮想空間#5において、「実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における101_3の端末#3に対応するキャラクタの位置」に「101_3の端末#3に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_3の端末#3に対応するキャラクタ」を含む仮想空間#4、仮想空間#5に関する出力情報を生成し、「101_3の端末#3に対応するキャラクタ」を含む仮想空間#4、仮想空間#5に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_3の端末#3が実空間#3において移動し、101_3の端末#3の実空間#3における位置が更新されると、上記で説明した動作にしたがって、実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における「101_3の端末#3に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_3の端末#3に対応するキャラクタ」を含む仮想空間#4、仮想空間#5に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_3の端末#3が、実空間#3における位置を、101_3の端末#3が具備しているGPSなどの位置推定システムを用いて推定し、102_3の基地局#3と101_3の端末#3は、101_3の端末#3の実空間#3における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_3の端末#3と102_3の基地局#3を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 そして、例えば、101_3の端末#3が図10Bにおける実空間#5に移動したものとする。101_3の端末#3は、例えば、102_5の基地局#5と連携し、センシング関連の動作を行うものとする。(102_5の基地局#5は、実空間#5を通信エリアにもつ基地局であるものとする。)これにより、102_5の基地局#5と101_3の端末#3は、101_3の端末#3の実空間#5における位置情報を共有するものとする。このとき、101_3の端末#3の実空間#5における位置情報は、「101_3の端末#3が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_3の端末#3の実空間#5における位置情報は、「101_3の端末#3が存在する位置と102_5の基地局#5が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_5の基地局#5は、101_3の端末#3の実空間#5における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_3の端末#3の実空間#5における位置情報を得、「101_3の端末#3の実空間#5における位置」を知ることになる。なお、サーバー104が、101_3の端末#3の実空間#5における位置情報として、「101_3の端末#3が存在する位置と102_5の基地局#5が存在する位置との差分情報」を得る場合、サーバー104は、102_5の基地局#5の位置情報を得てもよく、これにより、サーバー104は、101_3の端末#3の実空間#5における位置情報を得、「101_3の端末#3の実空間#5における位置」を知ることになる。また、サーバー104は、102_5の基地局#5を介して101_3の端末#3から、101_3の端末#3の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_3の端末#3の情報を得るにより、101_3の端末#3に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_3の端末#3の実空間#5における位置情報を得、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における101_3の端末#3に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_3の端末#3に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における101_3の端末#3に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#6、#7、#8において、「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における101_3の端末#3に対応するキャラクタの位置」に「101_3の端末#3に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_3の端末#3に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_3の端末#3が実空間#5において移動し、101_3の端末#3の実空間#5における位置が更新されると、上記で説明した動作にしたがって、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における「101_3の端末#3に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_3の端末#3に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_3の端末#3が、実空間#5における位置を、101_3の端末#3が具備しているGPSなどの位置推定システムを用いて推定し、102_5の基地局#5と101_3の端末#3は、101_3の端末#3の実空間#5における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_3の端末#3と102_5の基地局#5を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作について説明を行う。
 なお、図11のように、端末と基地局は通信を行っており、また、端末と基地局はセンシング関連の動作を実施しているものとする。そして、基地局は、ネットワーク103を介して、サーバー104と通信を行っているものとする。
 例えば、101_4の端末#4が図10Bで記載した実空間#5に存在し、101_4の端末#4は、102_5の基地局#5と連携し、センシング関連の動作を行うものとする。(102_5の基地局#5は、実空間#5を通信エリアにもつ基地局であるものとする。)これにより、102_5の基地局#5と101_4の端末#4は、101_4の端末#4の実空間#5における位置情報を共有するものとする。このとき、101_4の端末#4の実空間#5における位置情報は、「101_4の端末#4が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_4の端末#4の実空間#5における位置情報は、「101_4の端末#4が存在する位置と102_5の基地局#5が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_5の基地局#5は、101_4の端末#4の実空間#5における位置情報をサーバー104に伝送することになり(102_5の基地局#5のセルIDを伝送してもよい)、これにより、サーバー104は、101_4の端末#4の実空間#5における位置情報を得、「101_4の端末#4の実空間#5における位置」を知ることになる。なお、サーバー104が、101_4の端末#4の実空間#5における位置情報として、「101_4の端末#4が存在する位置と102_5の基地局#5が存在する位置との差分情報」を得る場合、サーバー104は、102_5の基地局#5の位置情報を得てもよく、これにより、サーバー104は、101_4の端末#4の実空間#5における位置情報を得、「101_4の端末#4の実空間#5における位置」を知ることになる。また、サーバー104は、102_5の基地局#5を介して101_4の端末#4から、101_4の端末#4の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_4の端末#4の情報を得るにより、101_4の端末#4に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_4の端末#4の実空間#5における位置情報を得、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における101_4の端末#4に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_4の端末#4に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における101_4の端末#4に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#6、#7、#8において、「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における101_4の端末#4に対応するキャラクタの位置」に「101_4の端末#4に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_4の端末#4に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を生成し、「101_4の端末#4に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_4の端末#4が実空間#5において移動し、101_4の端末#4の実空間#5における位置が更新されると、上記で説明した動作にしたがって、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における「101_4の端末#4に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_4の端末#4に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_4の端末#4が、実空間#5における位置を、101_4の端末#4が具備しているGPSなどの位置推定システムを用いて推定し、102_5の基地局#5と101_4の端末#4は、101_4の端末#4の実空間#5における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_4の端末#4と102_5の基地局#5を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 そして、例えば、101_4の端末#4が図10Bにおける実空間#7に移動したものとする。101_4の端末#4は、例えば、102_7の基地局#7と連携し、センシング関連の動作を行うものとする。(102_7の基地局#7は、実空間#7を通信エリアにもつ基地局であるものとする。)これにより、102_7の基地局#7と101_4の端末#4は、101_4の端末#4の実空間#7における位置情報を共有するものとする。このとき、101_4の端末#4の実空間#7における位置情報は、「101_4の端末#4が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_4の端末#4の実空間#7における位置情報は、「101_4の端末#4が存在する位置と102_7の基地局#7が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_7の基地局#7は、101_4の端末#4の実空間#7における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_4の端末#4の実空間#7における位置情報を得、「101_4の端末#4の実空間#7における位置」を知ることになる。なお、サーバー104が、101_4の端末#4の実空間#7における位置情報として、「101_4の端末#4が存在する位置と102_7の基地局#7が存在する位置との差分情報」を得る場合、サーバー104は、102_7の基地局#7の位置情報を得てもよく、これにより、サーバー104は、101_4の端末#4の実空間#7における位置情報を得、「101_4の端末#4の実空間#7における位置」を知ることになる。また、サーバー104は、102_7の基地局#7を介して101_4の端末#4から、101_4の端末#4の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_4の端末#4の情報を得るにより、101_4の端末#4に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_4の端末#4の実空間#7における位置情報を得、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_4の端末#4に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_4の端末#4に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_4の端末#4に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#9、#10において、「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_4の端末#4に対応するキャラクタの位置」に「101_4の端末#4に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_4の端末#4に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_4の端末#4が実空間#7において移動し、101_4の端末#4の実空間#7における位置が更新されると、上記で説明した動作にしたがって、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における「101_4の端末#4に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_4の端末#4に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_4の端末#4が、実空間#7における位置を、101_4の端末#4が具備しているGPSなどの位置推定システムを用いて推定し、102_7の基地局#7と101_4の端末#4は、101_4の端末#4の実空間#7における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_4の端末#4と102_7の基地局#7を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 図2における実空間の位置に基づくキャラクタ「制御部」213の動作について説明を行う。
 なお、図11のように、端末と基地局は通信を行っており、また、端末と基地局はセンシング関連の動作を実施しているものとする。そして、基地局は、ネットワーク103を介して、サーバー104と通信を行っているものとする。
 例えば、101_5の端末#5が図10Bで記載した実空間#7に存在し、101_5の端末#5は、102_7の基地局#7と連携し、センシング関連の動作を行うものとする。(102_7の基地局#7は、実空間#7を通信エリアにもつ基地局であるものとする。)これにより、102_7の基地局#7と101_5の端末#5は、101_5の端末#5の実空間#7における位置情報を共有するものとする。このとき、101_5の端末#5の実空間#7における位置情報は、「101_5の端末#5が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_5の端末#5の実空間#7における位置情報は、「101_5の端末#5が存在する位置と102_7の基地局#7が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_7の基地局#7は、101_5の端末#5の実空間#7における位置情報をサーバー104に伝送することになり(102_7の基地局#7のセルIDを伝送してもよい)、これにより、サーバー104は、101_5の端末#5の実空間#7における位置情報を得、「101_5の端末#5の実空間#7における位置」を知ることになる。なお、サーバー104が、101_5の端末#5の実空間#7における位置情報として、「101_5の端末#5が存在する位置と102_7の基地局#7が存在する位置との差分情報」を得る場合、サーバー104は、102_7の基地局#7の位置情報を得てもよく、これにより、サーバー104は、101_5の端末#5の実空間#7における位置情報を得、「101_5の端末#5の実空間#7における位置」を知ることになる。また、サーバー104は、102_7の基地局#7を介して101_5の端末#5から、101_5の端末#5の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_5の端末#5の情報を得るにより、101_5の端末#5に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_5の端末#5の実空間#7における位置情報を得、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_5の端末#5に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_5の端末#5に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_5の端末#5に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#9、#10において、「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_5の端末#5に対応するキャラクタの位置」に「101_5の端末#5に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_5の端末#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を生成し、「101_5の端末#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_5の端末#5が実空間#7において移動し、101_5の端末#5の実空間#7における位置が更新されると、上記で説明した動作にしたがって、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における「101_5の端末#5に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_5の端末#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_5の端末#5が、実空間#7における位置を、101_5の端末#5が具備しているGPSなどの位置推定システムを用いて推定し、102_7の基地局#7と101_5の端末#5は、101_5の端末#5の実空間#7における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_5の端末#5と102_7の基地局#7を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 そして、例えば、101_5の端末#5が図10Bにおける実空間#9に移動したものとする。101_5の端末#5は、例えば、102_9の基地局#9と連携し、センシング関連の動作を行うものとする。(102_9の基地局#9は、実空間#9を通信エリアにもつ基地局であるものとする。)これにより、102_9の基地局#9と101_5の端末#5は、101_5の端末#5の実空間#9における位置情報を共有するものとする。このとき、101_5の端末#5の実空間#9における位置情報は、「101_5の端末#5が存在する経度、緯度などの絶対的な位置情報」であってもよいし、101_5の端末#5の実空間#9における位置情報は、「101_5の端末#5が存在する位置と102_9の基地局#9が存在する位置との差分情報(相対的な位置情報と呼んでもよい)」であってもよい。
 そして、102_9の基地局#9は、101_5の端末#5の実空間#9における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、101_5の端末#5の実空間#9における位置情報を得、「101_5の端末#5の実空間#9における位置」を知ることになる。なお、サーバー104が、101_5の端末#5の実空間#9における位置情報として、「101_5の端末#5が存在する位置と102_9の基地局#9が存在する位置との差分情報」を得る場合、サーバー104は、102_9の基地局#9の位置情報を得てもよく、これにより、サーバー104は、101_5の端末#5の実空間#9における位置情報を得、「101_5の端末#5の実空間#9における位置」を知ることになる。また、サーバー104は、102_9の基地局#9を介して101_5の端末#5から、101_5の端末#5の情報を得ることになる。
 サーバー104の図2における端末ごとのキャラクタ情報記憶部212は、101_5の端末#5の情報を得るにより、101_5の端末#5に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図2における実空間の位置に基づくキャラクタ「制御部」213は、101_5の端末#5の実空間#9における位置情報を得、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_5の端末#5に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図2における出力情報生成部214は、空間情報記憶部211から得られた情報、端末ごとのキャラクタ情報記憶部212が出力する「101_5の端末#5に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_5の端末#5に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#9、#10において、「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における101_5の端末#5に対応するキャラクタの位置」に「101_5の端末#5に対応するキャラクタ」を配置し、サーバー104の図2における出力情報生成部214は、「101_5の端末#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を生成し、「101_1の端末#1に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、101_5の端末#5が実空間#9において移動し、101_5の端末#5の実空間#9における位置が更新されると、上記で説明した動作にしたがって、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における「101_5の端末#5に対応するキャラクタ」の位置が更新され、サーバー104の図2における出力情報生成部214において、「101_5の端末#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、101_5の端末#5が、実空間#9における位置を、101_5の端末#5が具備しているGPSなどの位置推定システムを用いて推定し、102_9の基地局#9と101_5の端末#5は、101_5の端末#5の実空間#9における位置情報を共有するものとしてもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、101_5の端末#5と102_9の基地局#9を用いて説明を行っているが、他の端末、他の基地局を用いても同様に実施することが可能である。
 以上のように、実空間のIDと仮想空間のIDの関係、および、それに伴う各部の動作について説明を行ったが、実空間のIDと仮想空間のIDの関係は図10Bの例に限ったものではなく、一つ以上の実空間のIDと一つ以上の仮想空間のIDに関連付けを行っていれば、上述の説明のように実施することが可能となる。
 次に、図10A、図10Bにおいて、実空間#0に存在する基地局、実空間#1に存在する基地局、実空間#2に存在する基地局、実空間#3に存在する基地局、実空間#4に存在する基地局、実空間#5に存在する基地局、実空間#6に存在する基地局、実空間#7に存在する基地局、実空間#8に存在する基地局、実空間#9に存在する基地局、実空間#10に存在する基地局、・・・・における実空間とセルID(identification)の関係について説明を行う。
 実空間#0に存在する基地局、実空間#1に存在する基地局、実空間#2に存在する基地局、実空間#3に存在する基地局、実空間#4に存在する基地局、実空間#5に存在する基地局、実空間#6に存在する基地局、実空間#7に存在する基地局、実空間#8に存在する基地局、実空間#9に存在する基地局、実空間#10に存在する基地局、・・・・は、例えば、図12、図13、図14のような形態で存在していることが考えられる。
 図12は、実空間と基地局の配置の例を示している。図12のように、楕円100_a0の内側を実空間#a0、楕円100_a1の内側を実空間#a1、楕円100_a2の内側を実空間#a2、・・・とする。
 そして、102_b0の基地局#b0の通信可能エリアは実空間#a0を含むものとし、102_b1の基地局#b1の通信可能エリアは実空間#a1を含むものとし、102_b2の基地局#b2の通信エリアは実空間#a2を含むものとする。
 なお、102_b0の基地局#b0、102_b1の基地局#b1、102_b2の基地局#b2は、図11のようにサーバー104と通信を行っているものとする。
 このとき、102_b0の基地局#b0、102_b1の基地局#b1、102_b2の基地局#b2などの基地局は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、基地局は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、102_b0の基地局#b0は、セルIDの情報701、102_b0の基地局#b0と通信を行っている端末情報702、その端末の位置情報703を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#a0)を知り、これにより、図10A、図10Bの「実空間のIDと仮想空間のID」から、端末に対応するキャラクタを仮想空間に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末は、図7Bのような情報を、基地局(ここでは、102_b0の基地局#b0)に送信してもよい。したがって、端末は、基地局が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、基地局に送信してもよい。さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を基地局に送信してもよい。そして、基地局は、これらの情報を、サーバー104に伝送することになる。
 また、実空間と基地局の関係として、図12の例を示しているが、図12はあくまでも例であり、実空間と基地局(セルID)の関係は図12の例に限ったものではない。
 一つの例として、例えば、図12の102_b0の基地局#b0は、「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」(など)に存在する端末と、通信、センシング処理を実施可能であってもよい。
 このとき、102_b0の基地局#b0(のセルID)は、「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」(など)と関連付けが行われることになる。つまり、102_b0の基地局#b0が、「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」に存在する端末と通信、センシング処理を行っている場合、その端末のキャラクタを「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」に対応する仮想空間に登場させることになる。
 図13は、実空間と基地局の配置の例を示している。図13のように、楕円100_a0の内側を実空間#a0、楕円100_a1の内側を実空間#a1、楕円100_a2の内側を実空間#a2、・・・とする。
 そして、102_b0_0の基地局#b0_0の通信可能エリアは実空間#a0を含むものとし、102_b0_1の基地局#b0_1の通信可能エリアは実空間#a0を含むものとする。なお、実空間#a0を通信エリアとする基地局が他に存在していてもよい。
 なお、102_b0_0の基地局#b0_0、102_b0_1の基地局#b0_1は、図11のようにサーバー104と通信を行っているものとする。
 このとき、102_b0_0の基地局#b0_0、102_b0_1の基地局#b0_1などの基地局は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、基地局は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、102_b0_0の基地局#b0_0は、セルIDの情報701、102_b0_0の基地局#b0_0と通信を行っている端末情報702、その端末の位置情報703を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#a0)を知り、これにより、図10A、図10Bの「実空間のIDと仮想空間のID」から、端末に対応するキャラクタを仮想空間に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末は、図7Bのような情報を、基地局(ここでは、102_b0_0の基地局#b0_0)に送信してもよい。したがって、端末は、基地局が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、基地局に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を基地局に送信してもよい。そして、基地局は、これらの情報を、サーバー104に伝送することになる。
 また、102_b0_1の基地局#b0_1は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、基地局は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、102_b0_1の基地局#b0_1は、セルIDの情報701、102_b0_1の基地局#b0_1と通信を行っている端末情報702、その端末の位置情報703を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#a0)を知り、これにより、図10A、図10Bの「実空間のIDと仮想空間のID」から、端末に対応するキャラクタを仮想空間に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末は、図7Bのような情報を、基地局(ここでは、102_b0_1の基地局#b0_1)に送信してもよい。したがって、端末は、基地局が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、基地局に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を基地局に送信してもよい。そして、基地局は、これらの情報を、サーバー104に伝送することになる。
 このように、例えば、図13に示すように、実空間#a0に複数の基地局が存在し、これにより、実空間#a0は複数のセルIDと関連付けを行ってもよい。
 102_b1_0の基地局#b1_0の通信可能エリアは実空間#a1を含むものとし、102_b1_1の基地局#b1_1の通信可能エリアは実空間#a1を含むものとする。なお、実空間#a1を通信エリアとする基地局が他に存在していてもよい。
 なお、102_b1_0の基地局#b1_0、102_b1_1の基地局#b1_1は、図11のようにサーバー104と通信を行っているものとする。
 このとき、102_b1_0の基地局#b1_0、102_b1_1の基地局#b1_1などの基地局は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、基地局は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、102_b1_0の基地局#b1_0は、セルIDの情報701、102_b1_0の基地局#b1_0と通信を行っている端末情報702、その端末の位置情報703を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#a1)を知り、これにより、図10A、図10Bの「実空間のIDと仮想空間のID」から、端末に対応するキャラクタを仮想空間に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末は、図7Bのような情報を、基地局(ここでは、102_b1_0の基地局#b1_0)に送信してもよい。したがって、端末は、基地局が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、基地局に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を基地局に送信してもよい。そして、基地局は、これらの情報を、サーバー104に伝送することになる。
 また、102_b1_1の基地局#b0_1は、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、基地局は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、102_b1_1の基地局#b1_1は、セルIDの情報701、102_b1_1の基地局#b1_1と通信を行っている端末情報702、その端末の位置情報703を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#a1)を知り、これにより、図10A、図10Bの「実空間のIDと仮想空間のID」から、端末に対応するキャラクタを仮想空間に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末は、図7Bのような情報を、基地局(ここでは、102_b1_1の基地局#b1_1)に送信してもよい。したがって、端末は、基地局が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、基地局に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を基地局に送信してもよい。そして、基地局は、これらの情報を、サーバー104に伝送することになる。
 このように、例えば、図13に示すように、実空間#a1に複数の基地局が存在し、これにより、実空間#a1は複数のセルIDと関連付けを行ってもよい。
 なお、102_b2_0の基地局#b2_0の通信可能エリアは実空間#b2を含むものとし、102_b2_1の基地局#b2_1の通信可能エリアは実空間#b2を含むものとする。なお、実空間#b2を通信エリアとする基地局が他に存在していてもよい。
 また、実空間と基地局の関係として、図13の例を示しているが、図13はあくまでも例であり、実空間と基地局(セルID)の関係は図13の例に限ったものではない。
 一つの例として、例えば、図13の102_b0_0の基地局#b0_0は、「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」(など)に存在する端末と、通信、センシング処理を実施可能であってもよい。
 このとき、102_b0_0の基地局#b0_0(のセルID)は、「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」(など)と関連付けが行われることになる。つまり、102_b0_0の基地局#b0_0が、「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」に存在する端末と通信、センシング処理を行っている場合、その端末のキャラクタを「実空間#a1(または実空間#a1の一部)」、および/または、「実空間#a2(または実空間#a2の一部)」に対応する仮想空間に登場させることになる。
 図14は、実空間と基地局の配置の例を示している。図14のように、楕円100_a0の内側を実空間#a0、楕円100_a1の内側を実空間#a1、楕円100_a2の内側を実空間#a2、・・・とする。
 そして、102_b0の基地局#b0の通信可能エリアは実空間#a0、実空間#a1、実空間#a2を含むものとする。
 なお、102_b0の基地局#b0は、図11のようにサーバー104と通信を行っているものとする。
 このとき、102_b0の基地局#b0、サーバー104に対し、図7Aのような情報を送信するものとする。
 図7Aのように、102_b0の基地局#b0は、セルIDの情報701、端末の情報702、位置情報703を、サーバー104に送信するものとする。
 例えば、102_b0の基地局#b0は、セルIDの情報701、102_b0の基地局#b0と通信を行っている端末情報702、その端末の位置情報703を、サーバー104に送信することになる。
 このとき、サーバー104は、例えば、セルIDの情報701から、実空間のID(ここでは、実空間#b0、実空間#b1、実空間#b2のいずれか)を知り、これにより、図10A、図10Bの「実空間のIDと仮想空間のID」から、端末に対応するキャラクタを仮想空間に登場させることになる。なお、詳細の動作については、すでに説明したとおりである。
 このように、「実空間のIDと仮想空間のID」さらにはセルIDを関連付けることで、端末が存在する「実空間、セルに対応する仮想空間」に端末に対応するキャラクタを、サーバーは登場させることができるという効果を得ることができる。
 なお、端末は、図7Bのような情報を、102_b0の基地局#b0に送信してもよい。
 したがって、端末は、102_b0の基地局#b0が送信した変調信号に含まれるセルIDの情報を得、このセルIDの情報751を、102_b0の基地局#b0に送信してもよい。
 さらに、端末は、自身の端末の情報702、自身の端末が位置する位置情報753を102_b0の基地局#b0に送信してもよい。そして、102_b0の基地局#b0は、これらの情報を、サーバー104に伝送することになる。
 このように、例えば、図14に示すように、基地局は複数の実空間を通信可能エリアとして含み、これにより、セルIDは複数の実空間と関連付けを行ってもよい。
 また、実空間と基地局の関係として、図14の例を示しているが、図14はあくまでも例であり、実空間と基地局(セルID)の関係は図14の例に限ったものではない。
 上記の例では、「実空間と仮想空間を関連付ける」、または、「実空間、セルIDを関連付ける」、または、「実空間、セルID、仮想空間を関連付ける」という例について説明したが、「セルIDと仮想空間を関連付ける」としてもよい。この場合、上述の説明において、「実空間」に関する説明を「セルID」として考えて実施すれば、実施が可能となる。
 本実施の形態では、一つの例として、基地局と端末の間でセンシングの処理を行うことを説明した。この点の特徴について説明を行う。
 図15は、基地局、端末が具備しているアンテナの構成の一例である。図15において、1501はアンテナ(素子)であり、例えば、基地局、端末は、16個のアンテナを具備し、これにより、送信指向性制御(送信ビームフォーミング)、受信指向性制御(受信ビームフォーミング)を行うことが可能である。
 したがって、基地局、端末は、図16A、図16Bのような、送信指向性制御(送信ビームフォーミング)、受信指向性制御(受信ビームフォーミング)を行うことが可能となる。
 例えば、図16Cのように、3次元空間を考える。したがって、x軸、y軸、z軸が存在することになる。
 図16Aに示すように、例えば、図15のような構成の基地局、または、端末のアンテナ1600により、「送信ビーム、および/または、受信ビーム1601」を形成することができる、つまり、「送信ビーム、および/または、受信ビーム1601」をx―y軸方向に複数形成することが可能であり、また、図16Bに示すように、例えば、図15のような構成の基地局、または、端末のアンテナ1600により、「送信ビーム、および/または、受信ビーム1602」を形成することができる、つまり、「送信ビーム、および/または、受信ビーム1602」をz軸方向に複数形成することが可能となる。
 したがって、基地局、端末は、3次元のセンシングの処理を行うことが可能となり、これにより、基地局、端末は、3次元の位置推定(例えば、緯度、経度の平面的な位置に加え、高さ方向の位置の推定)が可能となる。
 なお、3次元のセンシングの例は、この例に限ったものではなく、端末は、他の位置推定システムにより、3次元の位置推定を行ってもよい。
 上述の説明のように、基地局を介し、端末の位置情報を得たサーバー104は、端末の位置情報に基づき、端末に相当するキャラクタを登場させることになるが、その時の具体的な例を説明する。
 例えば、以下のような状況であるものとする。
 ・端末は「人」の形をしたキャラクタと関連付けが行われており、サーバー104は、端末の位置情報に基づき、端末に相当する「人」の形をしたキャラクタを仮想空間に登場させることになる。
 ・端末は基地局とセンシングとの処理を行い、基地局、および/または、端末は、端末の位置情報を得る。そして、サーバー104は、端末の位置情報を得る。(または、端末は、他の位置推定システムにより、自身の位置情報を得る。)
 ・端末を携帯するユーザは、例えば、バスに乗っており、バスは、道路を走行しているものとする。このとき、端末は、高さが地上から数メートルの位置にあり、バスの走行速度で移動しているものとする。
 以上のような状況の際、基地局と端末との間でセンシングの処理を行い(または、端末は、他の位置推定システムにより)、端末は、「道路上(道路の経度、緯度を得てもよい)に位置し、かつ、地上から高さ4mの位置にある」と検出されたものとする。
 すると、サーバー104は、端末の3次元の位置を得、例えば、図17Aのように、サーバー104は、仮想空間に、「端末に相当する「人」の形をしたキャラクタ」を、道路上の地上から高さ4mの位置に登場させる(1700_1)という処理を行ってもよい。
 以上のようにすることで、サーバー104は、端末に相当するキャラクタをより現実空間に存在する位置に近い形で仮想空間に表現することができる。
 また、別の例として、サーバー104は、端末の3次元の位置を得、例えば、図17Bのように、サーバー104は、仮想空間に、「端末に相当する「人」の形をしたキャラクタ」を、道路上の地上(例えば、高さ0mの位置)に登場させる(1700_2)という処理を行ってもよい。
 以上のようにすることで、サーバー104は、端末に相当するキャラクタをより現実空間に存在する位置に対し、高さを補正した形で仮想空間に表現することができる。
 なお、上記のように、端末の実空間における3次元における位置に対し、仮想空間で、端末に相当するキャラクタを、「図17Aのように3次元相当で登場させる第1の方法」と「図17Bのように高さを補正して登場させる第2の方法(補正方法によっては、2次元相当で登場させる方法となる)」を切り替えてもよい。
 第1の方法と第2の方法のどちらを使用するかの設定は、端末が行ってもよい。このとき、端末は、この設定情報を送信し、基地局、ネットワークを介して、サーバー104に伝送する。または、端末は、この設定情報を、ネットワークを介して、サーバー104に伝送してもよい。
 別の方法として、第1の方法と第2の方法のどちらを使用するかの設定は、サーバー104が行ってもよい。
 さらには、第1の方法と第2の方法のどちらを使用するかの設定は、基地局が行ってもよい。このとき、基地局は、この設定情報を送信し、ネットワークを介して、サーバー104に伝送する。
 そして、サーバー104は、この設定情報に基づいて、仮想空間に、端末に相当するキャラクタを登場させることになる。
 次に、図1、図5における101_101の端末#101、101_102の端末#102の動作について説明を行う。
 101_101の端末#101、101_102の端末#102は、図3Aのように、基地局を介さず、ネットワーク103を介して、サーバー104と通信を行っていることになる。
 101_101の端末#101、101_102の端末#102などの端末が上記のように、サーバー104と通信を行っている際に、端末に対応するキャラクタの対応付けを行う手続きを行うことになる。
 図3Bに示すように、端末は、端末情報を、サーバー104に送信する(301)。なお、端末情報は、サーバー104が端末(および/または、ユーザ)を識別することができる情報であり、例えば、SIM(Subscriber Identity Module)情報、電話番号の情報、(ユーザの、または、端末が使用することができる)メールアドレスの情報、ユーザが保有しているID(identification)、端末ID、SNS(Social networking service)の情報などの、「端末、および/または、ユーザの情報」であるものとする。したがって、サーバー104は、端末情報を得ることになる(351)。
 そして、端末は、キャラクタ情報を、サーバー104に送信する(302)。したがって、サーバー104は、キャラクタ情報を得ることになる(352)。
 なお、端末は、キャラクタ情報を生成する際、図2のサーバー104が具備するキャラクタ生成部215から、キャラクタのもとになる情報を得てもよいし、サーバー104とは異なる装置から、キャラクタのもとになる情報を得てもよい。これにより、端末はキャラクタ情報を生成することが可能となる。また、別の方法として、端末は、端末自身の機能を使ってキャラクタを生成してもよい。
 そして、サーバー104は、端末情報とその端末のキャラクタ情報のセットの情報を図2の端末ごとのキャラクタ情報記憶部212に記憶することになる。したがって、図2の端末ごとのキャラクタ情報記憶部212は、端末ごとの「端末情報とその端末のキャラクタ情報のセットの情報」を記憶していることになる。
 図3Bの説明において、「端末情報」として、動作の説明を行っているが、「端末情報」の代わりに「ユーザ情報、または、識別情報」としても同様に実施することが可能である。また、他の説明において、「端末情報」として、動作の説明を行っているが、「端末情報」の代わりに「ユーザ情報、または、識別情報」としても同様に実施することが可能である。
 以上のようにすることで、キャラクタ情報記憶部212は、図1、図5における101_101の端末#101の「端末情報とその端末のキャラクタ情報のセットの情報」、101_102の端末#102の「端末情報とその端末のキャラクタ情報のセットの情報」を記憶していることになる。
 そして、図1、図5における101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104にアクセスする。例えば、図1、図5における101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104の図2におけるキャラクタ動作制御部216にアクセスする。そして、ユーザは、101_101の端末#101を操作し、101_101の端末#101に相当するキャラクタを仮想空間に登場させたり、101_101の端末#101に相当するキャラクタを仮想空間で移動させたりする。このように、キャラクタの制御を行う部分が、図2のキャラクタ動作制御部216となる。
 また、ユーザは、101_101の端末#101に相当するキャラクタを用いて仮想空間に存在する他のキャラクタと通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。なお、ユーザは、101_101の端末#101の実空間での位置とは関係なく、101_101の端末#101に相当するキャラクタを仮想空間で移動させることができるものとする。このように、キャラクタの制御を行う部分が、図2のキャラクタ動作制御部216となる。
 同様に、図1、図5における101_102の端末#102を操作しているユーザは、ネットワーク103を介し、サーバー104にアクセスする。例えば、図1、図5における101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104の図2におけるキャラクタ動作制御部216にアクセスする。そして、ユーザは、101_102の端末#102を操作し、101_102の端末#102に相当するキャラクタを仮想空間に登場させたり、101_102の端末#102に相当するキャラクタを仮想空間で移動させたりする。このように、キャラクタの制御を行う部分が、図2のキャラクタ動作制御部216となる。
 また、ユーザは、101_102の端末#102に相当するキャラクタを用いて仮想空間に存在する他のキャラクタ(したがって、他の端末)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。なお、ユーザは、101_102の端末#102の実空間での位置とは関係なく、101_102の端末#102に相当するキャラクタを仮想空間で移動させることができるものとする。このように、キャラクタの制御を行う部分が、図2のキャラクタ動作制御部216となる。
 以下では、例として、実空間#1と関連付けされている「仮想空間#1」における各端末に対応する各キャラクタの動作の例について説明を行う。したがって、図1を用いて説明を行う。
 すでに説明を行ったように、図1に示している実空間#1に関連する仮想空間#1をサーバー104は生成している。そして、図1に示すように、101_1の端末#1と101_2の端末#2が、実空間#1に存在しているため、「101_1の端末#1に相当するキャラクタ」、「101_2の端末#2に相当するキャラクタ」が、仮想空間#1に登場するように、サーバー104は仮想空間#1を生成していることになる。そして、サーバー104は、101_1の端末#1の実空間の位置に応じて、仮想空間#1における「101_1の端末#1に相当するキャラクタ」の位置を制御し、また、サーバー104は、101_2の端末#2の実空間の位置に応じて、仮想空間#1における「101_2の端末#2に相当するキャラクタ」の位置を制御することになる。
 一方で、図1に示している実空間#1に存在しない101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104にアクセスし、ユーザは、101_101の端末#101を操作し、101_101の端末#101に相当するキャラクタを仮想空間#1に登場させたり、101_101の端末#101に相当するキャラクタを仮想空間#1で移動させたりする。
 そして、101_101の端末#101を操作するユーザは、101_101の端末#101に相当するキャラクタを用いて仮想空間#1に存在する「実空間#1に存在する101_1の端末#1に相当するキャラクタ」(を使用しているユーザ)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。また、101_101の端末#101を操作するユーザは、101_101の端末#101に相当するキャラクタを用いて仮想空間#1に存在する「実空間#1に存在しない101_102の端末#102に相当するキャラクタ」(を使用しているユーザ)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。
 また、101_1の端末#1を操作するユーザは、101_1の端末#101に相当するキャラクタを用いて仮想空間#1に存在する「実空間#1に存在しない101_101の端末#101に相当するキャラクタ」(を使用しているユーザ)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。
 なお、ユーザが、仮想空間において、端末に相当するキャラクタを利用して、他のキャラクタに相当する端末(または、端末を使用するユーザ)に対して、実施する行為は、上記の例(通信、チャットなど)に限ったものではない。例えば、「画像(静止画)の送信、動画の送信、広告の送信、広告の配信、クーポンの配信」などであってもよい。
 このようにすることで、「仮想空間と関連付けされた実空間に存在している端末を使用しているユーザ」と「端末を使用して仮想空間に入っているユーザ」とが通信などを行うことができ、より多くのユーザと交流することができるという効果を得ることが可能となる。
 以上のように、実空間に存在する端末の位置情報に基づき、実空間に対応した仮想空間に、端末に対応づけられているキャラクタ(アバター)を登場させることで、端末、端末を使用するユーザが存在する実環境に適したより多様化システムを提供することができ、また、端末および端末を使用するユーザは、実空間と仮想空間で、多くの他の端末(他のユーザ)と通信を行うことができ、利便性が向上するという効果を得ることができる。
 本実施の形態において、基地局について説明したが、基地局を「TRP(Tx(Transmission)/Rx(Reception) point)、中継器、アクセスポイント、放送局、gNB(g Node B)、eNB(e Node B)、ノード、サーバー、衛星、動く装置(「電気自動車、電動バイク(e-バイク)、電動自転車、動くロボット、電動キックボード、電動アシスト自転車、電動アシストキックボード」のような電気に基づいた動く装置、自動車、バイク、自転車、船舶、航空機、飛行機など)、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器など」いずれかとして実施しても、同様に実施することが可能である。したがって、本実施の形態の基地局を、「TRP、中継器、アクセスポイント、放送局、gNB、eNB、ノード、サーバー、衛星、上述を例とする動く装置、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電、工場内の装置、IoT機器等の通信機器・放送機器など」と呼んでもよい。以上の点については、本明細書において、同様である。
 また、本実施の形態において、端末について説明したが、端末を、「TRP、基地局、中継器、アクセスポイント、放送局、gNB、eNB、ノード、サーバー、衛星、上述を例とする動く装置、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電、工場内の装置、IoT機器等の通信機器・放送機器など」いずれかとして実施しても、同様に実施することが可能である。したがって、本実施の形態の端末を、「TRP、基地局、中継器、アクセスポイント、放送局、gNB、eNB、ノード、サーバー、衛星、上述を例とする動く装置、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電、工場内の装置、IoT機器等の通信機器・放送機器など」と呼んでもよい。以上の点については、本明細書において、同様である。
 また、例えば、基地局、端末などの装置が変調信号、センシングのための信号を送信する際、一つ以上、または、二つ以上の送信アンテナを用いて、一つ以上、または、二つ以上の変調信号、センシングのための信号を送信してもよい。以上の点については、本明細書において、同様である。
 上述において、「端末が送信する信号、例えば、変調信号、センシングのための信号」は、UL-SCH(downlink shared channel)、PUCCH(physical uplink control channel)、PUSCH(physical uplink shared channel)、PRACH(physical random access channel)などいずれに属していてもよい。ただし、これに限ったものではない。
 また、上述において、「基地局が送信する信号、例えば、ダウンリンクフレーム、リファレンス信号、制御信号」は、PCH(paging channel)、BCH(broadcast channel)、DL-SCH(downlink shared channel)、BCCH(broadcast control channel)、PCCH(paging control channel)、CCCH(common control channel)、コモンサーチスペース、PBCH(physical broadcast channel)、SS(Synchronization Signals:同期信号)、PDCCH(physical downlink control channel)、PDSCH(physical downlink shared channel)などいずれに属していてもよい。ただし、これに限ったものではない。
 本実施の形態において、サーバー104は、図1における101_1の端末#1、101_2の端末#2、101_101の端末#101、101_102の端末#102などの「端末に相当するキャラクタ」を仮想空間に登場させ、仮想空間において「端末に相当するキャラクタ」を制御する例を説明したが、仮想空間における「端末に相当するキャラクタ」は、どのようなキャラクタ、どのようなオブジェクト、どのようなアバターであってもよい。したがって、本実施の形態において、「キャラクタ」という記載を、「オブジェクト」、または、「アバター」という記載にして実施しても同様に実施することが可能である。
 また、例えば、仮想空間における「端末に相当するキャラクタ」は、「人のようなキャラクタ(または、オブジェクト、アバター)」、「動物のようなキャラクタ(または、オブジェクト、アバター)」、「鳥のようなキャラクタ(または、オブジェクト、アバター)」、「飛行体(ドローン、航空機、飛行機)のようなキャラクタ(または、オブジェクト、アバター)」、「車のようなキャラクタ(または、オブジェクト、アバター)」、「自転車のようなキャラクタ(または、オブジェクト、アバター)」、「バイクのようなキャラクタ(または、オブジェクト、アバター)」、「電車のようなキャラクタ(または、オブジェクト、アバター)」、「列車のようなキャラクタ(または、オブジェクト、アバター)」、「ロボットのようなキャラクタ(または、オブジェクト、アバター)」であってもよいが、これに限ったものではない。
 また、サーバー104は、端末が予め規定された複数の端末の種類のいずれであるかを判定し、それぞれの状態に対応付けられたオブジェクト、または、オブジェクトグループから選択されたオブジェクトを、仮想空間に表示するとしてもよい。端末の種類とオブジェクトの対応付けは上記の例に限らない。例えば、端末の種類によって異なる動物の形状をしたオブジェクトを対応付けてもよいし、端末の種類によって形状は同じであるが色が異なるオブジェクトを対応付けてもよい。
 なお、これらの点については、本明細書において、同様である。
 図1において、101_1の端末#1は、実空間#1に存在しているため、サーバー104は、例えば、実空間#1に対応する仮想空間#1に、101_1の端末#1に相当するキャラクタを登場させ、101_1の端末#1に相当するキャラクタを制御する。そして、サーバー104は、仮想空間#1の情報を、101_1の端末#1を含む端末に提供する例を示している。
 別の方法として、サーバー104は、実空間#1に存在する101_1の端末#1、101_2の端末#2などに提供する情報として、AR表示のための情報を生成する。そして、サーバー104は、「101_1の端末#1、101_2の端末#2など」の実空間#1に存在する端末に、AR表示のための情報を提供してもよい。このとき、実空間#1にAR表示機能をもつ端末が存在していた場合、その端末は、AR表示のための情報を得て、指定された位置にキャラクタ、オブジェクトなどを表示することになる。
 サーバー104は、仮想空間♯1の情報からAR表示のための情報を生成することになる。このとき、サーバー104は、「仮想空間♯1に存在するキャラクタ、オブジェクトの情報、位置」から、「実空間に重ねて表示するキャラクタ、オブジェクトの情報」、「実空間に重ねて表示するためキャラクタ、オブジェクトの実空間に重ねて表示する位置情報」を生成する。そして、サーバー104は、「実空間に重ねて表示するキャラクタ、オブジェクトの情報」、「実空間に重ねて表示するためキャラクタ、オブジェクトの実空間に重ねて表示する位置情報」を、実空間#1に存在する「AR表示機能をもつ端末」に送信し、「AR表示機能をもつ端末」は、「実空間に重ねて表示するキャラクタ、オブジェクトの情報」、「実空間に重ねて表示するためキャラクタ、オブジェクトの実空間に重ねて表示する位置情報」に基づき、指定された位置にキャラクタ、オブジェクトなどを表示することになる。
 なお、図1における「101_1の端末#1、101_2の端末#2など」の実空間#1に存在する端末、および/または、実空間#1に存在していない端末は、以下のような処理を行ってもよい。
 端末は、三次元地図情報と、センシングデータ(LIDAR(Light Detection and Ranging)またはカメラで取得した点群データなど)との位置合わせにより、自己位置推定を行う。自己位置推定において端末は、例えば、自己位置情報として三次元地図情報における位置や向きの情報を推定する。端末は、推定された自己位置に基づいて、周辺のオブジェクトの形状データや配置位置を示すデータをサーバー104から取得する。端末は、当該端末の自己位置情報に基づいてオブジェクトを、端末が有するカメラで撮影した映像を表示している表示画面や、スマートグラスの透明ディスプレイなどに表示する。
 なお、端末は、自己位置推定の際に、周囲の床や机の天板などの平面検出を行ってもよい。ここで検出される平面は、水平または水平に近い面を想定しているが、壁などの垂直な平面の検出であってもよいし、水平や垂直を含めた任意の角度を有する平面の検出を行ってもよい。また、端末は、これらのものを含むオブジェクトを検出し、サーバー104に提供し、仮想空間に表示してもよいし、AR空間に表示するためのオブジェクトとして処理してもよい。
 そして、端末は、オブジェクトを表示する際に、オブジェクトに設定された設置位置の情報をそのまま用いるのではなく、検出された平面の情報に基づいてオブジェクトを表示画面に表示する位置を補正してもよい。なお、この点については、仮想空間における表示、ARにおける表示、どちらにおいても適用可能である。
 また、端末が推定した自己位置に基づいてオブジェクトを仮想空間用、AR用に表示する例について説明したが、その他の方法で取得した位置情報に基づいてオブジェクトを仮想空間用、AR用に表示してもよい。その他の方法で取得した位置情報は、例えば、基地局によって推定された端末の位置情報、他の機器によって推定された端末の位置情報、GPSによって得られた位置情報などであってもよい。ここで、基地局によって推定された端末の位置情報を用いる場合、仮想空間において基地局が推定した位置情報に基づいてキャラクタを表示している場合に、仮想空間で当該キャラクタから見えているオブジェクトと、実空間でAR表示されるオブジェクトに差異が生じる可能性を低減することができる。
 (実施の形態2)
 本実施の形態では、実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるシステムの構成、および、各装置の動作について、実施の形態1の変形例についての説明を行う。
 なお、実空間を「(フィジカルな)現実空間」、「ユニバース」と呼んでもよい。また、実空間は「AR(Augmented Reality)(拡張現実)(実世界を仮想的に拡張した世界)」であってもよい。実空間を、例として、我々の住む物理世界ととらえてもよい。実空間を別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 また、仮想空間を「サイバー空間」、「メタバース空間」、「マルチバース空間(の一つ)」、「バーチャル空間」、「VR(Virtual Reality)(仮想現実)」、「仮想世界」と呼んでもよい。なお、仮想空間を別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 さらに、キャラクタを「アバター」、「オブジェクト」と呼んでもよい。アバターを、例として、ゲーム、ネット、仮想空間の中で登場する、端末を保有しているユーザ自身の分身ととらえてもよい。なお、キャラクタを別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 図18は、本実施の形態における「実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるシステムの構成」の一例を示している。図18において、図1と同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 100_1の楕円の内側は、実空間#1である。そして、1801_1のオブジェクト#1、1801_2のオブジェクト#2は、実空間#1に存在している。なお、実空間を楕円の内側と定義しているが、実空間は楕円の内側であらわされなくてもよい。ここでは、説明を簡単にするために、実空間は楕円の内側であらわしている。なお、この点については、本実施の形態、また、本明細書全体にわたって同様である。
 図18において、1802_1の撮影装置#1は実空間#1に存在しているものとなっているが、1802_1の撮影装置#1は実空間#1以外の実空間に存在していてもよい。
 1802_1の撮影装置#1は、静止画、動画などを撮影する装置、例えば、カメラ、スマートフォン、パソコン、監視カメラ、ムービーであってもよい。また、1802_1の撮影装置#1は、光、電波などを用いたセンシング機能を有している装置、赤外線などの光、電波などを用いたセンサーであってもよい。したがって、撮影装置と呼んでいるが、この呼び方に限ったものではなく、単に、装置と呼んでもよいし、センシング装置と呼んでもよい。
 1801_1のオブジェクト#1、1801_2のオブジェクト#2は、「人」、「動物」、「車、バイク、自転車などの動く機器」であってもよいし、「人が身に着けるもの」、「機器」、「物体、オブジェクト」であってもよい。
 1802_1の撮影装置#1は、ネットワーク103を介して、サーバー104を含む機器と通信を行っていることになる。この時の通信は、有線、および/または、無線による通信が例として考えられる。
 また、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトと例えば、無線による通信を行っていてもよい。(有線、および/または、無線による通信であってもよい。)
 したがって、1802_1の撮影装置#1は、無線、または、有線通信のための送信部、および、受信部を具備することになる。
 そして、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトは、無線通信のための送信部、および、無線通信のための受信部を具備していてもよい。
 1802_1の撮影装置#1は、センシングのための送信部、および、センシングのための受信部を具備していてもよい。なお、センシングのための送信部と無線通信のための送信部は、別々であってもよいし、共用化してもよい。1802_1の撮影装置#1は、GPSなどの位置推定システムを具備していてもよい。
 また、1802_1の撮影装置#1は、1802_1の撮影装置#1が設置された位置の情報を保有していてもよい。
 「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトは、センシングのための送信部、および、センシングのための受信部を具備していてもよい。なお、センシングのための送信部と無線通信のための送信部は、別々であってもよいし、共用化してもよい。「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトは、GPSなどの位置推定システムを具備していてもよい。
 このとき、一つの方法として、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトを推定するものとする。
 なお、1802_1の撮影装置#1による「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの推定とは、例えば1802_1の撮影装置#1がセンシング可能な領域内にオブジェクトが存在していることを検出してその位置を推定する処理である。また、オブジェクトの推定は、オブジェクトが何であるかの判別、すなわちオブジェクトの種類を検出する処理を含んでいてもよい。また、オブジェクトの推定は、オブジェクトの動きや状態を検出する処理を含んでいてもよい。また、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの推定をすると説明したが、オブジェクトは複数ではなく一つであってもよい。また、センシング可能な領域内に推定対象のオブジェクトが位置していない場合は、オブジェクトが検出されないことを検出結果としてもよい。
 このとき、例えば、特許文献2、特許文献3、特許文献4に示されているように、以下のいずれの方法で、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報(または、センシング結果の情報)を得てもよい。
 方法2-1:
 1802_1の撮影装置#1が、センシングのための信号を送信する。そして、オブジェクトがこのセンシングのための信号を受信し、位置を推定する(または、センシング結果を得る)。オブジェクトはこの位置情報(または、センシング結果の情報)を1802_1の撮影装置#1に送信する。これにより、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報(または、センシング結果の情報)を得ることになる。
 方法2-2:
 1802_1の撮影装置#1が、センシングのための信号を送信する。そして、オブジェクトにこのセンシングのための信号の状況が変化し、この変化を1802_1の撮影装置#1がとらえ(センシングのための信号に相当する電波を受信する)、1802_1の撮影装置#1は、オブジェクトの位置を推定する(または、センシング結果を得る)。これにより、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報(または、センシング結果の情報)を得ることになる。
 方法2-3:
 「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトが、センシングのための信号を送信する。そして、1802_1の撮影装置#1はこのセンシングのための信号を受信し、位置を推定する(または、センシング結果を得る)。これにより、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報(または、センシング結果の情報)を得ることになる。
 このように、センシングのための信号を、1802_1の撮影装置#1が送信してもよいし、オブジェクトが送信してもよい。なお、1802_1の撮影装置#1が「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報(または、センシング結果の情報)を得る方法は、方法2-1、方法2-2、方法2-3に限ったものではなく、特許文献2、特許文献3、特許文献4を含む文献で記載されている方法を広く適用することが可能である。
 また、別の方法として、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトは、GPSなどの位置推定システムを用いて、自身の位置を推定してもよい。このとき、オブジェクトは推定した位置情報を、1802_1の撮影装置#1に送信し、これにより、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報を得ることになる。
 なお、方法2-1、方法2-2、方法2-3における方法において、1802_1の撮影装置#1を図1における102_1の基地局#1と考え、オブジェクトを図1における端末と考えると、実施の形態1と同様の状況となる。したがって、実施の形態1において、102_1の基地局#1を1802_1の撮影装置#1と考え、端末をオブジェクトと考えれば、実施の形態1の説明を、図18に対し適用することができる。このため、ここでは、詳細の説明を省略する。
 以下では、方法2-1、方法2-2、方法2-3とは異なる方法2-4について説明を行う。
 方法2-4:
 図18における1802_1の撮影装置#1は、例えば、イメージセンサー、赤外線センサー、フォトダイオードのいずれか一つ以上のセンサーを具備しているものとする。そして、1802_1の撮影装置#1は、センサーを用いて、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトを検出、および/または、認識する。そして、1802_1の撮影装置#1は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置情報を得ることになる。
 なお、1802_1の撮影装置#1は位置情報を保持しており、1802_1の撮影装置#1が設置されている位置を「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトの位置としてもよい。別の方法として、「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトは、自身が具備するGPSを例とする位置推定装置を具備しており、自身が得た位置情報を、直接1802_1の撮影装置#1に伝送してもよいし、「他の装置、ネットワーク」を介して、自身が得た位置情報を1802_1の撮影装置#1に伝送してもよい。
 方法2-4において、1802_1の撮影装置#1が「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトを検出、および/または、認識する際の例について説明を行う。
 「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトが、例えば、帽子、衣服、アクセサリ、または、人であるものとする。そして、1801_1のオブジェクト#1は例えば、人のキャラクタ#1(人、ロボットなどの形に基づくキャラクタであってもよい。ただし、キャラクタの形状などは、これらの例に限ったものではなく、単に、キャラクタであってもよい。)と関連付けされているものとし、サーバー104は、この情報を保持するものとする。なお、「1801_1のオブジェクト#1とキャラクタ#1の関連付けに関する情報」の扱いについては、後で説明を行う。また、オブジェクトは、検出、認識を可能とする識別コード、識別のための模様、色、形、文字などを含んでいてもよい。
 1802_1の撮影装置#1は、例えば、センサーにより、1801_1のオブジェクト#1を検出、認識したものとする。このとき、例えば、動画、静止画を得てもよい。なお、この検出、認識処理を、1802_1の撮影装置#1が行ってもよい。また、1802_1の撮影装置#1が取得したデータ、情報をサーバー104に伝送し、サーバー104が、この検出、認識処理を行ってもよい。
 そして、サーバー104は、「1801_1のオブジェクト#1が認識された」という情報に基づき、仮想空間#1に、1801_1のオブジェクト#1と関連付けられているキャラクタ#1を登場させる。なお、サーバー104が、キャラクタ#1を、仮想空間#1に登場させる際、登場させる位置を、例えば、1802_1の撮影装置#1が設置されている位置に基づいて、決定してもよい。また、「1801_1のオブジェクト#1」が存在する位置を、通信により、サーバー104が得、サーバー104は、この位置情報に基づいて、キャラクタ#1を、仮想空間#1に登場させる位置を、決定してもよい。
 「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトが、例えば、帽子、衣服、アクセサリ、または、動物であるものとする。そして、1801_1のオブジェクト#1は例えば、動物のキャラクタ#1(動物、ロボットなどの形に基づくキャラクタであってもよい。ただし、キャラクタの形状などは、これらの例に限ったものではなく、単に、キャラクタであってもよい。)と関連付けされているものとし、サーバー104は、この情報を保持するものとする。なお、「1801_1のオブジェクト#1とキャラクタ#1の関連付けに関する情報」の扱いについては、後で説明を行う。また、オブジェクトは、検出、認識を可能とする識別コード、識別のための模様、色、形、文字などを含んでいてもよい。
 1802_1の撮影装置#1は、例えば、センサーにより、1801_1のオブジェクト#1を検出、認識したものとする。このとき、例えば、動画、静止画を得てもよい。なお、この検出、認識処理を、1802_1の撮影装置#1が行ってもよい。また、1802_1の撮影装置#1が取得したデータ、情報をサーバー104に伝送し、サーバー104が、この検出、認識処理を行ってもよい。
 そして、サーバー104は、「1801_1のオブジェクト#1が認識された」という情報に基づき、仮想空間#1に、1801_1のオブジェクト#1と関連付けられているキャラクタ#1を登場させる。なお、サーバー104が、キャラクタ#1を、仮想空間#1に登場させる際、登場させる位置を、例えば、1802_1の撮影装置#1が設置されている位置に基づいて、決定してもよい。また、「1801_1のオブジェクト#1」が存在する位置を、通信により、サーバー104が得、サーバー104は、この位置情報に基づいて、キャラクタ#1を、仮想空間#1に登場させる位置を、決定してもよい。
 「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトが、例えば、車、自転車、または、オートバイであるものとする。なお、オブジェクトが、車、オートバイなど、ナンバープレートを具備しているものの場合、オブジェクトはナンバープレートであってもよい。そして、1801_1のオブジェクト#1は例えば、「車、自転車、または、オートバイ」のキャラクタ#1(車、自転車、または、オートバイ、ロボットなどの形に基づくキャラクタであってもよい。ただし、キャラクタの形状などは、これらの例に限ったものではなく、単に、キャラクタであってもよい。)と関連付けされているものとし、サーバー104は、この情報を保持するものとする。なお、「1801_1のオブジェクト#1とキャラクタ#1の関連付けに関する情報」の扱いについては、後で説明を行う。また、オブジェクトは、検出、認識を可能とする識別コード、識別のための模様、色、形、文字などを含んでいてもよい。
 1802_1の撮影装置#1は、例えば、センサーにより、1801_1のオブジェクト#1を検出、認識したものとする。このとき、例えば、動画、静止画を得てもよい。なお、この検出、認識処理を、1802_1の撮影装置#1が行ってもよい。また、1802_1の撮影装置#1が取得したデータ、情報をサーバー104に伝送し、サーバー104が、この検出、認識処理を行ってもよい。
 そして、サーバー104は、「1801_1のオブジェクト#1が認識された」という情報に基づき、仮想空間#1に、1801_1のオブジェクト#1と関連付けられているキャラクタ#1を登場させる。なお、サーバー104が、キャラクタ#1を、仮想空間#1に登場させる際、登場させる位置を、例えば、1802_1の撮影装置#1が設置されている位置に基づいて、決定してもよい。また、「1801_1のオブジェクト#1」が存在する位置を、通信により、サーバー104が得、サーバー104は、この位置情報に基づいて、キャラクタ#1を、仮想空間#1に登場させる位置を、決定してもよい。
 「1801_1のオブジェクト#1、1801_2のオブジェクト#2」を含むオブジェクトが、例えば、建物、店、看板(広告)、施設、街灯、木、花、オブジェクトなどであるものとする。そして、1801_1のオブジェクト#1は例えば、キャラクタ#1(オブジェクトに相当するキャラクタであってもよい。ただし、キャラクタの形状などは、これらの例に限ったものではなく、単に、キャラクタであってもよい。)と関連付けされているものとし、サーバー104は、この情報を保持するものとする。なお、「1801_1のオブジェクト#1とキャラクタ#1の関連付けに関する情報」の扱いについては、後で説明を行う。また、オブジェクトは、検出、認識を可能とする識別コード、識別のための模様、色、形、文字などを含んでいてもよい。
 1802_1の撮影装置#1は、例えば、センサーにより、1801_1のオブジェクト#1を検出、認識したものとする。このとき、例えば、動画、静止画を得てもよい。なお、この検出、認識処理を、1802_1の撮影装置#1が行ってもよい。また、1802_1の撮影装置#1が取得したデータ、情報をサーバー104に伝送し、サーバー104が、この検出、認識処理を行ってもよい。
 そして、サーバー104は、「1801_1のオブジェクト#1が認識された」という情報に基づき、仮想空間#1に、1801_1のオブジェクト#1と関連付けられているキャラクタ#1を登場させる。なお、サーバー104が、キャラクタ#1を、仮想空間#1に登場させる際、登場させる位置を、例えば、1802_1の撮影装置#1が設置されている位置に基づいて、決定してもよい。また、「1801_1のオブジェクト#1」が存在する位置を、通信により、サーバー104が得、サーバー104は、この位置情報に基づいて、キャラクタ#1を、仮想空間#1に登場させる位置を、決定してもよい。
 図18のシステムには、「仮想空間に関連するデータ」を保持する記憶部を具備し、仮想空間におけるキャラクタなどの登場、動作などを制御する「制御部」を具備し、また、「他の装置からのデータに基づき仮想空間の情報を更新、制御」を行うサーバー104が存在している。なお、サーバーの構成、および、動作の詳細については、後で詳しく説明を行う。また、図18のシステムは、例えば、101_101の端末#101、101_102の端末#2、機器が存在している。
 1802_1の撮影装置#1、サーバー104、101_101の端末#101、101_102の端末#2、機器は、ネットワーク103と接続されており、「102_1の基地局#1、サーバー104、101_101の端末#101、101_102の端末#2、機器」などの装置は、これにより、通信を行うことが可能となっている。
 また、1801_1のオブジェクト#1、1801_2のオブジェクト#2は、1802_1の撮影装置#1と通信を行うってもよい。
 そして、101_101の端末#101、101_102の端末#2は、1802_1の撮影装置#1、ネットワーク103を介して、「サーバー104、1801_1のオブジェクト#1、1801_2のオブジェクト#2、機器」などの装置と通信を行うことがあってもよい。
 なお、本実施の形態におけるシステム構成は、図18に限ったものではなく、オブジェクトは、1つ以上存在していればよく、また、撮影装置についても1つ以上存在していればよく、サーバーも1つ以上存在していればよい。
 図19Aは、図18におけるサーバー104の構成の一例である。サーバー104は、例えば、インタフェース200は、入力信号201を入力とし、出力信号202を出力する。また、インタフェース200は、空間情報記憶部211、オブジェクトごとのキャラクタ情報記憶部1912、実空間の位置に基づくキャラクタ「制御部」213、出力情報生成部214、キャラクタ生成部215、端末ごとのキャラクタ情報記憶部212と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 空間情報記憶部211は、仮想空間に関する情報を記憶している部分である。なお、「仮想空間に関する情報」は、例えば、「2次元の空間のデータ」であってもよいし、「3次元の空間のデータ」であってもよいし、「3次元の空間データを2次元に表すための変換されたデータ」であってもよい。また、仮想空間に、「建物、施設、設備、広場、公園など実空間に存在する物体に相当する仮想空間用物体」を配置してもよい。したがって、仮想空間に関する情報は、「仮想空間用物体」の情報を含んでいてもよい。
 なお、仮想空間に関する情報は、例えば、入力信号201により、更新されてもよい。例えば、入力信号201により、「仮想空間用の物体」の物体の更新、「仮想空間用の物体」の位置の更新などが行われた仮想空間に関する情報が、空間情報記憶部211に記憶されることになる。
 オブジェクトごとのキャラクタ情報記憶部1912の動作については、後で詳しく説明を行う。
 実空間の位置に基づくキャラクタ「制御部」213の動作については、後で詳しく説明を行う。
 端末ごとのキャラクタ情報記憶部212の動作については、後で詳しく説明を行う。
 出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912から得られた情報、実空間の位置に基づくキャラクタ「制御部」213から得られた情報から、端末などの他の装置に提供するための仮想空間に関する出力情報を生成する。また、端末ごとのキャラクタ情報記憶部212から得られた情報から、端末などの他の装置に提供するための仮想空間に関する出力情報を生成してもよい。
 そして、仮想空間に関する出力情報は、出力信号202として、サーバー104から出力される。なお、仮想空間に関する出力情報は、サーバー104にアクセスしている一つ以上の端末に届けられることになる。
 したがって、出力信号202の情報を得た、例えば端末などの装置は、出力信号202に基づいて、仮想空間の表示内容を生成し、装置内蔵の表示装置、および/または、外部の表示装置に表示することになる。
 このとき、表示装置としては、例えば、モバイルフォン、携帯電話、スマートフォン、タブレット、タブレットPC(Personal Computer)、パソコン(ただし、モニタを搭載していてもよいし、モニタを接続できてもよい)、ノートパソコン、テレビ、モニタと接続された装置、ゲーム機、携帯ゲーム機、ARグラス、ARゴーグル、ARを表示できるモニタ、ARを表示できるモニタと接続された装置、VRグラス、VRゴーグル、VRを表示できるモニタ、VRを表示できるモニタと接続された装置、MR(Mixed Reality)グラス、MRを表示できるモニタ、MRを表示できるモニタと接続された装置、カーナビゲーションシステム、ヘッドマウントディスプレイ、ヘッドマウントディスプレイと接続された装置、モニタ、モニタと接続された装置、プロジェクタ、プロジェクタと接続された装置などが考えられるが、これらに限ったものではない。
 なお、サーバーの構成例は、図19Aの例に限ったものではない。
 図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912の動作についての説明を行う。例として、101_1の端末#1を用いた動作について説明を行う。
 例えば、101_1の端末#1は、図19Bのように、ネットワーク103を介して、サーバー104と通信を行っている。なお、101_1の端末#1は、図18における1801_1のオブジェクト#1と関連するキャラクタ#1を登録するための端末である。
 端末が上記のように、サーバー104と通信を行っている際に、オブジェクトに対応するキャラクタの対応付けを行う手続きについて、説明を行う。
 図19Cに示すように、端末は、オブジェクト情報を、サーバー104に送信する(1901)。なお、オブジェクト情報は、サーバー104がオブジェクトを識別することができる情報であり、図18における1802_1の撮影装置#1が、検出、認識により、特徴を抽出することを可能とする情報であるものとする。例えば、1802_1の撮影装置#1がイメージセンサーの場合、オブジェクト情報は、静止画、動画のデータであってもよいし、オブジェクト情報は、静止画、動画からオブジェクトの特徴を抽出した情報であってもよい。なお、この例に限ったものではない。したがって、サーバー104は、オブジェクト情報を得ることになる(1951)。
 そして、端末は、キャラクタ情報を、サーバー104に送信する(1902)。したがって、サーバー104は、キャラクタ情報を得ることになる(1952)。
 なお、端末は、キャラクタ情報を生成する際、図19Aのサーバー104が具備するキャラクタ生成部215から、キャラクタのもとになる情報を得てもよいし、サーバー104とは異なる装置から、キャラクタのもとになる情報を得てもよい。これにより、端末はキャラクタ情報を生成することが可能となる。また、別の方法として、端末は、端末自身の機能を使ってキャラクタを生成してもよい。
 そして、サーバー104は、オブジェクト情報とオブジェクトのキャラクタ情報のセットの情報を図19Aのオブジェクトごとのキャラクタ情報記憶部1912に記憶することになる。したがって、図19Aのオブジェクトごとのキャラクタ情報記憶部1912は、オブジェクトごとの「オブジェクト情報とオブジェクトのキャラクタ情報のセットの情報」を記憶していることになる。例えば、図18の場合、図19Aのオブジェクトごとのキャラクタ情報記憶部1912は、1801_1のオブジェクト#1の「オブジェクト情報とオブジェクトのキャラクタ情報のセットの情報」、1801_2のオブジェクト#2の「オブジェクト情報とオブジェクトのキャラクタ情報のセットの情報」を記憶していることになる。
 なお、図19B、図19Cを用いて説明したように、オブジェクトごとの「オブジェクト情報とオブジェクトのキャラクタ情報のセットの情報」のオブジェクトごとのキャラクタ情報記憶部1912への登録に端末が使用されてもよい。また、端末は、サーバー104に、端末に関する情報を送信してもよい。このとき、「例えば、SIM(Subscriber Identity Module)情報、電話番号の情報、(ユーザの、または、端末が使用することができる)メールアドレスの情報、ユーザが保有しているID(identification)、端末ID、SNS(Social networking service)の情報、「ユーザ情報、または、識別情報」など」を端末に関する情報とすることができる。そして、図19Aのサーバー104のオブジェクトごとのキャラクタ情報記憶部1912は、「オブジェクト情報とオブジェクトのキャラクタ情報のセットの情報」とあわせて、端末に関する情報を記憶していてもよい。
 このとき、キャラクタに対応する端末は、仮想空間において、他のキャラクタ(他のユーザ、他の端末)と通信を行うことが可能となる。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作について説明を行う。実空間と仮想空間の関係について説明を行う。
 図4Aは、実空間の例を示している。図4Aのように、実空間において、楕円100_0の内側を実空間#0と名付け、楕円100_0の内側を実空間#1と名付け、楕円100_2の内側を実空間#2と名付ける。なお、実空間には、「実空間#0、実空間#1、実空間#2」以外にも実空間が存在していてもよい。
 図4Bは、図4Aにおける実空間と仮想空間の関係を示している。例えば、
 ・図4Aにおける「実空間#0」は「仮想空間#0」と関連付けられている。
 ・図4Aにおける「実空間#1」は「仮想空間#1」と関連付けられている。
 ・図4Aにおける「実空間#2」は「仮想空間#2」と関連付けられている。
 ・・・
 となる。
 例えば、「実空間#X」と「仮想空間#X」(Xは以上の整数であるものとする)は、デジタルツインの関係であってもよい。ただし、「実空間#X」と「仮想空間#X」は完全なデジタルツインの関係でなくてもよく、例えば、「実空間#X」と「仮想空間#X」は一部がデジタルツインの関係であってもよい。なお、「実空間#X」、「仮想空間#X」が表現している空間の大きさは同じであってもよいし、異なっていてもよい。
 また、「実空間#X」における位置が決まると「仮想空間#X」における位置が決まるというような関係であってもよい(この点については、後で説明を行う)。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図18のように、例えば、1801_1のオブジェクト#1が実空間#1に存在し、1801_1のオブジェクト#1は、1802_1の撮影装置#1により、検出、認識されるものとする。また、例えば、1802_1の撮影装置#1は、1801_1のオブジェクト#1の実空間#1における位置を推定することになる。このとき、1802_1の撮影装置#1は、自身の位置と1801_1のオブジェクト#1の検出位置により、1801_1のオブジェクト#1の位置を推定してもよいし、1802_1の撮影装置#1と1801_1のオブジェクト#1は、センシングのための処理を行い、1802_1の撮影装置#1は、1801_1のオブジェクト#1の位置を推定してもよい。
 そして、1802_1の撮影装置#1は、1801_1のオブジェクト#1の実空間#1における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_1のオブジェクト#1の実空間#1における位置情報を得、「1801_1のオブジェクト#1の実空間#1における位置」を知ることになる。また、サーバー104は、1802_1の撮影装置#1から、1801_1のオブジェクト#1の情報を得ることになる。なお、サーバー104は、1801_1のオブジェクト#1の実空間#1における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_1のオブジェクト#1の情報を得るにより、1801_1のオブジェクト#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_1のオブジェクト#1の実空間#1における位置情報を得、実空間#1と対応付けされている仮想空間#1における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_1のオブジェクト#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#1と対応付けされている仮想空間#1における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#1において、「実空間#1と対応付けされている仮想空間#1における1801_1のオブジェクト#1に対応するキャラクタの位置」に「1801_1のオブジェクト#1に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#1に関する出力情報を生成し、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#1に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間(例えば、仮想空間#2、仮想空間#3、・・・)の情報を含んでいてもよい。
 したがって、1801_1のオブジェクト#1が実空間#1において移動し、1801_1のオブジェクト#1の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#1と対応付けされている仮想空間#1における「1801_1のオブジェクト#1に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#1に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_1のオブジェクト#1が、実空間#1における位置を、1801_1のオブジェクト#1が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_1のオブジェクト#1の実空間#1における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_1のオブジェクト#1と1802_1の撮影装置#1を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 そして、図20のように、例えば、1801_1のオブジェクト#1が実空間#2に移動したものとする。
 1801_1のオブジェクト#1は、1802_2の撮影装置#2により、検出、認識されるものとする。また、例えば、1802_2の撮影装置#2は、1801_1のオブジェクト#1の実空間#2における位置を推定することになる。このとき、1802_2の撮影装置#2は、自身の位置と1801_1のオブジェクト#1の検出位置により、1801_1のオブジェクト#1の位置を推定してもよいし、1802_2の撮影装置#2と1801_1のオブジェクト#1は、センシングのための処理を行い、1802_2の撮影装置#2は、1801_1のオブジェクト#1の位置を推定してもよい。
 そして、1802_2の撮影装置#2は、1801_1のオブジェクト#1の実空間#2における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_1のオブジェクト#1の実空間#2における位置情報を得、「1801_1のオブジェクト#1の実空間#2における位置」を知ることになる。また、サーバー104は、1802_2の撮影装置#2から、1801_1のオブジェクト#1の情報を得ることになる。なお、サーバー104は、1801_1のオブジェクト#1の実空間#2における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_1のオブジェクト#1の情報を得るにより、1801_1のオブジェクト#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_1のオブジェクト#1の実空間#2における位置情報を得、実空間#2と対応付けされている仮想空間#2における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_1のオブジェクト#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#2と対応付けされている仮想空間#2における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#2において、「実空間#2と対応付けされている仮想空間#2における1801_1のオブジェクト#1に対応するキャラクタの位置」に「1801_1のオブジェクト#1に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#2に関する出力情報を生成し、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間(例えば、仮想空間#1、仮想空間#3、・・・)の情報を含んでいてもよい。
 したがって、1801_1のオブジェクト#1が実空間#2において移動し、1801_1のオブジェクト#1の実空間#2における位置が更新されると、上記で説明した動作にしたがって、実空間#2と対応付けされている仮想空間#2における「1801_1のオブジェクト#1に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_1のオブジェクト#1が、実空間#2における位置を、1801_1のオブジェクト#1が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_1のオブジェクト#1の実空間#2における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_1のオブジェクト#1と1802_2の撮影装置#2を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 以上のように、実空間のIDと仮想空間のIDの関係、および、それに伴う各部の動作について説明を行ったが、実空間のIDと仮想空間のIDの関係は図4Bの例に限ったものではない。なお、別の例については、後で説明を行う。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作の別の例について説明を行う。
 図4Aは、実空間の例を示している。図4Aのように、実空間において、楕円100_0の内側を実空間#0と名付け、楕円100_0の内側を実空間#1と名付け、楕円100_2の内側を実空間#2と名付ける。なお、実空間には、「実空間#0、実空間#1、実空間#2」以外にも実空間が存在していてもよい。
 図10A、図10Bは、図4Aを例とする実空間と仮想空間の関係を示している。例えば、
 ・「実空間#0」は「仮想空間#0」、「仮想空間#1」、「仮想空間#2」と関連付けられている。
 ・「実空間#1」、「実空間#2」は「仮想空間#3」と関連付けられている。
 ・「実空間#3」、「実空間#4」は「仮想空間#4」、「仮想空間#5」と関連付けられている。
 ・「実空間#5」、「実空間#6」は「仮想空間#6」、「仮想空間#7」、「仮想空間#8」と関連付けられている。
 ・「実空間#7」、「実空間#8」、「実空間#9」、「実空間#10」は「仮想空間#9」、「仮想空間#10」と関連付けられている。
 ・・・
 となる。
 例えば、「実空間#X」と「仮想空間#Y」(X、Yは以上の整数であるものとする)は、デジタルツインの関係であってもよい。ただし、「実空間#X」と「仮想空間#Y」は完全なデジタルツインの関係でなくてもよく、例えば、「実空間#X」と「仮想空間#Y」は一部がデジタルツインの関係であってもよい。なお、「実空間#X」、「仮想空間#Y」が表現している空間の大きさは同じであってもよいし、異なっていてもよい。また、「実空間#X」、「仮想空間#Y」が表現している空間の大きさが異なる場合、「実空間#X」と「仮想空間#Y」のスケール比は空間を規定する軸ごとに異なっていてもよいし、同一であってもよい。ここで、空間を規定する軸とは、三次元空間であれば三次元座標系の3つの軸であり、二次元空間であれば二次元座標系の2つの軸である。
 また、「実空間#X」における位置が決まると「仮想空間#Y」における位置が決まるというような関係であってもよい。
 なお、実空間には、少なくとも一つの撮影装置が存在するものとする。図21は、その例を示している。なお、図21において、図1、図18と同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 図21のように、1802_0の撮影装置#0は、100_0の実空間#0に存在しており、ネットワーク103を介し、サーバー104と通信可能である。
 1802_1の撮影装置#1は、100_1の実空間#1に存在しており、ネットワーク103を介し、サーバー104と通信可能である。
 ・・・
 1802_Nの撮影装置#Nは、100_Nの実空間#Nに存在しており、ネットワーク103を介し、サーバー104と通信可能である。なお、Nは2以上の整数とする。
 したがって、1802_iの撮影装置#iは、100_iの実空間#iに存在しており、ネットワーク103を介し、サーバー104と通信可能である。なお、iは0以上N以下の整数とする。
 なお、実空間に存在する撮影装置の数については、この例に限ったものではなく、実空間に一つ以上、または、二つ以上の撮影装置が存在する構成であればよい。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図21のシステムにおいて、例えば、1801_1のオブジェクト#1が図10Aで記載した100_0の実空間#0に存在し、1801_1のオブジェクト#1は、1802_0の撮影装置#0により、検出、認識されるものとする。また、例えば、1802_0の撮影装置#0は、1801_1のオブジェクト#1の実空間#0における位置を推定することになる。このとき、1802_0の撮影装置#0は、自身の位置と1801_1のオブジェクト#1の検出位置により、1801_1のオブジェクト#1の位置を推定してもよいし、1802_0の撮影装置#0と1801_1のオブジェクト#1は、センシングのための処理を行い、1802_0の撮影装置#0は、1801_1のオブジェクト#1の位置を推定してもよい。
 そして、1802_0の撮影装置#0は、1801_1のオブジェクト#1の実空間#0における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_1のオブジェクト#1の実空間#0における位置情報を得、「1801_1のオブジェクト#1の実空間#0における位置」を知ることになる。また、サーバー104は、1802_0の撮影装置#0から、1801_1のオブジェクト#1の情報を得ることになる。なお、サーバー104は、1801_1のオブジェクト#1の実空間#0における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_1のオブジェクト#1の情報を得るにより、1801_1のオブジェクト#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_1のオブジェクト#1の実空間#0における位置情報を得、実空間#0と対応付けされている仮想空間#0、または、仮想空間#1、または、仮想空間#2における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_1のオブジェクト#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#0と対応付けされている仮想空間#0、仮想空間#1、仮想空間#2における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#0、仮想空間#1、仮想空間#2のいずれかにおいて、「実空間#0と対応付けされている仮想空間#0、仮想空間#1、仮想空間#2における1801_1のオブジェクト#1に対応するキャラクタの位置」に「1801_1のオブジェクト#1に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#0、仮想空間#1、仮想空間#2に関する出力情報を生成し、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#0、仮想空間#1、仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_1のオブジェクト#1が実空間#0において移動し、1801_1のオブジェクト#1の実空間#0における位置が更新されると、上記で説明した動作にしたがって、実空間#0と対応付けされている仮想空間#0、仮想空間#1、仮想空間#2における「1801_1のオブジェクト#1に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#0、仮想空間#1、仮想空間#2に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_1のオブジェクト#1が、実空間#0における位置を、1801_1のオブジェクト#1が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_1のオブジェクト#1の実空間#0における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_1のオブジェクト#1と1802_0の撮影装置#0を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 そして、例えば、1801_1のオブジェクト#1が図10Aにおける100_1の実空間#1に移動したものとする。
 1801_1のオブジェクト#1は、1802_1の撮影装置#1により、検出、認識されるものとする。また、例えば、1802_1の撮影装置#1は、1801_1のオブジェクト#1の実空間#1における位置を推定することになる。このとき、1802_1の撮影装置#1は、自身の位置と1801_1のオブジェクト#1の検出位置により、1801_1のオブジェクト#1の位置を推定してもよいし、1802_1の撮影装置#1と1801_1のオブジェクト#1は、センシングのための処理を行い、1802_1の撮影装置#1は、1801_1のオブジェクト#1の位置を推定してもよい。
 そして、1802_1の撮影装置#1は、1801_1のオブジェクト#1の実空間#1における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_1のオブジェクト#1の実空間#1における位置情報を得、「1801_1のオブジェクト#1の実空間#1における位置」を知ることになる。また、サーバー104は、1802_1の撮影装置#1から、1801_1のオブジェクト#1の情報を得ることになる。なお、サーバー104は、1801_1のオブジェクト#1の実空間#1における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_1のオブジェクト#1の情報を得るにより、1801_1のオブジェクト#1に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_1のオブジェクト#1の実空間#1における位置情報を得、実空間#1、#2と対応付けされている仮想空間#3における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_1のオブジェクト#1に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#1、#2と対応付けされている仮想空間#3における1801_1のオブジェクト#1に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#3において、「実空間#1、#2と対応付けされている仮想空間#3における1801_1のオブジェクト#1に対応するキャラクタの位置」に「1801_1のオブジェクト#1に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#3に関する出力情報を生成し、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_1のオブジェクト#1が実空間#1において移動し、1801_1のオブジェクト#1の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#1、#2と対応付けされている仮想空間#3における「1801_1のオブジェクト#1に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_1のオブジェクト#1に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_1のオブジェクト#1が、実空間#1における位置を、1801_1のオブジェクト#1が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_1のオブジェクト#1の実空間#1における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。また、1801_1のオブジェクト#1と1802_1の撮影装置#1を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図21のシステムにおいて、例えば、1801_2のオブジェクト#2が図10Aで記載した100_1の実空間#1に存在し、1801_2のオブジェクト#2は、1802_1の撮影装置#1により、検出、認識されるものとする。また、例えば、1802_1の撮影装置#1は、1801_2のオブジェクト#2の実空間#1における位置を推定することになる。このとき、1802_1の撮影装置#1は、自身の位置と1801_2のオブジェクト#2の検出位置により、1801_2のオブジェクト#2の位置を推定してもよいし、1802_1の撮影装置#1と1801_2のオブジェクト#2は、センシングのための処理を行い、1802_1の撮影装置#1は、1801_2のオブジェクト#2の位置を推定してもよい。
 そして、1802_1の撮影装置#1は、1801_2のオブジェクト#2の実空間#1における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_2のオブジェクト#2の実空間#1における位置情報を得、「1801_2のオブジェクト#2の実空間#1における位置」を知ることになる。また、サーバー104は、1802_1の撮影装置#1から、1801_2のオブジェクト#2の情報を得ることになる。なお、サーバー104は、1801_2のオブジェクト#2の実空間#1における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_2のオブジェクト#2の情報を得るにより、1801_2のオブジェクト#2に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_2のオブジェクト#2の実空間#1における位置情報を得、実空間#1、#2と対応付けされている仮想空間#3における1801_2のオブジェクト#2に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_2のオブジェクト#2に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#1、#2と対応付けされている仮想空間#3における1801_2のオブジェクト#2に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#3において、「実空間#1、#2と対応付けされている仮想空間#3における1801_2のオブジェクト#2に対応するキャラクタの位置」に「1801_2のオブジェクト#2に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_2のオブジェクト#2に対応するキャラクタ」を含む仮想空間#3に関する出力情報を生成し、「1801_2のオブジェクト#2に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_2のオブジェクト#2が実空間#1において移動し、1801_2のオブジェクト#2の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#1、#2と対応付けされている仮想空間#3における「1801_2のオブジェクト#2に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_2のオブジェクト#2に対応するキャラクタ」を含む仮想空間#3に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_2のオブジェクト#2が、実空間#1における位置を、1801_2のオブジェクト#2が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_2のオブジェクト#2の実空間#1における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_2のオブジェクト#2と1802_1の撮影装置#1を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 そして、例えば、1801_2のオブジェクト#2が図10Aにおける100_3の実空間#3に移動したものとする。1801_2のオブジェクト#2は、1802_3の撮影装置#3により、検出、認識されるものとする。また、例えば、1802_3の撮影装置#3は、1801_2のオブジェクト#2の実空間#3における位置を推定することになる。このとき、1802_3の撮影装置#3は、自身の位置と1801_2のオブジェクト#2の検出位置により、1801_2のオブジェクト#2の位置を推定してもよいし、1802_3の撮影装置#3と1801_2のオブジェクト#2は、センシングのための処理を行い、1802_3の撮影装置#3は、1801_2のオブジェクト#2の位置を推定してもよい。
 そして、1802_3の撮影装置#3は、1801_2のオブジェクト#2の実空間#3における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_2のオブジェクト#2の実空間#3における位置情報を得、「1801_2のオブジェクト#2の実空間#3における位置」を知ることになる。また、サーバー104は、1802_3の撮影装置#3から、1801_2のオブジェクト#2の情報を得ることになる。なお、サーバー104は、1801_2のオブジェクト#2の実空間#3における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_2のオブジェクト#2の情報を得るにより、1801_2のオブジェクト#2に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_2のオブジェクト#2の実空間#3における位置情報を得、実空間#3、#4と対応付けされている仮想空間#4、#5における1801_2のオブジェクト#2に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_2のオブジェクト#2に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#3、#4と対応付けされている仮想空間#4、#5における1801_2のオブジェクト#2に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#4、#5において、「実空間#3、#4と対応付けされている仮想空間#4、#5における1801_2のオブジェクト#2に対応するキャラクタの位置」に「1801_2のオブジェクト#2に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_2のオブジェクト#2に対応するキャラクタ」を含む仮想空間#4、#5に関する出力情報を生成し、「1801_2のオブジェクト#2に対応するキャラクタ」を含む仮想空間#4、#5に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_2のオブジェクト#2が実空間#3において移動し、1801_2のオブジェクト#2の実空間#3における位置が更新されると、上記で説明した動作にしたがって、実空間#3、#4と対応付けされている仮想空間#4、#5における「1801_2のオブジェクト#2に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_2のオブジェクト#2に対応するキャラクタ」を含む仮想空間#4、#5に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_2のオブジェクト#2が、実空間#3における位置を、1801_2のオブジェクト#2が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_2のオブジェクト#2の実空間#3における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。また、1801_2のオブジェクト#2と1802_3の撮影装置#3を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図21のシステムにおいて、例えば、1801_3のオブジェクト#3が図10Aで記載した100_3の実空間#3に存在し、1801_3のオブジェクト#3は、1802_3の撮影装置#3により、検出、認識されるものとする。また、例えば、1802_3の撮影装置#3は、1801_3のオブジェクト#3の実空間#3における位置を推定することになる。このとき、1802_3の撮影装置#3は、自身の位置と1801_3のオブジェクト#3の検出位置により、1801_3のオブジェクト#3の位置を推定してもよいし、1802_3の撮影装置#3と1801_3のオブジェクト#3は、センシングのための処理を行い、1802_3の撮影装置#3は、1801_3のオブジェクト#3の位置を推定してもよい。
 そして、1802_3の撮影装置#3は、1801_3のオブジェクト#3の実空間#3における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_3のオブジェクト#3の実空間#3における位置情報を得、「1801_3のオブジェクト#3の実空間#3における位置」を知ることになる。また、サーバー104は、1802_3の撮影装置#3から、1801_3のオブジェクト#3の情報を得ることになる。なお、サーバー104は、1801_3のオブジェクト#3の実空間#3における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_3のオブジェクト#3の情報を得るにより、1801_3のオブジェクト#3に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_3のオブジェクト#3の実空間#3における位置情報を得、実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における1801_3のオブジェクト#3に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_3のオブジェクト#3に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における1801_3のオブジェクト#3に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#4、仮想空間#5において、「実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における1801_3のオブジェクト#3に対応するキャラクタの位置」に「1801_3のオブジェクト#3に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_3のオブジェクト#3に対応するキャラクタ」を含む仮想空間#4、仮想空間#5に関する出力情報を生成し、「1801_3のオブジェクト#3に対応するキャラクタ」を含む仮想空間#4、仮想空間#5に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_3のオブジェクト#3が実空間#3において移動し、1801_3のオブジェクト#3の実空間#3における位置が更新されると、上記で説明した動作にしたがって、実空間#3、#4と対応付けされている仮想空間#4、仮想空間#5における「1801_3のオブジェクト#3に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_3のオブジェクト#3に対応するキャラクタ」を含む仮想空間#4、仮想空間#5に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_3のオブジェクト#3が、実空間#3における位置を、1801_3のオブジェクト#3が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_3のオブジェクト#3の実空間#3における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_3のオブジェクト#3と1802_3の撮影装置#3を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 そして、例えば、1801_3のオブジェクト#3が図10Bにおける100_5の実空間#5に移動したものとする。1801_3のオブジェクト#3は、1802_5の撮影装置#5により、検出、認識されるものとする。また、例えば、1802_5の撮影装置#5は、1801_3のオブジェクト#3の実空間#5における位置を推定することになる。このとき、1802_5の撮影装置#5は、自身の位置と1801_3のオブジェクト#3の検出位置により、1801_3のオブジェクト#3の位置を推定してもよいし、1802_5の撮影装置#5と1801_3のオブジェクト#3は、センシングのための処理を行い、1802_5の撮影装置#5は、1801_3のオブジェクト#3の位置を推定してもよい。
 そして、1802_5の撮影装置#5は、1801_3のオブジェクト#3の実空間#5における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_3のオブジェクト#3の実空間#5における位置情報を得、「1801_3のオブジェクト#3の実空間#5における位置」を知ることになる。また、サーバー104は、1802_5の撮影装置#5から、1801_3のオブジェクト#3の情報を得ることになる。なお、サーバー104は、1801_3のオブジェクト#3の実空間#5における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_3のオブジェクト#3の情報を得るにより、1801_3のオブジェクト#3に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_3のオブジェクト#3の実空間#5における位置情報を得、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における1801_3のオブジェクト#3に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_3のオブジェクト#3に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における1801_3のオブジェクト#3に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#6、#7、#8において、「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における1801_3のオブジェクト#3に対応するキャラクタの位置」に「1801_3のオブジェクト#3に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_3のオブジェクト#3に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を生成し、「1801_3のオブジェクト#3に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_3のオブジェクト#3が実空間#5において移動し、1801_3のオブジェクト#3の実空間#5における位置が更新されると、上記で説明した動作にしたがって、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における「1801_3のオブジェクト#3に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_3のオブジェクト#3に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_3のオブジェクト#3が、実空間#5における位置を、1801_3のオブジェクト#3が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_3のオブジェクト#3の実空間#5における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。また、1801_3のオブジェクト#3と1802_5の撮影装置#5を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図21のシステムにおいて、例えば、1801_4のオブジェクト#4が図10Bで記載した100_5の実空間#5に存在し、1801_4のオブジェクト#4は、1802_5の撮影装置#5により、検出、認識されるものとする。また、例えば、1802_5の撮影装置#5は、1801_4のオブジェクト#4の実空間#5における位置を推定することになる。このとき、1802_5の撮影装置#5は、自身の位置と1801_4のオブジェクト#4の検出位置により、1801_4のオブジェクト#4の位置を推定してもよいし、1802_5の撮影装置#5と1801_4のオブジェクト#4は、センシングのための処理を行い、1802_5の撮影装置#5は、1801_4のオブジェクト#4の位置を推定してもよい。
 そして、1802_5の撮影装置#5は、1801_4のオブジェクト#4の実空間#5における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_4のオブジェクト#4の実空間#5における位置情報を得、「1801_4のオブジェクト#4の実空間#5における位置」を知ることになる。また、サーバー104は、1802_5の撮影装置#5から、1801_4のオブジェクト#4の情報を得ることになる。なお、サーバー104は、1801_4のオブジェクト#4の実空間#5における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_4のオブジェクト#4の情報を得るにより、1801_4のオブジェクト#4に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_4のオブジェクト#4の実空間#5における位置情報を得、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における1801_4のオブジェクト#4に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_4のオブジェクト#4に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における1801_4のオブジェクト#4に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#6、#7、#8において、「実空間#5、#6と対応付けされている仮想空間#6、#7、#8における1801_4のオブジェクト#4に対応するキャラクタの位置」に「1801_4のオブジェクト#4に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_4のオブジェクト#4に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を生成し、「1801_4のオブジェクト#4に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_4のオブジェクト#4が実空間#5において移動し、1801_4のオブジェクト#4の実空間#5における位置が更新されると、上記で説明した動作にしたがって、実空間#5、#6と対応付けされている仮想空間#6、#7、#8における「1801_4のオブジェクト#4に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_4のオブジェクト#4に対応するキャラクタ」を含む仮想空間#6、#7、#8に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_4のオブジェクト#4が、実空間#5における位置を、1801_4のオブジェクト#4が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_4のオブジェクト#4の実空間#5における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_4のオブジェクト#4と1802_5の撮影装置#5を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 そして、例えば、1801_4のオブジェクト#4が図10Bにおける100_3の実空間#7に移動したものとする。1801_4のオブジェクト#4は、1802_7の撮影装置#7により、検出、認識されるものとする。また、例えば、1802_7の撮影装置#7は、1801_4のオブジェクト#4の実空間#7における位置を推定することになる。このとき、1802_7の撮影装置#7は、自身の位置と1801_4のオブジェクト#4の検出位置により、1801_4のオブジェクト#4の位置を推定してもよいし、1802_7の撮影装置#7と1801_4のオブジェクト#4は、センシングのための処理を行い、1802_7の撮影装置#7は、1801_4のオブジェクト#4の位置を推定してもよい。
 そして、1802_7の撮影装置#7は、1801_4のオブジェクト#4の実空間#7における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_4のオブジェクト#4の実空間#7における位置情報を得、「1801_4のオブジェクト#4の実空間#7における位置」を知ることになる。また、サーバー104は、1802_7の撮影装置#7から、1801_4のオブジェクト#4の情報を得ることになる。なお、サーバー104は、1801_4のオブジェクト#4の実空間#7における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_4のオブジェクト#4の情報を得るにより、1801_4のオブジェクト#4に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_4のオブジェクト#4の実空間#7における位置情報を得、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_4のオブジェクト#4に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_4のオブジェクト#4に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_4のオブジェクト#4に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#9、#10において、「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_4のオブジェクト#4に対応するキャラクタの位置」に「1801_4のオブジェクト#4に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_4のオブジェクト#4に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を生成し、「1801_4のオブジェクト#4に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_4のオブジェクト#4が実空間#7において移動し、1801_4のオブジェクト#4の実空間#7における位置が更新されると、上記で説明した動作にしたがって、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における「1801_4のオブジェクト#4に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_4のオブジェクト#4に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_4のオブジェクト#4が、実空間#7における位置を、1801_4のオブジェクト#4が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_4のオブジェクト#4の実空間#7における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。また、1801_4のオブジェクト#4と1802_7の撮影装置#7を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 図19Aにおける実空間の位置に基づくキャラクタ「制御部」213の動作例について説明を行う。
 図21のシステムにおいて、例えば、1801_5のオブジェクト#5が図10Bで記載した100_7の実空間#7に存在し、1801_5のオブジェクト#5は、1802_7の撮影装置#7により、検出、認識されるものとする。また、例えば、1802_7の撮影装置#7は、1801_5のオブジェクト#5の実空間#7における位置を推定することになる。このとき、1802_7の撮影装置#7は、自身の位置と1801_5のオブジェクト#5の検出位置により、1801_5のオブジェクト#5の位置を推定してもよいし、1802_7の撮影装置#7と1801_5のオブジェクト#5は、センシングのための処理を行い、1802_7の撮影装置#7は、1801_5のオブジェクト#5の位置を推定してもよい。
 そして、1802_7の撮影装置#7は、1801_5のオブジェクト#5の実空間#7における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_5のオブジェクト#5の実空間#7における位置情報を得、「1801_5のオブジェクト#5の実空間#7における位置」を知ることになる。また、サーバー104は、1802_7の撮影装置#7から、1801_5のオブジェクト#5の情報を得ることになる。なお、サーバー104は、1801_5のオブジェクト#5の実空間#7における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_5のオブジェクト#5の情報を得るにより、1801_5のオブジェクト#5に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_5のオブジェクト#5の実空間#7における位置情報を得、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_5のオブジェクト#5に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_5のオブジェクト#5に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_5のオブジェクト#5に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#9、#10において、「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_5のオブジェクト#5に対応するキャラクタの位置」に「1801_5のオブジェクト#5に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_5のオブジェクト#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を生成し、「1801_5のオブジェクト#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_5のオブジェクト#5が実空間#1において移動し、1801_5のオブジェクト#5の実空間#1における位置が更新されると、上記で説明した動作にしたがって、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における「1801_5のオブジェクト#5に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_5のオブジェクト#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_5のオブジェクト#5が、実空間#7における位置を、1801_5のオブジェクト#5が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_5のオブジェクト#5の実空間#7における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。
 また、1801_5のオブジェクト#5と1802_7の撮影装置#7を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 そして、例えば、1801_5のオブジェクト#5が図10Bにおける100_3の実空間#9に移動したものとする。1801_5のオブジェクト#5は、1802_9の撮影装置#9により、検出、認識されるものとする。また、例えば、1802_9の撮影装置#9は、1801_5のオブジェクト#5の実空間#9における位置を推定することになる。このとき、1802_9の撮影装置#9は、自身の位置と1801_5のオブジェクト#5の検出位置により、1801_5のオブジェクト#5の位置を推定してもよいし、1802_9の撮影装置#9と1801_5のオブジェクト#5は、センシングのための処理を行い、1802_9の撮影装置#9は、1801_5のオブジェクト#5の位置を推定してもよい。
 そして、1802_9の撮影装置#9は、1801_5のオブジェクト#5の実空間#9における位置情報をサーバー104に伝送することになり、これにより、サーバー104は、1801_5のオブジェクト#5の実空間#9における位置情報を得、「1801_5のオブジェクト#5の実空間#9における位置」を知ることになる。また、サーバー104は、1802_9の撮影装置#9から、1801_5のオブジェクト#5の情報を得ることになる。なお、サーバー104は、1801_5のオブジェクト#5の実空間#9における位置情報を他の装置から得てもよい。
 サーバー104の図19Aにおけるオブジェクトごとのキャラクタ情報記憶部1912は、1801_5のオブジェクト#5の情報を得るにより、1801_5のオブジェクト#5に対応するキャラクタ情報を出力することになる。
 また、サーバー104の図19Aにおける実空間の位置に基づくキャラクタ「制御部」213は、1801_5のオブジェクト#5の実空間#9における位置情報を得、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_5のオブジェクト#5に対応するキャラクタの位置を制御するための情報を出力する。
 そして、サーバー104の図19Aにおける出力情報生成部214は、空間情報記憶部211から得られた情報、オブジェクトごとのキャラクタ情報記憶部1912が出力する「1801_5のオブジェクト#5に対応するキャラクタ情報」、実空間の位置に基づくキャラクタ「制御部」213が出力する「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_5のオブジェクト#5に対応するキャラクタの位置を制御するための情報」に基づいて、仮想空間#9、#10において、「実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における1801_5のオブジェクト#5に対応するキャラクタの位置」に「1801_5のオブジェクト#5に対応するキャラクタ」を配置し、サーバー104の図19Aにおける出力情報生成部214は、「1801_5のオブジェクト#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を生成し、「1801_5のオブジェクト#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。このとき、出力信号202は、他の仮想空間の情報を含んでいてもよい。
 したがって、1801_5のオブジェクト#5が実空間#9において移動し、1801_5のオブジェクト#5の実空間#9における位置が更新されると、上記で説明した動作にしたがって、実空間#7、#8、#9、#10と対応付けされている仮想空間#9、#10における「1801_5のオブジェクト#5に対応するキャラクタ」の位置が更新され、サーバー104の図19Aにおける出力情報生成部214において、「1801_5のオブジェクト#5に対応するキャラクタ」を含む仮想空間#9、#10に関する出力情報を含む出力信号202はサーバー104から出力される。
 なお、上述の説明において、1801_5のオブジェクト#5が、実空間#9における位置を、1801_5のオブジェクト#5が具備しているGPSなどの位置推定システムを用いて推定し、他の装置を介し、サーバー104は、1801_5のオブジェクト#5の実空間#9における位置情報を得てもよい。その他の動作については、上述の説明のように動作すれば、上述と同様に実施することが可能となる。また、1801_5のオブジェクト#5と1802_9の撮影装置#9を用いて説明を行っているが、他のオブジェクト、他の撮影装置を用いても同様に実施することが可能である。
 以上のように、実空間のIDと仮想空間のIDの関係、および、それに伴う各部の動作について説明を行ったが、実空間のIDと仮想空間のIDの関係は図10A、図10Bの例に限ったものではなく、一つ以上の実空間のIDと一つ以上の仮想空間のIDに関連付けを行っていれば、上述の説明のように実施することが可能となる。
 上述の説明のように、撮影装置を介し、オブジェクトの位置情報を得たサーバー104は、オブジェクトの位置情報に基づき、オブジェクトに相当するキャラクタを仮想空間に登場させることになるが、その時の具体的な例を説明する。
 例えば、以下のような状況であるものとする。
 ・オブジェクトは「人」「動物」「動くもの」の形をしたキャラクタと関連付けが行われており、サーバー104は、端末の位置情報に基づき、オブジェクトに相当する「人」「動物」「動くもの」の形をしたキャラクタを仮想空間に登場させることになる。
 ・撮影装置は、オブジェクトの位置情報を得る。そして、サーバー104は、オブジェクトの位置情報を得る。
 ・オブジェクトに対応する実空間の「人」「動物」「動くもの」は、例えば、バスに乗っており、バスは、道路を走行しているものとする。このとき、オブジェクトは、高さが地上から数メートルの位置にあり、バスの走行速度で移動しているものとする。
 以上のような状況の際、撮影装置により、オブジェクトは、「道路上(道路の経度、緯度を得てもよい)に位置し、かつ、地上から高さ4mの位置にある」と検出されたものとする。
 すると、サーバー104は、オブジェクトの3次元の位置を得、例えば、図17Aのように、サーバー104は、仮想空間に、「オブジェクトに相当する「人」「動物」「動くもの」の形をしたキャラクタ」を、道路上の地上から高さ4mの位置に登場させる(1700_1)という処理を行ってもよい。
 また、撮影装置は、オブジェクト以外の周辺情報を検出、認識し、オブジェクトと併せて認識した周辺の状況を仮想空間に登場させてもよい。
 なお、オブジェクトに相当するキャラクタは、「人」「動物」「動くもの」に限ったものではなく、どのようなものであってもよい。
 以上のようにすることで、サーバー104は、オブジェクトに相当するキャラクタをより現実空間に存在する位置に近い形で仮想空間に表現することができる。
 また、別の例として、サーバー104は、オブジェクトの3次元の位置を得、例えば、図17Bのように、サーバー104は、仮想空間に、「オブジェクトに相当する「人」「動物」「動くもの」の形をしたキャラクタ」を、道路上の地上(例えば、高さ0mの位置)に登場させる(1700_2)という処理を行ってもよい。
 以上のようにすることで、サーバー104は、オブジェクトに相当するキャラクタをより現実空間に存在する位置に対し、高さを補正した形で仮想空間に表現することができる。これにより、実空間において物理的に不可解(例えば、人が浮いているという現象など)な状況を改善した仮想空間を実現することができるとともに、オブジェクトに相当するキャラクタに関する情報から個人情報の推測が難しい状況をつくることができ、これにより、個人情報を保護することができる効果を得ることもできる。
 なお、上記のように、端末の実空間における3次元における位置に対し、仮想空間で、オブジェクトに相当するキャラクタを、「図17Aのように3次元相当で登場させる第1の方法」と「図17Bのように高さを補正して登場させる第2の方法(補正方法によっては、2次元相当で登場させる方法となる)」を切り替えてもよい。
 第1の方法と第2の方法のどちらを使用するかの設定は、サーバー104にオブジェクトの設定を行う際に実施すればよい。
 別の方法として、第1の方法と第2の方法のどちらを使用するかの設定は、サーバー104が行ってもよい。
 そして、サーバー104は、設定情報に基づいて、仮想空間に、オブジェクトに相当するキャラクタを登場させることになる。
 次に、図18、図20、図21における101_101の端末#101、101_102の端末#102の動作について説明を行う。
 101_101の端末#101、101_102の端末#102は、ネットワーク103を介して、サーバー104と通信を行っていることになる。
 101_101の端末#101、101_102の端末#102などの端末がサーバー104と通信を行っている際に、端末に対応するキャラクタの対応付けを行う手続きを行うことになる。
 図3Bに示すように、端末は、端末情報を、サーバー104に送信する(301)。なお、端末情報は、サーバー104が端末(および/または、ユーザ)を識別することができる情報であり、例えば、SIM(Subscriber Identity Module)情報、電話番号の情報、(ユーザの、または、端末が使用することができる)メールアドレスの情報、ユーザが保有しているID(identification)、端末ID、SNS(Social networking service)の情報などの、「端末、および/または、ユーザの情報」であるものとする。したがって、サーバー104は、端末情報を得ることになる(351)。
 そして、端末は、キャラクタ情報を、サーバー104に送信する(302)。したがって、サーバー104は、キャラクタ情報を得ることになる(352)。
 なお、端末は、キャラクタ情報を生成する際、図19Aのサーバー104が具備するキャラクタ生成部215から、キャラクタのもとになる情報を得てもよいし、サーバー104とは異なる装置から、キャラクタのもとになる情報を得てもよい。これにより、端末はキャラクタ情報を生成することが可能となる。また、別の方法として、端末は、端末自身の機能を使ってキャラクタを生成してもよい。
 そして、サーバー104は、端末情報とその端末のキャラクタ情報のセットの情報を図2の端末ごとのキャラクタ情報記憶部212に記憶することになる。したがって、図2の端末ごとのキャラクタ情報記憶部212は、端末ごとの「端末情報とその端末のキャラクタ情報のセットの情報」を記憶していることになる。
 図3Bの説明において、「端末情報」として、動作の説明を行っているが、「端末情報」の代わりに「ユーザ情報、または、識別情報」としても同様に実施することが可能である。また、他の説明において、「端末情報」として、動作の説明を行っているが、「端末情報」の代わりに「ユーザ情報、または、識別情報」としても同様に実施することが可能である。
 以上のようにすることで、キャラクタ情報記憶部212は、図18、図20、図21における101_101の端末#101の「端末情報とその端末のキャラクタ情報のセットの情報」、101_102の端末#102の「端末情報とその端末のキャラクタ情報のセットの情報」を記憶していることになる。
 そして、図18、図20、図21における101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104にアクセスする。例えば、図18、図20、図21における101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104の図19Aにおけるキャラクタ動作制御部216にアクセスする。そして、ユーザは、101_101の端末#101を操作し、101_101の端末#101に相当するキャラクタを仮想空間に登場させたり、101_101の端末#101に相当するキャラクタを仮想空間で移動させたりする。このように、キャラクタの制御を行う部分が、図19Aのキャラクタ動作制御部216となる。
 また、ユーザは、101_101の端末#101に相当するキャラクタを用いて仮想空間に存在する他のキャラクタと通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。
 なお、ユーザは、101_101の端末#101の実空間での位置とは関係なく、101_101の端末#101に相当するキャラクタを仮想空間で移動させることができるものとする。このように、キャラクタの制御を行う部分が、図19Aのキャラクタ動作制御部216となる。
 同様に、図18、図20、図21における101_102の端末#102を操作しているユーザは、ネットワーク103を介し、サーバー104にアクセスする。例えば、図18、図20、図21における101_102の端末#102を操作しているユーザは、ネットワーク103を介し、サーバー104の図2におけるキャラクタ動作制御部216にアクセスする。そして、ユーザは、101_102の端末#102を操作し、101_102の端末#102に相当するキャラクタを仮想空間に登場させたり、101_102の端末#102に相当するキャラクタを仮想空間で移動させたりする。このように、キャラクタの制御を行う部分が、図19Aのキャラクタ動作制御部216となる。
 また、ユーザは、101_102の端末#102に相当するキャラクタを用いて仮想空間に存在する他のキャラクタと通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。
 なお、ユーザは、101_102の端末#102の実空間での位置とは関係なく、101_102の端末#102に相当するキャラクタを仮想空間で移動させることができるものとする。このように、キャラクタの制御を行う部分が、図19Aのキャラクタ動作制御部216となる。
 以下では、例として、実空間#1と関連付けされている「仮想空間#1」における各キャラクタの動作の例について説明を行う。したがって、図18を用いて説明を行う。
 すでに説明を行ったように、図18に示している実空間#1に関連する仮想空間#1をサーバー104は生成している。そして、図18に示すように、1801_1のオブジェクト#1と1801_2のオブジェクト#2が、実空間#1に存在しているため、「1801_1のオブジェクト#1に相当するキャラクタ」、「1801_2のオブジェクト#2に相当するキャラクタ」が、仮想空間#1に登場するように、サーバー104は仮想空間#1を生成していることになる。そして、サーバー104は、1801_1のオブジェクト#1の実空間の位置に応じて、仮想空間#1における「1801_1のオブジェクト#1に相当するキャラクタ」の位置を制御し、また、サーバー104は、1801_2のオブジェクト#2の実空間の位置に応じて、仮想空間#1における「1801_2のオブジェクト#2に相当するキャラクタ」の位置を制御することになる。
 一方で、図18に示している実空間#1に存在しない101_101の端末#101を操作しているユーザは、ネットワーク103を介し、サーバー104にアクセスし、ユーザは、101_101の端末#101を操作し、101_101の端末#101に相当するキャラクタを仮想空間#1に登場させたり、101_101の端末#101に相当するキャラクタを仮想空間#1で移動させたりする。
 そして、101_101の端末#101を操作するユーザは、101_101の端末#101に相当するキャラクタを用いて仮想空間#1に存在する「実空間#1に存在する1801_1のオブジェクト#1に相当するキャラクタ」(を使用しているユーザ)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。すでに説明したように、このとき、101_101の端末#101を操作するユーザは、「1801_1のオブジェクト#1に相当するキャラクタ」に対応する端末、端末を使用するユーザと通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりすることになる。
 また、101_101の端末#101を操作するユーザは、101_101の端末#101に相当するキャラクタを用いて仮想空間#1に存在する「実空間#1に存在しない101_102の端末#102に相当するキャラクタ」(を使用しているユーザ)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。
 また、1801_1のオブジェクト#1に対応する端末を操作するユーザは、101_1の端末#101に相当するキャラクタを用いて仮想空間#1に存在する「実空間#1に存在しない101_101の端末#101に相当するキャラクタ」(を使用しているユーザ)と通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声による通話)したりしてもよい。
 なお、ユーザが、仮想空間において、端末に対応するキャラクタを利用して、他のキャラクタに相当する端末(または、端末を使用するユーザ)に対して、実施する行為は、上記の例(通信、チャットなど)に限ったものではない。例えば、「画像(静止画)の送信、動画の送信、広告の送信、広告の配信、クーポンの配信」などであってもよい。
 このようにすることで、「仮想空間と関連付けされた実空間に存在しているオブジェクトに対応する端末を使用しているユーザ」と「端末を使用して仮想空間に入っているユーザ」とが通信などを行うことができ、より多くのユーザと交流することができるという効果を得ることが可能となる。
 以上のように、実空間に存在するオブジェクトの位置情報に基づき、実空間に対応した仮想空間に、オブジェクトに対応づけられているキャラクタ(アバター)を登場させることで、オブジェクト、端末、端末を使用するユーザが存在する実環境に適したより多様化システムを提供することができ、また、端末および端末を使用するユーザは、実空間と仮想空間で、多くの他の端末(他のユーザ)と通信を行うことができ、利便性が向上するという効果を得ることができる。
 本実施の形態において、撮影装置について説明を行ったが、撮影装置は、基地局に具備されていてもよい。このとき、基地局を「TRP(Tx(Transmission)/Rx(Reception) point)、中継器、アクセスポイント、放送局、gNB(g Node B)、eNB(e Node B)、ノード、サーバー、衛星、動く装置(「電気自動車、電動バイク(e-バイク)、電動自転車、動くロボット、電動キックボード、電動アシスト自転車、電動アシストキックボード」のような電気に基づいた動く装置、自動車、バイク、自転車、船舶、航空機、飛行機など)、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器など」いずれかとして実施しても、同様に実施することが可能である。したがって、基地局を、「TRP、中継器、アクセスポイント、放送局、gNB、eNB、ノード、サーバー、衛星、上述を例とする動く装置、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電、工場内の装置、IoT機器等の通信機器・放送機器など」と呼んでもよい。以上の点については、本明細書において、同様である。
 また、本実施の形態において、端末について説明したが、端末を、「TRP、基地局、中継器、アクセスポイント、放送局、gNB、eNB、ノード、サーバー、衛星、上述を例とする動く装置、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電、工場内の装置、IoT機器等の通信機器・放送機器など」いずれかとして実施しても、同様に実施することが可能である。したがって、本実施の形態の端末を、「TRP、基地局、中継器、アクセスポイント、放送局、gNB、eNB、ノード、サーバー、衛星、上述を例とする動く装置、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、パソコン、パーソナルコンピュータ、家電、工場内の装置、IoT機器等の通信機器・放送機器など」と呼んでもよい。以上の点については、本明細書において、同様である。
 また、例えば、装置が変調信号、センシングのための信号を送信する際、一つ以上、または、二つ以上の送信アンテナを用いて、一つ以上、または、二つ以上の変調信号、センシングのための信号を送信してもよい。以上の点については、本明細書において、同様である。
 上述において、「端末が送信する信号、例えば、変調信号、センシングのための信号」は、UL-SCH、PUCCH、PUSCH、PRACHなどいずれに属していてもよい。ただし、これに限ったものではない。
 また、上述において、「基地局が送信する信号、例えば、ダウンリンクフレーム、リファレンス信号、制御信号」は、PCH、BCH、DL-SCH、BCCH、PCCH、CCCH、コモンサーチスペース、PBCH、SS、PDCCH、PDSCHなどいずれに属していてもよい。ただし、これに限ったものではない。
 本実施の形態において、サーバー104は、図18における「1801_1のオブジェクト#1、1801_2のオブジェクト#2」の「オブジェクトに対応するキャラクタ」、101_101の端末#101、101_102の端末#102などの「端末に相当するキャラクタ」を仮想空間に登場させ、仮想空間において「オブジェクトに対応するキャラクタ」、「端末に相当するキャラクタ」を制御する例を説明したが、仮想空間における「オブジェクトに対応するキャラクタ」、「端末に相当するキャラクタ」は、どのようなキャラクタ、どのようなオブジェクト、どのようなアバターであってもよい。したがって、本実施の形態において、「キャラクタ」という記載を、「オブジェクト」、または、「アバター」という記載にして実施しても同様に実施することが可能である。
 また、例えば、仮想空間における「オブジェクトに対応するキャラクタ」、「端末に相当するキャラクタ」は、「人のようなキャラクタ(または、オブジェクト、アバター)」、「動物のようなキャラクタ(または、オブジェクト、アバター)」、「鳥のようなキャラクタ(または、オブジェクト、アバター)」、「飛行体(ドローン、航空機、飛行機)のようなキャラクタ(または、オブジェクト、アバター)」、「車のようなキャラクタ(または、オブジェクト、アバター)」、「自転車のようなキャラクタ(または、オブジェクト、アバター)」、「バイクのようなキャラクタ(または、オブジェクト、アバター)」、「電車のようなキャラクタ(または、オブジェクト、アバター)」、「列車のようなキャラクタ(または、オブジェクト、アバター)」、「ロボットのようなキャラクタ(または、オブジェクト、アバター)」であってもよいが、これに限ったものではない。
 また、サーバー104は、端末が予め規定された複数の端末の種類のいずれであるかを判定し、それぞれの状態に対応付けられたオブジェクト、または、オブジェクトグループから選択されたオブジェクトを、仮想空間に表示するとしてもよい。端末の種類とオブジェクトの対応付けは上記の例に限らない。例えば、端末の種類によって異なる動物の形状をしたオブジェクトを対応付けてもよいし、端末の種類によって形状は同じであるが色が異なるオブジェクトを対応付けてもよい。
 そして、サーバー104は、オブジェクトが予め規定された複数のオブジェクトの種類のいずれであるかを判定し、それぞれの状態に対応付けられたオブジェクト、または、オブジェクトグループから選択されたオブジェクトを、仮想空間に表示するとしてもよい。オブジェクトの種類とオブジェクトの対応付けは上記の例に限らない。例えば、オブジェクトの種類によって異なる動物の形状をしたオブジェクトを対応付けてもよいし、オブジェクトの種類によって形状は同じであるが色が異なるオブジェクトを対応付けてもよい。
 なお、これらの点については、本明細書において、同様である。
 図18において、1801_1のオブジェクト#1は、実空間#1に存在しているため、サーバー104は、例えば、実空間#1に対応する仮想空間#1に、1801_1のオブジェクト#1に相当するキャラクタを登場させ、例えば、ユーザは、端末などを用い、1801_1のオブジェクト#1に相当するキャラクタを制御する。そして、サーバー104は、仮想空間#1の情報を、端末に提供する例を示している。
 別の方法として、サーバー104は、実空間#1に存在する1801_1のオブジェクト#1、1801_2のオブジェクト#2などに提供する情報として、AR表示のための情報を生成する。そして、サーバー104は、「1801_1のオブジェクト#1、1801_2のオブジェクト#2など」の実空間#1に存在するオブジェクトに対応する端末に、AR表示のための情報を提供してもよい。このとき、実空間#1にAR表示機能をもつ端末が存在していた場合、その端末は、AR表示のための情報を得て、指定された位置にキャラクタ、オブジェクトなどを表示することになる。
 サーバー104は、仮想空間♯1の情報からAR表示のための情報を生成することになる。このとき、サーバー104は、「仮想空間♯1に存在するキャラクタ、オブジェクトの情報、位置」から、「実空間に重ねて表示するキャラクタ、オブジェクトの情報」、「実空間に重ねて表示するためキャラクタ、オブジェクトの実空間に重ねて表示する位置情報」を生成する。そして、サーバー104は、「実空間に重ねて表示するキャラクタ、オブジェクトの情報」、「実空間に重ねて表示するためキャラクタ、オブジェクトの実空間に重ねて表示する位置情報」を、実空間#1に存在する「AR表示機能をもつ端末」に送信し、「AR表示機能をもつ端末」は、「実空間に重ねて表示するキャラクタ、オブジェクトの情報」、「実空間に重ねて表示するためキャラクタ、オブジェクトの実空間に重ねて表示する位置情報」に基づき、指定された位置にキャラクタ、オブジェクトなどを表示することになる。
 なお、端末は、以下のような処理を行ってもよい。
 端末は、三次元地図情報と、センシングデータ(LIDARまたはカメラで取得した点群データなど)との位置合わせにより、自己位置推定を行う。自己位置推定において端末は、例えば、自己位置情報として三次元地図情報における位置や向きの情報を推定する。端末は、推定された自己位置に基づいて、周辺のオブジェクトの形状データや配置位置を示すデータをサーバー104から取得する。端末は、当該端末の自己位置情報に基づいてオブジェクトを、端末が有するカメラで撮影した映像を表示している表示画面や、スマートグラスの透明ディスプレイなどに表示する。
 なお、端末は、自己位置推定の際に、周囲の床や机の天板などの平面検出を行ってもよい。ここで検出される平面は、水平または水平に近い面を想定しているが、壁などの垂直な平面の検出であってもよいし、水平や垂直を含めた任意の角度を有する平面の検出を行ってもよい。また、端末は、これらのものを含むオブジェクトを検出し、サーバー104に提供し、仮想空間に表示してもよいし、AR空間に表示するためのオブジェクトとして処理してもよい。
 そして、端末は、オブジェクトを表示する際に、オブジェクトに設定された設置位置の情報をそのまま用いるのではなく、検出された平面の情報に基づいてオブジェクトを表示画面に表示する位置を補正してもよい。なお、この点については、仮想空間における表示、ARにおける表示、どちらにおいても適用可能である。
 また、端末が推定した自己位置に基づいてオブジェクトを仮想空間用、AR用に表示する例について説明したが、その他の方法で取得した位置情報に基づいてオブジェクトを仮想空間用、AR用に表示してもよい。その他の方法で取得した位置情報は、例えば、基地局によって推定された端末の位置情報、他の機器によって推定された端末の位置情報、GPSによって得られた位置情報などであってもよい。ここで、基地局によって推定された端末の位置情報を用いる場合、仮想空間において基地局が推定した位置情報に基づいてキャラクタを表示している場合に、仮想空間で当該キャラクタから見えているオブジェクトと、実空間でAR表示されるオブジェクトに差異が生じる可能性を低減することができる。
 また、実施の形態1で説明した仮想空間の構成方法と実施の形態2で説明した仮想空間構成方法を併用してもよい。具体的には、仮想空間に、実施の形態1における「仮想空間と関係づけられた実空間に存在する端末に相当するキャラクタ」、本実施の形態で説明した「仮想空間と関係づけられた実空間に存在するオブジェクトに相当するキャラクタ」、「端末を利用して制御されるキャラクタ」が存在していてもよい。
 (実施の形態3)
 本実施の形態では、実施の形態1で説明した基地局と端末が送信する変調信号の具体的な例について説明を行う。例として、図1を用いて説明を行う。
 図22は、図1における102_1の基地局#1を例とする基地局が送信する変調信号に含まれる基地局能力情報2200の構成の一例を示している。基地局能力情報2200は、例えば、「位置情報提供サービスを実施しているか否かの情報2211」、「仮想空間提供サービスを実施しているか否かの情報2212」、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」などを含んでいるものとする。このとき、基地局は、基地局能力情報2200を、端末に送信することになる。
 なお、基地局能力情報2200は、「位置情報提供サービスを実施しているか否かの情報2211」、「仮想空間提供サービスを実施しているか否かの情報2212」、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」少なくとも一つ含まれている構成であればよい。
 「位置情報提供サービスを実施しているか否かの情報2211」は、「基地局が端末の位置を推定する機能を有しているか否かを通知するための情報」である。
 例えば、「位置情報提供サービスを実施しているか否かの情報2211」が1ビットの情報であったする。そして、「位置情報提供サービスを実施しているか否かの情報2211」が「1」の場合、基地局は端末の位置を推定するための変調信号の送信、端末からの変調信号の受信に対応していることを示していることになる。したがって、端末が、「1」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、基地局と端末は、端末の位置を推定するためのやり取りを行うことになる。
 また、「位置情報提供サービスを実施しているか否かの情報2211」が「0」の場合、基地局は端末の位置を推定するための変調信号の送信、端末からの変調信号の受信に対応していないことになる。したがって、端末が、「0」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、基地局と端末は、端末の位置を推定するためのやり取りを行わないことになる。よって、端末は、基地局に、自身の位置推定の実施を要求することはない。また、端末は、実施の形態1で説明した、位置情報を用いた仮想空間に関連するサービスを要求することはない。
 「仮想空間提供サービスを実施しているか否かの情報2212」は、「基地局が実施の形態1で説明した仮想空間の提供に対応しているか否かの情報」、または、「基地局の通信エリアの仮想空間が存在しているか否かの情報」である。
 例えば、「仮想空間提供サービスを実施しているか否かの情報2212」が1ビットの情報であったする。そして、「仮想空間提供サービスを実施しているか否かの情報2212」が「1」の場合、基地局は実施の形態1で説明した仮想空間の提供に対応していることを示していることになる。したがって、端末が、「1」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、端末は、仮想空間へのアクセスの要求を行うことができる。
 「仮想空間提供サービスを実施しているか否かの情報2212」が「0」の場合、基地局は実施の形態1で説明した仮想空間の提供に対応していないことを示していることになる。したがって、端末が、「0」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、端末は、仮想空間へのアクセスの要求を行わない。
 別の例として、「仮想空間提供サービスを実施しているか否かの情報2212」が「1」の場合、基地局が通信可能なエリアに対する仮想空間が存在していることを示していることになる。したがって、端末が、「1」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、端末は、仮想空間へのアクセスの要求を行うことができる。
 「仮想空間提供サービスを実施しているか否かの情報2212」が「0」の場合、基地局が通信可能なエリアに対する仮想空間が存在していないことを示していることになる。したがって、端末が、「0」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、端末は、仮想空間へのアクセスの要求を行わない。
 「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」は、「実施の形態1で説明したように、基地局が、端末の位置情報を得、位置情報を得た端末に相当するキャラクタを仮想空間に登場させるためにサーバーとの通信を行うことになる」を実施するか否かの情報である。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が1ビットの情報であったする。
 そして、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が「1」の場合、「基地局は、自身の通信エリアにおける仮想空間を提供するサービスを実施しており、端末の位置情報を得、位置情報を得た端末に相当するキャラクタを仮想空間に登場させることができる」ことを示していることになる。したがって、端末が、「1」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、端末は、基地局に、「自身の位置情報に基づいて、仮想空間に、自身の位置情報に基づいたキャラクタを登場させる」要求を行うことができる。
 「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が「0」の場合、「基地局は、自身の通信エリアにおける仮想空間を提供するサービスを実施していない」ことを示していることになる。したがって、端末が、「0」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、端末は、基地局に、「自身の位置情報に基づいて、仮想空間に、自身の位置情報に基づいたキャラクタを登場させる」要求を行わない。
 以上のように、基地局が基地局能力情報を端末に対し送信することで、端末は、実施の形態1で説明した「実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるサービス」に基地局が対応しているか否かを判断することができ、これにより、端末は適格にサービスの提供を受けることができるという利点がある。
 図23は、図1における101_1の端末#1、101_2の端末#2、101_101の端末#101、101_102の端末#102を例とする端末が送信する変調信号に含まれる端末能力情報2300の構成の一例を示している。端末能力情報2300は、例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」、「位置情報サービスに対応しているか否かの情報2312」、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」などを含んでいるものとする。このとき、端末は、端末能力情報2300を、基地局に送信することになる。
 なお、端末能力情報2300は、例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」、「位置情報サービスに対応しているか否かの情報2312」、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」少なくとも一つ含まれている構成であればよい。
 「仮想空間提供サービスに対し対応しているか否かの情報2311」は、「基地局が実施の形態1で説明した仮想空間の提供サービスに対し端末が対応しているか否かの情報」である。
 例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」が1ビットの情報であったする。そして、「仮想空間提供サービスに対し対応しているか否かの情報2311」が「1」の場合、実施の形態1で説明した仮想空間の提供に対し、対応している端末であることを示していることになる。したがって、基地局が、「1」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、基地局は、端末に対し、実施の形態1で説明した仮想空間に関するサービスを提供するためのやり取りを開始することができる。
 「仮想空間提供サービスに対し対応しているか否かの情報2311」が「0」の場合、実施の形態1で説明した仮想空間の提供に対し、対応している端末でないことを示していることになる。したがって、基地局が、「0」の情報の「位置情報提供サービスを実施しているか否かの情報2211」を受信した場合、基地局は、端末に対し、実施の形態1で説明した仮想空間に関するサービスを提供するためのやり取りを開始しない。
 「位置情報サービスに対応しているか否かの情報2312」は、「端末が、自身の位置の情報を得るための機能を有しているか否かを通知するための情報」である。
 例えば、「位置情報サービスに対応しているか否かの情報2312」が1ビットの情報であったする。そして、「位置情報サービスに対応しているか否かの情報2312」が「1」の場合、端末は、自身の位置を推定するための変調信号の送信、基地局からの変調信号の受信に対応していることを示していることになる。したがって、基地局が、「1」の情報の「位置情報サービスに対応しているか否かの情報2312」を受信した場合、基地局と端末は、端末の位置を推定するためのやり取りを行うことになる。
 また、「位置情報サービスに対応しているか否かの情報2312」が「0」の場合、端末は、自身の位置を推定するための変調信号の送信、基地局からの変調信号の受信に対応していないことを示していることになる。したがって、基地局が、「0」の情報の「位置情報サービスに対応しているか否かの情報2312」を受信した場合、基地局と端末は、端末の位置を推定するためのやり取りを行わないことになる。
 なお、端末の位置の推定は、基地局が行ってもよいし、端末が行ってもよい。
 「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」は、「実施の形態1で説明したように、基地局が、端末の位置情報を得、位置情報を得た端末に相当するキャラクタを仮想空間に登場させるためにサーバーとの通信を行うことになる」をサポートしているか否かの情報である。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が1ビットの情報であったする。そして、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が「1」の場合、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末である」ことを示していることになる。したがって、基地局が、「1」の情報の「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」を受信した場合、基地局は、端末に、「端末の位置情報に基づいて、仮想空間に、端末の位置情報に基づいたキャラクタを登場させる」サービスを提供することができる。
 「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が「0」の場合、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末でない」ことを示していることになる。したがって、基地局が、「0」の情報の「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」を受信した場合、基地局は、端末に、「端末の位置情報に基づいて、仮想空間に、端末の位置情報に基づいたキャラクタを登場させる」サービスを提供しない。
 以上のように、端末が端末能力情報を基地局に対し送信することで、基地局は、実施の形態1で説明した「実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるサービス」に端末が対応しているか否かを判断することができ、これにより、基地局は適格にサービスを提供することができるという利点がある。
 図22に示した基地局能力情報2200を送信する基地局の構成例について説明を行う。
 図24Aは、基地局の第1の構成例である。例えば、インタフェース2400は、第1の入力信号2401を入力とし、第1の出力信号2402を出力する。第1の入力信号2401、第1の出力信号2402は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2400は、第2の入力信号2403を入力とし、第2の出力信号2404を出力する。第2の入力信号2403、第2の出力信号2404は、サーバー104と通信するための信号である。
 インタフェース2400は、無線通信処理部2411、位置推定処理部2412、仮想空間関連処理部2413と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2411は、図1における端末と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 位置推定処理部2412は、図1における端末とやりとりを行い、端末の位置を推定するための送信信号の生成、受信信号の処理を実施する部分となる。処理の具体例については、実施の形態1で説明を行っているため、説明を省略する。そして、位置推定処理部2412は、端末の位置情報を得ることになる。なお、基地局は、端末の位置情報を、サーバーに伝送することがある。
 仮想空間関連処理部2413は、端末の情報、端末の位置情報を得、これらの情報に処理を施し、サーバーにこれらの情報を伝送する。これにより、サーバーは、端末に対応するキャラクタを仮想空間へ登場させるための処理を実施することになる。そして、サーバーは、端末に伝送するための「仮想空間表示のためのデータ、端末制御データ、端末に伝送するデータなど」のデータを基地局に伝送する。(これらのデータを、無線通信処理部2411は得、端末に伝送するための処理を行うことになる。)
 なお、基地局は、「無線通信処理部2411、位置推定処理部2412、仮想空間関連処理部2413」以外を具備していてもよい。例えば、基地局は、GPSなどの他のシステムを用いた位置推定処理部、他の装置と接続するためのインタフェースなどを具備していてもよい。
 例えば、基地局は、GPSなどの他のシステムを用いた位置推定処理部を具備している場合、端末の位置を推定する際、自身の位置に基づいて、端末の位置を推定してもよい。また、例えば、基地局は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 基地局の構成例は、図24Aの例に限ったものではない。
 なお、図24Aの構成の基地局は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応した基地局となる。したがって、図22における基地局能力情報2200を送信する際、以下のような送信を行う。
 例えば、「位置情報提供サービスを実施しているか否かの情報2211」が1ビットの情報であったする。そして、図24Aの基地局は、「位置情報提供サービスを実施しているか否かの情報2211」を「1」と設定し、基地局は端末の位置を推定するための変調信号の送信、端末からの変調信号の受信に対応していることを示していることになる。
 例えば、「仮想空間提供サービスを実施しているか否かの情報2212」が1ビットの情報であったする。そして、図24Aの基地局は、「仮想空間提供サービスを実施しているか否かの情報2212」を「1」と設定し、基地局は実施の形態1で説明した仮想空間の提供に対応していることを示していることになる。
 別の例として、図24Aの基地局は、「仮想空間提供サービスを実施しているか否かの情報2212」を「1」と設定し、基地局が通信可能なエリアに対する仮想空間が存在していることを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が1ビットの情報であったする。そして、図24Aの基地局は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」を「1」と設定し、「基地局は、自身の通信エリアにおける仮想空間を提供するサービスを実施しており、端末の位置情報を得、位置情報を得た端末に相当するキャラクタを仮想空間に登場させることができる」ことを示していることになる。
 また、別の例として、図24Aの基地局は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が「0」と設定し、「基地局は、自身の通信エリアにおける仮想空間を提供するサービスを実施していない」ことを示している、としてもよい。
 図22に示した基地局能力情報2200を送信する基地局の別の構成例として、図24Bについて説明を行う。なお、図24Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図24Bは、基地局の構成例である。例えば、インタフェース2400は、第1の入力信号2401を入力とし、第1の出力信号2402を出力する。第1の入力信号2401、第1の出力信号2402は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2400は、第2の入力信号2403を入力とし、第2の出力信号2404を出力する。第2の入力信号2403、第2の出力信号2404は、サーバーなどと通信するための信号である。
 インタフェース2400は、無線通信処理部2411、位置推定処理部2412と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2411は、図1における端末と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 位置推定処理部2412は、図1における端末とやりとりを行い、端末の位置を推定するための送信信号の生成、受信信号の処理を実施する部分となる。処理の具体例については、実施の形態1で説明を行っているため、説明を省略する。そして、位置推定処理部2412は、端末の位置情報を得ることになる。なお、基地局は、端末の位置情報を、サーバーに伝送することがある。
 なお、基地局は、「無線通信処理部2411、位置推定処理部2412」以外を具備していてもよい。例えば、基地局は、GPSなどの他のシステムを用いた位置推定処理部、他の装置と接続するためのインタフェースなどを具備していてもよい。
 例えば、基地局は、GPSなどの他のシステムを用いた位置推定処理部を具備している場合、端末の位置を推定する際、自身の位置に基づいて、端末の位置を推定してもよい。また、例えば、基地局は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 基地局の構成例は、図24Bの例に限ったものではない。
 なお、図24Bの構成の基地局は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応していない基地局となる。したがって、図22における基地局能力情報2200を送信する際、以下のような送信を行う。
 例えば、「位置情報提供サービスを実施しているか否かの情報2211」が1ビットの情報であったする。そして、図24Bの基地局は、「位置情報提供サービスを実施しているか否かの情報2211」を「1」と設定し、基地局は端末の位置を推定するための変調信号の送信、端末からの変調信号の受信に対応していることを示していることになる。
 例えば、「仮想空間提供サービスを実施しているか否かの情報2212」が1ビットの情報であったする。そして、図24Bの基地局は、「仮想空間提供サービスを実施しているか否かの情報2212」を「0」と設定し、基地局は実施の形態1で説明した仮想空間の提供に対応していないことを示していることになる。
 別の例として、図24Bの基地局は、「仮想空間提供サービスを実施しているか否かの情報2212」を「0」と設定し、基地局が通信可能なエリアに対する仮想空間が存在していないことを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が1ビットの情報であったする。そして、図24Bの基地局は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」を「0」と設定し、「基地局は、自身の通信エリアにおける仮想空間を提供するサービスを実施していない」ことを示していることになる。
 別の方法として、図24Bの基地局は、「「仮想空間提供サービスを実施しているか否かの情報2212」、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」」を含まない基地局能力情報2200を送信するとしてもよい。
 また、図24Bの基地局は、基地局能力情報2200を送信しないとしてもよい。
 図22に示した基地局能力情報2200を送信する基地局の別の構成例として、図24Cについて説明を行う。なお、図24Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図24Cは、基地局の構成例である。例えば、インタフェース2400は、第1の入力信号2401を入力とし、第1の出力信号2402を出力する。第1の入力信号2401、第1の出力信号2402は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2400は、第2の入力信号2403を入力とし、第2の出力信号2404を出力する。第2の入力信号2403、第2の出力信号2404は、サーバーなどと通信するための信号である。
 インタフェース2400は、無線通信処理部2411と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2411は、図1における端末と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 なお、基地局は、「無線通信処理部2411」以外を具備していてもよい。例えば、基地局は、GPSなどの他のシステムを用いた位置推定処理部、他の装置と接続するためのインタフェースなどを具備していてもよい。例えば、基地局は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 基地局の構成例は、図24Cの例に限ったものではない。
 なお、図24Cの構成の基地局は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応していない基地局となる。したがって、図22における基地局能力情報2200を送信する際、以下のような送信を行う。
 例えば、「位置情報提供サービスを実施しているか否かの情報2211」が1ビットの情報であったする。そして、図24Cの基地局は、「位置情報提供サービスを実施しているか否かの情報2211」を「0」と設定し、基地局は端末の位置を推定するための変調信号の送信、端末からの変調信号の受信に対応していないことを示していることになる。
 例えば、「仮想空間提供サービスを実施しているか否かの情報2212」が1ビットの情報であったする。そして、図24Cの基地局は、「仮想空間提供サービスを実施しているか否かの情報2212」を「0」と設定し、基地局は実施の形態1で説明した仮想空間の提供に対応していないことを示していることになる。
 別の例として、図24Cの基地局は、「仮想空間提供サービスを実施しているか否かの情報2212」を「0」と設定し、基地局が通信可能なエリアに対する仮想空間が存在していないことを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」が1ビットの情報であったする。そして、図24Cの基地局は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」を「0」と設定し、「基地局は、自身の通信エリアにおける仮想空間を提供するサービスを実施していない」ことを示していることになる。
 別の方法として、図24Cの基地局は、「「位置情報提供サービスを実施しているか否かの情報2211」、「仮想空間提供サービスを実施しているか否かの情報2212」、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしている実空間であるか否かの情報2213」」を含まない基地局能力情報2200を送信するとしてもよい。
 また、図24Cの基地局は、基地局能力情報2200を送信しないとしてもよい。
 図23に示した端末能力情報2300を送信する端末の構成例について説明を行う。
 図25Aは、端末の第1の構成例である。例えば、インタフェース2500は、第1の入力信号2501を入力とし、第1の出力信号2502を出力する。第1の入力信号2501、第1の出力信号2502は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2500は、第2の入力信号2503を入力とし、第2の出力信号2504を出力する。第2の入力信号2503、第2の出力信号2504は、他の装置と通信するための信号である。
 インタフェース2500は、無線通信処理部2511、位置推定処理部2512、仮想空間関連処理部2513と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2511は、図1における基地局と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 位置推定処理部2512は、図1における基地局とやりとりを行い、端末の位置を推定するための送信信号の生成、受信信号の処理を実施する部分となる。処理の具体例については、実施の形態1で説明を行っているため、説明を省略する。なお、基地局は、端末の位置情報を、サーバーに伝送することがある。
 仮想空間関連処理部2513は、自身(端末)の情報、自身(端末)の位置情報を扱い、これらの情報を、基地局を介し、サーバーにこれらの情報を伝送する。これにより、サーバーは、端末に対応するキャラクタを仮想空間へ登場させるための処理を実施することになる。そして、サーバーは、端末に伝送するための「仮想空間表示のためのデータ、端末制御データ、端末に伝送するデータなど」のデータを基地局に伝送し、基地局は端末に送信する。
 なお、端末は、「無線通信処理部2511、位置推定処理部2512、仮想空間関連処理部2513」以外を具備していてもよい。例えば、端末は、GPSなどの他のシステムを用いた位置推定処理部、他の装置と接続するためのインタフェースなどを具備していてもよい。
 例えば、端末は、GPSなどの他のシステムを用いた位置推定処理部を具備している場合、自身(端末)の位置を、GPSなどの他のシステムを用いた位置推定処理部を用いて推定してもよい。また、例えば、端末は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 端末の構成例は、図25Aの例に限ったものではない。
 なお、図25Aの構成の端末は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応した端末となる。したがって、図23における端末能力情報2300を送信する際、以下のような送信を行う。
 例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」が1ビットの情報であったする。そして、図25Aの端末は、「仮想空間提供サービスに対し対応しているか否かの情報2311」を「1」と設定し、実施の形態1で説明した仮想空間の提供に対し、対応している端末であることを示していることになる。
 例えば、「位置情報サービスに対応しているか否かの情報2312」が1ビットの情報であったする。そして、図25Aの端末は、「位置情報サービスに対応しているか否かの情報2312」を「1」と設定し、端末は、自身の位置を推定するための変調信号の送信、基地局からの変調信号の受信に対応していることを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が1ビットの情報であったする。そして、図25Aの端末は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」を「1」と設定し、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末である」ことを示していることになる。
 図23に示した端末能力情報2300を送信する端末の構成の別の例について、図25Bについて説明を行う。なお、図25Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図25Bは、端末の構成例である。例えば、インタフェース2500は、第1の入力信号2501を入力とし、第1の出力信号2502を出力する。第1の入力信号2501、第1の出力信号2502は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2500は、第2の入力信号2503を入力とし、第2の出力信号2504を出力する。第2の入力信号2503、第2の出力信号2504は、他の装置と通信するための信号である。
 インタフェース2500は、無線通信処理部2511、位置推定処理部2512と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2511は、図1における基地局と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 位置推定処理部2512は、図1における基地局とやりとりを行い、端末の位置を推定するための送信信号の生成、受信信号の処理を実施する部分となる。処理の具体例については、実施の形態1で説明を行っているため、説明を省略する。なお、基地局は、端末の位置情報を、サーバーに伝送することがある。
 なお、端末は、「無線通信処理部2511、位置推定処理部2512」以外を具備していてもよい。例えば、端末は、GPSなどの他のシステムを用いた位置推定処理部、他の装置と接続するためのインタフェースなどを具備していてもよい。
 例えば、端末は、GPSなどの他のシステムを用いた位置推定処理部を具備している場合、自身(端末)の位置を、GPSなどの他のシステムを用いた位置推定処理部を用いて推定してもよい。また、例えば、端末は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 端末の構成例は、図25Bの例に限ったものではない。
 なお、図25Bの構成の端末は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応していない端末となる。したがって、図23における端末能力情報2300を送信する際、以下のような送信を行う。
 例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」が1ビットの情報であったする。そして、図25Bの端末は、「仮想空間提供サービスに対し対応しているか否かの情報2311」を「0」と設定し、実施の形態1で説明した仮想空間の提供に対し、対応していない端末であることを示していることになる。
 例えば、「位置情報サービスに対応しているか否かの情報2312」が1ビットの情報であったする。そして、図25Bの端末は、「位置情報サービスに対応しているか否かの情報2312」を「1」と設定し、端末は、自身の位置を推定するための変調信号の送信、基地局からの変調信号の受信に対応していることを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が1ビットの情報であったする。そして、図25Bの端末は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」を「0」と設定し、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末でない」ことを示していることになる。
 図23に示した端末能力情報2300を送信する端末の構成の別の例について、図25Cについて説明を行う。なお、図25Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図25Cは、端末の構成例である。例えば、インタフェース2500は、第1の入力信号2501を入力とし、第1の出力信号2502を出力する。第1の入力信号2501、第1の出力信号2502は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2500は、第2の入力信号2503を入力とし、第2の出力信号2504を出力する。第2の入力信号2503、第2の出力信号2504は、他の装置と通信するための信号である。
 インタフェース2500は、無線通信処理部2511と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2511は、図1における基地局と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 なお、端末は、「無線通信処理部2511」以外を具備していてもよい。例えば、端末は、GPSなどの他のシステムを用いた位置推定処理部、他の装置と接続するためのインタフェースなどを具備していてもよい。
 例えば、端末は、GPSなどの他のシステムを用いた位置推定処理部を具備している場合、自身(端末)の位置を、GPSなどの他のシステムを用いた位置推定処理部を用いて推定してもよい。また、例えば、端末は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 端末の構成例は、図25Cの例に限ったものではない。
 なお、図25Cの構成の端末は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応していない端末となる。したがって、図23における端末能力情報2300を送信する際、以下のような送信を行う。
 例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」が1ビットの情報であったする。そして、図25Cの端末は、「仮想空間提供サービスに対し対応しているか否かの情報2311」を「0」と設定し、実施の形態1で説明した仮想空間の提供に対し、対応していない端末であることを示していることになる。
 例えば、「位置情報サービスに対応しているか否かの情報2312」が1ビットの情報であったする。そして、図25Cの端末は、「位置情報サービスに対応しているか否かの情報2312」を「0」と設定し、端末は、自身の位置を推定するための変調信号の送信、基地局からの変調信号の受信に対応していないことを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が1ビットの情報であったする。そして、図25Cの端末は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」を「0」と設定し、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末でない」ことを示していることになる。
 図23に示した端末能力情報2300を送信する端末の構成の別の例について、図25Dについて説明を行う。なお、図25Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図25Dは、端末の構成例である。例えば、インタフェース2500は、第1の入力信号2501を入力とし、第1の出力信号2502を出力する。第1の入力信号2501、第1の出力信号2502は、無線通信のため信号であり、アンテナによる送受信に関係する信号となる。
 また、インタフェース2500は、第2の入力信号2503を入力とし、第2の出力信号2504を出力する。第2の入力信号2503、第2の出力信号2504は、他の装置と通信するための信号である。
 インタフェース2500は、無線通信処理部2511、仮想空間関連処理部2513、位置推定部2599と接続している。なお、インタフェースとよんでいるが、バスであってもよい。
 無線通信処理部2511は、図1における基地局と無線通信を行うための送信のための処理、および、受信のための処理を実施する部分となる。
 仮想空間関連処理部2513は、自身(端末)の情報、自身(端末)の位置情報を扱い、これらの情報を、基地局を介し、サーバーにこれらの情報を伝送する。これにより、サーバーは、端末に対応するキャラクタを仮想空間へ登場させるための処理を実施することになる。そして、サーバーは、端末に伝送するための「仮想空間表示のためのデータ、端末制御データ、端末に伝送するデータなど」のデータを基地局に伝送し、基地局は端末に送信する。
 位置推定部2599は、他のシステム(例えば、GPS、無線LAN(Local area network))を利用して、端末の位置を推定するため部分となる。なお、基地局は、端末の位置情報を、サーバーに伝送することがある。
 なお、端末は、「無線通信処理部2511、仮想空間関連処理部2513、位置推定部2599」以外を具備していてもよい。例えば、端末は、他の装置と接続するためのインタフェースなどを具備していてもよい。
 例えば、端末は、他の装置と接続するためのインタフェースを具備している場合、他の装置と接続することも可能となる。
 端末の構成例は、図25Dの例に限ったものではない。
 なお、図25Dの構成の端末は、実施の形態1で説明した「端末の実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法」に対応した端末となる。したがって、図23における端末能力情報2300を送信する際、以下のような送信を行う。
 例えば、「仮想空間提供サービスに対し対応しているか否かの情報2311」が1ビットの情報であったする。そして、図25Dの端末は、「仮想空間提供サービスに対し対応しているか否かの情報2311」を「1」と設定し、実施の形態1で説明した仮想空間の提供に対し、対応している端末であることを示していることになる。ただし、端末が他のシステムを利用して自身(端末)の位置を推定し、端末は、自身(端末)の位置推定情報を基地局に送信し、基地局、サーバーは、この端末位置推定情報を利用して、仮想空間を形成することになる。この点については、実施の形態1でも説明を行っている。
 例えば、「位置情報サービスに対応しているか否かの情報2312」が1ビットの情報であったする。そして、図25Dの端末は、「位置情報サービスに対応しているか否かの情報2312」を「0」と設定し、端末は、自身の位置を推定するための変調信号の送信、基地局からの変調信号の受信に対応していないことを示していることになる。
 例えば、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」が1ビットの情報であったする。そして、図25Dの端末は、「実空間における位置情報に基づき仮想空間に端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2313」を「1」と設定し、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末である」ことを示していることになる。
 次に、図1の基地局の動作例の説明を行う。図26は、図1の基地局、端末、ネットワーク(サーバー)のやりとりの例である。
 実施の形態1での説明を実施する際、端末は端末識別情報を送信する。基地局は端末識別情報を得ることになる(2601)。
 また、端末は自身(端末)の位置情報を送信する。基地局は端末の位置情報を得ることになる(2602)。なお、端末が位置情報を推定する方法としては、「端末と基地局がやりとりを行うことで端末が自身の位置を推定する」としてもよいし、「端末が具備している位置推定装置により自身の位置推定を行う」としてもよい。
 このとき、端末は基地局からの相対的な位置を求めるとしてもよい。この場合、基地局は自身の位置を推定し、この位置情報と、端末が送信する相対的な位置情報を用いて、基地局は、端末の(絶対的な)位置を求めてもよい。
 別の方法として、端末は絶対的な位置を求めてもよい。したがって、端末は、絶対的な位置の情報を端末の位置情報として送信することになる。
 また、別の方法として、「端末と基地局がやりとりを行うことで基地局が端末の位置を推定する」としてもよい。このとき、2602として、端末は、基地局に対し、位置推定開始を指示する情報を送信することになる。
 なお、基地局は基地局から端末の相対的な位置を求めるとしてもよい。この場合、基地局は自身の位置を推定し、この位置情報と、基地局から端末の相対的な位置情報を用いて、基地局は、端末の(絶対的な)位置を求めてもよい。
 別の方法として、基地局は端末の絶対的な位置を求めてもよい。
 これに伴い、基地局は、端末識別情報、端末の位置情報を、ネットワークを介し、サーバーに送信する(2611)。
 サーバーは、端末識別情報、端末の位置情報に基づき、端末固有のキャラクタを仮想空間に配置するような仮想空間に関する情報を生成することになる。
 そして、端末は、実空間における移動に伴い、再度、図26の「基地局、端末、ネットワーク(サーバー)のやりとり」を実施してもよい。ただし、基地局、サーバーが、端末識別情報を保有している場合、端末は、端末識別情報を送信しなくてもよい。(端末は、端末識別情報を送信してもよい。)
 したがって、サーバーは、端末の位置情報に基づき、仮想空間におけるキャラクタ(アバター)の位置を更新することになる。
 図27は、図1における101_1の端末#1、101_2の端末#2、101_101の端末#101、101_102の端末#102を例とする端末が送信する変調信号に含まれる端末設定情報2700に関する構成の一例を示している。端末設定情報2700は、例えば、「位置情報取得方法に関する設定情報2711」、「キャラクタ表示方法に関する設定情報2712」、「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」、「キャラクタ表示位置に関する設定情報2714」、「速さにおけるキャラクタ表示方法に関する設定情報2715」、「プッシュ通知に関する設定情報2716」などを含んでいるものとする。このとき、端末は、端末設定情報2700を、基地局に送信することになる。
 なお、端末設定情報2700は、例えば、「位置情報取得方法に関する設定情報2711」、「キャラクタ表示方法に関する設定情報2712」、「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」、「キャラクタ表示位置に関する設定情報2714」、「速さにおけるキャラクタ表示方法に関する設定情報2715」、「プッシュ通知に関する設定情報2716」少なくとも一つ含まれている構成であればよい。
 「位置情報取得方法に関する設定情報2711」は、「端末がサポート可能な位置情報取得方法のうち、設定した位置情報取得方法に関する情報」である。
 例えば、端末がサポート可能な位置情報推定方法として、「基地局と端末がやりとりを行い基地局が端末の位置を推定する方法」、「基地局と端末がやりとりを行い端末が端末の位置を推定する方法」、「(GPSなどの」他のシステムを利用して端末の位置を推定する方法」があるものとする。
 「位置情報取得方法に関する設定情報2711」が2ビットの情報であったする。そして、「位置情報取得方法に関する設定情報2711」の2ビットの情報が「00」の場合、「基地局と端末がやりとりを行い基地局が端末の位置を推定する方法」を設定していることを示していることになる。したがって、基地局と端末は、「基地局と端末がやりとりを行い基地局が端末の位置を推定する方法」のやりとりを実施することになる。
 「位置情報取得方法に関する設定情報2711」の2ビットの情報が「01」の場合、「基地局と端末がやりとりを行い端末が端末の位置を推定する方法」を設定していることを示していることになる。したがって、基地局と端末は、「基地局と端末がやりとりを行い端末が端末の位置を推定する方法」のやりとりを実施することになる。
 「位置情報取得方法に関する設定情報2711」の2ビットの情報が「10」の場合、「(GPSなどの」他のシステムを利用して端末の位置を推定する方法」を設定していることを示していることになる。したがって、端末は、他のシステムを利用して、自身(端末)の位置推定を行う。そして、端末は、自身(端末)の位置情報を基地局に送信することが可能となる。
 「キャラクタ表示方法に関する設定情報2712」は、「端末に相当するキャラクタを仮想空間に表示する方法に関する情報」である。
 例えば、端末に相当するキャラクタを仮想空間に表示する方法として、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、常に、キャラクタ表示を行う方法」、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、キャラクタ表示を行う場所とキャラクタ表示を行わない場所が設定されている方法」、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタ表示をサポートしているが、キャラクタ表示を行わない方法」があるものとする。
 「キャラクタ表示方法に関する設定情報2712」が2ビットの情報であったする。そして、「キャラクタ表示方法に関する設定情報2712」の2ビットの情報が「00」の場合、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、常に、キャラクタ表示を行う方法」を設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタ表示方法に関する設定情報2712」の2ビットの情報「00」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタを表示するようにして処理し、仮想空間の情報を生成することになる。
 「キャラクタ表示方法に関する設定情報2712」の2ビットの情報が「01」の場合、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、キャラクタ表示を行う場所とキャラクタ表示を行わない場所が設定されている方法」を設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタ表示方法に関する設定情報2712」の2ビットの情報「01」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタ表示を行う場所とキャラクタ表示を行わない場所の情報に基づいて、仮想空間の情報を生成することになる。
 「キャラクタ表示方法に関する設定情報2712」の2ビットの情報が「10」の場合、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタ表示をサポートしているが、キャラクタ表示を行わない方法」を設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタ表示方法に関する設定情報2712」の2ビットの情報「10」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタを表示しないようにして処理し、仮想空間の情報を生成することになる。
 なお、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、キャラクタ表示を行う場所とキャラクタ表示を行わない場所の設定」については、後で説明を行う。
 「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」は、「実施の形態1で説明したように、端末の位置情報に基づき端末に相当するキャラクタを仮想空間に登場させる方式に対応している端末であるか否か」の情報を含んでいる。
 例えば、「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」が1ビットの情報であったする。そして、「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」が「1」の場合、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させるシステムに対応した端末である」ことを示していることになる。したがって、基地局が、「1」の情報の「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」を受信した場合、基地局は、端末に、「端末の位置情報に基づいて、仮想空間に、端末の位置情報に基づいたキャラクタを登場させる」サービスを提供することができる。
 「実空間における位置情報に基づき仮想空間に、端末に相当するキャラクタを登場させる方法をサポートしているか否かの情報2713」が「0」の場合、「端末の位置情報を基地局、サーバーが得、位置情報に基づいて端末に相当するキャラクタを仮想空間に登場させる端末でない」ことを示していることになる。したがって、端末は、サーバー、基地局から、仮想空間の情報を提供されることになる。
 「キャラクタ表示位置に関する設定情報2714」は、「端末に相当するキャラクタを仮想空間に表示する際の表示位置に関する情報」である。
 例えば、端末に相当するキャラクタを仮想空間に表示する位置に関する方法として、「実空間における端末の位置に対し、高さ補正を行い仮想空間に表示する方法」、「実空間における端末の位置に対し、高さ補正を行わず仮想空間に表示する方法」があるものとする。
 「キャラクタ表示位置に関する設定情報2714」が1ビットの情報であったする。そして、「キャラクタ表示位置に関する設定情報2714」の1ビットの情報が「1」の場合、「実空間における端末の位置に対し、高さ補正を行い仮想空間に表示する方法」と設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタ表示位置に関する設定情報2714」の1ビットの情報「1」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタを仮想空間に表示する際、高さ補正を行い、仮想空間の情報を生成することになる。
 なお、「高さ補正」の方法の例については、実施の形態1において、図17A、図17Bを用いて説明している。
 「キャラクタ表示位置に関する設定情報2714」の1ビットの情報が「0」の場合、「実空間における端末の位置に対し、高さ補正を行わず仮想空間に表示する方法」と設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタ表示位置に関する設定情報2714」の1ビットの情報「0」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタを仮想空間に表示する際、高さ補正を行わず、仮想空間の情報を生成することになる。
 「速さにおけるキャラクタ表示方法に関する設定情報2715」は、「速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法に関する情報」である。
 例えば、速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法として、「(端末の)移動速度に関係なく、端末に相当するキャラクタを仮想空間に表示する方法」、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示を行わない方法」、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示制御を施す方法」があるものとする。
 「速さにおけるキャラクタ表示方法に関する設定情報2715」が2ビットの情報であったする。そして、「速さにおけるキャラクタ表示方法に関する設定情報2715」の2ビットの情報が「00」の場合、「(端末の)移動速度に関係なく、端末に相当するキャラクタを仮想空間に表示する方法」を設定していることを示していることになる。したがって、基地局は、端末からの「速さにおけるキャラクタ表示方法に関する設定情報2715」の2ビットの情報「00」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタを、(端末の)移動速度に関係なく表示するというように処理し、仮想空間の情報を生成することになる。
 「速さにおけるキャラクタ表示方法に関する設定情報2715」の2ビットの情報が「01」の場合、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示を行わない方法」を設定していることを示していることになる。したがって、基地局は、端末からの「速さにおけるキャラクタ表示方法に関する設定情報2715」の2ビットの情報「01」をサーバーに伝送する。また、基地局は、端末の位置情報をサーバーに伝送する。サーバーは、この端末の移動速度を推定し、移動速度に関する条件を満たしているときは、この端末に相当するキャラクタを仮想空間に表示しないと判断する。一方で、サーバーは、この端末の移動速度を推定し、移動速度に関する条件を満たしていないときは、この端末に相当するキャラクタを仮想空間に表示すると判断する。これに基づき、サーバーは、仮想空間の情報を生成することになる。
 なお、端末は、自身(端末)の移動速度を推定し、移動速度の情報を、基地局を介し、サーバーに伝送してもよい。
 「速さにおけるキャラクタ表示方法に関する設定情報2715」の2ビットの情報が「10」の場合、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示制御を施す方法」を設定していることを示していることになる。したがって、基地局は、端末からの「速さにおけるキャラクタ表示方法に関する設定情報2715」の2ビットの情報「10」をサーバーに伝送する。また、基地局は、端末の位置情報をサーバーに伝送する。サーバーは、この端末の移動速度を推定し、移動速度に関する条件を満たしているときは、この端末に相当するキャラクタを仮想空間への表示制御を施すと判断する。一方で、サーバーは、この端末の移動速度を推定し、移動速度に関する条件を満たしていないときは、この端末に相当するキャラクタを仮想空間に表示すると判断する。これに基づき、サーバーは、仮想空間の情報を生成することになる。
 なお、端末は、自身(端末)の移動速度を推定し、移動速度の情報を、基地局を介し、サーバーに伝送してもよい。また、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示制御」の方法の具体的な例については、後で説明を行う。
 「プッシュ通知に関する設定情報2716」は、「端末がプッシュ通知を受けることを許可しているかに関する情報」である。
 「プッシュ通知に関する設定情報2716」が1ビットの情報であったする。そして、「プッシュ通知に関する設定情報2716」の1ビットの情報が「1」の場合、「端末はプッシュ通知を受け取る」と設定していることを示していることになる。したがって、基地局は、端末からの「プッシュ通知に関する設定情報2716」の1ビットの情報「1」をサーバーに伝送し、サーバーは、この端末に、プッシュ通知として伝送する情報を、基地局を介し、この端末に送信することになる。
 なお、プッシュ通知については、後で説明を行う。
 「プッシュ通知に関する設定情報2716」の1ビットの情報が「0」の場合、「端末はプッシュ通知を受け取らない」と設定していることを示していることになる。したがって、基地局は、端末からの「プッシュ通知に関する設定情報2716」の1ビットの情報「0」をサーバーに伝送し、サーバーは、プッシュ通知として伝送する情報を生成しない。
 「キャラクタへのアクセスに関する設定情報2717」は、「端末に相当するキャラクタに対し、他のキャラクタがアクセス可能か否かに関する情報」である。
 「キャラクタへのアクセスに関する設定情報2717」が2ビットの情報であったする。そして、「キャラクタへのアクセスに関する設定情報2717」の2ビットの情報が「01」の場合、「他のキャラクタからのアクセスを許可している」と設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタへのアクセスに関する設定情報2717」の2ビットの情報「01」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタに対し、仮想空間で、他のキャラクタがアクセス可能と設定し、これに基づいて、仮想空間の情報を生成することになる。
 「キャラクタへのアクセスに関する設定情報2717」の2ビットの情報が「00」の場合、「他のキャラクタからのアクセスを許可していない」と設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタへのアクセスに関する設定情報2717」の2ビットの情報「00」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタに対し、仮想空間で、他のキャラクタがアクセス不可と設定し、これに基づいて、仮想空間の情報を生成することになる。
 「キャラクタへのアクセスに関する設定情報2717」の2ビットの情報が「10」の場合、「端末が移動速度に関する条件を満たしたとき、他のキャラクタからのアクセスを制御する」と設定していることを示していることになる。したがって、基地局は、端末からの「キャラクタへのアクセスに関する設定情報2717」の2ビットの情報「10」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタに対し、仮想空間で、他のキャラクタのアクセスを制御すると設定し、これに基づいて、仮想空間の情報を生成することになる。
 「時間におけるキャラクタ表示方法に関する設定情報2718」は、「時間を考慮した端末に相当するキャラクタを仮想空間に表示する方法に関する情報」である。
 例えば、時間を考慮した端末に相当するキャラクタを仮想空間に表示する方法として、「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する方法」、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法」、があるものとする。
 「時間におけるキャラクタ表示方法に関する設定情報2718」が1ビットの情報であったする。そして、「時間におけるキャラクタ表示方法に関する設定情報2718」の1ビットの情報が「1」の場合、「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する方法」を設定していることを示していることになる。
 したがって、基地局は、端末からの時間におけるキャラクタ表示方法に関する設定情報2718」の1ビットの情報「1」をサーバーに伝送し、サーバーは、この端末に相当するキャラクタを、時間に関係なく表示するというように処理し、仮想空間の情報を生成することになる。
 「時間におけるキャラクタ表示方法に関する設定情報2718」の1ビットの情報が「0」の場合、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法」を設定していることを示していることになる。したがって、基地局は、端末からの「時間におけるキャラクタ表示方法に関する設定情報2718」の1ビットの情報「0」をサーバーに伝送する。また、端末は、端末(自身)に相当するキャラクタを仮想空間に表示しない時間の情報、および/または、端末(自身)に相当するキャラクタを仮想空間に表示する時間の情報を、基地局を介して、サーバーに伝送する。このとき、「基地局を介して」と記載したが、基地局を介さなくてもよい。サーバーは、「端末(自身)に相当するキャラクタを仮想空間に表示しない時間の情報、および/または、端末(自身)に相当するキャラクタを仮想空間に表示する時間の情報」に基づいて、この端末に相当するキャラクタを仮想空間に登場させるか否かを決定することになる。なお、「時間の情報」は、日付の情報を含んでいてもよいし、時間の情報を含んでいてもよい。
 また、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法」の具体的な例については、後で説明を行う。
 以上のように、端末が端末設定情報を基地局に対し送信することで、基地局、サーバーは、端末が要望する形態の「実施の形態1で説明した「実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるサービス」」を形態できるという効果を得ることができる。
 「キャラクタ表示方法に関する設定情報2712」に関する説明において、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、キャラクタ表示を行う場所とキャラクタ表示を行わない場所の設定」について説明を行った。以下では、この部分について説明を行う。
 図28Aは、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、キャラクタ表示を行う場所とキャラクタ表示を行わない場所の設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図28Aでは、端末とサーバーのやりとりを示しているが、図28Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図28Aに示すように、端末は「端末情報」を送信する(2801A)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(2851A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末は、「仮想空間における(端末に相当する)キャラクタ表示、非表示設定開始に関する情報」を送信する(2802A)。
 サーバーは、「仮想空間における(端末に相当する)キャラクタ表示、非表示設定開始に関する情報」を得る(2852A)。
 これにより、端末とサーバーは、仮想空間における(端末に相当する)キャラクタ表示、非表示設定手続きを開始することになる。
 そして、端末は、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」を送信する(2803A)。
 サーバーは、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」を得る(2853A)。
 なお、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」としているが、「表示エリア、非表示エリア」の情報のいずれか一方の情報であってもよい。
 次に、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリア」の設定の例について説明を行う。
 図28Bは、端末が設定する「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリア」の設定の例を示している。
 図28Bに示すように、例えば、実空間#1のエリア(2841_1Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示する(キャラクタ表示)、というように設定する。
 実空間#2のエリア(2841_2Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示しない(キャラクタ非表示)、というように設定する。
 実空間#3のエリア(2841_3Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示する(キャラクタ表示)、というように設定する。
 ・・・
 なお、端末が、仮想空間における(端末に相当する)キャラクタ表示エリア、非表示エリアを設定する際、端末が搭載している表示部、または、端末に接続されている表示装置には、例えば、図28Bのような、実空間、仮想空間に相当するマップに、端末に相当するキャラクタ表示エリア、非表示設定エリアが表示されるようにしてもよい。そして、端末は、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」を、サーバーに送信することになる(図28A参照)。
 図28Cは、端末が設定する「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリア」の設定の例を示している。
 図28Cに示すように、例えば、実空間における「A駅」の半径8km以内のエリア(2842_Aの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示する(キャラクタ表示)、というように設定する。
 実空間における「B駅」の半径5km以内のエリア(2842_Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示しない(キャラクタ非表示)、というように設定する。
 ・・・
 実空間における「建物N」半径5km以内のエリア(2842_Nの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示しない(キャラクタ非表示)、というように設定する。
 なお、端末が、仮想空間における(端末に相当する)キャラクタ表示エリア、非表示エリアを設定する際、端末が搭載している表示部、または、端末に接続されている表示装置には、例えば、図28Cのような、実空間、仮想空間に相当するマップに、端末に相当するキャラクタ表示エリア、非表示設定エリアが表示されるようにしてもよい。そして、端末は、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」を、サーバーに送信することになる(図28A参照)。
 図28Dは、端末が設定する「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリア」の設定の例を示している。
 図28Dに示すように、例えば、仮想空間#1のエリア(2843_1Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示する(キャラクタ表示)、というように設定する。
 仮想空間#2のエリア(2843_2Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示しない(キャラクタ非表示)、というように設定する。
 仮想空間#3のエリア(2843_3Bの内側)に端末が存在する場合、仮想空間では、端末に相当するキャラクタを表示する(キャラクタ表示)、というように設定する。
 ・・・
 なお、端末が、仮想空間における(端末に相当する)キャラクタ表示エリア、非表示エリアを設定する際、端末が搭載している表示部、または、端末に接続されている表示装置には、例えば、図28Dのような、実空間、仮想空間に相当するマップに、端末に相当するキャラクタ表示エリア、非表示設定エリアが表示されるようにしてもよい。そして、端末は、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」を、サーバーに送信することになる(図28A参照)。
 図28Eは、「実空間における端末の位置に基づき、仮想空間に、端末に相当するキャラクタを表示する際、キャラクタ表示を行う場所とキャラクタ表示を行わない場所の設定」後の例えば図1における「端末、基地局、サーバーのやりとり」の例を示している。
 図28Eに示すように、端末は「端末情報」を、基地局を介して、サーバーに送信する(2801C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(2851C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末と基地局がやり取りを行う。そして、基地局は、「端末の位置情報」をサーバーに送信する(2899C)。なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図28Eでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(2852C)。
 サーバーは、「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」と「端末の位置情報」から、「端末の位置情報」に相当する仮想空間の位置に「端末に相当するキャラクタ」を登場させるか判断を行い、この判断に基づいた「仮想空間における(端末に相当する)キャラクタ表示エリア、キャラクタ非表示エリアに関する情報に基づいた仮想空間情報」を生成し、基地局を介し、端末に送信する(2853C)。
 端末は、「仮想空間における(端末に相当する)キャラクタ表示エリア、キャラクタ非表示エリアに関する情報に基づいた仮想空間情報」を得ることになり(2802C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。なお、仮想空間における自身(端末)に相当するキャラクタの表示部、表示装置の「表示、非表示」は、図28Aにおける「仮想空間における(端末に相当する)キャラクタ表示エリア、非表示設定エリアに関する情報」に基づいていることになる。
 以上のように実施するときの利点について説明する。
 端末を保有するユーザとしては、例えば、「自身が住んでいる場所に関する情報」、「自身のオフィス、自身が通っている学校などの情報」のような個人情報を保護したいという要望がある可能性がある。そして、上述で説明したように、端末に相当するキャラクタの仮想空間における表示、非表示の制御を行うことで、個人情報を保護することができるという効果を得ることができる。
 「速さにおけるキャラクタ表示方法に関する設定情報2715」に関する説明において、「速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法に関する設定」について説明を行った。以下では、この部分について説明を行う。
 図29Aは、図1における端末とそれを携帯するユーザの実空間における状況の一例を示している。ユーザ2901は、端末2902を携帯して、車2900に搭乗しているものとする。このとき、車2900が時速50kmで走行しているものとする。
 すると、実空間において、端末2902も時速50kmで移動することになるが、このとき、実施の形態1で説明したように、仮想空間に端末2902に相当するキャラクタを表示した場合、端末2902に相当するキャラクタが仮想空間内を高速に移動することになる。すると、以下のような課題が発生する場合がある。
 ・このような場面を仮想空間に表示した場合、鮮明に端末2902に相当するキャラクタを表示部、表示装置に表示するのが難しい場合がある。
 ・仮想空間内において、他の端末に相当するキャラクタが、端末2902に相当するキャラクタに対して、アクセス(例えば、チャット、メッセージ送信、通信など)が難しい場合がある。
 なお、図29Aでは、端末2902を携帯するユーザ2901が、車2900に搭乗して移動している例を示しているが、これに限ったものではなく、端末2902を携帯するユーザ2901が、「電気自動車、電動バイク、電動自転車、電動キックボード、電動アシスト自転車、電動アシストキックボード、電車」のような電気に基づいた動く装置、「自動車、バイク、自転車、船舶、航空機、飛行機、列車など」などの動く装置を利用して、移動しているときについても同様に実施することができる。また、端末が、動くロボット、「電気自動車、電動バイク、電動自転車、電動キックボード、電動アシスト自転車、電動アシストキックボード、電車」のような電気に基づいた動く装置、「自動車、バイク、自転車、船舶、航空機、飛行機、列車など」などの動く装置に搭載されている場合についても同様に実施することができる。
 これに対応するために、「速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法」の制御の具体的な例について説明を行う。
 図29Bは、「速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法の設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図29Bでは、端末とサーバーのやりとりを示しているが、図29Bにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図29Bに示すように、端末は「端末情報」を送信する(2901B)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(2951B)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末は、「速さにおける(端末に相当する)キャラクタ表示方法に関する設定開始に関する情報」を送信する(2902B)。
 サーバーは、「速さにおける(端末に相当する)キャラクタ表示方法に関する設定開始に関する情報」を得る(2952B)。
 これにより、端末とサーバーは、速さにおける(端末に相当する)キャラクタ表示方法に関する手続きを開始することになる。
 そして、端末は、「速さにおける(端末に相当する)キャラクタ表示方法に関する情報」を送信する(2903B)。
 サーバーは、「速さにおける(端末に相当する)キャラクタ表示方法に関する情報」を得る(2953B)。
 次に、「速さにおける(端末に相当する)キャラクタ表示方法」の設定の例について説明を行う。
 図29Cは、端末が設定する「速さにおける(端末に相当する)キャラクタ表示方法」の設定の例を示している。
 図29Cに示すように、以下の3つの設定のいずれかが可能であるものとする。なお、例えば、図29Cのように端末の表示部、表示装置に表示されてもよい。
 ・(端末の)移動速度に関係なく、端末に相当するキャラクタを仮想空間に表示する(2990)
 ・(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示を行わない(2991)
 ・(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示制御を施す(2992)
 なお、図29Bでは、「(端末の)移動速度に関係なく、端末に相当するキャラクタを仮想空間に表示する2990」が端末により選択されているときの例である。
 例えば、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示を行わない(2991)」という設定が、「実空間における端末の移動速度が時速30km以上のとき、端末に相当するキャラクタの仮想空間への表示を行わないとし、実空間における端末の移動速度が時速30km未満のとき、端末に相当するキャラクタの仮想空間への表示を行う」という設定であってもよい。(端末の)移動速度に関する条件は、この例に限ったものではない。
 「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示制御を施す(2992)」という設定の例について説明を行う。
 例えば、端末を携帯するユーザが列車に搭乗しているものとする。このとき、列車が走行しているとき、端末に相当するキャラクタの仮想空間への表示を行わないものとする(列車が一時的に停止、または、徐行したとしても、表示を行わないものとする)。一方で、列車が駅で停止しているとき、端末に相当するキャラクタの仮想空間への表示を行うものとする。なお、「列車が走行しているとき」、「列車が駅で停止しているとき」の識別は、端末の位置情報と地図における列車の走行経路とを照合することで、サーバーは判断することができることになる。
 このように、端末の移動に対し、一つ以上の条件付けを行い、条件に対する結果に応じて、端末に相当するキャラクタの仮想空間へ表示するか否かを制御することも可能である。なお、「(端末の)移動速度に関する条件を満たしたとき、端末に相当するキャラクタの仮想空間への表示制御を施す(2992)」という設定の例は上記例に限ったものではない。
 そして、端末は、「速さにおける(端末に相当する)キャラクタ表示方法に関する情報」を、サーバーに送信することになる(図29B参照)。
 図29Dは、「速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法の設定」後の例えば図1における「端末、基地局、サーバーのやりとり」の例を示している。
 図29Dに示すように、端末は「端末情報」を、基地局を介して、サーバーに送信する(2901C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(2951C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末と基地局がやり取りを行う。そして、基地局は、「端末の位置情報」をサーバーに送信する(2999C)。なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図29Dでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(2952C)。
 また、基地局は、「端末の速度情報」をサーバーに送信する(2998C)。なお、このとき、端末が、基地局に「端末(自身)の速度情報」を送信してもよい。(このため、図29Dでは、点線の矢印を記載している。)
 サーバーは、「端末の速度情報」を得る(2953C)。そして、サーバーは、「端末の位置情報」、「端末の速度情報」から、この端末に相当するキャラクタを仮想空間に登場させるか否かを判断し、この判断に基づいた仮想空間の情報(「速さにおけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」)を生成する。なお、「端末に相当するキャラクタを仮想空間に登場させるか否かを判断」の例については、図29Bを用いて説明を行っている。
 サーバーは、「速さにおけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(2954C)。
 端末は、「速さにおけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(2902C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。なお、仮想空間における自身(端末)に相当するキャラクタの表示部、表示装置の「表示方法」は、図29Bにおける「速さにおける(端末に相当する)キャラクタ表示方法に関する情報」に基づいていることになる。
 図29Eは、「速さを考慮した端末に相当するキャラクタを仮想空間に表示する方法の設定」後の例えば図1における「端末、基地局、サーバーのやりとり」の図29Dとは異なる例を示している。
 図29Eに示すように、端末は「端末情報」を、基地局を介して、サーバーに送信する(2901C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(2951C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末と基地局がやり取りを行う。そして、基地局は、「端末の位置情報」をサーバーに送信する(2999C)。なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図29Dでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(2952C)。
 また、基地局は、「端末の位置情報」をサーバーに送信する(2999D)なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図29Eでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(2952D)。そして、サーバーは、2回の「端末の位置情報」から、端末の移動速度を推定し、この端末に相当するキャラクタを仮想空間に登場させるか否かを判断し、この判断に基づいた仮想空間の情報(「速さにおけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」)を生成する。なお、「端末に相当するキャラクタを仮想空間に登場させるか否かを判断」の例については、図29Bを用いて説明を行っている。ここでは、2回の「端末の位置情報」から、端末の移動速度を推定しているが、複数回の「端末の位置情報」から、端末の移動速度を推定してもよい。また、1回以上の「端末の位置情報」から、地図上における位置を把握することで、端末の移動速度を推定してもよい。
 サーバーは、「速さにおけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(2954C)。
 端末は、「速さにおけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(2902C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。なお、仮想空間における自身(端末)に相当するキャラクタの表示部、表示装置の「表示方法」は、図29Bにおける「速さにおける(端末に相当する)キャラクタ表示方法に関する情報」に基づいていることになる。
 以上のようにすることで、実空間の端末の移動状況に応じて、仮想空間に端末に相当するキャラクタの表示、非表示の制御を行うことで、鮮明な画像の仮想空間の情報を提供することができることになる。また、仮想空間内において、他の端末に相当するキャラクタが、端末に相当するキャラクタに対して、アクセスが難しい状況を回避することができる。
 図30Aは、「プッシュ通知に関する設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図30Aでは、端末とサーバーのやりとりを示しているが、図30Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図30Aに示すように、端末#Aは「端末情報」を送信する(3001A)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3051A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末#Aは、「プッシュ通知に関する設定開始に関する情報」を送信する(3002A)。
 サーバーは、「プッシュ通知に関する設定開始に関する情報」を得る(3052A)。
 これにより、端末#Aとサーバーは、プッシュ通知に関する手続きを開始することになる。
 そして、端末#Aは、「プッシュ通知に関する情報」を送信する(3003A)。
 サーバーは、「プッシュ通知に関する情報」を得る(3053A)。
 次に、「プッシュ通知」の設定の例について説明を行う。
 図30Bは、端末が設定する「プッシュ通知」の設定の例を示している。
 図30Bに示すように、以下の2つの設定のいずれかが可能であるものとする。なお、例えば、図30Bのように端末の表示部、表示装置に表示されてもよい。
 ・プッシュ通知を受け取る(3090)
 ・プッシュ通知を受け取らない(3091)
 なお、図30Bでは、「プッシュ通知を受け取る(3090)」が端末により選択されているときの例である。
 そして、端末は、「プッシュ通知に関する情報」を、サーバーに送信することになる(図30A参照)。
 図30Cは、「プッシュ通知に関する設定」後の例えば図1における「端末、基地局、サーバーのやりとり」の例を示している。
 図30Cに示すように、端末#Aは「端末情報」を、基地局を介して、サーバーに送信する(3001C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3051C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末#Aと基地局がやり取りを行う。そして、基地局は、「端末#Aの位置情報」をサーバーに送信する(3099C)。なお、このとき、端末#Aが、基地局に「端末(自身)#Aの位置情報」を送信してもよい。(このため、図30Cでは、点線の矢印を記載している。)
 サーバーは、「端末#Aの位置情報」を得る(3052C)。
 サーバーは、種々の設置に基づき、仮想空間情報を生成し、基地局を介し、端末#Aに送信する(3053C)。(このとき、端末#Aに相当するキャラクタの情報も含んでいることになる)
 端末#Aは、仮想空間情報を得る(3002C)。
 その後、端末#Bが、「端末#Aへ情報」を送信するものとする(3021C)。このとき、端末#Bが端末#Aへ送信する情報としては、実施の形態1で説明したように、「通信、チャット、画像(静止画)の送信、動画の送信、広告の送信、広告の配信、クーポンの配信」などがあるが、これらの例に限ったものではない。
 そして、端末#Aが「プッシュ通知に関する設定」において、「プッシュ通知を受け取る」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信する(3054C)。端末#Aは、「端末#Aへ情報」を得ることになり(3003C)、これがプッシュ通知となる。なお、「基地局を介して」と記載したが、基地局を介さなくてもよい。
 端末#Aが「プッシュ通知に関する設定」において、「プッシュ通知を受け取らない」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信しない。
 以上のようにすることで、実空間の端末は、他の端末からのアクセスに対し、情報を得るか否かを制御することが可能となる。また、例えば、ARグラスを身に着けているユーザは、他のユーザ、および/または、キャラクタからアクセスがあったことを通知しなくてもわかるが、ARグラスを身に着けていないユーザにも、他のユーザ、および/または、キャラクタからアクセスがあったことがわかるようになるという効果を得ることができる。
 「キャラクタへのアクセスに関する設定情報2717」に関する説明において、「端末に相当するキャラクタに対し、他のキャラクタがアクセス可能か否かに関する設定」について説明を行った。以下では、この部分について説明を行う。
 図31Aは、「キャラクタへのアクセスに関する設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図31Aでは、端末とサーバーのやりとりを示しているが、図31Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図31Aに示すように、端末#Aは「端末情報」を送信する(3101A)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3151A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末#Aは、「キャラクタへのアクセスに関する設定開始に関する情報」を送信する(3102A)。
 サーバーは、「キャラクタへのアクセスに関する設定開始に関する情報」を得る(3152A)。
 これにより、端末#Aとサーバーは、(端末に相当する)キャラクタに対し、他のキャラクタがアクセス可能か否かに関する手続きを開始することになる。
 そして、端末#Aは、「キャラクタへのアクセスに関する情報」を送信する(3103A)。
 サーバーは、「キャラクタへのアクセスに関する情報」を得る(3153A)。
 次に、「キャラクタへのアクセスに関する」の設定の例について説明を行う。
 図31Bは、端末が設定する「キャラクタへのアクセスに関する」の設定の例を示している。
 図31Bに示すように、以下の3つの設定のいずれかが可能であるものとする。なお、例えば、図31Bのように端末の表示部、表示装置に表示されてもよい。
 ・他のキャラクタからのアクセスを許可(3190)
 ・他のキャラクタからのアクセスを許可しない(3191)
 ・端末が移動速度に関する条件に基づき、他のキャラクタからのアクセスを制御する(3192)
 なお、31Bでは、「他のキャラクタからのアクセスを許可(3190)」が端末により選択されているときの例である。
 例えば、「端末が移動速度に関する条件に基づき、他のキャラクタからのアクセスを制御する(3192)」という設定が、「実空間における端末の移動速度が時速30km以上のとき、他のキャラクタからのアクセスを許可せず、実空間における端末の移動速度が時速30km未満のとき、他のキャラクタからのアクセスを許可する」という設定であってもよい。(端末の)移動速度に関する条件は、この例に限ったものではない。
 このように、端末の移動に対し、一つ以上の条件付けを行い、条件に対する結果に応じて、他のキャラクタからのアクセスを制御することも可能である。なお、「端末が移動速度に関する条件を満たしたとき、他のキャラクタからのアクセスを制御する(3192)」という設定の例は上記例に限ったものではない。
 そして、端末は、「キャラクタへのアクセスに関する情報」を、サーバーに送信することになる(図31A参照)。
 図31Cは、「キャラクタへのアクセスに関する」設定後の例えば図1における「端末、基地局、サーバーのやりとり」の例を示している。
 図31Cに示すように、端末#Aは「端末情報」を、基地局を介して、サーバーに送信する(3101C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3151C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末#Aと基地局がやり取りを行う。そして、基地局は、「端末#Aの位置情報」をサーバーに送信する(3199C)。なお、このとき、端末#Aが、基地局に「端末(自身)#Aの位置情報」を送信してもよい。(このため、図31Cでは、点線の矢印を記載している。)
 サーバーは、「端末#Aの位置情報」を得る(3152C)。
 サーバーは、種々の設置に基づき、仮想空間情報を生成し、基地局を介し、端末#Aに送信する(3153C)。(このとき、端末#Aに相当するキャラクタの情報も含んでいることになる)
 端末#Aは、仮想空間情報を得る(3102C)。
 その後、端末#Bが、「端末#Aへ情報」を送信するものとする(3121C) このとき、端末#Bが端末#Aへ送信する情報としては、実施の形態1で説明したように、「通信、チャット、画像(静止画)の送信、動画の送信、広告の送信、広告の配信、クーポンの配信」などがあるが、これらの例に限ったものではない。
 そして、端末#Aが「キャラクタへのアクセスに関する設定」において、「他のキャラクタからのアクセスを許可(3190)」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信する(3154C)。端末#Aは、「端末#Aへ情報」を得ることになり(3103C)、これがプッシュ通知であってもよい。プッシュ通知については、上述で説明したとおりとなる。また、「端末#Aへ情報」は、プッシュ通知でなくてもよい。例えば、端末#AがAR表示装置の場合、または、端末#AがAR表示装置と接続されている場合、端末#Aへ情報に相当する表示を行ってしまってもよい。
 なお、「基地局を介して」と記載したが、基地局を介さなくてもよい。
 端末#Aが「キャラクタへのアクセスに関する設定」において、「他のキャラクタからのアクセスを許可しない(3191)」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信しない。
 図31Dは、「キャラクタへのアクセスに関する」設定後の例えば図1における「端末、基地局、サーバーのやりとり」の図31Cとは異なる例を示している。なお、図31Cと同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 図31Dに示すように、端末#Aは「端末情報」を、基地局を介して、サーバーに送信する(3101C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3151C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末#Aと基地局がやり取りを行う。そして、基地局は、「端末#Aの位置情報」をサーバーに送信する(3199C)。なお、このとき、端末#Aが、基地局に「端末(自身)#Aの位置情報」を送信してもよい。(このため、図31Dでは、点線の矢印を記載している。)
 サーバーは、「端末#Aの位置情報」を得る(3152C)。
 また、基地局は、「端末#Aの速度情報」をサーバーに送信する(3198D)なお、このとき、端末#Aが、基地局に「端末(自身)の速度情報」を送信してもよい。(このため、図31Dでは、点線の矢印を記載している。)
 サーバーは、「端末#Aの速度情報」を得る(3155D)。そして、サーバーは、「端末#Aの位置情報」、「端末#Aの速度情報」から、他の端末からのアクセスを許可するか否かを判断し、この判断に基づいた仮想空間の情報を生成し、また、この判断に基づいて、端末#Aに情報を伝送することになる。なお、「端末#Aに情報を伝送するか否かを判断」の例については、図31Bを用いて説明を行っている。
 サーバーは、種々の設置に基づき、仮想空間情報を生成し、基地局を介し、端末#Aに送信する(3153C)。(このとき、端末#Aに相当するキャラクタの情報も含んでいることになる)
 端末#Aは、仮想空間情報を得る(3102C)。
 その後、端末#Bが、「端末#Aへ情報」を送信するものとする(3121C) このとき、端末#Bが端末#Aへ送信する情報としては、実施の形態1で説明したように、「通信、チャット、画像(静止画)の送信、動画の送信、広告の送信、広告の配信、クーポンの配信」などがあるが、これらの例に限ったものではない。
 そして、端末#Aが「キャラクタへのアクセスに関する設定」において、「他のキャラクタからのアクセスを許可(3190)」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信する(3154C)。端末#Aは、「端末#Aへ情報」を得ることになり(3103C)、これがプッシュ通知であってもよい。プッシュ通知については、上述で説明したとおりとなる。また、「端末#Aへ情報」は、プッシュ通知でなくてもよい。例えば、端末#AがAR表示装置の場合、または、端末#AがAR表示装置と接続されている場合、端末#Aへ情報に相当する表示を行ってしまってもよい。
 なお、「基地局を介して」と記載したが、基地局を介さなくてもよい。
 端末#Aが「キャラクタへのアクセスに関する設定」において、「他のキャラクタからのアクセスを許可しない(3191)」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信しない。
 端末#Aが「キャラクタへのアクセスに関する設定」において、「端末が移動速度に関する条件に基づき、他のキャラクタからのアクセスを制御する(3192)」に設定している場合、サーバーは、端末#Aから得られた「端末#Aの速度情報」と「端末が移動速度に関する条件」を比較し、他のキャラクタ(他の端末)からの情報を端末#Aに伝送するかの判断を行うことになる。
 サーバーは、「端末#Aに、他のキャラクタ(他の端末)からの情報を伝送する」と判断したものとする。すると、端末#Bからの「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信する(3154C)。端末#Aは、「端末#Aへ情報」を得ることになり(3103C)、これがプッシュ通知であってもよい。プッシュ通知については、上述で説明したとおりとなる。また、「端末#Aへ情報」は、プッシュ通知でなくてもよい。例えば、端末#AがAR表示装置の場合、または、端末#AがAR表示装置と接続されている場合、端末#Aへ情報に相当する表示を行ってしまってもよい。
 なお、「基地局を介して」と記載したが、基地局を介さなくてもよい。
 サーバーは、「端末#Aに、他のキャラクタ(他の端末)からの情報を伝送しない」と判断したものとする。すると、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信しない。
 図31Eは、「キャラクタへのアクセスに関する」設定後の例えば図1における「端末、基地局、サーバーのやりとり」の図31C、図31Dとは異なる例を示している。なお、図31Cと同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 図31Eに示すように、端末#Aは「端末情報」を、基地局を介して、サーバーに送信する(3101C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3151C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末#Aと基地局がやり取りを行う。そして、基地局は、「端末#Aの位置情報」をサーバーに送信する(3199C)。なお、このとき、端末#Aが、基地局に「端末(自身)#Aの位置情報」を送信してもよい。(このため、図31Eでは、点線の矢印を記載している。)
 サーバーは、「端末#Aの位置情報」を得る(3152C)。
 また、基地局は、「端末#Aの位置情報」をサーバーに送信する(3197E)なお、このとき、端末が、基地局に「端末(自身)#Aの位置情報」を送信してもよい。(このため、図31Eでは、点線の矢印を記載している。)
 サーバーは、「端末#Aの位置情報」を得る(3156E)。そして、サーバーは、2回の「端末#Aの位置情報」から、端末#Aの移動速度を推定することになる。ここでは、2回の「端末#Aの位置情報」から、端末#Aの移動速度を推定しているが、複数回の「端末#Aの位置情報」から、端末#Aの移動速度を推定してもよい。また、1回以上の「端末#Aの位置情報」から、地図上における位置を把握することで、端末#Aの移動速度を推定してもよい。
 サーバーは、「端末#Aの位置情報」、「推定した端末#Aの移動速度」から、他の端末からのアクセスを許可するか否かを判断し、この判断に基づいた仮想空間の情報を生成し、また、この判断に基づいて、端末#Aに情報を伝送することになる。なお、「端末#Aに情報を伝送するか否かを判断」の例については、図31Bを用いて説明を行っている。
 サーバーは、種々の設置に基づき、仮想空間情報を生成し、基地局を介し、端末#Aに送信する(3153C)。(このとき、端末#Aに相当するキャラクタの情報も含んでいることになる)
 端末#Aは、仮想空間情報を得る(3102C)。
 その後、端末#Bが、「端末#Aへ情報」を送信するものとする(3121C) このとき、端末#Bが端末#Aへ送信する情報としては、実施の形態1で説明したように、「通信、チャット、画像(静止画)の送信、動画の送信、広告の送信、広告の配信、クーポンの配信」などがあるが、これらの例に限ったものではない。
 そして、端末#Aが「キャラクタへのアクセスに関する設定」において、「他のキャラクタからのアクセスを許可(3190)」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信する(3154C)。端末#Aは、「端末#Aへ情報」を得ることになり(3103C)、これがプッシュ通知であってもよい。プッシュ通知については、上述で説明したとおりとなる。また、「端末#Aへ情報」は、プッシュ通知でなくてもよい。例えば、端末#AがAR表示装置の場合、または、端末#AがAR表示装置と接続されている場合、端末#Aへ情報に相当する表示を行ってしまってもよい。
 なお、「基地局を介して」と記載したが、基地局を介さなくてもよい。
 端末#Aが「キャラクタへのアクセスに関する設定」において、「他のキャラクタからのアクセスを許可しない(3191)」に設定している場合、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信しない。
 端末#Aが「キャラクタへのアクセスに関する設定」において、「端末が移動速度に関する条件に基づき、他のキャラクタからのアクセスを制御する(3192)」に設定している場合、サーバーは、端末#Aから得られた「推定した端末#Aの移動速度」と「端末が移動速度に関する条件」を比較し、他のキャラクタ(他の端末)からの情報を端末#Aに伝送するかの判断を行うことになる。
 サーバーは、「端末#Aに、他のキャラクタ(他の端末)からの情報を伝送する」と判断したものとする。すると、端末#Bからの「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信する(3154C)。端末#Aは、「端末#Aへ情報」を得ることになり(3103C)、これがプッシュ通知であってもよい。プッシュ通知については、上述で説明したとおりとなる。また、「端末#Aへ情報」は、プッシュ通知でなくてもよい。例えば、端末#AがAR表示装置の場合、または、端末#AがAR表示装置と接続されている場合、端末#Aへ情報に相当する表示を行ってしまってもよい。
 なお、「基地局を介して」と記載したが、基地局を介さなくてもよい。
 サーバーは、「端末#Aに、他のキャラクタ(他の端末)からの情報を伝送しない」と判断したものとする。すると、サーバーは、端末#Bから得た「端末#Aへ情報」を例えば、基地局を介して、端末#Aに送信しない。
 以上のようにすることで、実空間の端末の状況に応じて、端末に相当するキャラクタに対し、他のキャラクタがアクセス可能か否かに関する制御を行うことで、ユーザの状況に応じて、好適な情報を提供することができることになる。また、仮想空間内において、端末に相当するキャラクタの「情報の取得が難しい状況」において、他の端末に相当するキャラクタからの情報送信を回避することができる。
 「時間におけるキャラクタ表示方法に関する設定情報2718」に関する説明において、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法に関する設定」について説明を行った。以下では、この部分について説明を行う。
 図32Aは、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法の設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図32Aでは、端末とサーバーのやりとりを示しているが、図32Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図32Aに示すように、端末は「端末情報」を送信する(3201A)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3251A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末は、「時間における(端末に相当する)キャラクタ表示方法に関する設定開始に関する情報」を送信する(3202A)。
 サーバーは、「時間における(端末に相当する)キャラクタ表示方法に関する設定開始に関する情報」を得る(3252A)。
 これにより、端末とサーバーは、速さにおける(端末に相当する)キャラクタ表示方法に関する手続きを開始することになる。
 そして、端末は、「時間における(端末に相当する)キャラクタ表示方法に関する情報」を送信する(3203A)。
 サーバーは、「時間における(端末に相当する)キャラクタ表示方法に関する情報」を得る(3253A)。
 次に、「時間における(端末に相当する)キャラクタ表示方法」の設定の例について説明を行う。
 図32Bは、端末が設定する「時間における(端末に相当する)キャラクタ表示方法」の設定の例を示している。
 図32Bに示すように、以下の2つの設定のいずれかが可能であるものとする。なお、例えば、図32Bのように端末の表示部、表示装置に表示されてもよい。
 ・時間に関係なく、端末に相当するキャラクタを仮想空間に表示する(3290)
 ・時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法(3291)
 なお、図32Bでは、「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する3290」が端末により選択されているときの例である。
 図32Bにおいて、端末が「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する3290」を選択している場合、仮想空間では、端末に相当するキャラクタを表示されるように制御することになる。
 図32Bにおいて、端末が「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」を選択している場合、仮想空間では、端末に相当するキャラクタを表示しないときが存在するように制御することになる。
 そして、端末は、「時間における(端末に相当する)キャラクタ表示方法に関する情報」を、サーバーに送信することになる(図32A参照)。
 図32Cは、端末が設定する「時間における(端末に相当する)キャラクタ表示方法」の設定の図32Bとは異なる例を示している。なお、図32Cにおいて、図32Bと同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 図32Cに示すように、以下の2つの設定のいずれかが可能であるものとする。なお、例えば、図32Cのように端末の表示部、表示装置に表示されてもよい。
 ・時間に関係なく、端末に相当するキャラクタを仮想空間に表示する(3290)
 ・時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法(3291)
 なお、図32Cでは、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」が端末により選択されているときの例である。
 そして、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」が端末により選択されている場合、端末は、端末(自身)に相当するキャラクタの仮想空間に表示しない時間(例えば、日にち、時間帯、曜日など)を設定できるものとする。例えば、図32Cの場合、端末は、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」と設定したものとする。なお、例えば、「2030年1月1日0時から2030年1月1日12時まで」以外の時間では、端末に相当するキャラクタを仮想空間に表示するものとする。
 図32Cにおいて、端末が「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する3290」を選択している場合、仮想空間では、端末に相当するキャラクタを表示されるように制御することになる。
 そして、端末は、「時間における(端末に相当する)キャラクタ表示方法に関する情報」を、サーバーに送信することになる(図32A参照)。
 なお、図32Cでは、端末に相当するキャラクタを仮想空間に表示しない時間として、日にちと時間を指定しているが(3292_1)、端末に相当するキャラクタを仮想空間に表示しない時間を設定する方法は、この例に限ったものではなく、例えば、日にち、および/または、時間帯、および/または、曜日を設定してもよい。
 図32Dは、端末が設定する「時間における(端末に相当する)キャラクタ表示方法」の設定の図32B、図32Cとは異なる例を示している。なお、図32Dにおいて、図32Bと同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 図32Dに示すように、以下の2つの設定のいずれかが可能であるものとする。なお、例えば、図32Dのように端末の表示部、表示装置に表示されてもよい。
 ・時間に関係なく、端末に相当するキャラクタを仮想空間に表示する(3290)
 ・時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法(3291)
 なお、図32Dでは、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」が端末により選択されているときの例である。
 そして、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」が端末により選択されている場合、端末は、端末(自身)に相当するキャラクタの仮想空間に表示する時間(例えば、日にち、時間帯、曜日など)を設定できるものとする。例えば、図32Dの場合、端末は、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」と設定したものとする。なお、例えば、「2030年1月2日0時から2030年1月2日12時まで」以外の時間では、端末に相当するキャラクタを仮想空間に表示しないものとする。
 図32Dにおいて、端末が「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する3290」を選択している場合、仮想空間では、端末に相当するキャラクタを表示されるように制御することになる。
 そして、端末は、「時間における(端末に相当する)キャラクタ表示方法に関する情報」を、サーバーに送信することになる(図32A参照)。
 なお、図32Dでは、端末に相当するキャラクタを仮想空間に表示する時間として、日にちと時間を指定しているが(3292_2)、端末に相当するキャラクタを仮想空間に表示する時間を設定する方法は、この例に限ったものではなく、例えば、日にち、および/または、時間帯、および/または、曜日を設定してもよい。
 図32Eは、端末が設定する「時間における(端末に相当する)キャラクタ表示方法」の設定の図32B、図32C、図32Dとは異なる例を示している。なお、図32Eにおいて、図32B、図32C、図32Dと同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 図32Eに示すように、以下の2つの設定のいずれかが可能であるものとする。なお、例えば、図32Eのように端末の表示部、表示装置に表示されてもよい。
 ・時間に関係なく、端末に相当するキャラクタを仮想空間に表示する(3290)。
 ・時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法(3291)。
 なお、図32Eでは、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」が端末により選択されているときの例である。
 そして、「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」が端末により選択されている場合、端末は、
 ・端末(自身)に相当するキャラクタの仮想空間に表示しない時間(例えば、日にち、時間帯、曜日など)
 ・端末(自身)に相当するキャラクタの仮想空間に表示する時間(例えば、日にち、時間帯、曜日など)
 を設定できるものとする。
 例えば、図32Eの場合、端末は、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」と設定したものとする。
 また、例えば、図32Eの場合、端末は、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」と設定したものとする。
 図32Eにおいて、端末が「時間に関係なく、端末に相当するキャラクタを仮想空間に表示する3290」を選択している場合、仮想空間では、端末に相当するキャラクタを表示されるように制御することになる。
 そして、端末は、「時間における(端末に相当する)キャラクタ表示方法に関する情報」を、サーバーに送信することになる(図32A参照)。
 なお、図32Eでは、端末に相当するキャラクタを仮想空間に表示しない時間として、日にちと時間を指定しているが(3292_1)、端末に相当するキャラクタを仮想空間に表示しない時間を設定する方法は、この例に限ったものではなく、例えば、日にち、および/または、時間帯、および/または、曜日を設定してもよい。
 また、図32Eでは、端末に相当するキャラクタを仮想空間に表示する時間として、日にちと時間を指定しているが(3292_2)、端末に相当するキャラクタを仮想空間に表示する時間を設定する方法は、この例に限ったものではなく、例えば、日にち、および/または、時間帯、および/または、曜日を設定してもよい。
 図32Fは、「時間における(端末に相当する)キャラクタ表示方法」の設定後の例えば図1における「端末、基地局、サーバーのやりとり」の例を示している。
 図32Fに示すように、端末は「端末情報」を、基地局を介して、サーバーに送信する(3201C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3251C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末と基地局がやり取りを行う。そして、基地局は、「端末の位置情報」をサーバーに送信する(3299C)。なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図32Fでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(3252C)。
 そして、サーバーは、端末が行った「時間における(端末に相当する)キャラクタ表示方法」の設定に基づき処理を行うことになる。
 図32B、図32C、図32D、図32Eにおける「時間の関係なく、端末に相当するキャラクタを仮想空間に表示する3290」に設定されている場合、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(3254C)。ただし、仮想空間情報は、この端末に相当するキャラクタの情報を含んでいてもよい。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 図32Cのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たす際、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信してもよい(3254C)。ただし、この端末に相当するキャラクタの情報は、仮想空間情報に含まれていない。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 別の方法として、図32Cのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たす際、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、端末に送信しなくてもよい。
 図32Cのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たさないとき、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(3254C)。ただし、この端末に相当するキャラクタの情報は、仮想空間情報に含まれている。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 図32Dのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月2日0時から2030年1月2日12時まで」を満たす際、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(3254C)。ただし、この端末に相当するキャラクタの情報は、仮想空間情報に含まれている。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 図32Dのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月2日0時から2030年1月2日12時まで」を満たさないとき、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信してもよい(3254C)。ただし、この端末に相当するキャラクタの情報は、仮想空間情報に含まれていない。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 別の方法として、図32Dのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月2日0時から2030年1月2日12時まで」を満たさないとき、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、端末に送信しなくてもよい。
 図32Eのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たす際、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信してもよい(3254C)。ただし、この端末に相当するキャラクタの情報は、仮想空間情報に含まれていない。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 別の方法として、図32Eのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たす際、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、端末に送信しなくてもよい。
 図32Eのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月2日0時から2030年1月2日12時まで」を満たす際、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(3254C)。ただし、この端末に相当するキャラクタの情報は、仮想空間情報に含まれている。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 図32Eのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たさず、かつ、日時が「2030年1月2日0時から2030年1月2日12時まで」を満たないとき、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信してもよい(3254C)。
 端末は、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を得ることになり(3202C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。
 別の方法として、図32Eのように「時間に基づき、端末に相当するキャラクタの仮想空間への表示を制御する方法3291」に設定されており、「2030年1月1日0時から2030年1月1日12時まで端末に相当するキャラクタを仮想空間に表示しない3292_1」、「2030年1月2日0時から2030年1月2日12時まで端末に相当するキャラクタを仮想空間に表示する3292_2」に設定されている場合、日時が「2030年1月1日0時から2030年1月1日12時まで」を満たさず、かつ、日時が「2030年1月2日0時から2030年1月2日12時まで」を満たないとき、サーバーは、「時間におけるキャラクタ表示方法に関する情報に基づいた仮想空間情報」を、端末に送信しなくてもよい。
 以上のようにすることで、時間に応じて、仮想空間に端末に相当するキャラクタの表示、非表示の制御を行うことで、ユーザは、他の端末に相当するキャラクタとのアクセスを時間により制御することができる。そして、端末に相当するキャラクタの仮想空間における表示、非表示の制御を行うことで、個人情報を保護することができるという効果を得ることができる。
 (実施の形態4)
 実施の形態1において、図15、図16A、図16B、図16Cを用いて、高さ方向の位置推定の例について説明を行った。本実施の形態では、この方法とは異なる高さ方向の位置推定の例について説明を行う。
 図33Aは、高さ推定を行うためのシステム構成例を示している。図33Aのように、実空間において、道路、店舗3300_1、ビル3300_2が存在している。そして、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」が、店舗3300_1、ビル3300_2に存在している。そして、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3」は、店舗3300_1内に存在しており、「3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」はビル3300_2内に存在しているものとする。
 「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定することができる気圧センサーを具備しており、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定する。
 「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定することができる気圧センサーを具備しており、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ基地局と接続しており、これにより、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定することができる気圧センサーを具備しており、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、3次元、つまり、図16Cにおけるx軸、y軸、z軸方向の位置推定を行うことが可能であるものとする。具体的な推定方法の例については、実施の形態1で説明を行っている。なお、図33Aには、基地局は示されていない。
 また、別の方法として、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定することができる気圧センサーを具備しており、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、GPSなどの他のシステムにより、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定することができる気圧センサーを具備しており、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、3次元、つまり、図16Cにおけるx軸、y軸、z軸方向の位置推定を行うことが可能であるものとする。
 さらに、別の方法として、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、それぞれ気圧を測定することができる気圧センサーを具備しており、「3301_1の端末#1、3301_2の端末#2、3301_3の端末#3、3301_4の端末#4、3301_5の端末#5、3301_6の端末#6、3301_7の端末#7、3301_8の端末#8、3301_9の端末#9、3301_10の端末#10」は、例えば、設置された際に、3次元、つまり、図16Cにおけるx軸、y軸、z軸方向の位置情報を得ているものとする。
 なお、図33Aにおいて、端末を10台示しているが、システムで使用する端末は、複数であれば、同様に実施することが可能である。
 図33Aの3301_Aの端末#Aは、図33Bのようにネットワーク3302を介し、サーバー3303と通信を行っている。なお、例えば、Aは1以上10以下の整数とする。
 3301_Aの端末#Aは、サーバー3303に、3301_Aの端末#A(自身)の位置情報を送信する。このとき、位置情報は、すでに説明したように、3次元、つまり、図16Cにおけるx軸、y軸、z軸方向の位置情報で構成されており、高さ方向の情報を含んでいるものとする。
 また、3301_Aの端末#Aは、サーバー3303に、3301_Aの端末#A(自身)の位置における気圧情報を送信する。
 これにより、サーバー3303は、3301_Aの端末#Aの「位置情報、および、気圧情報」のセットを得ることになる。そして、サーバー3303は、複数の端末の「位置情報、および、気圧情報」のセットを得ることになり、これにより、サーバー3303は、「3次元、つまり、図16Cにおけるx軸、y軸、z軸方向」の位置と気圧の関係の情報を作成し、記憶することになる。
 なお、3301_Aの端末#Aがサーバー3303と通信を行う際、他の装置を介していてもよい。
 図33Cにおける端末3304は、位置推定部を具備しており、2次元、つまり、図16Cにおけるx軸、y軸方向の位置推定を行うことが可能であるものとする。また、端末3304は、気圧センサーを具備しており、気圧推定を行うことが可能であるものとする。図33Cは、実空間における様子を示しており、図33Aと同様に動作するものについては、同一番号を付しており、一部説明を省略する。端末3304は、2次元の位置情報、および、気圧情報を得、図33Dのように例えば、基地局3305、ネットワーク3302を介し、サーバー3303に送信するものとする。なお、図33Dにおいて、図33Bと同様に動作するものについては、同一番号を付しており、一部説明を省略する。
 そして、サーバー3303は、記憶している「3次元、つまり、図16Cにおけるx軸、y軸、z軸方向」の位置と気圧の関係の情報と、端末3304から得た「2次元の位置情報、および、気圧情報」を比較することで、端末3304の実空間における高さ(図16Cにおけるz方向)の推定を行う。サーバー3303は、推定した実空間における高さ情報を、ネットワーク3302、基地局3305を介し、端末3304に送信する。これにより、端末3304は実空間における高さ情報を得、実空間における高さを知ることになる。
 なお、図33Dにおいて、端末3304がサーバー3303と通信を行う際、基地局を介さなくてもよいし、また、他の装置を介してもよい。
 以上のようにすることで、端末は、3次元の位置推定を行うことが可能となる。そして、この3次元の位置推定方法を利用して、実施の形態1、実施の形態2、実施の形態3を含む実施の形態における端末は、各実施の形態を実施することが可能である。
 (実施の形態5)
 本明細書において、端末に相当するキャラクタが存在する仮想空間について説明を行ったが、仮想空間に、「端末とは関係しないキャラクタ」などのキャラクタが存在していてもよい。例えば、サーバーがキャラクタを発生させて、仮想空間に、そのキャラクタを存在させてもよい。このとき、このキャラクタの動作を、サーバーが制御してもよいし、他の装置が制御してもよい。
 例えば、仮想空間において、「端末に相当するキャラクタ」と「サーバーなどの装置が生成したキャラクタ」が、通信を行ったり、連絡を取ったり、メッセージを送信したり、チャット(または、音声によるやりとり)したりしてもよい。(このとき、「サーバーなどの装置が生成したキャラクタ」の対応は、サーバーなどの装置が信号処理を行い対応するとしてもよい。)
 また、「端末に相当するキャラクタ」と「サーバーなどの装置が生成したキャラクタ」が、例えば、(連動して)仮想空間において、行動してもよい。
 次に、「端末に相当するキャラクタの仮想空間における動作の制御」について説明を行う。
 図27は、図1における101_1の端末#1、101_2の端末#2、101_101の端末#101、101_102の端末#102を例とする端末が送信する変調信号に含まれる端末設定情報2700に関する構成の一例を示している。端末設定情報2700は、例えば、「キャラクタ動作設定に関する情報2719」を含んでいるものとする。このとき、端末は、端末設定情報2700を、基地局に送信することになる。
 図34Aは、「キャラクタ動作設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図34Aでは、端末とサーバーのやりとりを示しているが、図34Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図34Aに示すように、端末は「端末情報」を送信する(3401A)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3451A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末は、「(端末に相当する)キャラクタの動作設定開始情報」を送信する(3402A)。
 サーバーは、「(端末に相当する)キャラクタの動作設定開始情報」を得る(3452A)。
 これにより、端末とサーバーは、(端末に相当する)キャラクタの動作設定に関する手続きを開始することになる。
 そして、端末は、「(端末に相当する)キャラクタの動作設定情報」を送信する(3403A)。
 サーバーは、「(端末に相当する)キャラクタの動作設定情報」を得る(3453A)。
 サーバーは、「端末情報、(端末に相当する)キャラクタ情報、(端末に相当する)キャラクタの動作設定情報」のセットの情報を記憶することになる(3454A)。
 これにより、サーバーは、仮想空間における端末に相当するキャラクタの動作を制御することになる。具体的な制御方法について説明を行う。
 実施の形態1などで説明した端末の位置に基づいてキャラクタを生成した場合、端末に相当するキャラクタを、端末の位置に応じて仮想空間に登場させることができる。一方で、端末に相当するキャラクタを仮想空間で登場させた後に動作を制御するとよりリアルのキャラクタの実現が可能となる。
 以降では、端末に相当するキャラクタの動作を制御する方法の設定の例について説明を行う。
 図34Bは、端末が設定する「(端末に相当する)キャラクタの動作設定」の例を示している。
 図34Bに示すように、例えば、以下のいずれかの設定が可能であるものとする。なお、例えば、図34Bのように端末の表示部、表示装置に表示されてもよい。
 ・自動3490B
 例えば、このモードに設定した場合、端末に相当するキャラクタは、仮想空間内で自動的に動作を行うことになる。
 ・カスタマイズ3491B
 例えば、このモードに設定した場合、端末に相当するキャラクタが、「静止中3492B_1」の動作、「歩行中3492B_2」の動作、「走行中3492_B」の動作をそれぞれ設定することが可能となる。
 端末に相当するキャラクタが「静止中3492B_1」の場合のために、端末に相当するキャラクタの動作として、「ダンス1」、「ダンス2」のいずれかを選択できるものとする。
 端末に相当するキャラクタが「歩行中3492B_2」の場合のために、端末に相当するキャラクタの動作として、「ステップ1」、「ステップ2」のいずれかを選択できるものとする。
 端末に相当するキャラクタが「走行中3492_B」の場合のために、端末に相当するキャラクタの動作として、「姿勢1」、「姿勢2」のいずれかを選択できるものとする。
 そして、図34Bのように端末が「(端末に相当する)キャラクタの動作設定」を行い、この設定に関する情報を、「(端末に相当する)キャラクタの動作設定情報」として送信することになり、サーバーは「(端末に相当する)キャラクタの動作設定情報」を得ることになる。そして、サーバーは、「(端末に相当する)キャラクタの動作設定情報」に基づいて、(端末に相当する)キャラクタの動作を制御し、仮想空間の情報を生成することになる。
 なお、「(端末に相当する)キャラクタの動作設定」の例は、図34Bの例に限ったものではない。
 図34Cは、「キャラクタ動作設定」後の例えば図1における「端末、基地局、サーバーのやりとり」の例を示している。
 図34Cに示すように、端末は「端末情報」を、基地局を介して、サーバーに送信する(3401C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3451C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末と基地局がやり取りを行う。そして、基地局は、「端末の位置情報」をサーバーに送信する(3499C)。なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図34Cでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(3452C)。
 また、基地局は、「端末の速度情報」をサーバーに送信する(3498C)なお、このとき、端末が、基地局に「端末(自身)の速度情報」を送信してもよい。(このため、図34Cでは、点線の矢印を記載している。)
 サーバーは、「端末の速度情報」を得る(3453C)。そして、サーバーは、「端末の位置情報」、「端末の速度情報」から、この端末に相当するキャラクタの仮想空間における動作を設定し、「キャラクタ動作設定に関する情報に基づいた仮想空間情報」を生成する。なお、「キャラクタ動作設定に基づいた動作」の例については、図34Bを用いて説明を行っている。
 サーバーは、「キャラクタ動作設定に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(3454C)
 端末は、「キャラクタ動作設定に関する情報に基づいた仮想空間情報」を得ることになり(3402C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。なお、仮想空間における自身(端末)に相当するキャラクタの表示部、表示装置の「動作について」は、図34Bにおける「(端末に相当する)キャラクタの動作設定」に基づいていることになる。
 図34Dは、「キャラクタ動作設定」後の例えば図1における「端末、基地局、サーバーのやりとり」の図34Cとは異なる例を示している。
 図34Cに示すように、端末は「端末情報」を、基地局を介して、サーバーに送信する(3401C)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(3451C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末と基地局がやり取りを行う。そして、基地局は、「端末の位置情報」をサーバーに送信する(3499C)。なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図34Cでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(3452C)。
 また、基地局は、「端末の位置情報」をサーバーに送信する(3499D)なお、このとき、端末が、基地局に「端末(自身)の位置情報」を送信してもよい。(このため、図34Dでは、点線の矢印を記載している。)
 サーバーは、「端末の位置情報」を得る(3452D)。そして、サーバーは、「端末の位置情報」から端末の状況を推定し、この端末に相当するキャラクタの仮想空間における動作を設定し、「キャラクタ動作設定に関する情報に基づいた仮想空間情報」を生成する。なお、「キャラクタ動作設定に基づいた動作」の例については、図34Bを用いて説明を行っている。
 サーバーは、「キャラクタ動作設定に関する情報に基づいた仮想空間情報」を、基地局を介し、端末に送信する(3454C)
 端末は、「キャラクタ動作設定に関する情報に基づいた仮想空間情報」を得ることになり(3402C)、端末が具備している表示部、または、端末と接続する表示装置に、仮想空間を表示してもよい。なお、仮想空間における自身(端末)に相当するキャラクタの表示部、表示装置の「動作について」は、図34Bにおける「(端末に相当する)キャラクタの動作設定」に基づいていることになる。
 以上のようにすることで、実空間の端末の状況に応じて、仮想空間に端末に相当するキャラクタの動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。
 次に、「サーバーなどの装置が仮想空間に発生させたキャラクタの動作の制御」について説明を行う。
 上述のように、仮想空間に、端末とは関係しないキャラクタなどのキャラクタが存在していてもよく、例えば、サーバーがキャラクタを発生させて、仮想空間に、そのキャラクタを存在させてもよい。このとき、このキャラクタの動作を、サーバーが制御してもよいし、他の装置が制御してもよい。
 以下では、仮想空間に存在する「端末とは関係しないキャラクタ」などのキャラクタの動作設定の例について説明を行う。
 図35は、「キャラクタ動作設定」に関する例えば、「装置とサーバーのやりとりの例」を示している。なお、「装置」はサーバー(自身)であってもよい。
 図35に示すように、装置は「装置情報」を送信する(3501)。なお、装置情報の具体的な例については、実施の形態1における端末情報と同様であってもよいし、装置固有の情報であってもよい。
 すると、サーバーは、「装置情報」を得ることになる(3551)。例えば、サーバーにアクセス可能な装置であるか否かを確認する作業であってもよい。
 その後、装置は、「キャラクタの動作設定開始情報」を送信する(3502)。
 サーバーは、「キャラクタの動作設定開始情報」を得る(3552)。
 これにより、装置とサーバーは、キャラクタの動作設定に関する手続きを開始することになる。
 そして、装置は、「キャラクタの動作設定情報」を送信する(3503)。
 サーバーは、「キャラクタの動作設定情報」を得る(3553)。
 サーバーは、「装置情報、キャラクタ情報、キャラクタの動作設定情報」のセットの情報を記憶することになる(3554)。
 これにより、サーバーは、仮想空間における装置が設定したキャラクタの動作を制御することになる。具体的な制御方法について説明を行う。
 仮想空間に存在する「端末とは関係しないキャラクタ」などのキャラクタの動作を制御する方法の設定の例について説明を行う。
 図34Bは、装置が設定する「キャラクタの動作設定」の例を示している。
 図34Bに示すように、例えば、以下のいずれかの設定が可能であるものとする。
 ・自動3490B
 例えば、このモードに設定した場合、キャラクタは、仮想空間内で自動的に動作を行うことになる。
 ・カスタマイズ3491B
 例えば、このモードに設定した場合、キャラクタが、「静止中3492B_1」の動作、「歩行中3492B_2」の動作、「走行中3492_B」の動作をそれぞれ設定することが可能となる。
 キャラクタが「静止中3492B_1」の場合のために、キャラクタの動作として、「ダンス1」、「ダンス2」のいずれかを選択できるものとする。
 キャラクタが「歩行中3492B_2」の場合のために、キャラクタの動作として、「ステップ1」、「ステップ2」のいずれかを選択できるものとする。
 キャラクタが「走行中3492_B」の場合のために、キャラクタの動作として、「姿勢1」、「姿勢2」のいずれかを選択できるものとする。
 そして、図34Bのように装置が「キャラクタの動作設定」を行い、この設定に関する情報を、「キャラクタの動作設定情報」として送信することになり、サーバーは「キャラクタの動作設定情報」を得ることになる。そして、サーバーは、「キャラクタの動作設定情報」に基づいて、キャラクタの動作を制御し、仮想空間の情報を生成することになる。
 なお、「キャラクタの動作設定」の例は、図34Bの例に限ったものではない。
 装置は図34B以外の「仮想空間のキャラクタに関する設定」を行ってもよい。例えば、キャラクタの仮想空間の行動範囲を装置で設定できてもよいし、キャラクタの形状などを装置でできてもよい。
 実施の形態1、実施の形態2などを例とする実施の形態では、端末や装置の位置に基づくキャラクタが存在する仮想空間について説明を行ったが、端末や装置の位置に基づくキャラクタが存在しない仮想空間、例えば、単にキャラクタが存在する仮想空間に対し、本実施の形態を適用しても、同様に実施することが可能である。なお、仮想空間は、実空間に基づいた仮想空間であってもよいし、実空間とは関係ない仮想空間であってもよい。
 (実施の形態6)
 実施の形態1、実施の形態2など本明細書における説明において、端末は、ユーザが携帯している例について説明を行った。しかし、端末が、ユーザに携帯されずに、移動していたり、設置されたりしている場合も考えられる。本実施の形態では、ユーザに携帯されずに、移動していたり、設置されたりしている端末、および、端末を含むシステムについて説明を行う。
 図36A、図36Bは、「実空間」と「実空間に相当する仮想空間」の状況の一例を示している。なお、図36Aは実空間の状態、図36Bは仮想空間の状態を示している。
 図36Aに示すように、道路を、装置3601Aが移動しているものとする。装置3601は、例えば、動く装置(「電気自動車、電動バイク(e-バイク)、電動自転車、動くロボット、電動キックボード、電動アシスト自転車、電動アシストキックボード」のような電気に基づいた動く装置、自動車、バイク、自転車、船舶、航空機、飛行機など)が考えられるが、これに限ったものではない。また、装置3601Aは、ユーザを運んでいてもよいし、運んでいなくてもよい。そして、装置3601Aは、ユーザが制御することによって動いてもよいし、自動に動いてもよい。
 また、装置3601Aには、例えば図36Aのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。なお、ここでは、装置3601Aに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。また、広告情報、または、情報は装置3601Aに搭載されているディスプレイに表示してもよいし、広告情報、または、情報は装置3601Aに描かれていてもよい。なお、装置3601Aへの広告情報、または、情報の掲載方法は、これらの例に限ったものではない。
 図36Bは、実施の形態1などで説明した方法を適用したときの図36Aの実空間に相当する仮想空間の状態の例を示している。
 図36Bのように、例えば、表示装置では、仮想空間を画面3699Bに表示しているものとする。図36Bに示すように、道路に、装置3601Aに相当するキャラクタ3601Bが移動している。そして、キャラクタ3601Bには、例えば図36Bのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。ここでは、キャラクタ3601Bに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。なお、キャラクタ3601Bへの広告情報、または、情報の掲載方法は、図36Bの方法に限ったものではなく、また、仮想空間に存在する装置に相当するキャラクタは、どのようなものであってもよい。
 なお、表示装置は、例えば、モバイルフォン、携帯電話、スマートフォン、タブレット、タブレットPC(Personal Computer)、パソコン(ただし、モニタを搭載していてもよいし、モニタを接続できてもよい)、ノートパソコン、テレビ、モニタと接続された装置、ゲーム機、携帯ゲーム機、ARグラス、ARゴーグル、ARを表示できるモニタ、ARを表示できるモニタと接続された装置、VRグラス、VRゴーグル、VRを表示できるモニタ、VRを表示できるモニタと接続された装置、MR(Mixed Reality)グラス、MRを表示できるモニタ、MRを表示できるモニタと接続された装置、カーナビゲーションシステム、ヘッドマウントディスプレイ、ヘッドマウントディスプレイと接続された装置、モニタ、モニタと接続された装置、プロジェクタ、プロジェクタと接続された装置などが考えられるが、これらに限ったものではない。
 また、「図36Aで装置3601Aに掲載されている情報」と「図36Bのキャラクタ3601Bに掲載されている情報」は同じ情報としているが、異なる情報としてもよい。
 図36A、図36Bのようにすることで、実空間/仮想空間に、同時に、広告の情報、または、情報を掲載することができ、効率よく情報を伝達することができるという効果を得ることができる。なお、システムの詳細の動作については、後で説明を行う。
 実施の形態1、実施の形態2などを例とする実施の形態では、端末や装置の位置に基づくキャラクタが存在する仮想空間について説明を行ったが、端末や装置の位置に基づくキャラクタが存在しない仮想空間、例えば、単にキャラクタが存在する仮想空間を形成するシステムを考えることができる。以下では、このようなシステムの例を考える。なお、仮想空間は、実空間に基づいた仮想空間であってもよいし、実空間とは関係ない仮想空間であってもよい。
 図37Aは、「実施の形態1、実施の形態2などで説明した方法を適用したときの仮想空間」、または、「単にキャラクタが存在する仮想空間」の例である。
 図37Aのように、例えば、表示装置では、仮想空間を画面3799Aに表示しているものとする。図37Aに示すように、キャラクタが装備/装着/着用することができるアイテムを配布する場所3701Aが存在しているものとする。なお、キャラクタが、装備/着用するためのアイテムを配布しているとしてもよい。装備/装着/着用するためのアイテムの配布方法は、これらの例に限ったものではない。
 そして、図37Aでは、少なくともキャラクタ3702A_1が存在しているものとする。なお、表示装置は、例えば、モバイルフォン、携帯電話、スマートフォン、タブレット、タブレットPC(Personal Computer)、パソコン(ただし、モニタを搭載していてもよいし、モニタを接続できてもよい)、ノートパソコン、テレビ、モニタと接続された装置、ゲーム機、携帯ゲーム機、ARグラス、ARゴーグル、ARを表示できるモニタ、ARを表示できるモニタと接続された装置、VRグラス、VRゴーグル、VRを表示できるモニタ、VRを表示できるモニタと接続された装置、MR(Mixed Reality)グラス、MRを表示できるモニタ、MRを表示できるモニタと接続された装置、カーナビゲーションシステム、ヘッドマウントディスプレイ、ヘッドマウントディスプレイと接続された装置、モニタ、モニタと接続された装置、プロジェクタ、プロジェクタと接続された装置などが考えられるが、これらに限ったものではない。
 図37Bは、「実施の形態1、実施の形態2などで説明した方法を適用したときの仮想空間」、または、「単にキャラクタが存在する仮想空間」の例である。
 図37Bのように、キャラクタ3702A_1は、アイテムを配布する場所3701Aを通過し、図37Bのように、キャラクタ3702A_1は、アイテム3703B_1を装備(または、装着、着用)しているものとする。このとき、アイテム3703B_1には、例えば図37Bのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。なお、ここでは、アイテム3703B_1に掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報であってもよい。なお、アイテム3703B_1への広告情報、または、情報の掲載方法は、これらの例に限ったものではない。
 図37Bのようにすることで、仮想空間に、広告の情報、または、情報を掲載することができ、効率よく情報を伝達することができるという効果を得ることができる。なお、システムの詳細の動作については、後で説明を行う。
 図36A、図36Bを実現するためのシステム、図37A、図37Bを実現するためのシステムについて説明を行う。
 図38Aは、「図36A、図36Bを実現するためのシステム」、「図37A、図37Bを実現するためのシステム」の構成の例であり、図38Aにおいて、図1と同様に動作するものについては同一番号を付しており、すでに説明を行っている部分については、一部説明を省略する。
 装置3802と103の基地局#1は、センシングのためのやりとり、通信を行っており、詳細については、実施の形態1などで説明を行っているため、説明を省略する。なお、装置3802は、図1における101_1の端末#1と一部同様の動作を行っており、また、装置3802は、例えば、図36Aの装置3601Aに相当する。
 例えば、装置3802は、103の基地局#1、ネットワーク103を介し、サーバー104と通信を行い、サーバー104は、装置3802に相当するキャラクタを仮想空間に登場させることになる。その手続きについては、例えば、実施の形態1などで説明を行っているので説明を省略する。
 これにより、「図36A、図36B」のような、実空間と仮想空間を実現することができる。
 また、図38Aにおいて、101_101の端末#101は、ネットワーク103を介して、サーバー104と通信を行うものとする。そして、101_101の端末#101は、サーバー104と通信を行って、仮想空間内のキャラクタを操作することが可能であってもよい。なお、101_101の端末#101は、サーバー104と通信を行い際、基地局を介していてもよい。
 これにより、「図37A、図37B」のような、仮想空間を実現することができる。
 図38Aにおいて、101_1の端末#1は、実施の形態1で説明した図1のように動作してもよい。これにより、「図36A、図36B」のような実空間と仮想空間、または、「図37A、図37B」のような仮想空間を実現することができる。
 「図36A、図36Bを実現するためのシステム」、「図37A、図37Bを実現するためのシステム」には、図38Aに示すように、「広告提供装置、または、情報提供装置」3801が存在しており、「広告提供装置、または、情報提供装置」3801は、例えば、ネットワーク103を介し、サーバー104と通信を行っているものとする。なお、「広告提供装置、または、情報提供装置」3801の詳細の動作については、後で説明を行う。
 図38Bは、「図37A、図37Bを実現するためのシステム」の構成の図38Aとは異なる例であり、図38Bにおいて、図1、図38Aと同様に動作するものについては同一番号を付しており、すでに説明を行っている部分については、一部説明を省略する。
 図38Bにおいて、101_101の端末#101は、ネットワーク103を介して、サーバー104と通信を行うものとする。そして、101_101の端末#101は、サーバー104と通信を行って、仮想空間内のキャラクタを操作することが可能であってもよい。なお、101_101の端末#101は、サーバー104と通信を行い際、基地局を介していてもよい。
 これにより、「図37A、図37B」のような、仮想空間を実現することができる。
 図38Bにおいて、101_102の端末#102は、ネットワーク103を介して、サーバー104と通信を行うものとする。そして、101_102の端末#102は、サーバー104と通信を行って、仮想空間内のキャラクタを操作することが可能であってもよい。なお、101_102の端末#102は、サーバー104と通信を行い際、基地局を介していてもよい。
 これにより、「図37A、図37B」のような、仮想空間を実現することができる。
 そして、「図37A、図37Bを実現するためのシステム」には、図38Bに示すように、「広告提供装置、または、情報提供装置」3801が存在しており、「広告提供装置、または、情報提供装置」3801は、例えば、ネットワーク103を介し、サーバー104と通信を行っているものとする。なお、「広告提供装置、または、情報提供装置」3801の詳細の動作については、後で説明を行う。
 図38Bのシステムでは、サーバー104が生成する仮想空間に、実空間に存在する位置に基づいたキャラクタがいないことが特徴である。
 なお、システム構成は、図38A、図38Bに限ったものではなく、装置、端末、基地局、サーバーなどが存在していればよい。
 図39は、図38A、図38Bにおける「広告提供装置、または、情報提供装置」3801とサーバー104のやりとりの例を示している。
 「広告提供装置、または、情報提供装置」3801は、まず、(自身の)装置情報を送信する(3901)。
 サーバー(104)は、この装置情報を得ることになる(3951)。
 そして、「広告提供装置、または、情報提供装置」は、アイテム情報を送信する(3902)。なお、アイテム情報は、例えば、図36Bにおけるキャラクタ自身であってもよいし、キャラクタが装備/装着/着用できるアイテムであってもよい。また、アイテム情報は、例えば、図37Bにおけるキャラクタが装備/装着/着用できるアイテムであることが考えられる。
 サーバーは、このアイテム情報を得ることになる(3952)。
 サーバーは、このアイテムの識別情報(アイテム識別情報)を送信してもよい(3953)。
 「広告提供装置、または、情報提供装置」は、このアイテム識別情報を得る(3903)。なお、「広告提供装置、または、情報提供装置」は、アイテムを呼び出すときに、アイテム識別情報を使用することになる。したがって、「広告提供装置、または、情報提供装置」は、アイテム識別情報を記憶することになる。
 「広告提供装置、または、情報提供装置」は、アイテムに掲載する「広告情報、または、情報」を送信する(3904)。
 サーバーは、この「広告情報、または、情報」を得る(3954)。そして、サーバーは、「アイテム情報」、「広告情報、または、情報」のセット情報を記憶する(3955)。
 「広告提供装置、または、情報提供装置」は、アイテムを配布する場所に関する位置情報、つまり、アイテム配布位置情報を送信する(3906)。
 サーバーは、このアイテム配布位置情報を得る(3956)。
 「広告提供装置、または、情報提供装置」は、アイテムを販売する場合、アイテムの価格に関する情報、つまり、アイテム価格情報を送信する(3907)。
 なお、「広告提供装置、または、情報提供装置」は、アイテム価格情報を送信しなくてもよい。(例えば、無料で提供するときなど)
 サーバーは、このアイテム価格情報を得る(3957)。
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 また、「広告提供装置、または、情報提供装置」は、アイテムの価格を提示している例を説明しているが、アイテムを装着(装備/装着/着用)側が、金額を受け取る側であってもよい。ここでは、通貨に基づいた売買を例に説明しているが、「所属団体が発行するポイントに基づいたやりとり」、「仮想通貨に基づいたやりとり」などであってもよい。
 図40は、図38A、図38Bにおける「端末(例えば、101_1の端末#1、101_101の端末#101、101_102の端末#102)、または、装置3802」とサーバー104のやりとりの例を示している。なお、図40は、図39のように、「広告提供装置、または、情報提供装置」が、サーバーにアイテムの登録を行った後の処理の例となる。
 「端末、または、装置」は、まず、(自身の)「端末、または、装置」情報を送信する(4001)。
 サーバーは、この「端末、または、装置」情報を得ることになる(4051)。
 そして、「端末、または、装置」は、アイテムを取得したいという要求、つまり、アイテム取得要求情報を送信する(4002)。
 サーバーは、この「アイテム取得要求情報」を得る(4052)。サーバーは、「端末、または、装置」に対しアイテムを提供すると判断した場合、サーバーは、アイテム情報を送信する(4053)。
 「端末、または、装置」は、このアイテム情報を得る(4003)。そして、「端末、または、装置」は、アイテム装着(装備/装着/着用)の判断をした場合、「端末、または、装置」は、アイテム装着に関する情報を送信する(4004)。
 サーバーは、このアイテム装着に関する情報を得る(4054)。そして、サーバーは、アイテムを装着(装備/装着/着用)したキャラクタを生成するとともに、「端末、または、装置」情報、キャラクタ情報のセット情報を記憶する(4055)。また、サーバーは、アイテムを装着したキャラクタを仮想空間に登場させることになる。
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 例えば、図38Aにおける装置3802、101_1の端末#1の場合の動作について説明を行う。
 図26において、端末という記載があるが、この端末を、「装置3802、101_1の端末#1」と考えればよい。
 図26を用いて説明したように、端末(または、装置)は、端末(または、装置)識別情報、端末(または、装置)位置情報を送信する(2601、2602)。
 そして、サーバーは、端末(または、装置)識別情報、端末(または、装置)の位置情報に基づき、端末(または、装置)固有のキャラクタを仮想空間に配置する。このとき、キャラクタは、「広告情報、または、情報」付きのアイテムを装着(装備/装着/着用)していることになる。なお、図26において、端末(または、装置)とサーバーのやり取りにおいて、基地局を介しているが、基地局を介さなくてもよい。
 図38Aにおける装置3802、101_1の端末#1、図38Bの101_101の端末#101、101_102の端末#102の場合の動作例について説明を行う。
 「図38Aにおける装置3802、101_1の端末#1、図38Bの101_101の端末#101、101_102の端末#102」などの「端末、または、装置」とサーバー104のやりとりを図41に示す。
 図41のように、「端末、または、装置」は、「端末、または、装置」の情報を送信する(4101)。
 そして、サーバーは、「端末、または、装置」の情報を得る。その後、サーバーは、「端末、または、装置」の情報に基づき、「端末、または、装置」固有のキャラクタを仮想空間に配置する。このとき、キャラクタは、「広告情報、または、情報」付きのアイテムを装着(装備/装着/着用)していることになる。なお、図41において、端末(または、装置)とサーバーのやり取りにおいて、基地局を介していてもよい。
 次に、図38A、図38Bにおける「広告提供装置、または、情報提供装置」3801の動作の例について説明を行う。
 図42は、「広告提供装置、または、情報提供装置」3801とサーバー104のやりとりの一例を示している。
 「広告提供装置、または、情報提供装置」3801は、まず、(自身の)装置情報を送信する(4201)。
 サーバー(104)は、この装置情報を得ることになる(4251)。
 「広告提供装置、または、情報提供装置」は、キャラクタが装備/装着/着用しているアイテムの識別情報、つまり、アイテム識別情報を送信する(4202)。
 サーバーは、このアイテム識別情報を得ることになる(4252)。そして、サーバーは、「広告提供装置、または、情報提供装置」の、仮想空間、アイテムへのアクセスの認証を実施する4253。ここでは、サーバーは、「広告提供装置、または、情報提供装置」の仮想空間、アイテムへのアクセスを承認したものとする。なお、サーバーは、認証の結果を、「広告提供装置、または、情報提供装置」に送信してもよい(4299)。
 「広告提供装置、または、情報提供装置」は、キャラクタのアイテムに掲載している「広告情報、または、情報」の更新情報である、「広告(更新)情報、または、(更新)情報」を送信する(4203)。
 サーバーは、この「広告(更新)情報、または、(更新)情報」を得ることになる(4254)。
 そして、サーバーは、アイテム情報、「広告情報、または、情報」のセット情報を更新することになる(4255)。したがって、キャラクタのアイテムに掲載している「広告情報、または、情報」の更新されることになる。
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 キャラクタのアイテムに掲載している「広告情報、または、情報」の更新されたあとの、「図38Aにおける装置3802、101_1の端末#1、図38Bの101_101の端末#101、101_102の端末#102」などの「端末、または、装置」の動作について説明を行う。
 図43は、「端末、または、装置」とサーバー104のやりとりの一例を示している。
 「端末、または、装置」は、(自身の)「端末、または、装置」情報を送信する(4301)。
 サーバーは、この「端末、または、装置」情報を得ることになる(4351)。そして、サーバーは、「端末、または、装置」情報、記憶している情報から、キャラクタ、キャラクタが装着(装備/装着/着用)しているアイテムの確認を行う(4352)。
 サーバーは、「端末、または、装置」が関与しているキャラクタが装着(装備/装着/着用)しているアイテムを確認することで、アイテムに掲載する「広告、または、情報」が更新されているか否かの確認を行う。そして、アイテムに掲載する「広告、または、情報」が更新されている場合、「広告、または、情報」の更新情報を確認する(4353)。
 アイテムに掲載する「広告、または、情報」が更新されている場合、サーバーは、「広告、または、情報」の更新情報を送信する(4354)。
 「端末、または、装置」は、「広告、または、情報」の更新情報を得る(4302)。
 そして、「端末、または、装置」は、「広告、または、情報」の更新を承諾するか否かの判断を行い、「広告、または、情報」の更新を承諾するか否かの情報を送信する(4303)。
 サーバーは、この「広告、または、情報」の更新を承諾するか否かの情報を得る(4355)。「広告、または、情報」の更新を承諾する場合、サーバーは、アイテムに掲載する「広告、または、情報」を更新し、「端末、または、装置」情報、キャラクタ情報のセット情報を記憶する(4356)。なお、キャラクタ情報は、(更新された)「広告、または、情報」を含むアイテムの情報を含んでいるものとする。サーバーは、アイテムを装着したキャラクタを仮想空間に登場させることになる。
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 以上のようにすることで、実空間、および/または、仮想空間に、広告の情報、または、情報を掲載することができ、効率よく情報を伝達することができるという効果を得ることができる。また、広告の情報、または、情報を更新することが可能となるため、多種多様の情報を提供することができるという効果を得ることができる。
 図38A、図38Bにおける「広告提供装置、または、情報提供装置」3801の動作の、図42、図43と異なる例について説明を行う。
 図44は、「広告提供装置、または、情報提供装置」3801、「端末、または、装置」、「サーバー104」のやりとりの一例を示している。
 「広告提供装置、または、情報提供装置」3801は、まず、(自身の)装置情報を送信する(4401)。
 「端末、または、装置」は、この装置情報を得ることになる(4451)。
 「広告提供装置、または、情報提供装置」は、キャラクタが装備/装着/着用しているアイテムの識別情報、つまり、アイテム識別情報を送信する(4402)。
 「端末、または、装置」は、このアイテム識別情報を得ることになる(4452)。そして、「端末、または、装置」は、「広告提供装置、または、情報提供装置」の、(仮想空間、)アイテムへのアクセスの認証を実施する(4453)。ここでは、「端末、または、装置」は、「広告提供装置、または、情報提供装置」の(仮想空間、)アイテムへのアクセスを承認したものとする。なお、「端末、または、装置」は、認証の結果を、「広告提供装置、または、情報提供装置」に送信してもよい(4499)。
 「広告提供装置、または、情報提供装置」は、キャラクタのアイテムに掲載している「広告情報、または、情報」の更新情報である、「広告(更新)情報、または、(更新)情報」を送信する(4403)。
 「端末、または、装置」は、この「広告(更新)情報、または、(更新)情報」を得ることになる(4454)。
 次に、「端末、または、装置」は、(自身の)「端末、または、装置」の情報を送信する(4455)。
 サーバーは、この「端末、または、装置」の情報を得る(4490)。
 「端末、または、装置」は、キャラクタが装備/装着/着用しているアイテム情報を送信する(4456)。
 サーバーは、このアイテム情報を得る(4491)。
 また、「端末、または、装置」は、キャラクタのアイテムに掲載している「広告情報、または、情報」の更新情報である、「広告(更新)情報、または、(更新)情報」を送信する(4457)。
 サーバーは、この「広告(更新)情報、または、(更新)情報」を得る(4492)。そして、サーバーは、「広告、または、情報」更新を承諾するか否か決定を行う(4493)。サーバーが「広告、または、情報」更新を許可した場合、サーバーはアイテム情報、「広告情報、または、情報」のセット情報を更新することになる(4494)。したがって、キャラクタのアイテムに掲載している「広告情報、または、情報」の更新されることになる。(サーバーは「広告、または、情報」更新を許可しなくてもよい。)
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 キャラクタのアイテムに掲載している「広告情報、または、情報」の更新されたあとの、「図38Aにおける装置3802、101_1の端末#1、図38Bの101_101の端末#101、101_102の端末#102」などの「端末、または、装置」の動作は、図43のようになる。
 「端末、または、装置」は、(自身の)「端末、または、装置」情報を送信する(4301)。
 サーバーは、この「端末、または、装置」情報を得ることになる(4351)。そして、サーバーは、「端末、または、装置」情報、記憶している情報から、キャラクタ、キャラクタが装着(装備/装着/着用)しているアイテムの確認を行う(4352)。
 サーバーは、「端末、または、装置」が関与しているキャラクタが装着(装備/装着/着用)しているアイテムを確認することで、アイテムに掲載する「広告、または、情報」が更新されているか否かの確認を行う。そして、アイテムに掲載する「広告、または、情報」が更新されている場合、「広告、または、情報」の更新情報を確認する(4353)。
 アイテムに掲載する「広告、または、情報」が更新されている場合、サーバーは、「広告、または、情報」の更新情報を送信する(4354)。
 「端末、または、装置」は、「広告、または、情報」の更新情報を得る(4302)。
 そして、「端末、または、装置」は、「広告、または、情報」の更新を承諾するか否かの判断を行い、「広告、または、情報」の更新を承諾するか否かの情報を送信する(4303)。
 サーバーは、この「広告、または、情報」の更新を承諾するか否かの情報を得る(4355)。「広告、または、情報」の更新を承諾する場合、サーバーは、アイテムに掲載する「広告、または、情報」を更新し、「端末、または、装置」情報、キャラクタ情報のセット情報を記憶する(4356)。なお、キャラクタ情報は、(更新された)「広告、または、情報」を含むアイテムの情報を含んでいるものとする。サーバーは、アイテムを装着したキャラクタを仮想空間に登場させることになる。
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 以上のようにすることで、実空間、および/または、仮想空間に、広告の情報、または、情報を掲載することができ、効率よく情報を伝達することができるという効果を得ることができる。また、広告の情報、または、情報を更新することが可能となるため、多種多様の情報を提供することができるという効果を得ることができる。
 なお、本実施の形態で説明した、「端末、または、装置」の処理、サーバーの処理、「広告提供装置、または、情報提供装置」の処理は、あくまでも例である。したがって、他の処理が加わったり、処理の一部が省略されたり、処理する順番が変わっても同様に実施すること可能である。
 また、各装置は、複数の装置で構成されていてもよい。例えば、「広告提供装置、または、情報提供装置」は、「広告、または、情報」を提供する装置と「広告、または、情報」の更新のための装置で構成されていてもよいし、また、各装置において、サーバー機能を持つ装置を別装置として、構成してもよい。
 装置の呼び方については、上記の例に限ったものではなく、他の呼び方をしてもよい。その点については、他の実施の形態で説明した例が考えられる。
 (実施の形態7)
 本明細書において、例えば、「図1、図5、図11などにおける端末などの装置、図18、図20におけるオブジェクト」の位置情報を、サーバーが得ることを説明している。この方法の例について説明を行う。なお、以下では、「端末などの装置」、「オブジェクト」を端末と呼んで説明を行う。
 図45は、「実空間に存在する端末の位置に基づいて、仮想空間にキャラクタを登場させるシステムの構成」の例である。なお、図45において、図1と同様に動作するものには、同一番号を付しており、すでに説明を行っているものについては、一部説明を省略する。
 無線システム4500は、例えば、102_1の基地局#1、LMF(location management function)4501、AMF(access and mobility management function)4502で構成されており、無線システム4500は、ネットワーク100を介して、他の装置と通信を行っているものとする。
 AMF4502は、102_1の基地局#1、他の装置からの情報、102_1の基地局#1、他の装置からの制御により、アクセス、モビリティを管理するための機能を有し、例えば、102_1の基地局#1、LMF4501を制御することになる。
 LMF4503は、102_1の基地局#1、他の装置からの情報、102_1の基地局#1、他の装置からの制御により、位置管理するための機能を有し、例えば、102_1の基地局#1、LMF4501を制御することになる。
 例えば、LMF4503は、102_1の基地局#1は、101_1の端末#1が送信した信号、101_2の端末#2が送信した信号を受信し、受信信号を得る。そして、LMF4503は、この受信信号から、101_1の端末#1の位置、101_2の端末#2の位置を推定する。
 別の例として、102_1の基地局#1は、101_1の端末#1が送信した情報、101_2の端末#2が送信した情報を得る。そして、LMF4501は、101_1の端末#1が送信した情報、101_2の端末#2が送信した情報から、101_1の端末#1の位置、101_2の端末#2の位置を推定する。
 なお、101_1の端末#1の位置、101_2の端末#2の位置の推定を、102_1の基地局#1が行ってもよい。102_1の基地局#1は、101_1の端末#1が送信した信号、101_2の端末#2が送信した信号を受信し、101_1の端末#1の位置、101_2の端末#2の位置を推定してもよい。また、102_1の基地局#1は、101_1の端末#1が送信した情報、101_2の端末#2が送信した情報から、101_1の端末#1の位置、101_2の端末#2の位置を推定してもよい。
 そして、他の実施の形態で説明したように、サーバー104は、ネットワーク103を介して、101_1の端末#1の位置情報、101_2の端末#2の位置情報などを得、サーバー104は、他の実施の形態で説明したような処理を行うことになる。
 次に、図45における「101_1の端末#1、101_2の端末#2」、「102_1の基地局#1」の具体的な動作例について説明を行う。
 図46の(A)は、「101_1の端末#1、101_2の端末#2」などの端末が基地局に送信する変調信号の構成の例を示しており、横軸は時間であるものとする。図46の(B)は、「102_1の基地局#1」などの基地局の状態の例を示しており、横軸は時間であるものとする。
 図46の(A)に示すように、端末は、制御シンボル4601、リファレンス信号4602、データシンボル4603を送信するものとする。
 すると、図46の(B)のように、基地局は、端末が送信した「制御シンボル4601、リファレンス信号4602、データシンボル4603」を受信する。特に、基地局、または、LMFは、リファレンス信号4602を利用して、端末の位置を推定することになる。なお、基地局が端末の位置推定を行う方法については、後で説明を行う。
 このようにすることで、基地局、または、LMFは、端末の位置推定情報を得ることができ、これにより、ネットワークを介し、サーバーが端末の位置推定情報を得ることができるため、他の実施の形態で説明したような処理を行うことが可能となる。
 図47Aの(A)は、基地局が端末に送信する変調信号の構成の例、および、基地局の状態の例を示しており、横軸は時間であるものとする。図47Aの(B)は、端末が基地局に送信する変調信号の構成の例、および、端末の状態の例を示しており、横軸は時間であるものとする。
 図47Aの(A)に示すように、基地局は、制御シンボル4751、リファレンス信号4752、データシンボル4753を送信するものとする。
 すると、図47Aの(B)のように、端末は、基地局が送信した「制御シンボル4751、リファレンス信号4752、データシンボル4753」を受信する。特に、端末は、リファレンス信号4752を利用して、自身の位置を推定することになる。なお、端末が位置推定を行う方法については、後で説明を行う。
 また、図47Aの(B)に示すように、端末は、制御シンボル4701、リファレンス信号4702、データシンボル4703を送信するものとする。なお、データシンボル4703(または、制御シンボル4701)は、端末が推定した自身の位置推定情報を含んでいるものとする。
 すると、図47Aの(A)のように、基地局は、端末が送信した「制御シンボル4701、リファレンス信号4702、データシンボル4703」を受信する。特に、基地局、または、LMFは、リファレンス信号4702を利用して、端末の位置を推定することになる。なお、基地局が端末の位置推定を行う方法については、後で説明を行う。
 さらに、基地局、または、LMFは、データシンボル4703(または、制御シンボル4701)から、端末の位置推定情報を得る。そして、基地局、または、LMFは、リファレンス信号4702で得た端末の位置推定情報、および、データシンボル4703(または、制御シンボル4701)から得た端末の位置推定情報により、端末の位置推定を行い、端末の位置情報を得ることになる。このように、二つの端末の位置推定情報を用いることで、より正確に端末の位置を求めることができるという効果を得ることができる。
 別の方法について述べる。
 図47Aの(A)に示すように、基地局は、制御シンボル4751、リファレンス信号4752、データシンボル4753を送信するものとする。
 すると、図47Aの(B)のように、端末は、基地局が送信した「制御シンボル4751、リファレンス信号4752、データシンボル4753」を受信する。特に、端末は、リファレンス信号4752を利用して、端末の位置推定のための情報を得る。位置推定のための情報として、例えば、「端末がリファレンス信号4752などの信号を受信した時刻の情報、測定した時刻の情報、位置推定を行った時刻の情報、端末がリファレンス信号4752などの信号を受信したときの受信到来方向の情報、リファレンス信号4752などの受信電界強度(reference signal received power)の情報、リファレンス信号4752などの受信品質(reference signal received quality)の情報、各測定の品質情報、AoAの情報、(受信)ビームの情報(beam information)、空間方向(spatial direction)の情報、送信時間と受信時間の差の情報、位置推定情報」などがあげられる。
 そして、図47Aの(B)に示すように、端末は、制御シンボル4701、リファレンス信号4702、データシンボル4703を送信するものとする。なお、データシンボル4703(または、制御シンボル4701)は、端末が得たこれらを例とする位置推定のための情報を含んでいるものとする。
 すると、図47Aの(A)のように、基地局は、端末が送信した「制御シンボル4701、リファレンス信号4702、データシンボル4703」を受信する。特に、基地局、または、LMFは、リファレンス信号4702を利用して、端末の位置を推定することになる。なお、基地局が端末の位置推定を行う方法については、後で説明を行う。
 さらに、基地局、または、LMFは、データシンボル4703(または、制御シンボル4701)から、端末が生成した位置推定のための情報を得る。そして、基地局、または、LMFは、位置推定のための情報を用いて、端末の位置推定を行い、端末の(第2の)位置推定情報を得る。
 このように、二つの端末の位置推定情報を用いることで、より正確に端末の位置を求めることができるという効果を得ることができる。
 そして、基地局、または、LMFは、端末の位置推定情報を得ることができ、これにより、ネットワークを介し、サーバーが端末の位置推定情報を得ることができるため、他の実施の形態で説明したような処理を行うことが可能となる。
 図47Bの(A)は、基地局が端末に送信する変調信号の構成の例、および、基地局の状態の例を示しており、横軸は時間であるものとする。図47Bの(B)は、端末が基地局に送信する変調信号の構成の例、および、端末の状態の例を示しており、横軸は時間であるものとする。
 図47Bの(A)に示すように、基地局は、制御シンボル4751、リファレンス信号4752、データシンボル4753を送信するものとする。
 すると、図47Bの(B)のように、端末は、基地局が送信した「制御シンボル4751、リファレンス信号4752、データシンボル4753」を受信する。特に、端末は、リファレンス信号4752を利用して、自身の位置を推定することになる。なお、端末が位置推定を行う方法については、後で説明を行う。
 また、図47Bの(B)に示すように、端末は、制御シンボル4701、データシンボル4703を送信するものとする。なお、データシンボル4703(または、制御シンボル4701)は、端末が推定した自身の位置推定情報を含んでいるものとする。
 すると、図47Bの(A)のように、基地局は、端末が送信した「制御シンボル4701、データシンボル4703」を受信する。基地局、または、LMFは、データシンボル4703(または、制御シンボル4701)から、端末の位置推定情報を得る。
 このようにすることで、基地局、または、LMFは、端末の位置推定情報を得ることができ、これにより、ネットワークを介し、サーバーが端末の位置推定情報を得ることができるため、他の実施の形態で説明したような処理を行うことが可能となる。
 別の方法について述べる。
 図47Bの(A)に示すように、基地局は、制御シンボル4751、リファレンス信号4752、データシンボル4753を送信するものとする。
 すると、図47Bの(B)のように、端末は、基地局が送信した「制御シンボル4751、リファレンス信号4752、データシンボル4753」を受信する。特に、端末は、リファレンス信号4752を利用して、端末の位置推定のための情報を得る。位置推定のための情報として、例えば、「端末がリファレンス信号4752などの信号を受信した時刻の情報、測定した時刻の情報、位置推定を行った時刻の情報、端末がリファレンス信号4752などの信号を受信したときの受信到来方向の情報、リファレンス信号4752などの受信電界強度(reference signal received power)の情報、リファレンス信号4752などの受信品質(reference signal received quality)の情報、各測定の品質情報、AoAの情報、(受信)ビームの情報(beam information)、空間方向(spatial direction)の情報、送信時間と受信時間の差の情報、位置推定情報」などがあげられる。
 そして、図47Bの(B)に示すように、端末は、制御シンボル4701、リファレンス信号4702、データシンボル4703を送信するものとする。なお、データシンボル4703(または、制御シンボル4701)は、端末が得たこれらを例とする位置推定のための情報を含んでいるものとする。
 すると、図47Bの(A)のように、基地局は、端末が送信した「制御シンボル4701、リファレンス信号4702、データシンボル4703」を受信する。特に、基地局、または、LMFは、リファレンス信号4702を利用して、端末の位置を推定することになる。なお、基地局が端末の位置推定を行う方法については、後で説明を行う。
 さらに、基地局、または、LMFは、データシンボル4703(または、制御シンボル4701)から、端末が生成した位置推定のための情報を得る。そして、基地局、または、LMFは、位置推定のための情報を用いて、端末の位置推定を行い、端末の(第2の)位置推定情報を得る。
 このようにすることで、基地局、または、LMFは、端末の位置推定情報を得ることができ、これにより、ネットワークを介し、サーバーが端末の位置推定情報を得ることができるため、他の実施の形態で説明したような処理を行うことが可能となる。
 基地局、端末、LMFにおける位置推定のための処理、センシングのための処理として、例えば、特許文献2、特許文献3、特許文献4に示されているように、「MUSIC法などの到来方向推定法、方向推定などを用いた到来角を利用した方向に基づくセンシング処理」、「例えば、受信タイミング差や送受信の時間差などを利用した距離に基づくセンシング処理」を適用することができる。
 また、基地局、端末、LMFにおける位置推定のための処理、センシングのための処理として、例えば、NRシステムで用いられている、「受信タイミング差(Reference signal timing difference)に基づく測位(センシング)」、「受信信号電力(Reference signal received power)(端末(または基地局、LMF)で測定される参照信号(リファレンス信号)の受信電力)に基づく測位(センシング)」、「受信信号到来角(Angle of arrival)(送信機から送信された電波の受信機からみた到来角のことで、一般的には一つ以上または二つ以上のアンテナで受信した電波の到達時間差により測定する。ただし、この例に限ったものではない)に基づく測位(センシング)」、「送受信時間差(RX-Tx time difference)に基づく測距(センシング)」、「RTT(Roundtrip time)を利用した測距(センシング)」、「AoA(Angle of arrival)、および/または、AoD(Angle of departure)を利用した測距(センシング)」、「TDOA(Time difference of arrival)(複数基地局(または、複数の装置)からの信号到達時間の差)を利用した測距(センシング)」を適用することができる。
 基地局、端末、LMFにおける位置推定のための処理、センシングのための処理の際、特許文献2、特許文献3、特許文献4に示されているように、複数のアンテナを用いた三角測量を行い、位置の推定(または、センシング結果を得る)を行ってもよい。また、基地局、端末、LMFにおける位置推定のための処理、センシングのための処理の際、特許文献2、特許文献3、特許文献4に示されているように、他の装置を利用して三角測量を行い、位置の推定(または、センシング結果を得る)を行ってもよい。
 「図46」、「図47A」、「図47B」を用いて、「第1装置(または、第1システム)がリファレンス信号、および/または、データシンボル(または、制御シンボル)を含む信号を送信し、第2装置(または、第2システム)がこの信号を受信し、位置推定を行う方法」、「第1装置(または、第1システム)がリファレンス信号、および/または、データシンボル(または、制御シンボル)を含む信号を送信し、第2装置(または、第2システム)がこの信号を受信し、位置推定のための情報を生成する。そして、第2装置(または、第2システム)が位置推定のための情報を含むデータシンボル(または、制御シンボル)を、第1装置(または、第1システム)に送信し、第1装置(第1システム)が位置推定を行う方法」について説明した。このとき、データシンボル(または、制御シンボル)は、「リファレンス信号などの信号を受信した時刻の情報、測定した時刻の情報、位置推定を行った時刻の情報、リファレンス信号などの信号を受信したときの受信到来方向の情報、リファレンス信号などの受信電界強度(reference signal received power)の情報、リファレンス信号などの受信品質(reference signal received quality)の情報、各測定の品質情報、AoAの情報、(受信)ビームの情報(beam information)、空間方向(spatial direction)の情報、送信時間と受信時間の差の情報、信号送信時刻の情報、位置推定情報」を含むことになる。これにより、第1装置(または、第1システム)、または、第2装置(または、第2システム)は、上述を例とする位置推定を行うことができることになる。
 また、基地局は、センシング(位置推定)のための送信部、および、センシング(位置推定)のための受信部を具備することになる。なお、センシング(位置推定)のための送信部と無線通信のための送信部は、別々であってもよいし、共用化してもよい。基地局は、GPS、無線LAN(local area network)、近距離無線通信システムなどを利用した位置推定システムを具備していてもよく、これにより、位置推定を行ってもよい。
 端末は、センシング(位置推定)のための送信部、および、センシング(位置推定)のための受信部を具備することになる。なお、センシング(位置推定)のための送信部と無線通信のための送信部は、別々であってもよいし、共用化してもよい。端末は、GPS、無線LAN、近距離無線通信システムなどを利用した位置推定システムを具備していてもよく、これにより、位置推定を行ってもよい。
 これにより、基地局は、端末の位置情報を得ることになる。
 なお、センシングの例として、例えば、以下が考えられる。物体の位置を推定する処理、物体の有無を検出する処理、第1の物体と第2の物体の距離推定などを推定する処理、物体の材質・物質を予測する処理、物体の動きを検出する処理、センシング実施可能な装置周辺の状況を推定する処理、センシング実施可能な装置と物体の距離を推定する処理、物体の外形を検出する処理、ジェスチャーを推定する処理、人の動きを推定する処理、人体の一部分の形状を推定する処理、人体の一部分の動きを推定する処理、人の検出をする処理、人の一部の検出をする処理、人の認証を行う処理、人の一部の認証を行う処理、物体の動きを推定する処理、物体の形状を推定する処理、物体の検出を行う処理、物体の認証を行う処理。
 なお、物体の位置を検出する処理では、物体の検出、物体の動きも同時に検出することが可能である場合がある。また、物体の有無を検出する処理、又は、物体の外形を検出する処理では、対象物を特定することも可能である。つまり、センシングの際、上述を例とする処理を1つ以上、または、2つ以上実施してもよい。
 以上のように位置推定を行うことで、基地局、または、LMFは、端末の位置推定情報を得ることができ、これにより、ネットワークを介し、サーバーが端末の位置推定情報を得ることができるため、他の実施の形態で説明したような処理を行うことが可能となる。
 なお、基地局、端末が送信する信号の構成として、図46の(A)、図47Aの(A)および(B)、ならびに、図47Bの(A)および(B)を説明したが、これらの構成に限ったものではなく、基地局、端末が送信する信号に、「制御シンボル、リファレンス信号、データシンボル」以外のシンボル、信号が存在していてもよい。また、制御シンボル、リファレンス信号、データシンボルは個別に送信されてもよく、また、制御シンボル、リファレンス信号、データシンボルは周波数軸に方向に配置してもよい。また、シンボル、信号の呼び方は、これらの呼び方に限ったものではない。
 (実施の形態8)
 本実施の形態では、実施の形態5の変形例について説明を行う。
 仮想空間には、端末に相当するキャラクタ、および/または、サーバーなどが生成したキャラクタが存在することになる。以下では、端末に相当するキャラクタの動作制御の例について説明を行う。
 「端末に相当するキャラクタの仮想空間における動作の制御」について説明を行う。
 図27は、図1における101_1の端末#1、101_2の端末#2、101_101の端末#101、101_102の端末#102を例とする端末が送信する変調信号に含まれる端末設定情報2700に関する構成の一例を示している。端末設定情報2700は、例えば、「キャラクタ動作設定に関する情報2719」を含んでいるものとする。このとき、端末は、端末設定情報2700を、基地局に送信することになる。
 図48Aは、「キャラクタ動作設定」に関する例えば図1における「端末、基地局、サーバーのやりとりの例」を示している。ただし、図48Aでは、端末とサーバーのやりとりを示しているが、図48Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図48Aに示すように、端末は「端末情報」を送信する(4801A)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(4851A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末は、「(端末に相当する)キャラクタの動作設定開始情報」を送信する(4802A)。
 サーバーは、「(端末に相当する)キャラクタの動作設定開始情報」を得る(4852A)。
 これにより、端末とサーバーは、(端末に相当する)キャラクタの動作設定に関する手続きを開始することになる。
 そして、端末は、「(端末に相当する)キャラクタの動作設定情報」を送信する(4803A)。
 サーバーは、「(端末に相当する)キャラクタの動作設定情報」を得る(4853A)。
 サーバーは、「端末情報、(端末に相当する)キャラクタ情報、(端末に相当する)キャラクタの動作設定情報」のセットの情報を記憶することになる(4854A)。
 なお、端末とサーバーのやりとりにおける処理の順番は、図48Aの例に限ったものではなく、また、他の処理が加わってもよい。
 これにより、サーバーは、仮想空間における端末に相当するキャラクタの動作を制御することになる。具体的な制御方法について説明を行う。
 実施の形態1などで説明した端末の位置に基づいてキャラクタを生成した場合、端末に相当するキャラクタを、端末の位置に応じて仮想空間に登場させることができる。一方で、端末に相当するキャラクタを仮想空間で登場させた後に動作を制御するとよりリアルのキャラクタの実現が可能となる。
 以降では、端末に相当するキャラクタの動作を制御する方法の設定の例について説明を行う。
 図48Bは、端末が設定する「(端末に相当する)キャラクタの動作設定」の例を示している。
 図48Bに示すように、例えば、以下のいずれかの設定が可能であるものとする。なお、例えば、図34Bのように端末の表示部、表示装置に表示されてもよい。
 ・自動4890B
 例えば、このモードに設定した場合、端末に相当するキャラクタは、仮想空間内で自動的に動作を行うことになる。
 ・センサー連動4891B
 例えば、このモードに設定した場合、端末に相当するキャラクタは、センサーに連動して、仮想空間内で動作することになる。なお、詳細については後で説明を行う。
 ・カスタマイズ4892B
 例えば、このモードに設定した場合、端末に相当するキャラクタの動作例については、実施の形態5で説明しているので、説明を省略する。
 そして、図48Bのように端末が「(端末に相当する)キャラクタの動作設定」を行い、この設定に関する情報を、「(端末に相当する)キャラクタの動作設定情報」として送信することになり、サーバーは「(端末に相当する)キャラクタの動作設定情報」を得ることになる。そして、サーバーは、「(端末に相当する)キャラクタの動作設定情報」に基づいて、(端末に相当する)キャラクタの動作を制御し、仮想空間の情報を生成することになる。
 なお、「(端末に相当する)キャラクタの動作設定」の例は、図48Bの例に限ったものではない。
 次に、「センサー連動4891B」に関して説明を行う。
 図48Cは端末とセンサーの状態の例を示している。仮想空間に存在するキャラクタは、端末4889Cに相当するキャラクタとなる。そして、仮想空間の端末に相当するキャラクタは、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」に連動して、仮想空間内で動作することになる。
 「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」は、それぞれ、例えば、「角速度センサー」、「地磁気センサー」、「加速度センサー」などのセンサーを搭載しているものとする。そして、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」は、人(ユーザ)4880Cの頭、手、腰、足などのそれぞれの動きを検出することになり、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」はそれぞれ動きに関する、センシング情報を取得することになる。
 「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」はそれぞれが取得した「センシング情報」を端末4889Cに送信することになる。したがって、端末4889Cは、「第1センサー4881C」が送信した「センシング情報」、「第2-1センサー4882CR」が送信した「センシング情報」、「第2-2センサー4882CL」が送信した「センシング情報」、「第3センサー4883C」が送信した「センシング情報」、「第4-1センサー4884CR」が送信した「センシング情報」、「第4―2センサー4884CL」が送信した「センシング情報」を得ることになる。
 図48Dは、図1における101_1の端末#1、101_2の端末#2などの図48の端末4889Cが送信する情報の構成例を示している。
 端末4889Cは、102_1の基地局#1(および/または、LMF)に、図48Dの「端末の情報4802D」、「位置情報4803D」、「付加情報4804D」を送信する。したがって、102_1の基地局#1(および/または、LMF)は、「端末の情報4802D」、「位置情報4803D」、「付加情報4804D」を得ることになる。なお、端末の情報4802Dは端末4889Cに関する情報であり、位置情報4803Dは端末4889Cの位置情報である。
 付加情報4804Dは、例えば、「モード情報4850D」、「第1センサーのセンシング情報4851D」、「第2-1センサーのセンシング情報4852D_1」、「第2-2センサーのセンシング情報4852D_2」、「第3センサーのセンシング情報4853D」、「第4-1センサーのセンシング情報4854D_1」、「第4-2センサーのセンシング情報4854D_2」を含んでいる。なお、付加情報と呼んでいるが、呼び方はこれに限ったものではなく、データを含んでいる、または、情報を含んでいるという解釈でもよい。
 「モード情報4850D」は、端末4889Cが設定したモードの情報であり、モードの例については、図48Bを用いて説明したとおりとなる。
 「第1センサーのセンシング情報4851D」は、「第1センサー4881C」の「センシング情報」となる。
 「第2-1センサーのセンシング情報4852D_1」、は、「第2-1センサー4882CR」の「センシング情報」となる。
 「第2-2センサーのセンシング情報4852D_2」、は、「第2-2センサー4882CL」の「センシング情報」となる。
 「第3センサーのセンシング情報4853D」、は、「第3センサー4883C」の「センシング情報」となる。
 「第4-1センサーのセンシング情報4854D_1」、は、「第4-1センサー4884CR」の「センシング情報」となる。
 「第4-2センサーのセンシング情報4854D_2」は、「第4―2センサー4884CL」の「センシング情報」となる。
 図48Eは、図1における102_1の基地局#1(および/または、LMF)が、サーバー104に送信する情報の構成例を示している。
 102_1の基地局#1(および/または、LMF)は、サーバー104に、図48Eの「セルIDの情報4801E」、「端末の情報4802E」、「位置情報4803E」、「付加情報4804E」を送信する。したがって、サーバー104は、「セルIDの情報4801E」「端末の情報4802E」、「位置情報4803E」、「付加情報4804E」を得ることになる。なお、セルIDの情報4801Eは端末4889Cが属するセルIDであり、端末の情報4802Eは端末4889Cに関する情報であり、位置情報4803Eは端末4889Cの位置情報である。
 付加情報4804Eは、例えば、「モード情報4850E」、「第1センサーのセンシング情報4851E」、「第2-1センサーのセンシング情報4852E_1」、「第2-2センサーのセンシング情報4852E_2」、「第3センサーのセンシング情報4853E」、「第4-1センサーのセンシング情報4854E_1」、「第4-2センサーのセンシング情報4854E_2」を含んでいる。なお、付加情報と呼んでいるが、呼び方はこれに限ったものではなく、データを含んでいる、または、情報を含んでいるという解釈でもよい。
 「モード情報4850E」は、端末4889Cが設定したモードの情報であり、モードの例については、図48Bを用いて説明したとおりとなる。
 「第1センサーのセンシング情報4851E」は、「第1センサー4881C」の「センシング情報」となる。
 「第2-1センサーのセンシング情報4852E_1」、は、「第2-1センサー4882CR」の「センシング情報」となる。
 「第2-2センサーのセンシング情報4852E_2」、は、「第2-2センサー4882CL」の「センシング情報」となる。
 「第3センサーのセンシング情報4853E」、は、「第3センサー4883C」の「センシング情報」となる。
 「第4-1センサーのセンシング情報4854E_1」、は、「第4-1センサー4884CR」の「センシング情報」となる。
 「第4-2センサーのセンシング情報4854E_2」は、「第4―2センサー4884CL」の「センシング情報」となる。
 図1におけるサーバー104は、図48の端末4889Cが存在する「セルIDの情報4801E」、端末4889Cの「端末の情報4802E」、端末4889Cの「位置情報4803E」、端末4889Cの「付加情報4804E」を得る。
 サーバー104は、「端末4889Cが存在する「セルIDの情報4801E」、端末4889Cの「端末の情報4802E」、端末4889Cの「位置情報4803E」」に基づいて、実空間の「位置情報4803E」に対応する仮想空間の位置に、端末4889Cに相当するキャラクタを登場させることになる。
 また、サーバー104は、仮想空間において、端末4889Cに相当するキャラクタを、実空間の「位置情報4803E」に対応する仮想空間の位置に配置し、「「第1センサーのセンシング情報4851E」、「第2-1センサーのセンシング情報4852E_1」、「第2-2センサーのセンシング情報4852E_2」、「第3センサーのセンシング情報4853E」、「第4-1センサーのセンシング情報4854E_1」、「第4-2センサーのセンシング情報4854E_2」」に基づいて、仮想空間における端末4889Cに相当するキャラクタの動きを制御することになる。
 以上のようにすることで、実空間のセンサーの状況に応じて、仮想空間の端末に相当するキャラクタの動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。このとき、端末、基地局(および/または、LMF)は、サーバーに、「位置情報」と「センシング情報」をあわせて伝送することが一つの有効な方法となる。
 なお、図48Cにおいて、人(ユーザ)に配置するセンサーの数を6として説明したが、人(ユーザ)に配置するセンサーの数は1以上であれば同様に実施することが可能である。また、センサーを配置する(人(ユーザ)における)位置は、図48Cの位置(部位)に限ったものではない。
 図48Cでは、センサーは、人(ユーザ)に取り付けられているが、センサーを取り付ける物体はこれに限ったものではない。例えば、「車、自転車、バイク、自転車、船、衛星、航空機、ドローン、ロボット、電気自動車、電動バイク、電動自転車、キックボード」を例とする動く装置、「鳥、哺乳類、爬虫類、両生類、昆虫」を例とする動物、動くものにセンサーを取り付けてもよい。そして、センサーは端末4889Cと通信などのやりとりを行い、端末は、センサーからのデータを得ることになる。
 また、純静止物にセンサーを取り付けてもよい。例えば、林、森などの木々にセンサーを取り付ける。そして、図48Cのように端末4889Cが、センサーの情報を収集する。そして、図1、図48D、図48Eを用いて説明したように、端末4889Cは、基地局(および/またはLMF)を介し、サーバーにセンサーの情報、位置情報を届ける。サーバーは、仮想空間において、位置情報に対応する位置に木々のキャラクタを登場させ、センサー情報に基づいて、仮想空間における木々のキャラクタを揺らし、動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。
 図48Cのセンサーの例として、「角速度センサー」、「地磁気センサー」、「加速度センサー」を記載したが、これに限ったものではない。例えば、センサーは、イメージセンサーのような光の強度、色などを検出する光のためセンサーであってもよい。このようにすることで、サーバーは光に関する情報を得ることができ、これにより、サーバーは、光に関する情報に基づいて、仮想空間において、光の方向、色、光の強度、影などをよりリアルに再現することができるという効果を得ることができる。また、サーバーは光に関する情報として、動画の情報、画像の情報を得るとしてもよい。そして、動画の情報、画像の情報に、文字情報、周辺に存在している物体、人などのキャラクタ情報を含んでいてもよい。
 また、別の例として、センサーは、マイクのような音を収集センサーであってもよい。このようにすることで、サーバーは、オーディオに関する情報を得ることができ、これにより、サーバーは、オーディオに関する情報に基づいて、仮想空間において、オーディオをよりリアルに再現することができるという効果を得ることができる。
 図48Cの変形例を説明する。図48Fは基地局とセンサーの状態の例を示している。「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」は、それぞれ端末の機能を有している、つまり、基地局4888Fと通信する機能を有している。このとき、「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」により、サーバーは、仮想空間におけるキャラクタを一つ以上形成することになる。これは、「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」は、それぞれ端末の機能を有しているからである。
 「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」は、それぞれ、例えば、「角速度センサー」、「地磁気センサー」、「加速度センサー」などのセンサーを搭載しているものとする。そして、「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」は、人(ユーザ)4880Fの頭、手、腰、足などのそれぞれの動きを検出することになり、「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」はそれぞれ動きに関する、センシング情報を取得することになる。
 「第1センサー4881F」、「第2-1センサー4882FR」、「第2-2センサー4882FL」、「第3センサー4883F」、「第4-1センサー4884FR」、「第4―2センサー4884FL」はそれぞれが取得した「センシング情報」を基地局4888Fに送信することになる。したがって、基地局4888Fは、「第1センサー4881F」が送信した「センシング情報」、「第2-1センサー4882FR」が送信した「センシング情報」、「第2-2センサー4882FL」が送信した「センシング情報」、「第3センサー4883F」が送信した「センシング情報」、「第4-1センサー4884FR」が送信した「センシング情報」、「第4―2センサー4884FL」が送信した「センシング情報」を得ることになる。
 図48Eは、図1における102_1の基地局#1(および/または、LMF)が、サーバー104に送信する情報の構成例を示している。
 102_1の基地局#1(および/または、LMF)は、サーバー104に、図48Eの「セルIDの情報4801E」、「端末の情報4802E」、「位置情報4803E」、「付加情報4804E」を送信する。ただし、図48Fにおいて、「端末の情報4802E」は、仮想空間において登場させる一つ以上のキャラクタに対応する端末の情報となる。また、「位置情報4803E」は、仮想空間において登場させる一つ以上のキャラクタに対応する端末の位置情報となる。そして、セルIDの情報4801Eは仮想空間において登場させる一つ以上のキャラクタに対応する端末が属するセルIDである。
 したがって、サーバー104は、「セルIDの情報4801E」「端末の情報4802E」、「位置情報4803E」、「付加情報4804E」を得ることになる。
 付加情報4804Eは、例えば、「モード情報4850E」、「第1センサーのセンシング情報4851E」、「第2-1センサーのセンシング情報4852E_1」、「第2-2センサーのセンシング情報4852E_2」、「第3センサーのセンシング情報4853E」、「第4-1センサーのセンシング情報4854E_1」、「第4-2センサーのセンシング情報4854E_2」を含んでいる。なお、付加情報と呼んでいるが、呼び方はこれに限ったものではなく、データを含んでいる、または、情報を含んでいるという解釈でもよい。
 「第1センサーのセンシング情報4851E」は、「第1センサー4881F」の「センシング情報」となる。
 「第2-1センサーのセンシング情報4852E_1」、は、「第2-1センサー4882FR」の「センシング情報」となる。
 「第2-2センサーのセンシング情報4852E_2」、は、「第2-2センサー4882FL」の「センシング情報」となる。
 「第3センサーのセンシング情報4853E」、は、「第3センサー4883F」の「センシング情報」となる。
 「第4-1センサーのセンシング情報4854E_1」、は、「第4-1センサー4884FR」の「センシング情報」となる。
 「第4-2センサーのセンシング情報4854E_2」は、「第4―2センサー4884FL」の「センシング情報」となる。
 図1におけるサーバー104は、「セルIDの情報4801E」、「端末の情報4802E」、「位置情報4803E」、端末4889Cの「付加情報4804E」を得る。
 サーバー104は、「「セルIDの情報4801E」、「端末の情報4802E」、「位置情報4803E」」に基づいて、実空間の「位置情報4803E」に対応する仮想空間の位置に、一つ以上のキャラクタを登場させることになる。
 また、サーバー104は、仮想空間において、一つ以上のキャラクタを、実空間の「位置情報4803E」に対応する仮想空間の位置に配置し、「「第1センサーのセンシング情報4851E」、「第2-1センサーのセンシング情報4852E_1」、「第2-2センサーのセンシング情報4852E_2」、「第3センサーのセンシング情報4853E」、「第4-1センサーのセンシング情報4854E_1」、「第4-2センサーのセンシング情報4854E_2」」に基づいて、仮想空間における一つ以上のキャラクタの動きを制御することになる。
 以上のようにすることで、実空間のセンサーの状況に応じて、仮想空間のキャラクタの動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。このとき、基地局(および/または、LMF)は、サーバーに、「位置情報」と「センシング情報」をあわせて伝送することが一つの有効な方法となる。
 本実施の形態では、端末や装置の位置に基づくキャラクタが存在する仮想空間について説明を行ったが、端末や装置の位置に基づくキャラクタが存在しない仮想空間、例えば、単にキャラクタが存在する仮想空間に対し、本実施の形態を適用しても、同様に実施することが可能である。なお、仮想空間は、実空間に基づいた仮想空間であってもよいし、実空間とは関係ない仮想空間であってもよい。
 また、「動くもの、動く装置、動物、生物」などが実空間に存在している場所に相当する仮想空間における場所において、「動くもの、動く装置、動物、生物」などの動きに連動させて仮想空間におけるキャラクタを動作させることができ、これにより、より現実に即した仮想空間を形成することができるという効果を得ることができる。
 「センサー連動4891B」に関する、図48Cとは異なる例について説明を行う。なお、ここでは、センサーの代わりに撮影装置を用いることになる。
 図48Gは端末と撮影装置の状態の例を示している。なお、図48Gにおいて、端末4889Gと撮影装置4887Gと区別しているが、この構成に限ったものではなく、端末と撮影装置が一つの装置とする構成であってもよい。
 仮想空間に存在するキャラクタは、端末4889Gに相当するキャラクタとなる。撮影装置4887Gは、例えば、人(ユーザ)4880Gを撮影し、解析することにより、人(ユーザ)4880Gの頭、手、腰、足などのそれぞれの動きを検出することになる。そして、撮影装置4887Gは、各部のそれぞれ動きに関する、センシング情報を取得することになる。
 図48Gにおける端末4889Gは、撮影装置4887Gから、(各部のそれぞれ動きに関する)センシング情報を得ることになる。そして、図1のように、端末は、基地局(および、LMF)を介し、サーバーに、(各部のそれぞれ動きに関する)センシング情報を伝送することになる。
 上記と別の方法として、端末4889Gが、人(ユーザ)4880Gの解析を行ってもよい。このとき、例えば、撮影装置4887Gは、各部のそれぞれ動きに関する、センシング情報を取得し、端末4889Gがこのセンシング情報を得て、解析を行うことになる。
 サーバーに、(各部のそれぞれ動きに関する)センシング情報を得、端末に相当するキャラクタが、(各部のそれぞれ動きに関する)センシング情報に連動して、仮想空間内で動作するように、サーバーは、端末に相当するキャラクタを制御することになる。
 なお、端末は、基地局(および/または、LMF)を介し、サーバーに、「位置情報」と(各部のそれぞれ動きに関する)「センシング情報」をあわせて伝送することになり、サーバーは、「位置情報」に基づいた仮想空間内の位置に、端末に相当するキャラクタを登場させることになる。
 以上のようにすることで、撮影装置を利用して、仮想空間の端末に相当するキャラクタの動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。このとき、基地局(および/または、LMF)は、サーバーに、「位置情報」と「センシング情報」をあわせて伝送することが一つの有効な方法となる。
 上記とは異なる例について説明を行う。図48Hは、システム構成の例であり、図1、図18と同様に動作するものについては同一番号を付しており、一部説明を省略する。図48Hが図1と異なる点は、システムに1802_1の撮影装置#1が存在している点であり、例えば、1802_1の撮影装置#1はネットワーク103に接続しているものとする。
 図48Iは端末と撮影装置の状態の例を示している。撮影装置4887Iは図48Hにおける1802_1の撮影装置#1に相当し、端末4889Iは、例えば、図48Hにおける101_1の端末#1、101_2の端末#2に相当する。
 仮想空間に存在するキャラクタは、端末4889Iに相当するキャラクタとなる。
 撮影装置4887Iは、例えば、人(ユーザ)4880Iを撮影し、解析することにより、人(ユーザ)4880Gの頭、手、腰、足などのそれぞれの動きを検出することになる。そして、撮影装置4887Iは、各部のそれぞれ動きに関する、センシング情報を取得することになる。 図48Iにおける撮影装置4887Iは、ネットワーク103を介し、サーバーに、(各部のそれぞれ動きに関する)センシング情報を伝送することになる。
 サーバーに、(各部のそれぞれ動きに関する)センシング情報を得、端末に相当するキャラクタが、(各部のそれぞれ動きに関する)センシング情報に連動して、仮想空間内で動作するように、サーバーは、端末に相当するキャラクタを制御することになる。
 なお、端末は、基地局(および/または、LMF)を介し、サーバーに、「位置情報」を伝送し、撮影装置4887Iは、(各部のそれぞれ動きに関する)「センシング情報」をサーバーに伝送することになり、サーバーは、「位置情報」に基づいた仮想空間内の位置に、端末に相当するキャラクタを登場させることになる。
 以上のようにすることで、撮影装置を利用して、仮想空間の端末に相当するキャラクタの動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。このとき、サーバーが、「位置情報」と「センシング情報」を得ることが一つの有効な方法となる。
 なお、図48G、図48Iにおいて、撮影装置の数を1として説明したが、撮影装置の数が1以上であれば同様に実施することが可能である。
 図48G、図48Iでは、撮影装置は人(ユーザ)を解析の対象としているが、撮影装置が解析の対象とするものは、これに限ったものではない。例えば、「車、自転車、バイク、自転車、船、衛星、航空機、ドローン、ロボット、電気自動車、電動バイク、電動自転車、キックボード」を例とする動く装置、「鳥、哺乳類、爬虫類、両生類、昆虫」を例とする動物、動くものを、撮影装置の解析の対象としてもよい。
 また、撮影装置は純静止物を解析の対象としてもよい。例えば、林、森などを撮影装置は、撮影し、解析を行い、センシング情報を収集する。そして、撮影装置4887Iは、ネットワーク103を介し、サーバーにセンサーの情報、位置情報を届ける。サーバーは、仮想空間において、位置情報に対応する位置に木々のキャラクタを登場させ、センサー情報に基づいて、仮想空間における木々のキャラクタを揺らし、動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。撮影装置4887Iは、ネットワーク103を介し、サーバーに、(各部のそれぞれ動きに関する)センシング情報を伝送することになる。
 サーバーに、(各部のそれぞれ動きに関する)センシング情報を得、端末に相当するキャラクタが、(各部のそれぞれ動きに関する)センシング情報に連動して、仮想空間内で動作するように、サーバーは、端末に相当するキャラクタを制御することになる。
 なお、端末は、基地局(および/または、LMF)を介し、サーバーに、「位置情報」を伝送し、撮影装置4887Iは、(各部のそれぞれ動きに関する)「センシング情報」をサーバーに伝送することになり、サーバーは、「位置情報」に基づいた仮想空間内の位置に、端末に相当するキャラクタを登場させることになる。
 例えば、撮影装置4887Iは、光の強度、色などを検出し、サーバーは光に関する情報を得てもよい。これにより、サーバーは、光に関する情報に基づいて、仮想空間において、光の方向、色、光の強度、影などをよりリアルに再現することができるという効果を得ることができる。また、サーバーは光に関する情報として、動画の情報、画像の情報を得るとしてもよい。そして、動画の情報、画像の情報に、文字情報、周辺に存在している物体、人などのキャラクタ情報を含んでいてもよい。
 また、撮影装置4887Iは、マイクのような音の収集センサーを具備していてもよい。このようにすることで、サーバーは、オーディオに関する情報を得ることができ、これにより、サーバーは、オーディオに関する情報に基づいて、仮想空間において、オーディオをよりリアルに再現することができるという効果を得ることができる。
 上記を考慮した端末に相当するキャラクタの動作を制御する方法の設定の例について説明を行う。
 図49は、端末が設定する「(端末に相当する)キャラクタの動作設定」の例を示している。なお、図49において、図48Bと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図49に示すように、例えば、以下のいずれかの設定が可能であるものとする。なお、例えば、図34Bのように端末の表示部、表示装置に表示されてもよい。
 ・自動4890B
 例えば、このモードに設定した場合、端末に相当するキャラクタは、仮想空間内で自動的に動作を行うことになる。
 ・センサー連動4891B
 例えば、このモードに設定した場合、端末に相当するキャラクタは、センサーに連動して、仮想空間内で動作することになる。なお、詳細についてはすでに説明を行ったとおりである。
 ・撮影装置の情報に連動4992
 例えば、このモードに設定した場合、端末に相当するキャラクタは、撮影装置の情報に連動して、仮想空間内で動作することになる。なお、詳細についてはすでに説明を行ったとおりである。
 そして、図49のように端末が「(端末に相当する)キャラクタの動作設定」を行い、この設定に関する情報を、「(端末に相当する)キャラクタの動作設定情報」として送信することになり、サーバーは「(端末に相当する)キャラクタの動作設定情報」を得ることになる。そして、サーバーは、「(端末に相当する)キャラクタの動作設定情報」に基づいて、(端末に相当する)キャラクタの動作を制御し、仮想空間の情報を生成することになる。
 なお、「(端末に相当する)キャラクタの動作設定」の例は、図49の例に限ったものではない。
 以上のように端末に相当するキャラクタの動作を制御する方法の設定を行うことができるようにすることで、実空間の状況により、端末に相当するキャラクタの動作を制御する方法を設定することができるという効果を得ることができる。
 なお、基地局、端末が送信する信号の構成として、図48D、図48Eを説明したが、これらの構成に限ったものではなく、基地局、端末が送信する信号に、「図48D、図48E」に示した情報以外の情報が含まれていてもよい。また、情報の呼び方は、図48D、図48Eの呼び方に限ったものではない。
 (実施の形態9)
 本実施の形態では、端末に相当するキャラクタの属性の表示に関する例の説明を行う。
 図1、図5、図18、図20、図38A、図45、図48Hを例とするシステムにおける端末に相当するキャラクタを、サーバーは、仮想空間に登場させることになる。このとき、端末に相当するキャラクタの属性に関する実施例について、以下で説明を行う。
 図50Aは、端末が、例えば自身(他の端末であってもよい)に相当するキャラクタに属性の表示に関する設定例を示している。例として、図50Aに相当する表示が、端末の表示部に表示されるものとする。
 属性の表示5000Aが「ON」のとき、仮想空間におけるこの端末に相当するキャラクタの属性が表示されることになる。属性の表示5000Aが「OFF」のとき、仮想空間におけるこの端末に相当するキャラクタの属性は表示されないことになる。
 「キャラクタへのアクセス」に関する表示5001Aが「ON」のとき、仮想空間において、他の端末に相当するキャラクタは、この端末に相当するキャラクタにアクセス(例えば、チャット、通信など)をすることができるということを意味している。「キャラクタへのアクセス」に関する表示5001Aが「OFF」のとき、仮想空間において、他の端末に相当するキャラクタは、この端末に相当するキャラクタにアクセス(例えば、チャット、通信など)をすることができないということを意味している。
 「キャラクタ動作」に関する表示5002Aが「ON」のとき、例えば
 ・この端末に相当するキャラクタの動作が自動
 ・この端末に相当するキャラクタの動作がセンサー連動
 ・この端末に相当するキャラクタの動作が撮影装置の情報に連動
 のいずれの動作であるかが表示されていることになる。「キャラクタ動作」に関する表示5002Aが「OFF」のとき、「キャラクタ動作」に関する表示が行われないことになる。
 「健康状態」に関する表示5003Aが「ON」のとき、例えば、この端末を使用する人(ユーザ)の健康状態が、この端末に相当するキャラクタを介して表示されることになる。例えば、健康状態の例として、
 ・各部の負担の状況(膝の負担状況、肘の負担状況など)
 ・体温
 ・疲労度
 ・ストレス
 ・呼吸回数
 などがあげられる。「健康状態」に関する表示5003Aが「OFF」のとき、この端末を使用する人(ユーザ)の健康状態は表示されないことになる。
 「目的地」に関する表示5004Aが「ON」のとき、例えば、この端末を使用する人(ユーザ)が向かっている目的地が、この端末に相当するキャラクタを介して表示されることになる。「目的地」に関する表示5004Aが「OFF」のとき、この端末を使用する人(ユーザ)が向かっている目的地は表示されないことになる。
 「キャラクタ表示時間」に関する表示5005Aが「ON」のとき、この端末に相当するキャラクタの仮想空間における表示時間が、表示されることになる。「キャラクタ表示時間」に関する表示5005Aが「OFF」のとき、この端末に相当するキャラクタの仮想空間における表示時間は、表示されないことになる。
 図50Bは、端末が、基地局を介してサーバーに伝送する、端末(自身)の設定情報の構成の一例を示している。端末は、図50Bの端末設定情報5099Bを、基地局を介してサーバーに伝送する。ただし、基地局を介さずに、サーバーに伝送してもよい。
 端末設定情報5099Bは、属性表示に関する設定情報5000B、「キャラクタへのアクセス」に関する表示の設定情報5001B、「キャラクタ動作」に関する表示の設定情報5002B、「健康状態」に関する表示の設定情報5003B、「目的地」に関する表示の設定情報5004B、「キャラクタ表示時間」に関する設定情報5005Bなどで構成されている。
 属性表示に関する設定情報5000Bは、属性の表示5000Aにより端末が設定した状態を伝送するための情報である。
 「キャラクタへのアクセス」に関する表示の設定情報5001Bは、「キャラクタへのアクセス」に関する表示5001Aにより端末が設定した状態を伝送するための情報である。
 属性表示の設定が「ON」になっているとき、サーバーは、「キャラクタへのアクセス」に関する表示の設定情報5001Bに基づき、「キャラクタへのアクセス」に関する表示が必要な場合、仮想空間における端末に相当するキャラクタの「キャラクタへのアクセス」に関する表示を行うことになる。
 「キャラクタ動作」に関する表示の設定情報5002Bは、「キャラクタ動作」に関する表示5002Aにより端末が設定した状態を伝送するための情報である。
 属性表示の設定が「ON」になっているとき、サーバーは、「キャラクタ動作」に関する表示の設定情報5002Bに基づき、「キャラクタ動作」に関する表示が必要な場合、仮想空間における端末に相当するキャラクタの「キャラクタ動作」に関する表示を行うことになる。なお、端末は「キャラクタ動作」に関する情報をサーバーに伝送することになる。
 「健康状態」に関する表示の設定情報5003Bは、「健康状態」に関する表示5003Aにより端末が設定した状態を伝送するための情報である。
 属性表示の設定が「ON」になっているとき、サーバーは、「健康状態」に関する表示の設定情報5003Bに基づき、「健康状態」に関する表示が必要な場合、仮想空間における端末に相当するキャラクタに関連する人(ユーザ)の「健康状態」に関する表示を行うことになる。なお、端末は「健康状態」に関する情報をサーバーに伝送することになる。
 「目的地」に関する表示の設定情報5004Bは、「目的地」に関する表示5004Aにより端末が設定した状態を伝送するための情報である。
 属性表示の設定が「ON」になっているとき、サーバーは、「目的地」に関する表示の設定情報5004Bに基づき、「目的地」に関する表示が必要な場合、仮想空間における端末に相当するキャラクタに関連する人(ユーザ)の「目的地」に関する表示を行うことになる。なお、端末は「目的地」に関する情報をサーバーに伝送することになる。
 「キャラクタ表示時間」に関する表示の設定情報5005Bは、「キャラクタ表示時間」に関する表示5005Aにより端末が設定した状態を伝送するための情報である。
 属性表示の設定が「ON」になっているとき、サーバーは、「キャラクタ表示時間」に関する表示の設定情報5005Bに基づき、「キャラクタ表示時間」に関する表示が必要な場合、仮想空間における端末に相当するキャラクタの「キャラクタ表示時間」に関する表示を行うことになる。なお、端末は「キャラクタ表示時間」に関する情報をサーバーに伝送することになる。
 図51は、「仮想空間の端末に相当するキャラクタの属性表示」に関する例えば、図1、図5、図18、図20、図38A、図45、図48Hなどにおける「端末、基地局、サーバーのやりとりの例」を示している。ただし、図51では、端末とサーバーのやりとりを示しているが、図51において、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図51に示すように、端末は「端末情報」を送信する(5101)。なお、端末情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末情報」を得ることになる(5151)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 その後、端末は、「属性関連の表示に関する設定開始に関する情報」を送信する(5102)。
 サーバーは、「属性関連の表示に関する設定開始に関する情報」を得る(5152)。
 これにより、端末とサーバーは、属性関連の表示に関する設定手続きを開始することになる。
 そして、端末は、「属性関連の表示に関する設定に関する情報」を送信する(5103)。
 サーバーは、「属性関連の表示に関する設定に関する情報」を得る(5153)。
 なお、「属性関連の表示に関する設定に関する情報」は、例えば、属性表示に関する設定情報5000B、「キャラクタへのアクセス」に関する表示の設定情報5001B、「キャラクタ動作」に関する表示の設定情報5002B、「健康状態」に関する表示の設定情報5003B、「目的地」に関する表示の設定情報5004B、「キャラクタ表示時間」に関する設定情報5005Bなどとなる。
 なお、端末とサーバーのやりとりにおける処理の順番は、図51の例に限ったものではなく、また、他の処理が加わってもよい。
 図50A、図50B、図51のような属性に関する設定を行った際、仮想空間における端末に相当するキャラクタが端末などの表示装置されるときの例を、図52は示している。
 図52の画面5299に、仮想空間の端末に相当するキャラクタ5201が表示されている。そして、キャラクタ5201とあわせて、キャラクタの属性(キャラクタに対応する端末の属性)5251を画面5299に表示する。
 例えばキャラクタの属性5251は、
 ・「(キャラクタへの)アクセス」は「可能」
 ・「キャラクタ動作」は「センサー連動」
 ・「健康状態」は「良好」
 ・「目的地」は「渋谷」
 ・「(キャラクタ)表示時間」は「残り2時間」
 のように表示する。ただし、図52は、あくまでも例である。なお、キャラクタの属性5251は、常に表示されていなくてもよい。
 図50A、図50B、図51、図52を用いて説明したように、仮想空間に存在する端末に相当するキャラクタとあわせてこのキャラクタの属性を表示することで、他のキャラクタとの通信回数を減らすことができ、これにより、データ伝送効率が向上するという効果を得ることができる。
 また、端末に相当するキャラクタとあわせてこのキャラクタの属性を表示しておくことで、この端末に関連する人(ユーザ)は、他のキャラクタ(端末を使用するユーザ)から役立つ情報を得ることができる可能性がある。
 例えば、「目的地」を表示しておくと、ユーザがはじめて訪問した土地である場合、向かっている方向が正しいか否かを、他のキャラクタから指摘を受けることができる可能性が高くなる。
 また、「健康状態」を表示しておくと、ユーザの健康状態がわかるため、他のキャラクタからの助けを得ることができる可能性があり、これにより、ユーザの安全性につながる可能性が高くなる。
 そして、「キャラクタ動作」を表示しておくと、端末とキャラクタの関係に関する状態を知ることができるため、これにより、他のキャラクタに対応するユーザ、キャラクタに対応するユーザが、キャラクタの動作を確認することができることになる。
 なお、表示する属性の設定の例は図50Aに限ったものではなく、図50Aで記載した以外の表示の設定を行ってもよい。また、表示方法は、図50Aの例に限ったものではない。よって、図50Bにおける端末設定情報が含む情報は、図50Bの例に限ったものではなく、情報の呼び方についても、図50Bの例に限ったものではない。
 また、キャラクタ(端末)の属性の表示方法の例は図52の例に限ったものではなく、また、表示する内容についても図52の例に限ったものではない。
 (実施の形態10)
 実施の形態6において、図1、図5、図18、図20、図38A、図45、図48Hなどにおける実空間と仮想空間における広告に関する説明を行った。本実施の形態では、実施の形態6の変形例となる実空間と仮想空間における広告に関する説明を行う。
 図53A、図53Bは、「実空間」の状況の例を示している。
 図53Aに示すように、道路を、装置5301Aが移動しているものとする。装置5301Aは、例えば、動く装置(「電気自動車、電動バイク(e-バイク)、電動自転車、動くロボット、電動キックボード、電動アシスト自転車、電動アシストキックボード」のような電気に基づいた動く装置、自動車、バイク、自転車、船舶、航空機、飛行機など)が考えられるが、これに限ったものではない。例えば、静止している(設置されている、固定的に設置されている、可搬性を有する)装置であってもよい。また、装置5301Aは、ユーザを運んでいてもよいし、運んでいなくてもよい。そして、装置5301Aは、ユーザが制御することによって動いてもよいし、自動に動いてもよい。
 また、装置5301Aには、例えば図53Aのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。なお、ここでは、装置5301Aに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。また、広告情報、または、情報は装置5301Aに搭載されているディスプレイに表示してもよいし、広告情報、または、情報は装置5301Aに描かれていてもよい。なお、装置5301Aへの広告情報、または、情報の掲載方法は、これらの例に限ったものではない。
 図53Bは、図53Aとは異なる例である。図53Bに示すように、道路を、装置5301Bが移動しているものとする。装置5301Bは、例えば、動く装置(「電気自動車、電動バイク(e-バイク)、電動自転車、動くロボット、電動キックボード、電動アシスト自転車、電動アシストキックボード」のような電気に基づいた動く装置、自動車、バイク、自転車、船舶、航空機、飛行機など)が考えられるが、これに限ったものではない。例えば、静止している(設置されている、固定的に設置されている、可搬性を有する)装置であってもよい。また、装置5301Bは、ユーザを運んでいてもよいし、運んでいなくてもよい。そして、装置5301Bは、ユーザが制御することによって動いてもよいし、自動に動いてもよい。なお、装置5301Bには、広告情報はないものとする。
 図54Aは、実施の形態1などで説明した方法を適用したときの図53A、図53Bの実空間に相当する仮想空間の状態の例を示している。
 図54Aのように、例えば、表示装置では、仮想空間を画面5499Aに表示しているものとする。図54Aに示すように、道路に、装置5301A、または、5301Bに相当するキャラクタ5401Aが移動している。そして、キャラクタ5401Aには、例えば図54Aのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。ここでは、キャラクタ5401Aに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。なお、キャラクタ5401Aへの広告情報、または、情報の掲載方法は、図54Aの方法に限ったものではなく、また、仮想空間に存在する装置に相当するキャラクタは、どのようなものであってもよい。
 図54Bは、実施の形態1などで説明した方法を適用したときの図53A、図53Bの実空間に相当する仮想空間の状態の例を示している。
 図54Bのように、例えば、表示装置では、仮想空間を画面5499Bに表示しているものとする。図54Bに示すように、道路に、装置5301A、または、5301Bに相当するキャラクタ5401Bが移動している。そして、キャラクタ5401Bには、例えば図54Bのように、「サービス提供中、web(World Wide Web)サイト:yyyyyy」と広告情報が記載されていてもよい。ここでは、キャラクタ5401Bに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。なお、キャラクタ5401Bへの広告情報、または、情報の掲載方法は、図54Bの方法に限ったものではなく、また、仮想空間に存在する装置に相当するキャラクタは、どのようなものであってもよい。
 図54Cは、実施の形態1などで説明した方法を適用したときの図53A、図53Bの実空間に相当する仮想空間の状態の例を示している。
 図54Cのように、例えば、表示装置では、仮想空間を画面5499Cに表示しているものとする。図54Cに示すように、道路に、装置5301A、または、5301Bに相当するキャラクタ5401Cが移動している。そして、キャラクタ5401Cには、例えば図54Cのように、広告情報が記載されていなくてもよい。
 なお、表示装置は、例えば、モバイルフォン、携帯電話、スマートフォン、タブレット、タブレットPC(Personal Computer)、パソコン(ただし、モニタを搭載していてもよいし、モニタを接続できてもよい)、ノートパソコン、テレビ、モニタと接続された装置、ゲーム機、携帯ゲーム機、ARグラス、ARゴーグル、ARを表示できるモニタ、ARを表示できるモニタと接続された装置、VRグラス、VRゴーグル、VRを表示できるモニタ、VRを表示できるモニタと接続された装置、MR(Mixed Reality)グラス、MRを表示できるモニタ、MRを表示できるモニタと接続された装置、カーナビゲーションシステム、ヘッドマウントディスプレイ、ヘッドマウントディスプレイと接続された装置、モニタ、モニタと接続された装置、プロジェクタ、プロジェクタと接続された装置などが考えられるが、これらに限ったものではない。
 次に、「図53A、図53B」、「図54A、図54B、図54C」の関係について説明を行う。
 例10-1:
 図53Aの装置5301Aが実空間に存在するものとする。
 このとき、例えば、国(または、地域)#Aに存在する端末などが仮想空間にアクセスした場合、仮想空間において、装置5301Aに相当するキャラクタとして、キャラクタ5401Aが存在しているものとする。
 また、例えば、国(または、地域)#Bに存在する端末などが仮想空間にアクセスした場合、仮想空間において、装置5301Aに相当するキャラクタとして、キャラクタ5401Bが存在しているものとする。
 そして、例えば、国(または、地域)#Cに存在する端末などが仮想空間にアクセスした場合、仮想空間において、装置5301Aに相当するキャラクタとして、キャラクタ5401Cが存在しているものとする。
 例10-2:
 図53Bの装置5301Bが実空間に存在するものとする。
 このとき、例えば、国(または、地域)#Aに存在する端末などが仮想空間にアクセスした場合、仮想空間において、装置5301Bに相当するキャラクタとして、キャラクタ5401Aが存在しているものとする。
 また、例えば、国(または、地域)#Bに存在する端末などが仮想空間にアクセスした場合、仮想空間において、装置5301Bに相当するキャラクタとして、キャラクタ5401Bが存在しているものとする。
 そして、例えば、国(または、地域)#Cに存在する端末などが仮想空間にアクセスした場合、仮想空間において、装置5301Bに相当するキャラクタとして、キャラクタ5401Cが存在しているものとする。
 このように、実空間に存在する装置の仮想空間におけるキャラクタは、仮想空間において、国や地域によって、異なる場合が存在するものとする。このようにすると、例えば、国や地域により広告の規制が行われている場合、各国、各地域に適した広告の表示、または、広告を掲載しないという措置をとることができるという効果を得ることが可能となる。
 図55A、図55Bは、「実空間」の状況の例を示している。
 図55Aに示すように、道路を、端末を使用する人(ユーザ)5501Aが移動しているものとする。
 人(ユーザ)5501Aには、例えば図55Aのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。なお、ここでは、人(ユーザ)5501Aに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。また、広告情報、または、情報は人(ユーザ)5501Aに掲載されていてもよい。なお、人(ユーザ)5501Aへの広告情報、または、情報の掲載方法は、これらの例に限ったものではない。
 図55Bは、図55Aとは異なる例である。図55Bに示すように、道路を、端末を使用する人(ユーザ)5501Bが移動しているものとする。なお、人(ユーザ)5501Bには、広告情報はないものとする。
 図56Aは、実施の形態1などで説明した方法を適用したときの図55A、図55Bの実空間に相当する仮想空間の状態の例を示している。
 図56Aのように、例えば、表示装置では、仮想空間を画面5699Aに表示しているものとする。図56Aに示すように、道路に、人(ユーザ)5501A、または、5501Bに相当するキャラクタ5601Aが移動している。そして、キャラクタ5601Aには、例えば図56Aのように、「新サービス開始、web(World Wide Web)サイト:xxxxxx」と広告情報が記載されていてもよい。ここでは、キャラクタ5601Aに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。なお、キャラクタ5601Aへの広告情報、または、情報の掲載方法は、図56Aの方法に限ったものではなく、また、仮想空間に存在する装置(人、ユーザ)に相当するキャラクタは、どのようなものであってもよい。
 図56Bは、実施の形態1などで説明した方法を適用したときの図55A、図55Bの実空間に相当する仮想空間の状態の例を示している。
 図56Bのように、例えば、表示装置では、仮想空間を画面5699Bに表示しているものとする。図56Bに示すように、道路に、人(ユーザ)5501A、または、5501Bに相当するキャラクタ5601Bが移動している。そして、キャラクタ5601Bには、例えば図56Bのように、「サービス提供中、web(World Wide Web)サイト:yyyyyy」と広告情報が記載されていてもよい。ここでは、キャラクタ5601Bに掲載している情報は、広告情報としているが、「テキスト、画像、または、動画」などの情報、URL(Uniform Resource Locator)の情報などであってもよい。なお、キャラクタ5601Bへの広告情報、または、情報の掲載方法は、図56Bの方法に限ったものではなく、また、仮想空間に存在する装置(人、ユーザ)に相当するキャラクタは、どのようなものであってもよい。
 図56Cは、実施の形態1などで説明した方法を適用したときの図55A、図55Bの実空間に相当する仮想空間の状態の例を示している。
 図56Cのように、例えば、表示装置では、仮想空間を画面5699Cに表示しているものとする。図56Cに示すように、道路に、人(ユーザ)5501A、または、5501Bに相当するキャラクタ5601Cが移動している。そして、キャラクタ5601Cには、例えば図56Cのように、広告情報が記載されていなくてもよい。
 なお、表示装置は、例えば、モバイルフォン、携帯電話、スマートフォン、タブレット、タブレットPC(Personal Computer)、パソコン(ただし、モニタを搭載していてもよいし、モニタを接続できてもよい)、ノートパソコン、テレビ、モニタと接続された装置、ゲーム機、携帯ゲーム機、ARグラス、ARゴーグル、ARを表示できるモニタ、ARを表示できるモニタと接続された装置、VRグラス、VRゴーグル、VRを表示できるモニタ、VRを表示できるモニタと接続された装置、MR(Mixed Reality)グラス、MRを表示できるモニタ、MRを表示できるモニタと接続された装置、カーナビゲーションシステム、ヘッドマウントディスプレイ、ヘッドマウントディスプレイと接続された装置、モニタ、モニタと接続された装置、プロジェクタ、プロジェクタと接続された装置などが考えられるが、これらに限ったものではない。
 次に、「図55A、図55B」、「図56A、図56B、図56C」の関係について説明を行う。
 例10-3:
 図55Aの端末を使用する人(ユーザ)5501Aが実空間に存在するものとする。
 このとき、例えば、国(または、地域)#Aに存在する端末などが仮想空間にアクセスした場合、仮想空間において、人(ユーザ)5501Aに相当するキャラクタとして、キャラクタ5601Aが存在しているものとする。
 また、例えば、国(または、地域)#Bに存在する端末などが仮想空間にアクセスした場合、仮想空間において、人(ユーザ)5501Aに相当するキャラクタとして、キャラクタ5601Bが存在しているものとする。
 そして、例えば、国(または、地域)#Cに存在する端末などが仮想空間にアクセスした場合、仮想空間において、人(ユーザ)5501Aに相当するキャラクタとして、キャラクタ5601Cが存在しているものとする。
 例10-4:
 図55Bの端末を使用する人(ユーザ)5501Bが実空間に存在するものとする。
 このとき、例えば、国(または、地域)#Aに存在する端末などが仮想空間にアクセスした場合、仮想空間において、人(ユーザ)5501Bに相当するキャラクタとして、キャラクタ5601Aが存在しているものとする。
 また、例えば、国(または、地域)#Bに存在する端末などが仮想空間にアクセスした場合、仮想空間において、人(ユーザ)5501Bに相当するキャラクタとして、キャラクタ5601Bが存在しているものとする。
 そして、例えば、国(または、地域)#Cに存在する端末などが仮想空間にアクセスした場合、仮想空間において、人(ユーザ)5501Bに相当するキャラクタとして、キャラクタ5601Cが存在しているものとする。
 このように、実空間に存在する装置、人(ユーザ)の仮想空間におけるキャラクタは、仮想空間において、国や地域によって、異なる場合が存在するものとする。このようにすると、例えば、国や地域により広告の規制が行われている場合、各国、各地域に適した広告の表示、または、広告を掲載しないという措置をとることができるという効果を得ることが可能となる。
 「図53A、図53B」、「図54A、図54B、図54C」を実現するためのシステム、「図55A、図55B」、「図56A、図56B、図56C」を実現するためのシステム、について、説明を行う。
 図38Aは、「図53A、図53B」、「図54A、図54B、図54C」を実現するためのシステム、「図55A、図55B」、「図56A、図56B、図56C」を実現するためのシステム、の構成の例であり、図38Aにおいて、図1と同様に動作するものについては同一番号を付しており、すでに説明を行っている部分については、一部説明を省略する。
 装置3802と103の基地局#1は、センシングのためのやりとり、通信を行っており、詳細については、実施の形態1などで説明を行っているため、説明を省略する。なお、装置3802は、図1における101_1の端末#1と一部同様の動作を行っており、また、装置3802は、例えば、図53Aの装置5301A、図53Bの装置5301B、図55Aの人(ユーザ)5501Aが使用する端末、図55Bの人(ユーザ)5501Bが使用する端末に相当する。
 例えば、装置3802は、103の基地局#1、ネットワーク103を介し、サーバー104と通信を行い、サーバー104は、装置3802に相当するキャラクタを仮想空間に登場させることになる。その手続きについては、例えば、実施の形態1などで説明を行っているので説明を省略する。
 これにより、「図53A、図53B」、「図54A、図54B、図54C」のような、実空間と仮想空間、「図55A、図55B」、「図56A、図56B、図56C」のような、実空間と仮想空間を実現することができる。
 「図53A、図53B」、「図54A、図54B、図54C」のような、実空間と仮想空間、「図55A、図55B」、「図56A、図56B、図56C」のような、実空間と仮想空間を形成するためには、図38Aに示すように、「広告提供装置、または、情報提供装置」3801が存在しており、「広告提供装置、または、情報提供装置」3801は、例えば、ネットワーク103を介し、サーバー104と通信を行っているものとする。なお、「広告提供装置、または、情報提供装置」3801の詳細の動作については、後で説明を行う。
 図57は、図38Aにおける「広告提供装置、または、情報提供装置」3801とサーバー104のやりとりの例を示している。なお、図57において、図39と同様に動作するものについては同一番号を付している。
 「広告提供装置、または、情報提供装置」3801は、まず、(自身の)装置情報を送信する(3901)。
 サーバー(104)は、この装置情報を得ることになる(3951)。
 そして、「広告提供装置、または、情報提供装置」は、アイテム情報を送信する(3902)。なお、アイテム情報は、例えば、「図54A、図54B、図54C」、「図56A、図56B、図56C」におけるキャラクタ自身であってもよいし、キャラクタが装備/装着/着用できるアイテムであってもよい。また、アイテム情報は、例えば、「図54A、図54B、図54C」、「図56A、図56B、図56C」におけるキャラクタが装備/装着/着用できるアイテムであることが考えられる。
 サーバーは、このアイテム情報を得ることになる(3952)。
 サーバーは、このアイテムの識別情報(アイテム識別情報)を送信してもよい(3953)。
 「広告提供装置、または、情報提供装置」は、このアイテム識別情報を得る(3903)。なお、「広告提供装置、または、情報提供装置」は、アイテムを呼び出すときに、アイテム識別情報を使用することになる。したがって、「広告提供装置、または、情報提供装置」は、アイテム識別情報を記憶することになる。
 「広告提供装置、または、情報提供装置」は、アイテムに掲載する「広告情報、または、情報」を送信する(3904)。
 このとき、「広告情報、または、情報」には、国や地域ごとの広告情報(場合によっては、広告を掲載しない)を含んでいるものとする。
 サーバーは、この「広告情報、または、情報」を得る(3954)。そして、サーバーは、「アイテム情報」、「広告情報、または、情報」のセット情報を記憶する(3955)。
 なお、キャラクタは、単にキャラクタであってもよいし、装置または端末に相当するキャラクタであってもよい。
 また、「広告提供装置、または、情報提供装置」とサーバのやりとりにおける処理の順番は、図57の例に限ったものではなく、また、他の処理が加わってもよい。
 さらに図58のように、サーバーが仮想空間の情報を送信し(5851)、「広告提供装置、または、情報提供装置」が仮想空間の情報を得る(5801)としてもよい。
 図59は、図38Aにおける「端末(例えば、101_1の端末#1、101_101の端末#101、101_102の端末#102)、または、装置3802」とサーバー104のやりとりの例を示している。なお、図59は、図58のように、「広告提供装置、または、情報提供装置」が、サーバーにアイテムの登録、キャラクタ登録を行った後の処理の例となる。また、「端末、装置」と「サーバー」が通信を行う際、基地局を介して通信を行ってもよい。
 「端末、または、装置」は、まず、(自身の)「端末、または、装置」情報を送信する(5901)。
 サーバーは、この「端末、または、装置」情報を得ることになる(5951)。
 そして、「端末、または、装置」は、「端末、または、装置」の位置情報を送信する(5902)。
 サーバーは、この「端末、または、装置」の位置情報を得る(5952)。そして、サーバーは、この位置情報に基づいて、仮想空間情報の選別を行う(5953)。例えば、上述のように、装置、端末に対応するキャラクタに付帯する広告の情報を位置情報により、選別することになる。
 サーバーは、位置情報に基づいて、仮想空間情報を送信する(5954)。
 「端末、または、装置」は、位置情報に基づいた仮想空間情報を得る(5903)。そして、「端末、または、装置」は、位置情報に基づいた仮想空間情報に対応する画面を表示することになる(5904)。
 なお、「端末、または、装置」とサーバのやりとりにおける処理の順番は、図59の例に限ったものではなく、また、他の処理が加わってもよい。
 以上のように、実空間に存在する装置、人(ユーザ)の仮想空間におけるキャラクタは、仮想空間において、国や地域によって、異なる場合が存在するものとすることができ、これに応じた情報を、装置、端末は得ることができることになる。このようにすると、例えば、国や地域により広告の規制が行われている場合、各国、各地域に適した広告の表示、または、広告を掲載しないという措置をとることができるという効果を得ることが可能となる。
 なお、本実施の形態で説明した。「端末、または、装置」の処理、サーバーの処理、「広告提供装置、または、情報提供装置」の処理は、あくまでも例である。したがって、(他の装置による(例えば、LMF、AMFなど))他の処理が加わったり、処理の一部が省略されたり、処理する順番が変わっても同様に実施することが可能である。
 また、各装置は、複数の装置で構成されていても、各装置において、サーバー機能を持つ装置を別装置として、構成してもよい。
 装置の呼び方については、上記の例に限ったものではなく、他の呼び方をしてもよい。その点については、他の実施の形態で説明した例が考えられる。
 「図53A、図53B」、「図54A、図54B、図54C」を実現するためのシステム、「図55A、図55B」、「図56A、図56B、図56C」を実現するためのシステム、の別の例について、説明を行う。
 図60は、「図53A、図53B」、「図54A、図54B、図54C」を実現するためのシステム、「図55A、図55B」、「図56A、図56B、図56C」を実現するためのシステム、の構成の例であり、図60において、図1、図38Aと同様に動作するものについては同一番号を付しており、すでに説明を行っている部分については、一部説明を省略する。
 装置3802と103の基地局#1は、センシングのためのやりとり、通信を行っており、詳細については、実施の形態1などで説明を行っているため、説明を省略する。なお、装置3802は、図1における101_1の端末#1と一部同様の動作を行っており、また、装置3802は、例えば、図53Aの装置5301A、図53Bの装置5301B、図55Aの人(ユーザ)5501Aが使用する端末、図55Bの人(ユーザ)5501Bが使用する端末に相当する。
 例えば、装置3802は、103の基地局#1、ネットワーク103を介し、サーバー104と通信を行い、サーバー104は、装置3802に相当するキャラクタを仮想空間に登場させることになる。その手続きについては、例えば、実施の形態1などで説明を行っているので説明を省略する。
 これにより、「図53A、図53B」、「図54A、図54B、図54C」のような、実空間と仮想空間、「図55A、図55B」、「図56A、図56B、図56C」のような、実空間と仮想空間を実現することができる。
 「図53A、図53B」、「図54A、図54B、図54C」のような、実空間と仮想空間、「図55A、図55B」、「図56A、図56B、図56C」のような、実空間と仮想空間を形成するために、サーバー104は、広告の情報を扱う機能を有している。この点については、後で説明を行う。
 図61は、図38Aにおける「端末(101_1など)、または、装置(3802)」とサーバー104のやりとりの例を示している。
 「端末(101_1など)、または、装置(3802)」は、まず、(自身の)「端末(101_1など)、または、装置(3802)」の情報を送信する(6101)。
 サーバー(104)は、この「端末(101_1など)、または、装置(3802)」の情報を得ることになる(6151)。
 そして、「端末(101_1など)、または、装置(3802)」は、「端末(101_1など)、または、装置(3802)」の位置情報を送信する(6102)。
 サーバー(104)は、この「端末(101_1など)、または、装置(3802)」は、「端末(101_1など)、または、装置(3802)」を得ることになる(6152)。
 「端末(101_1など)、または、装置(3802)」は、「広告情報、または、情報」を送信する(6103)。
 このとき、「広告情報、または、情報」には、国や地域ごとの広告情報(場合によっては、広告を掲載しない)を含んでいるものとする。
 サーバー(104)は、この「広告情報、または、情報」を得ることになる(6153)。そして、サーバー(104)は、「広告情報、または、情報」を記憶することになる(6154)。
 そして、サーバー(104)は、「端末、または、装置」に相当する「広告情報、または、「情報」付きキャラクタを仮想空間に登場させることになる(6155)。
 なお、「端末、または、装置」、「サーバー」は図61で示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、「端末、または、装置」とサーバのやりとりにおける処理の順番は、図61の例に限ったものではなく、また、他の処理が加わってもよい。
 図59は、図60における「端末(例えば、101_1の端末#1、101_101の端末#101、101_102の端末#102)、または、装置3802」とサーバー104のやりとりの例を示している。なお、図59は、図61の処理後の処理の例となる。また、「端末、装置」と「サーバー」が通信を行う際、基地局を介して通信を行ってもよい。
 「端末、または、装置」は、まず、(自身の)「端末、または、装置」情報を送信する(5901)。
 サーバーは、この「端末、または、装置」情報を得ることになる(5951)。
 そして、「端末、または、装置」は、「端末、または、装置」の位置情報を送信する(5902)。
 サーバーは、この「端末、または、装置」の位置情報を得る(5952)。そして、サーバーは、この位置情報に基づいて、仮想空間情報の選別を行う(5953)。例えば、上述のように、装置、端末に対応するキャラクタに付帯する広告の情報を位置情報により、選別することになる。
 サーバーは、位置情報に基づいて、仮想空間情報を送信する(5954)。
 「端末、または、装置」は、位置情報に基づいた仮想空間情報を得る(5903)。そして、「端末、または、装置」は、位置情報に基づいた仮想空間情報に対応する画面を表示することになる(5904)。
 以上のように、実空間に存在する装置、人(ユーザ)の仮想空間におけるキャラクタは、仮想空間において、国や地域によって、異なる場合が存在するものとすることができ、これに応じた情報を、装置、端末は得ることができることになる。このようにすると、例えば、国や地域により広告の規制が行われている場合、各国、各地域に適した広告の表示、または、広告を掲載しないという措置をとることができるという効果を得ることが可能となる。
 なお、本実施の形態で説明した、「端末、または、装置」の処理、サーバーの処理、「広告提供装置、または、情報提供装置」の処理は、あくまでも例である。したがって、(他の装置による(例えば、LMF、AMFなど))他の処理が加わったり、処理の一部が省略されたり、処理する順番が変わっても同様に実施すること可能である。
 また、各装置は、複数の装置で構成されていても、各装置において、サーバー機能を持つ装置を別装置として、構成してもよい。
 装置の呼び方については、上記の例に限ったものではなく、他の呼び方をしてもよい。その点については、他の実施の形態で説明した例が考えられる。
 本実施の形態を実施するためのシステムとして、図1、図5、図18、図20、図38A、図45、図48H、図60のシステムを扱ったが、システムを構成する装置は、これらの図面の装置に限ったものではなく、それ以外の装置(例えば、LMF、AMFなど)がシステムに加わってもよい。また、装置の呼び方は、これらの図面に記載したものに限ったものではない。
 そして、広告を掲載する装置は、図53Aに限ったものではなく、どのような装置であってもよい。また、広告を掲載するのは図55Aに限ったものではなく、植物、動物、静止物などであってもよい。
 (実施の形態11)
 本実施の形態では、図1、図5、図38A、図45、図48H、図60などのシステムにおいて、これまでに説明した動作の変形例の動作について説明を行う。
 図62Aは、本実施の形態における「図1、図5、図38A、図45、図48H、図60などのシステム」の特徴的な部分を抽出した図である。なお、「図1、図5、図38A、図45、図48H、図60などのシステム」の具体的な動作については、すでに説明を行っているため、一部説明を省略する。
 図62Aにおいて、図48Cと同様に動作するものについては同一番号を付しており、説明をすでに行っているため、一部説明を省略する。
 図62Aにおいて、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」は、それぞれ、例えば、「角速度センサー」、「地磁気センサー」、「加速度センサー」などのセンサーを搭載しているものとする。そして、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」は、端末(または、装置)4889Cと通信を行っている。なお、詳細の動作については、後で説明を行う。
 端末(または、装置)4889Cは、基地局6201Aと通信を行う。なお、詳細の動作については、後で説明を行う。
 図62Aでは、端末(または、装置)4889Cは、基地局6201Aと通信を行う例を示しているが、端末(または、装置)4889Cは、基地局を介さずにサーバーと通信を行ってもよい。
 図62Bは、本実施の形態における「図1、図5、図38A、図45、図48H、図60などのシステム」の特徴的な部分を抽出した、図62Aとは異なる図である。
 端末(または、装置)4889Cは、例えば、センサー部を具備している。そして、端末(または、装置)4889Cは、センサー部で得られたデータを基地局6201Bに送信する。また、基地局6201Bは、端末(または、装置)4889Cに情報、データを送信する。なお、詳細の動作については後で説明を行う。
 図62Bでは、端末(または、装置)4889Cは、基地局6201Bと通信を行う例を示しているが、端末(または、装置)4889Cは、基地局を介さずにサーバーと通信を行ってもよい。
 図62Cは、図62A、図62Bにおける端末(または、装置)4889Cの構成の一例を示している。図62Cにおいて、図25A、図25B、図25C、図25Dと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 端末(または、装置)4889Cは、さらに、センサー部6251C、動作部6252C、通信部6253Cを具備していてもよい。
 端末(または、装置)4889Cは、センサー部6251Cを用いて、センシングを行い、データを得、そのデータを、無線通信処理部22511を介して、基地局、サーバーなどに伝送してもよい。
 センサー部6251Cは、端末自身、または、周辺物体の「物体認識、位置・高さの取得、画像情報取得、画像認識、温度情報の取得、湿度情報の取得、速度・加速度の取得など」を行うことになる。
 動作部6252Cは、サーバーから指示された動作を行うための部分であり、詳細の動作については、後で説明を行う。
 通信部6253Cは、図62Aにおける「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」は、それぞれ、例えば、「角速度センサー」、「地磁気センサー」、「加速度センサー」などのセンサーを搭載しているものとする。そして、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」と通信を行うための部分となる。詳細の動作については、後で説明を行う。
 次に、「図1、図5、図38A、図45、図48H、図60などのシステム」における端末(または、装置)とサーバーとのやりとりの例について説明を行う。ただし、図63Aでは、端末とサーバーのやりとりを示しているが、図63Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図63Aに示すように、端末(または、装置)は「端末、または、装置」の情報を送信する(6301A)。なお、「端末、または、装置」の情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、「端末、または、装置」の情報を得ることになる(6351A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 そして、端末(または、装置)は、「端末、または、装置」の位置情報を送信する(6302A)。
 サーバーは、「端末、または、装置」の位置情報を得ることになる(6352A)。
 端末(または、装置)は、「センシングによって得られたデータ」を送信する(6303A)。
 このとき、端末(または、装置)は、自身が具備するセンサー部から「センシングによって得られたデータ」を得てもよい。また、端末(または、装置)は、図62Aのように、センサー装置から「センシングによって得られたデータ」を得てもよい。
 サーバーは、この「センシングによって得られたデータ」を得ることになる(6153A)。
 そして、サーバーは、得られた「センシングによって得られたデータ」をもとにデータ解析を実施する(6354A)。その結果、サーバーは、端末(または、装置)を制御することを決定し、端末(または、装置)を制御するための制御情報を生成する(6355A)。これに伴いサーバーは、制御情報を送信する(6356A)。
 端末(または、装置)は、この制御情報を得ることになる(6304A)。端末(または、装置)は、制御情報をもとに、動作を実施することになる(6305A)。
 なお、「端末、または、装置」、「サーバー」は図63Aで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、「端末、または、装置」とサーバーのやりとりにおける処理の順番は、図63Aの例に限ったものではなく、また、他の処理が加わってもよい。
 これにより、端末を使用するユーザを、より安全、より快適な方向に制御できる可能性が高くなる。なお、具体的な例については後で説明を行う。
 「図1、図5、図38A、図45、図48H、図60などのシステム」における端末(または、装置)とサーバーとのやりとり、および、図62Aにおける端末とセンサーのやりとりの例について図63Bを用いて説明を行う。ただし、図63Bにおいて、図63Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。また、図63Bにおける「端末とサーバーのやりとり」において、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 サーバーは制御情報を送信する(6356A)。なお、6356Aより前の「サーバー」の動作、「端末、または、装置」の動作については、図62Aを用いて説明を行っているので、説明を省略する。
 端末(または、装置)は、この制御情報を得ることになる(6304A)。そして、端末(または、装置)は、図62Aにおける「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」は、それぞれ、例えば、「角速度センサー」、「地磁気センサー」、「加速度センサー」などのセンサーを搭載しているものとする。そして、「第1センサー4881C」、「第2-1センサー4882CR」、「第2-2センサー4882CL」、「第3センサー4883C」、「第4-1センサー4884CR」、「第4―2センサー4884CL」などのセンサーに対し、制御情報を送信することになる(6305B)。
 センサーは、この制御情報を得ることになる(6381B)。センサーは、制御情報をもとに、動作を実施することになる(6382B)。
 なお、「端末、または、装置」、「センサー」、「サーバー」は図63Bで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、「端末、または、装置」、「センサー」、サーバのやりとりにおける処理の順番は、図63Bの例に限ったものではなく、また、他の処理が加わってもよい。
 これにより、センサーを使用するユーザを、より安全、より快適な方向に制御できる可能性が高くなる。なお、具体的な例については後で説明を行う。
 図64Aは、「図1、図5、図38A、図45、図48H、図60などのシステム」におけるサーバーの構成の一例を示している。図64Aにおいて、図2、図19Aと同様に動作するものについては同一番号を付しており、一部説明を省略する。
 図64Aに示すように、サーバーは、さらに、解析部6411Aを具備していることになる。
 なお、図64Aのインタフェース200、入力信号201、出力信号202により、他の装置とデータをやりとりすることになる。
 解析部6411Aの構成例を図64Bに示す。図64Bに示すように、解析部6411Aは、データ記憶部6451B、データ解析部6452B、制御情報生成部6453B、制御情報通信部6454Bを具備する。
 サーバーは、「図1、図5、図38A、図45、図48H、図60などのシステム」において、ネットワーク103を介して、端末が送信した「センシングによって得られたデータ」(図63A、図63B参照)を得ることになる。例えば、図64Aの入力信号201により「センシングによって得られたデータ」を得、「センシングによって得られたデータ」を解析部6411Aは得ることになる。
 そして、解析部6411Aは、「センシングによって得られたデータ」を図64Bのデータ記憶部6451Bに記憶する。そして、図64Bのデータ解析部6452Bは、データ記憶部6451Bで記憶しているデータの解析を行い、データ解析結果を出力する。
 図64Bの制御情報生成部6453Bは、データ解析結果をもとに、端末、または、装置の制御を行うための制御情報の生成を行う。そして、制御情報通信部6454Bは制御情報の送信を行うことになる。このとき、例えば、制御情報は、図64Aのインタフェース200を介して、端末に送信されることになる。
 なお、図64Bのインタフェース6400B、入力信号6401B、出力信号6402Bにより、他の部分とデータをやりとりすることになる。
 データ解析部6452Bは、以下の解析を実施していてもよい。
 ・人工知能による「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・機械学習による「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・深層学習による「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・入力を線形変換する処理単位がネットワーク上に結合した数理モデルであるニューラルネットワークを利用した、「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・曖昧さや不確定さを扱う応用数学であるファジー推論を利用した「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・数理アルゴリズムを利用した「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)、専用演算装置、エッジコンピューティング、アナログ処理装置、量子コンピュータなどの処理装置を用いた「学習、および/または、「推論、および/または、推定、および/または、予測」」を伴う解析
 ・事前訓練(Pre-trained)を伴う解析
 また、解析時に、パターン認識、および/、または、機械学習を伴ってもよい。
 なお、パターン認識とは、例えば、特定入力を行い、入力データに対してさまざまな処理を施し、一定規則に伴う情報を判別して出力する技術を含むことがある。
 機械学習は、例えば、アルゴリズムの動作のすべてが人によって決定されるルールベースであり、ルールベースの閾値をデータから自動的に決定する技術を含むことがある。また、機械学習では、K最近傍法(K-Nearest Neighbor K-MN)、Support Vector Machine(SVM)、Random Forest、AdaBoostなどのアルゴリズムを利用することがある。そして、機械学習では、教師付き学習(Supervised Learning)と教師なし学習(Unsupervised Learning)に分類されることがある。
 深層学習は、例えば、入力から自動的に必要な情報を学習し、決定ルールも自動で決める技術を含むことがある。
 「図1、図5、図38A、図45、図48H、図60などのシステム」において、図62A、図62Bにおける端末4889Cを例とする「端末、または、装置」に相当するキャラクタを仮想空間に登場させるようにサーバーなどが処理を行うことになる。その方法については、他の実施の形態ですでに説明を行っているので、説明を省略する。また、サーバーは、図63A、図63Bにおける「端末、または、装置」、および/または、センサーに送信した制御情報の内容、実施する動作の内容を仮想空間に表示させるように処理してもよい。
 このようにすることで、「端末、または、装置」、センサーを使用するユーザは、サーバーによる制御内容を確認することができることになる。
 次に、図62A、図62B、図62C、図63A、図63B、図64A、図64Bを用いて説明した動作の具体的な例について説明を行う。
 図65は、実空間における状況を説明するための図である。第1端末および第1端末を使用する第1ユーザは、図65の位置6501に存在しているものとする。そして、第1端末および第1端末を使用する第1ユーザは、位置6502に向かっているものとする。なお、第1端末に相当するキャラクタは、第1端末の位置情報に基づいて、仮想空間に存在しているものとする。そのときの方法については、すでに他の実施の形態で説明をおこなっているため、ここでの説明を省略する。
 このとき、位置6501から位置6502に向かうルートとしては、6591のルート#1、6592のルート#2が考えられるものとする。
 6591のルート#1の一部、6512のルート#2の一部を含む6511のエリア#1において、第1端末を除く他の端末、装置から、サーバー(104)は、種々の情報を得る。例えば、
 (11-1):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6511のエリア#1の「車、人などの混雑状況の情報」を得るものとする。
 (11-2):
 サーバー(104)は、第1端末を除く他の端末、装置から、「端末、装置」を使用するユーザの健康状況の情報を得、例えば、6511のエリア#1における「疲労度の情報」を得るものとする。
 (11-3):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6511のエリア#1の傾斜(高低差)の情報を得るものとする。
 (11-4):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6511のエリア#1の「歩道の道幅の情報、歩道の段差の情報」を得るものとする。
 また、6592のルート#2の一部を含む6512のエリア#2において、第1端末を除く他の端末、装置から、サーバー(104)は、種々の情報を得る。例えば、
 (11-5):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6512のエリア#2の「車、人などの混雑状況の情報」を得るものとする。
 (11-6):
 サーバー(104)は、第1端末を除く他の端末、装置から、「端末、装置」を使用するユーザの健康状況の情報を得、例えば、6512のエリア#2における「疲労度の情報」を得るものとする。
 (11-7):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6512のエリア#2の傾斜(高低差)の情報を得るものとする。
 (11-8):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6512のエリア#2の「歩道の道幅の情報、歩道の段差の情報」を得るものとする。
 また、6592のルート#2の一部を含む6513のエリア#3において、第1端末を除く他の端末、装置から、サーバー(104)は、種々の情報を得る。例えば、
 (11-9):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6513のエリア#3の「車、人などの混雑状況の情報」を得るものとする。
 (11-10):
 サーバー(104)は、第1端末を除く他の端末、装置から、「端末、装置」を使用するユーザの健康状況の情報を得、例えば、6513のエリア#3における「疲労度の情報」を得るものとする。
 (11-11):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6513のエリア#3の傾斜(高低差)の情報を得るものとする。
 (11-12):
 サーバー(104)は、第1端末を除く他の端末、装置から、画像、動画、センシング情報を得、6513のエリア#3の「歩道の道幅の情報、歩道の段差の情報」を得るものとする。
 そして、サーバー(104)は、6511のエリア#1の「車、人などの混雑状況の情報」、6511のエリア#1における「疲労度の情報」、6511のエリア#1の傾斜(高低差)の情報、6511のエリア#1の「歩道の道幅の情報、歩道の段差の情報」、6512のエリア#2の「車、人などの混雑状況の情報」、6512のエリア#2における「疲労度の情報」、6512のエリア#2の傾斜(高低差)の情報、6512のエリア#2の「歩道の道幅の情報、歩道の段差の情報」、6513のエリア#3の「車、人などの混雑状況の情報」、6513のエリア#3における「疲労度の情報」、6513のエリア#3の傾斜(高低差)の情報、6513のエリア#3の「歩道の道幅の情報、歩道の段差の情報」を利用して、図64Aの解析部6411Aで、解析を行うことになる。
 第1端末および第1端末を使用する第1ユーザは、図65における交差点6550に近づいたものとする。このとき、サーバー(104)は、上記解析に基づいて、「6591のルート#1が、目的地である位置6502に向かうための好適のルートである」と判断したものとする。
 なお、他の実施の形態で説明したように、第1端末を含む端末、および、装置は、サーバーと通信を行うことになるが、ネットワーク、基地局を介して通信を行ってもよい。
 図66は、第1端末が表示している表示画面6600であり、表示画面6600はサーバーから得られた仮想空間を表示しているものとする。
 第1端末および第1端末を使用する第1ユーザは、図65における交差点6550に近づいたものとする。そして、図66の表示画面6600に表示されている仮想空間の交差点6611は、図65における交差点6550に相当するものとする。
 このとき、サーバー(104)は「6591のルート#1が、目的地である位置6502に向かうための好適のルートである」と判断したため、サーバー(104)は第1端末に方向に関する情報を送信することになる。
 そして、第1端末はこの方向に関する情報を得、第1端末は表示画面6600に表示されている仮想空間上に、進む方向となる例えば矢印6621を表示するものとする。これにより、第1端末を使用する第1ユーザは、矢印6621の情報に基づいて、6591のルート#1に基づいて進むことになる。
 さらに、第1端末は、センサーを搭載している装置に、制御情報、動作情報を送信してもよい。例えば、図62Aにおける端末4889Cが第1端末とし、第1端末は、「第2-1センサー4882CR」、「第4-1センサー4884CR」に、制御情報、動作情報を送信するものとする。このとき、「第2-1センサー4882CR」は第1ユーザの腕に刺激を与える例えば振動装置、「第4-1センサー4884CR」は第1ユーザの足に刺激を与える振動装置を具備しているものとする。
 「第2-1センサー4882CR」、「第4-1センサー4884CR」は、第1端末から得た制御情報、動作情報に基づいて、それぞれ振動装置を振動させるものとする。これにより、第1端末を使用する第1ユーザは、6591のルート#1に基づいて進むことになる。
 図66ではユーザに好適なルートを知らせるために画面を利用することを説明し、図62Aではユーザに好適なルートを知らせるために振動装置を利用することを説明したが、ユーザに好適なルートを知らせるための方法は、これらの例に限ったものではなく、例えば、スピーカなどを利用した音、音声による方法であってもよい。
 このようにすることで、「端末、または、装置」、センサーを使用するユーザは、サーバーによる制御、行動を実行することができるようになる。
 また、図66の画面における情報、第1端末に相当するキャラクタの目的地などの情報を、仮想空間を通して、他のキャラクタと共有してもよい。これにより、他の端末を使用するユーザも有用な情報を得ることができる効果を得ることもできる。
 別の変形例の説明を行う。
 図60は、本例のシステム構成図である。図60について、すでに説明を行っているため、一部説明を省略する。ここでは、101_1の端末#1を以下で第1端末と呼び、装置3802を以下で第1装置と呼び説明を行う。
 図67Aは、実空間における状況を説明するための図である。第1端末および第1端末を使用する第1ユーザは、図67Aの位置6701Aに存在しているものとする。そして、第1端末および第1端末を使用する第1ユーザは、位置6702Aに向かっているものとする。なお、第1装置は位置6702Aに存在している。この点について、後で説明を行う。また、第1端末に相当するキャラクタは、第1端末の位置情報に基づいて、仮想空間に存在しているものとする。そのときの方法については、すでに他の実施の形態で説明をおこなっているため、ここでの説明を省略する。
 そして、第1端末および第1端末を使用する第1ユーザは、図67Aの位置6751Aに移動したものとする。以下では、そのときの第1端末、第1装置、サーバーの動作について説明を行う。
 図67Bは、第1装置(ただし、図67Bでは装置と表記している)とサーバー(104)のやりとりの例を示している。なお、図67Cにおいて、装置とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図67Cに示すように、装置は装置の情報を送信する(6701B)。なお、装置の情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、装置の情報を得ることになる(6751B)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 そして、装置は、装置の位置情報を送信する(6702B)。
 サーバーは、装置の位置情報を得ることになる(6352B)。なお、位置情報の利用方法については、後で説明を行う。
 また、装置に相当するキャラクタを仮想空間に登場させるための手続きはすでに行われているものとする。この点については、他の実施の形態ですでに説明を行っているため、説明を省略する。
 なお、「装置」、「サーバー」は図67Bで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、装置とサーバのやりとりにおける処理の順番は、図67Bの例に限ったものではなく、また、他の処理が加わってもよい。
 図67Cは、第1端末および第1端末を使用する第1ユーザが図67Aの位置6751Aに存在するときの、第1端末(ただし、図67Cでは端末と表記している)、サーバー(104)、第1装置(ただし、図67Cでは装置と表記している)のやりとりの例を示している。なお、図67Cにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。また、装置とサーバーは、基地局、および/または、端末を介してやりとり(通信)を行ってもよい。
 図67Cに示すように、端末は端末の情報を送信する(6701C)。なお、端末の情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、端末の情報を得ることになる(6751C)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 そして、端末は、端末の位置情報を送信する(6702C)。
 サーバーは、端末の位置情報を得ることになる(6352C)。
 端末は、「センシングによって得られたデータ」を送信する(6303C)。
 このとき、端末は、自身が具備するセンサー部から「センシングによって得られたデータ」を得てもよい。また、端末は、図62Aのように、センサー装置から「センシングによって得られたデータ」を得てもよい。
 サーバーは、この「センシングによって得られたデータ」を得ることになる(6753C)。
 そして、サーバーは、すでに得られている装置の位置情報と端末の位置情報から、装置と端末の位置関係を把握する(6754C)。なお、詳細の動作例については、後で説明を行う。
 サーバーは、得られた「センシングによって得られたデータ」をもとにデータ解析を実施する(6755C)。その結果、サーバーは、装置を制御することを決定し、装置を制御するための制御情報を生成する(6756C)。これに伴いサーバーは、制御情報を送信する(6757C)。
 装置は、この制御情報を得ることになる(6781C)。装置は、制御情報をもとに、動作を実施することになる(6782C)。
 また、サーバーは端末に情報を送信してもよい(6758C)。そして、端末は、この情報を得ることになる(6704C)。端末は、この情報をもとに、動作を実施することになる(6705C)。
 なお、「端末」、「装置」、「サーバー」は図67Cで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、端末、装置、サーバーのやりとりにおける処理の順番は、図67Cの例に限ったものではなく、また、他の処理が加わってもよい。
 これにより、端末を使用するユーザを、より安全、より快適な方向に制御できる可能性が高くなる。なお、具体的な例については後で説明を行う。
 図67Bの具体例について説明を行う。図67Aの位置6702Aに存在する第1装置は、例えば、認証によりロック、および/または、ロック解除が可能な「扉、または、ドア、または、ゲートなど」であるものとする。したがって、例えば、仮想空間では、第1装置に相当するキャラクタとして「扉、または、ドア、または、ゲートなど」が存在することになる。
 図68は、第1端末の表示装置6800に表示される仮想空間における第1装置に相当するキャラクタの例を示しており、扉6801が第1装置に相当するキャラクタとなる。
 図67Aの説明において、「第1端末および第1端末を使用する第1ユーザは、位置6702Aに向かっているものとする。なお、第1装置は位置6702Aに存在している。」と記載した。そして、第1端末および第1端末を使用する第1ユーザは、第1装置である扉がある位置6702Aの近くである位置6751Aに到達したものとする。
 これに伴い、第1端末は図67Cの端末に関する動作、サーバーは図67Cのサーバーに関する動作、第1装置は図67Cの装置に関する動作を実施することになるが、以下では、一部補足の説明を行う。
 例えば、図67Cにおける「端末がセンシングによって得られたデータを送信する(6703C)」として、
 ・端末はユーザの顔などの身体の特徴的な部分の画像(動画であってもよいし、静止画であってもよい)を送信する
 ・端末はユーザの指紋、および/または、静脈、および/または、虹彩などのセンシング情報を送信する
 ・端末は鍵などのセンシング情報を送信する
 などを実施する。
 そして、サーバーは、これらのセンシングによって得られたデータを得ることになる(6753C)。
 また、サーバーは端末の位置情報と装置の位置情報を得ている。したがって、サーバーは装置と端末の位置関係を把握(6754C)することができる。「第1端末および第1端末を使用する第1ユーザは、第1装置である扉がある位置6702Aの近くである位置6751Aに到達した」場合、第1装置である扉を開錠するための条件の一つ(第1条件と呼ぶ)が成立したことになり、それをサーバーが認識することになる。
 サーバーはセンシングによって得られたデータを得ている。したがって、サーバーはセンシングによって得られたデータを解析し、第1装置の扉を開錠してよいか否かの認証を行うことになる(6755C)。この場合、第1条件を満たし、また、センシングによって得られたデータに問題がないため、「第1装置の扉を開錠する」とサーバーは判断する。
 したがって、サーバーは、制御情報として「第1装置の扉を開錠する」というデータを生成し(6756C)、「第1装置の扉を開錠する」という制御情報を、第1装置である「装置」に送信することになる(6757C)。
 第1装置の扉である「装置」は、「第1装置の扉を開錠する」という制御情報を得ることになる(6781C)。したがって、第1装置の扉である「装置」は、扉を開錠することになる(6782C)。
 また、サーバーは、仮想空間を通して、第1装置の扉を開錠の認証を完了した情報を、第1端末である「端末」に送信する(6758C)。したがって、第1端末である「端末」はこの情報を得(6704C)、第1端末である「端末」は画面の表示を行う(6705C)。
 図68は、このときの、第1端末である「端末」の画面装置6800に表示されている画面である。6801は第1装置の扉に相当するキャラクタである。例えば、「第1装置の扉を開錠した」ことを、第1端末を通してユーザに伝えるために、「認証成功 入室許可6851」が表示されてもよい。なお、画面装置6800に表示されている世界は、仮想空間の世界となる。
 図68ではユーザに「認証成功 入室許可6851」を知らせるために画面を利用することを説明したが、ユーザに「認証成功 入室許可6851」を知らせるための方法は、これらの例に限ったものではなく、例えば、スピーカなどを利用した音、音声による方法、振動装置を利用した方法などであってもよい。
 さらに別の変形例の説明を行う。
 図1は、本例のシステム構成図である。図1について、すでに説明を行っているため、一部説明を省略する。ここでは、101_1の端末#1を以下で第1端末と呼び説明を行う。
 図69は、実空間における状況を説明するための図である。例えば、店舗6900内での状況であるものとする。入口6901から人は店舗内に入場することができるものとする。そして、人々が精算する場所として、6902_1、6902_2、6902_3、6902_4が設置されているものとする。
 第1端末および第1端末を使用する第1ユーザは、精算のために図67Aの位置6999に存在しているものとする。
 なお、第1端末に相当するキャラクタは、第1端末の位置情報に基づいて、仮想空間に存在しているものとする。そのときの方法については、すでに他の実施の形態で説明を行っているため、ここでの説明を省略する。
 以下では、第1端末、サーバーの動作について説明を行う。
 図70Aは、第1端末および第1端末を使用する第1ユーザが図69の位置6999に存在するときの、第1端末(ただし、図70Aでは端末と表記している)、サーバー(104)のやりとりの例を示している。なお、図70Aにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図70Aに示すように、端末は端末の情報を送信する(7001A)。なお、端末の情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、端末の情報を得ることになる(7051A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 そして、端末は、端末の位置情報を送信する(7002A)。
 サーバーは、端末の位置情報を得ることになる(7052A)。
 サーバーは、仮想空間の情報を送信することになる(7053A)。このとき、仮想空間の情報の中には、端末に相当するキャラクタの情報が含まれているものとする。
 すると、端末は、仮想空間の情報を得ることになる(7003A)。
 端末は、情報を送信する(7004A)。なお、詳細の動作については、後で説明を行う。
 サーバーは、この情報を得ることになる(7054A)。なお、詳細の動作については、後で説明を行う。
 端末は、「センシングによって得られたデータ」を送信する(7005A)。このとき、端末は、自身が具備するセンサー部から「センシングによって得られたデータ」を得てもよい。また、端末は、図62Aのように、センサー装置から「センシングによって得られたデータ」を得てもよい。
 サーバーは、この「センシングによって得られたデータ」を得ることになる(7055A)。
 サーバーは、得られた「センシングによって得られたデータ」をもとにデータ解析を実施する(7056A)。
 また、サーバーは、端末の位置情報の確認を行う(7057A)。
 解析データの結果、および、端末の位置情報に基づき、情報の生成を行う(7058A)。なお、詳細の動作については、後で説明を行う。
 そして、サーバーは、情報を送信することになる(7059A)。
 端末は、この情報を得(7006A)、この情報をもとに、動作を実施することになる(7007A)。
 なお、「端末」、「サーバー」は図70Aで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、端末、サーバーのやりとりにおける処理の順番は、図70Aの例に限ったものではなく、また、他の処理が加わってもよい。
 これにより、端末を使用するユーザを、より安全、より快適な方向に制御できる可能性が高くなる。なお、具体的な例については後で説明を行う。
 図70Aの具体例について説明を行う。図69の位置6999に存在する第1装置は、例えば、第1ユーザが購入する商品の精算を、サーバーを介し行うものとする。したがって、例えば、仮想空間は、第1装置に相当するキャラクタが、精算を行っている場面となる。
 図70Bは、第1端末、第1端末を使用するユーザが、精算を行う際の、第1端末の表示装置7000Bに表示される仮想空間の例を示している。図70Bは精算完了時の仮想空間を表示したものとなり、表示装置7000Bには、第1端末に相当するキャラクタが表示されていない例を示している。しかし、表示画面7000Bに、第1端末に相当するキャラクタが表示されていてもよい。
 第1端末、第1端末を使用するユーザが、精算を行う際、第1端末は図70Aの端末に関する動作、サーバーは図70Aのサーバーに関する動作を実施することになるが、以下では、一部補足の説明を行う。
 第1端末は、購入商品の情報(および、購入商品の値段の情報)をサーバーに送信する。これが、「端末が情報を送信する(7004A)」に相当することになる。
 例えば、図70Aにおける「端末がセンシングによって得られたデータを送信する(7005A)」として、
 ・端末はユーザの顔などの身体の特徴的な部分の画像(動画であってもよいし、静止画であってもよい)を送信する
 ・端末はユーザの指紋、および/または、静脈、および/または、虹彩などのセンシング情報を送信する
 ・端末は鍵などのセンシング情報を送信する
などを実施する。あわせて、端末は、
 ・端末は精算方法に関する情報を送信する
を実施してもよい。
 そして、サーバーは、これらのセンシングによって得られたデータを得ることになる(7055A)。
 また、サーバーは端末の位置情報を得ている。したがって、サーバーは端末の位置を確認(7054A)することができる。よって、サーバーは、端末の位置とセンシングによって得られたデータなどに基づき、購入商品の精算作業を行うことになる。(なお、端末の位置を確認することで、精算に適した端末であるか否かの確認をサーバーが行うことができる。)
 サーバーは、精算結果に関する情報を生成する(7058A)。そして、サーバーは、この情報に相当するデータを送信する(7059A)。
 端末は精算に関する情報を得ることになる(7006A)が、このとき、端末の表示装置が表示する画面が、図70Bとなる。
 例えば端末の表示装置7000Bには、合計金額、精算所に相当するキャラクタ7099B、「決済完了(精算完了)」という表示7098Bが表示されることになる。なお、画面装置7000Bに表示されている世界は、仮想空間の世界となる。
 図70Bではユーザに「決済完了(精算完了)」を知らせるために画面を利用することを説明したが、ユーザに「決済完了(精算完了)」を知らせるための方法は、これらの例に限ったものではなく、例えば、スピーカなどを利用した音、音声による方法、振動装置を利用した方法などであってもよい。
 次に、上記の変形例について説明を行う。
 図60は、本例のシステム構成図である。図60について、すでに説明を行っているため、一部説明を省略する。ここでは、101_1の端末#1を以下で第1端末と呼び、装置3802を以下で第1装置と呼び説明を行う。
 図69は、実空間における状況を説明するための図である。例えば、店舗6900内での状況であるものとする。入口6901から人は店舗内に入場することができるものとする。そして、人々が精算する場所として、6902_1、6902_2、6902_3、6902_4が設置されているものとする。
 第1端末および第1端末を使用する第1ユーザは、精算のために図67Aの位置6999に存在しているものとする。
 なお、第1端末に相当するキャラクタは、第1端末の位置情報に基づいて、仮想空間に存在しているものとする。また、第1装置に相当するキャラクタも仮想空間に存在しているものとする。そのときの方法については、すでに他の実施の形態で説明を行っているため、ここでの説明を省略する。
 以下では、第1端末、第1装置、サーバーの動作について説明を行う。
 図71Aは、第1装置(ただし、図71Aでは装置と表記している)とサーバー(104)のやりとりの例を示している。なお、図71Aにおいて、装置とサーバーは基地局を介してやりとり(通信)を行ってもよい。
 図71Aに示すように、装置は装置の情報を送信する(7101A)。なお、装置の情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、装置の情報を得ることになる(7151A)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 そして、装置は、装置の位置情報を送信する(7102A)。
 サーバーは、装置の位置情報を得ることになる(7152A)。なお、位置情報の利用方法については、後で説明を行う。
 また、装置に相当するキャラクタを仮想空間に登場させるための手続きはすでに行われているものとする。この点については、他の実施の形態ですでに説明を行っているため、説明を省略する。
 なお、「装置」、「サーバー」は図71Aで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、装置とサーバーのやりとりにおける処理の順番は、図71Aの例に限ったものではなく、また、他の処理が加わってもよい。
 図71Bは、第1端末および第1端末を使用する第1ユーザが図69の位置6999に存在するときの、第1端末(ただし、図71Bでは端末と表記している)、第1装置(ただし、図71Bでは装置と表記している)、サーバー(104)のやりとりの例を示している。なお、図71Bにおいて、端末とサーバーは基地局を介してやりとり(通信)を行ってもよい。また、装置とサーバーは、基地局、および/または、端末を介してやりとり(通信)を行ってもよい。
 図71Bに示すように、端末は端末の情報を送信する(7101B)。なお、端末の情報の具体的な例については、実施の形態1などですでに説明を行っているので、説明を省略する。
 すると、サーバーは、端末の情報を得ることになる(7151B)。具体的な動作については、実施の形態1などですでに説明を行っているので、説明を省略する。
 そして、端末は、端末の位置情報を送信する(7102B)。
 サーバーは、端末の位置情報を得ることになる(7152B)。
 サーバーは、仮想空間の情報を送信することになる(7153B)。このとき、仮想空間の情報の中には、端末に相当するキャラクタの情報が含まれているものとする。
 すると、端末は、仮想空間の情報を得ることになる(7103B)。
 端末は、情報を送信する(7104B)。なお、詳細の動作については、後で説明を行う。
 サーバーは、この情報を得ることになる(7154B)。なお、詳細の動作については、後で説明を行う。
 端末は、「センシングによって得られたデータ」を送信する(7105B)。このとき、端末は、自身が具備するセンサー部から「センシングによって得られたデータ」を得てもよい。また、端末は、図62Aのように、センサー装置から「センシングによって得られたデータ」を得てもよい。
 サーバーは、この「センシングによって得られたデータ」を得ることになる(7155B)。
 サーバーは、得られた「センシングによって得られたデータ」をもとにデータ解析を実施する(7156B)。
 また、サーバーは、装置の位置情報と端末の位置情報から、装置と端末の位置関係を把握する(7157B)。
 解析データの結果、および、装置と端末の位置関係の情報に基づき、制御情報の生成を行う(7158B)。なお、詳細の動作については、後で説明を行う。
 そして、サーバーは、制御情報を送信することになる(7159B)。
 装置はこの制御情報を得(7181B)、この情報をもとに、動作を実施することになる(7182B)。
 また、サーバーは情報を送信してもよい(7160B)。なお、詳細の動作については、後で説明を行う。
 端末はこの情報を得(7106B)、この情報をもとに、動作を実施することになる(7107B)。
 なお、「端末」、「装置」、「サーバー」は図71Bで示した以外の処理を行ってもよい。例えば、サーバーは仮想空間の情報を送信してもよい。
 また、端末、装置、サーバーのやりとりにおける処理の順番は、図71Bの例に限ったものではなく、また、他の処理が加わってもよい。
 これにより、端末を使用するユーザを、より安全、より快適な方向に制御できる可能性が高くなる。なお、具体的な例については後で説明を行う。
 図71Bの具体例について説明を行う。図69の位置6999に存在する第1装置は、例えば、第1ユーザが購入する商品の精算を、サーバーを介し行うものとする。したがって、例えば、仮想空間は、第1装置に相当するキャラクタが、精算を行っている場面となる。
 図71Dは、第1端末、第1端末を使用するユーザが、精算を行う際の、第1端末の表示装置7000Bに表示される仮想空間の例を示している。図71Dは精算完了時の仮想空間を表示したものとなり、表示装置7000Bには、第1端末に相当するキャラクタが表示されていない例を示している。しかし、表示画面7000Bに、第1端末に相当するキャラクタが表示されていてもよい。なお、図71Dにおいて、図70Bと同様に同一番号を付しており、すでに行っている部分について、一部説明を省略する。
 第1端末、第1端末を使用するユーザが、精算を行う際、第1端末は図71Bの端末に関する動作、サーバーは図71Bのサーバーに関する動作、第1装置は図71Bの装置に関する動作を実施することになるが、以下では、一部補足の説明を行う。
 第1端末は、購入商品の情報(および、購入商品の値段の情報)をサーバーに送信する。これが、「端末が情報を送信する(7104B)」に相当することになる。
 例えば、図71Bにおける「端末がセンシングによって得られたデータを送信する(7105B)」として、
 ・端末はユーザの顔などの身体の特徴的な部分の画像(動画であってもよいし、静止画であってもよい)を送信する
 ・端末はユーザの指紋、および/または、静脈、および/または、虹彩などのセンシング情報を送信する
 ・端末は鍵などのセンシング情報を送信する
などを実施する。あわせて、端末は、
 ・端末は精算方法に関する情報を送信する
を実施してもよい。
 そして、サーバーは、これらのセンシングによって得られたデータを得ることになる(7155B)。
 また、サーバーは端末の位置情報、装置の位置情報を得ている。したがって、サーバーは装置と端末の位置関係を把握(7157B)することができる。よって、サーバーは、装置と端末の位置関係とセンシングによって得られたデータなどに基づき、購入商品の精算作業を行うことになる。(なお、装置と端末の位置関係を確認することで、精算に適した端末であるか否かの確認をサーバーが行うことができる。)
 サーバーは、精算が問題ないことが確認できると、制御情報を生成する(7158B)。
 図71Cは、第1装置を使用するユーザの実空間における状態の例を示している。状態7000C1は精算完了前の状態、状態7000C2は精算完了後の状態を示している。精算完了前の状態7000C1のとき、第1装置を使用するユーザ7001C1が通れないように、出口のバー7002C1は閉じている。このように、サーバーは、第1装置である装置に対し、「出口のバー7002C1は閉じている」ような制御情報を送信する(7159B)。このため、第1装置である装置は制御情報を得て(7181B)、「出口のバー7002C1は閉じている」という動作を実施することになる(7182B)。
 そして、精算が完了すると、精算完了後の状態7000C2のように、第1装置を使用するユーザ7001C2が通れるように、出口のバー7002C2が開くことになる。このように、サーバーは、第1装置である装置に対し、「出口のバー7002C2が開く」ような制御情報を送信する(7159B)。このため、第1装置である装置は制御情報を得て(7181B)、「出口のバー7002C2が開く」という動作を実施することになる(7182B)。
 サーバーは、精算結果に関する情報、バーの状態に関する情報を生成し、この情報に相当するデータを送信する(7160B)。
 端末は精算に関する情報、バーの状態に関する情報を得ることになる(7106B)が、このとき、端末の表示装置が表示する画面が、図71Dとなる。
 例えば端末の表示装置7000Bには、合計金額、精算所に相当するキャラクタ7099B、「決済完了(精算完了)」という表示7098Bが表示されることになる。さらに、バーが開いていることを示していることの情報を端末は得るため、例えば、「通過してください」という表示7190Dが行われることになる。なお、画面装置7000Bに表示されている世界は、仮想空間の世界となる。
 図71Dではユーザに「決済完了(精算完了)」、「通過してください」を知らせるために画面を利用することを説明したが、ユーザに「決済完了(精算完了)」、「通過してください」を知らせるための方法は、これらの例に限ったものではなく、例えば、スピーカなどを利用した音、音声による方法、振動装置を利用した方法などであってもよい。
 以上のように、
 ・サーバーは、「端末、装置」から得られた位置情報に基づいて、「端末、装置」に相当するキャラクタを仮想空間上に登場させる。
 ・サーバーは、「端末、装置」から得られた「情報、および/または、センシング情報」を解析し、端末、または、他の装置に制御情報、動作情報をフィードバックする。
 これにより、端末を使用するユーザを、より安全、より快適な方向に制御できる可能性が高くなるという効果を得ることができる。また、仮想空間を利用することで、さらにその効果を高くすることができる。
 なお、図62Aにおいて、人(ユーザ)に配置するセンサーの数を6として説明したが、人(ユーザ)に配置するセンサーの数は1以上であれば同様に実施することが可能である。また、センサーを配置する(人(ユーザ)における)位置は、図62Aの位置(部位)に限ったものではない。
 図62Aでは、センサーは、人(ユーザ)に取り付けられているが、センサーを取り付ける物体はこれに限ったものではない。例えば、「車、自転車、バイク、自転車、船、衛星、航空機、ドローン、ロボット、電気自動車、電動バイク、電動自転車、キックボード」を例とする動く装置、「鳥、哺乳類、爬虫類、両生類、昆虫」を例とする動物、動くものにセンサーを取り付けてもよい。そして、センサーは端末4889Cと通信などのやりとりを行い、端末は、センサーからのデータを得ることになる。
 また、純静止物にセンサーを取り付けてもよい。例えば、林、森などの木々にセンサーを取り付ける。そして、図62Aのように端末4889Cが、センサーの情報を収集する。そして、図1、図48D、図48Eを用いて説明したように、端末4889Cは、基地局(および/またはLMF)を介し、サーバーにセンサーの情報、位置情報を届ける。サーバーは、仮想空間において、位置情報に対応する位置に木々のキャラクタを登場させ、センサー情報に基づいて、仮想空間における木々のキャラクタを揺らし、動作制御を行うことで、よりリアルのキャラクタの実現が可能となる。
 図62Aのセンサーの例として、「角速度センサー」、「地磁気センサー」、「加速度センサー」を記載したが、これに限ったものではない。例えば、センサーは、イメージセンサーのような光の強度、色などを検出する光のためセンサーであってもよい。このようにすることで、サーバーは光に関する情報を得ることができ、これにより、サーバーは、光に関する情報に基づいて、仮想空間において、光の方向、色、光の強度、影などをよりリアルに再現することができるという効果を得ることができる。また、サーバーは光に関する情報として、動画の情報、画像の情報を得るとしてもよい。そして、動画の情報、画像の情報に、文字情報、周辺に存在している物体、人などのキャラクタ情報を含んでいてもよい。
 また、別の例として、センサーは、マイクのような音を収集センサーであってもよい。このようにすることで、サーバーは、オーディオに関する情報を得ることができ、これにより、サーバーは、オーディオに関する情報に基づいて、仮想空間において、オーディオをよりリアルに再現することができるという効果を得ることができる。
 図48F、図62Bのように、端末とセンサーが一体化していてもよい。詳細について、すでに説明を行っているので、説明を省略する。
 本実施の形態では、端末や装置の位置に基づくキャラクタが存在する仮想空間について説明を行ったが、端末や装置の位置に基づくキャラクタが存在しない仮想空間、例えば、単にキャラクタが存在する仮想空間に対し、本実施の形態を適用しても、同様に実施することが可能である。なお、仮想空間は、実空間に基づいた仮想空間であってもよいし、実空間とは関係ない仮想空間であってもよい。
 また、「動くもの、動く装置、動物、生物」などが実空間に存在している場所に相当する仮想空間における場所において、「動くもの、動く装置、動物、生物」などの動きに連動させて仮想空間におけるキャラクタを動作させることができ、これにより、より現実に即した仮想空間を形成することができるという効果を得ることができる。
 端末、装置の構成例として図62Cを示したが、端末、装置の構成は図62Cの例に限ったものではなく、図62Cの一部の構成を省略してもよいし、別の処理を行う部分が存在していてもよい。
 サーバーの構成例として図64Aを示したが、サーバーの構成は図64Aの例に限ったものではなく、図64Aの一部の構成を省略してもよいし、別の処理を行う部分が存在していてもよい。
 サーバーの解析部の構成例として図64Bを示したが、サーバーの解析部の構成は図64Bの例に限ったものではなく、図64Bの一部の構成を省略してもよいし、別の処理を行う部分が存在していてもよい。
 本実施の形態を実施するためのシステムとして、図1、図5、図18、図20、図38A、図45、図48H、図60のシステムを扱ったが、システムを構成する装置は、これらの図面の装置に限ったものではなく、それ以外の装置(例えば、LMF、AMFなど)がシステムに加わってもよい。また、装置の呼び方は、これらの図面に記載したものに限ったものではない。
 なお、本実施の形態で説明した。「端末」の処理、「装置」の処理、サーバーの処理などは、あくまでも例である。したがって、(他の装置による(例えば、LMF、AMFなど))他の処理が加わったり、処理の一部が省略されたり、処理する順番が変わっても同様に実施すること可能である。
 また、各装置は、複数の装置で構成されていても、各装置において、サーバー機能を持つ装置を別装置として、構成してもよい。
 装置の呼び方については、上記の例に限ったものではなく、他の呼び方をしてもよい。その点については、他の実施の形態で説明した例が考えられる。
 (実施の形態12)
 本実施の形態では、他の実施の形態で説明した基地局と端末が送信する変調信号の具体的な例について説明を行う。例となるシステムは「図1、図5、図38A、図45、図48H、図60などのシステム」となるが、ここでは、図1を用いて説明を行う。
 図72は、図1における102_1の基地局#1を例とする基地局が送信する変調信号に含まれる基地局能力情報7200の構成の一例を示している。基地局能力情報7200は、例えば、「センシング情報の収取に対応しているか否かの情報7211」、「実空間に対する装置の制御に対応しているか否かの情報7212」、「実空間に対する装置の制御に対し、情報送信に対応しているか否かの情報7213」、「3次元位置推定が可能か否かの情報7213」などを含んでいるものとする。このとき、基地局は、基地局能力情報7200を、端末(または、装置)に送信することになる。
 なお、基地局能力情報7200は、「センシング情報の収集に対応しているか否かの情報7211」、「実空間に対する装置の制御に対応しているか否かの情報7212」、「実空間に対する装置の制御に対し、情報送信に対応しているか否かの情報7213」、「3次元位置推定が可能か否かの情報7213」少なくとも一つ含まれている構成であればよい。
 「センシング情報の収集に対応しているか否かの情報7211」は、実施の形態11で説明したように「端末、装置、センサーなど」の装置に対し、「端末、装置、センサーなど」の装置がセンシング情報を送信した際、センシング情報の収集に、基地局が対応しているか否かを通知するための情報である。
 例えば、「センシング情報の収集に対応しているか否かの情報7211」が1ビットの情報であったする。そして、「センシング情報の収集に対応しているか否かの情報7211」が「1」の場合、「端末、装置、センサーなど」の装置が「センシング情報の収集に対応しているか否かの情報7211」を得ると「基地局はセンシング情報の収集に対応している」と判断し、「端末、装置、センサーなど」の装置はセンシング情報を送信することになる。
 「センシング情報の収集に対応しているか否かの情報7211」が「0」の場合、「端末、装置、センサーなど」の装置が「センシング情報の収集に対応しているか否かの情報7211」を得ると「基地局はセンシング情報の収集に対応していない」と判断し、「端末、装置、センサーなど」の装置はセンシング情報を送信しないことになる。
 「実空間に対する装置の制御に対応しているか否かの情報7212」は、実施の形態11で説明したように、実空間に存在する「端末、装置、センサーなど」の装置の制御に対応しているか否かを通知するための情報である。
 例えば、「実空間に対する装置の制御に対応しているか否かの情報7212」が1ビットの情報であったする。そして、「実空間に対する装置の制御に対応しているか否かの情報7212」が「1」の場合、「端末、装置、センサーなど」の装置は、基地局は実空間に存在する「端末、装置、センサーなど」の装置の動作制御のための制御情報の送信が可能であると判断する。したがって、「端末、装置、センサーなど」の装置は、基地局が送信した「端末、装置、センサーなど」の装置に対する動作制御のための制御情報を得、その情報に基づいて、動作制御を行うことになる。
 「実空間に対する装置の制御に対応しているか否かの情報7212」が「0」の場合、「端末、装置、センサーなど」の装置は、基地局は実空間に存在する「端末、装置、センサーなど」の装置の動作制御のための制御情報の送信をしないと判断する。
 「実空間に対する装置の制御に対し、情報の送信に対応しているか否かの情報7213」は、実施の形態11で説明したように、実空間に存在する「端末、装置、センサーなど」の装置の制御とともに、「端末、装置、センサーなど」の装置の情報の送信に対応しているか否かを通知するための情報である。
 例えば、「実空間に対する装置の制御に対し、情報の送信に対応しているか否かの情報7213」が1ビットの情報であったする。そして、「実空間に対する装置の制御に対し、情報の送信に対応しているか否かの情報7213」が「1」の場合、「端末、装置、センサーなど」の装置は、基地局は実空間に存在する「端末、装置、センサーなど」の装置の動作制御とともに、「端末、装置、センサーなど」の装置の情報の送信が可能であると判断する。したがって、「端末、装置、センサーなど」の装置は、基地局が送信した「端末、装置、センサーなど」の装置に対する動作制御のための制御に伴う情報(例えば、実施の形態11における「矢印の表示の情報」、「認証成功 入室許可などの表示装置に表示する情報」など)を得、その情報に基づいて、動作制御(例えば、表示装置における表示)を行うことになる。
 「実空間に対する装置の制御に対し、情報の送信に対応しているか否かの情報7213」が「0」の場合、「端末、装置、センサーなど」の装置は、基地局は実空間に存在する「端末、装置、センサーなど」の装置の動作制御とともに、「端末、装置、センサーなど」の装置の情報の送信を行わないと判断する。
 「3次元位置推定が可能か否かの情報7214」は、他の実施の形態で説明したような「端末、装置、センサーなど」の装置の3次元位置推定に対応している基地局であるか否かを通知するための情報である。
 例えば、「3次元位置推定が可能か否かの情報7214」が1ビットの情報であったする。そして、「3次元位置推定が可能か否かの情報7214」が「1」の場合、「端末、装置、センサーなど」の装置は、基地局が「端末、装置、センサーなど」の装置の3次元位置推定を行うことが可能であると判断する。したがって、「端末、装置、センサーなど」の装置は、3次元位置推定するための基地局とのやりとり(送信、および/または、受信)を行うことになる。
 「3次元位置推定が可能か否かの情報7214」が「0」の場合、「端末、装置、センサーなど」の装置は、基地局が「端末、装置、センサーなど」の装置の3次元位置推定を行うことはないと判断する。したがって、「端末、装置、センサーなど」の装置は、3次元位置推定するための基地局とのやりとり(送信、および/または、受信)を行わない。
 以上のように、基地局が基地局能力情報を端末に対し送信することで、端末は、実施の形態11などで説明した形態に基地局が対応しているか否かを判断することができ、これにより、端末は適格にサービスの提供を受けることができるという利点がある。
 図73は、図1における101_1の端末#1、101_2の端末#2、101_101の端末#101、101_102の端末#102を例とする端末が送信する変調信号に含まれる端末能力情報7300の構成の一例を示している。端末能力情報7300は、例えば、「センシング情報提供に対応しているか否かの情報7311」、「実空間に対する装置の制御に対応しているか否かの情報7312」、「実空間に対する装置の制御に対して、情報の受信に対応しているか否かの情報7313」、「3次元位置推定が可能か否かの情報7314」などを含んでいるものとする。このとき、端末は、端末能力情報7300を、基地局に送信することになる。
 なお、端末能力情報7300は、例えば、「センシング情報提供に対応しているか否かの情報7311」、「実空間に対する装置の制御に対応しているか否かの情報7312」、「実空間に対する装置の制御に対して、情報の受信に対応しているか否かの情報7313」、「3次元位置推定が可能か否かの情報7314」少なくとも一つ含まれている構成であればよい。
 「センシング情報提供に対応しているか否かの情報7311」は、実施の形態11で説明したように「端末、装置、センサーなど」の装置が、基地局、サーバーに対し、センシング情報を送信することに対応しているか否かを通知するための情報である。
 例えば、「センシング情報提供に対応しているか否かの情報7311」が1ビットの情報であったする。そして、「センシング情報提供に対応しているか否かの情報7311」が「1」の場合、基地局、サーバーが「センシング情報提供に対応しているか否かの情報7311」を得ると「「端末、装置、センサーなど」の装置はセンシング情報の送信に対応している」と判断し、基地局、サーバーはセンシング情報を受信することになる。
 「センシング情報提供に対応しているか否かの情報7311」が「0」の場合、基地局、サーバーが「センシング情報提供に対応しているか否かの情報7311」を得ると「「端末、装置、センサーなど」の装置はセンシング情報の送信に対応していない」と判断する。
 「実空間に対する装置の制御に対応しているか否かの情報7312」は、実施の形態11で説明したように、実空間に存在する「端末、装置、センサーなど」の装置の制御に対応しているか否かを通知するための情報である。
 例えば、「実空間に対する装置の制御に対応しているか否かの情報7312」が1ビットの情報であったする。そして、「実空間に対する装置の制御に対応しているか否かの情報7312」が「1」の場合、基地局、サーバーは、「基地局、サーバーが制御情報を送信した場合、「端末、装置、センサーなど」の装置は、この制御情報に基づき、動作制御を行うことが可能」と判断する。したがって、基地局、サーバーは、「端末、装置、センサーなど」の装置に対し、制御情報を送信することになる。
 「実空間に対する装置の制御に対応しているか否かの情報7312」が「0」の場合、基地局、サーバーは、「基地局、サーバーが制御情報を送信しても、「端末、装置、センサーなど」の装置は、この制御情報に基づいた動作制御を行わない」と判断する。
 「実空間に対する装置の制御に対して、情報の受信に対応しているか否かの情報7313」は、実施の形態11で説明したように、実空間に存在する「端末、装置、センサーなど」の装置の制御とともに、「端末、装置、センサーなど」の装置の情報の受信に対応しているか否かを通知するための情報である。
 例えば、「実空間に対する装置の制御に対して、情報の受信に対応しているか否かの情報7313」が1ビットの情報であったする。そして、「実空間に対する装置の制御に対して、情報の受信に対応しているか否かの情報7313」が「1」の場合、基地局、サーバーは、「「端末、装置、センサーなど」の装置は、基地局、サーバーが制御情報を送信した場合、制御情報を得、動作を実施する。そして、基地局、サーバーが制御情報に伴う情報(例えば、実施の形態11における「矢印の表示の情報」、「認証成功 入室許可などの表示装置に表示する情報」など)を、基地局、サーバーが送信すると、「端末、装置、センサーなど」の装置は、その情報に基づいて動作する」と判断する。
 したがって、基地局、サーバーは、「端末、装置、センサーなど」の装置に、動作制御のための制御に伴う情報(例えば、実施の形態11における「矢印の表示の情報」、「認証成功 入室許可などの表示装置に表示する情報」など)を送信することになる。
 「実空間に対する装置の制御に対して、情報の受信に対応しているか否かの情報7313」が「0」の場合、基地局、サーバーは、「基地局、サーバーが制御情報に伴う情報(例えば、実施の形態11における「矢印の表示の情報」、「認証成功 入室許可などの表示装置に表示する情報」など)を、基地局、サーバーが送信しても、「端末、装置、センサーなど」の装置は、その情報に基づいて動作しない」と判断する。
 「3次元位置推定が可能か否かの情報7314」は、他の実施の形態で説明したような「端末、装置、センサーなど」の装置の3次元位置推定に対応している装置であるか否かを通知するための情報である。
 例えば、「3次元位置推定が可能か否かの情報7314」が1ビットの情報であったする。そして、「3次元位置推定が可能か否かの情報7314」が「1」の場合、基地局は、「端末、装置、センサーなど」の装置が「端末、装置、センサーなど」の装置の3次元位置推定を行うことが可能であると判断する。したがって、基地局は、3次元位置推定するための「端末、装置、センサーなど」の装置とのやりとり(送信、および/または、受信)を行うことになる。
 「3次元位置推定が可能か否かの情報7314」が「0」の場合、基地局は、「端末、装置、センサーなど」の装置が「端末、装置、センサーなど」の装置の3次元位置推定を行うことはないと判断する。したがって、基地局は、3次元位置推定するための「端末、装置、センサーなど」の装置とのやりとり(送信、および/または、受信)を行わない。
 以上のように、端末が端末能力情報を基地局に対し送信することで、基地局は、実施の形態11などで説明した形態に端末が対応しているか否かを判断することができ、これにより、基地局は適格にサービスを提供することができるという利点がある。
 なお、図72、図73における各情報の呼び方は、図72、図73で記載した呼び方に限ったものではなく、どのような呼び方をしてもよい。
 (補足1)
 当然であるが、本開示において説明した実施の形態、補足などのその他の内容を複数組み合わせて、実施してもよい。
 「A、および/または、B」と記載されている場合、「A、および、B」であってもよいし、「A、または、B」であってもよい。
 各実施の形態、その他の内容については、あくまでも例であり、例えば、「変調方式、誤り訂正符号化方式(使用する誤り訂正符号、符号長、符号化率等)、制御情報など」を例示していても、別の「変調方式、誤り訂正符号化方式(使用する誤り訂正符号、符号長、符号化率等)、制御情報など」を適用した場合でも同様の構成で実施することが可能である。
 変調方式については、本明細書で記載している変調方式以外の変調方式を使用しても、本明細書において説明した実施の形態、その他の内容を実施することが可能である。例えば、APSK(Amplitude Phase Shift Keying)(例えば、16APSK, 64APSK, 128APSK, 256APSK, 1024APSK, 4096APSKなど)、PAM(Pulse Amplitude Modulation)(例えば、4PAM, 8PAM, 16PAM, 64PAM, 128PAM, 256PAM, 1024PAM, 4096PAMなど)、PSK(Phase Shift Keying)(例えば、BPSK, QPSK, 8PSK, 16PSK, 64PSK, 128PSK, 256PSK, 1024PSK, 4096PSKなど)、QAM(Quadrature Amplitude Modulation)(例えば、4QAM, 8QAM, 16QAM, 64QAM, 128QAM, 256QAM, 1024QAM, 4096QAMなど)などを適用してもよいし、各変調方式において、均一マッピング、非均一マッピングとしてもよい。また、I(In-phase)-Q(Quadrature (Phase))における、信号点の数は上記例に限ったものではなく、3以上の整数であってもよい。
 また、I-Q平面における2個、4個、8個、16個、64個、128個、256個、1024個等の信号点の配置方法(2個、4個、8個、16個、64個、128個、256個、1024個等の信号点をもつ変調方式)は、本明細書で示した変調方式の信号点配置方法に限ったものではない。したがって、複数のビットに基づき同相成分と直交成分を出力するという機能がマッピング部での機能となり、その後、MIMO伝送を実施するための行列演算(プリコーディングなど)、および、ベースバンド信号に対する位相変更を施すことが本件の一つの有効な機能となる。
 また、本明細書の実施の形態では、変調信号は、データシンボル、および、データシンボル以外のシンボル、例えば、リファレンス信号(プリアンブル、ユニークワード、ポストアンブル、リファレンスシンボル、パイロットシンボル、パイロット信号等)、制御情報用のシンボル、セクタスウィープなどを含んでいてもよく、フレームにこれらのシンボルがどのように配置されていてもよい。そして、ここでは、リファレンス信号、制御情報用のシンボル、セクタスウィープと名付けているが、どのような名付け方を行ってもよく、機能自身が重要となっている。
 リファレンス信号は、例えば、送受信機においてPSK変調を用いて変調した既知のシンボル(または、受信機が同期をとることによって、受信機は、送信機が送信したシンボルを知ることができてもよい。)、ノンゼロパワーの信号、ゼロパワーの信号、送受信機において既知の信号などであることが考えられ、受信機は、これらの信号を用いて、周波数同期、時間同期、(各変調信号の)チャネル推定(CSI(Channel State Information)の推定)、信号の検出、受信状態の推定、送信状態の推定等を行うことになる。
 また、制御情報用のシンボルは、(アプリケーション等の)データ以外の通信を実現するための、通信相手に伝送する必要がある情報(例えば、通信に用いている変調方式・誤り訂正符号化方式・誤り訂正符号化方式の符号化率、上位レイヤーでの設定情報、MCS(Modulation and Coding Scheme)、フレーム構成、チャネル情報、使用している周波数帯域の情報、使用しているチャネル数の情報等)を伝送するためのシンボルでもある。
 送信装置および/または受信装置に対し、通信方法(MIMO(Multiple-Input Multiple -Output)、SISO(Single-Input Single-Output)、MISO(Multiple-Input Single-Output)、SIMO(Single-Input Multiple-Output)、時空間ブロック符号、インタリーブ方式、MCSなど)、変調方式、誤り訂正符号化方式を通知する必要がある場合がある。実施の形態によってはこの説明を省略している場合がある。
 本明細書で、MIMO伝送について説明したが、MIMO伝送の変形例として、同一時間に、一部の周波数を共用して、複数のアンテナを用いて、複数のシンボルを送信する方法であってもよい。
 送信装置の送信(パネル)アンテナおよび受信装置の受信(パネル)アンテナの何れにおいても、図面で記載されている1つのアンテナは、一つのアンテナ、または、複数のアンテナにより構成されていてもよい。
 また、実施の形態などの説明の中で、送信(パネル)アンテナと受信(パネル)アンテナを別々に記載していることがあるが、送信(パネル)アンテナと受信(パネル)アンテナを共用化した「送受信用(パネル)アンテナ」という構成であってもよい。
 そして、送信(パネル)アンテナ、受信(パネル)アンテナ、送受信用(パネル)アンテナを、例えば、アンテナポートと呼んでもよい。送信(パネル)アンテナ、受信(パネル)アンテナ、送受信用(パネル)アンテナの呼び方はこれに限ったものではなく、送信(パネル)アンテナは、一つ以上、または、複数のアンテナで構成されている方法が考えられる。また、受信(パネル)アンテナは、一つ以上、または、複数のアンテナで構成されている方法が考えられる。そして、送受信用(パネル)アンテナは、一つ以上、または、複数のアンテナで構成されている方法が考えられる。また、送信(パネル)アンテナごとに装置が構成されていてもよく、受信(パネル)アンテナごとに装置が構成されていてもよく、送受信用(パネル)アンテナごとに装置が構成されてもよい。つまり、Multiple(Multi) TRP(TX(Transmitter)/RX(Receiver) point)(multi TRP)と考えてもよい。
 アンテナポート(antenna port)とは、1本または複数の物理アンテナから構成される論理的なアンテナ(アンテナグループ)であってもよい。すなわち、アンテナポートは必ずしも1本の物理アンテナを指すとは限らず、複数のアンテナから構成されるアレイアンテナ等を指すことがある。例えば、アンテナポートが何本の物理アンテナから構成されるかは規定されず、端末局が基準信号(リファレンス信号(Reference signal))を送信できる最小単位として規定されることがある。また、アンテナポートは、プリコーディングベクトル(Precoding vector)、または、プリコーディング行列の重み付けを乗算する単位、または、最小単位として規定されることもある。
 本件における通信装置の送信(パネル)アンテナ、受信(パネル)アンテナは、一つ以上のアンテナ、アンテナ素子により構成されていてもよいし、二つ以上のアンテナ、アンテナ素子により構成されていてもよい。
 基地局、端末が対応している送信方法は、OFDMなどのマルチキャリア方式であってもよいし、シングルキャリア方式であってもよい。また、基地局、端末は、マルチキャリア方式、シングルキャリア方式の両者に対応していてもよい。このときシングルキャリア方式の変調信号を生成する方法は、複数あり、いずれの方式の場合についても実施が可能である。例えば、シングルキャリア方式の例として、「DFT(Discrete Fourier Transform)-Spread OFDM(Orthogonal Frequency Division Multiplexing)」、「Trajectory Constrained DFT-Spread OFDM」、「OFDM based SC(Single Carrier)」、「SC(Single Carrier)-FDMA(Frequency Division Multiple Access)」、「Guard interval DFT-Spread OFDM」などがある。マルチキャリア方式を用いていた場合、フレームには、周波数軸上にもシンボルが存在することになる。
 本明細書において、マルチキャリア方式の一例として、OFDMを用いて、各実施の形態を説明したが、他のマルチキャリア方式を用いても、本明細書における各実施の形態は、同様に実施することができる。
 例として、本明細書で説明した周波数帯域に対し、「一つ周波数帯域を用いたシングルキャリア方式」を割り当てたり、「一つ以上の周波数帯域を用いたシングルキャリア方式」を割り当てたりし、マルチキャリア伝送を実現してもよい。
 別の例として、本明細書で説明した周波数帯域に、一つ以上のキャリア、または、二つ以上のキャリアを割り当て、マルチキャリア伝送を実現してもよい。なお、マルチキャリア伝送方式は、上述の例に限ったものではない。
 本明細書において、説明を簡略化するために、端末、基地局、装置、機器、サーバー、ネットワークなどと名づけて実施の形態の説明を行ったが、呼び名はこれに限ったものではない。
 本明細書において、「端末、基地局など」の受信装置とアンテナが別々となっている構成であってもよい。例えば、アンテナで受信した信号、または、アンテナで受信した信号に対し、周波数変換を施した信号を、ケーブルを通して、入力するインタフェースを受信装置が具備し、受信装置はその後の処理を行うことになる。また、受信装置が得たデータ・情報は、その後、映像や音に変換され、ディスプレイ(モニタ)に表示されたり、スピーカから音が出力されたりする。さらに、受信装置が得たデータ・情報は、映像や音に関する信号処理が施され(信号処理を施さなくてもよい)、受信装置が具備するRCA端子(映像端子、音用端子)、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、デジタル用端子等から出力されてもよい。
 本明細書において、送信装置および/または送信部を具備しているのは、例えば、放送局、基地局、アクセスポイント、端末、携帯電話(mobile phone)、スマートフォン、タブレット、ノートパソコン、サーバー、パソコン、パーソナルコンピュータ、テレビ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器、gNB(g Node B)、中継器、ノード、車、自転車、バイク、船、衛星、航空機、ドローン、動くことが可能な機器、ロボット、TRP(Tx(Transmission)/Rx(Reception) point)などが考えられ、また、受信装置および/または受信部を具備しているのは、ラジオ、端末、パーソナルコンピュータ、携帯電話、アクセスポイント、基地局等の通信機器、スマートフォン、タブレット、ノートパソコン、サーバー、パソコン、パーソナルコンピュータ、テレビ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器、gNB(g Node B)、中継器、ノード、車、自転車、バイク、船、衛星、航空機、ドローン、動くことが可能な機器、ロボット、TRPなどが考えられる。本件における送信装置および受信装置は、通信機能を有している機器であって、その機器が、テレビ、ラジオ、パーソナルコンピュータ、携帯電話等のアプリケーションを実行するための装置に何らかのインタフェースを解して接続できるような形態であることも考えられる。さらに、本明細書における通信装置を具備しているのは、例えば、放送局、基地局、アクセスポイント、端末、携帯電話、スマートフォン、タブレット、ノートパソコン、サーバー、パソコン、パーソナルコンピュータ、テレビ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器、gNB(g Node B)、中継器、ノード、車、自転車、バイク、船、衛星、航空機、ドローン、動くことが可能な機器、ロボット、TRPであることが考えられる。
 センシングを実現するための装置を具備しているのは、例えば、放送局、基地局、アクセスポイント、端末、携帯電話(mobile phone)、スマートフォン、タブレット、ノートパソコン、サーバー、パソコン、パーソナルコンピュータ、テレビ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器、gNB(g Node B)、中継器、ノード、車、自転車、バイク、船、衛星、航空機、ドローン、動くことが可能な機器、ロボット、TRPなどが考えられ、また、受信装置および/または受信部を具備しているのは、ラジオ、端末、パーソナルコンピュータ、携帯電話、アクセスポイント、基地局等の通信機器、スマートフォン、タブレット、ノートパソコン、サーバー、パソコン、パーソナルコンピュータ、テレビ、家電(家庭用電気機械器具)、工場内の装置、IoT(Internet of Things)機器等の通信機器・放送機器、gNB(g Node B)、中継器、ノード、車、自転車、バイク、船、衛星、航空機、ドローン、動くことが可能な機器、ロボット、TRPなどが考えられる。
 装置がセンシングのための信号を送信する際、センシングのための信号として、「FMCW(frequency modulated continuous wave)方式、PMCW(phase modulated continuous wave)方式などを用いたCW(Continuous wave)」、「パルス信号」、「マルチキャリア方式、シングルキャリア方式を用いた変調信号」、「スペクトル拡散信号」、「無変調の信号」、「搬送波」などの信号があるが、これらの信号に限ったものではない。また、センシングのための信号は、規則的、または、周期的に存在していてもよい。
 なお、本明細書で記載した「センシング」又は「センシング処理」は、物体の位置を検出する処理、物体の有無を検出する処理、物体の材質を予測する処理、物体の動きを検出する処理、センシング実施可能な装置周辺の状況を推定する処理、センシング実施可能な装置と物体の距離を推定する処理、又は、物体の外形を検出する処理、を少なくとも含む。なお、物体の位置を検出する処理では、物体の検出、物体の動きも同時に検出することが可能である場合がある。また、物体の有無を検出する処理、又は、物体の外形を検出する処理では、対象物を特定することも可能である。
 なお、上記実施の形態において、物体(人、動物、車など)を検出したら、シャッターをきる、つまり、静止画を撮影してもよい。また、物体を検出したら、動画を撮影してもよい。検出するのは、予め定められたジェスチャーであってもよい。
 また、センシングは、例えば、電波を用いた無線によるセンシングであってもよいし、より高い周波数を用いた、例えば、光を用いた無線によるセンシングであってもよい。
 センシング用の装置と通信用の装置を、例えば、インタフェースを介し、接続することで、センシングと通信が可能な装置を実現してもよい。
 なお、空間のセンシングを利用する目的や用途、利用環境は多様化しており、用途や利用環境に応じて、検出対象となる物体や検出対象となる物体との距離、検出したい距離の精度、許容される遅延時間、または物体の検出と同時に取得したい情報などが異なる。そのため、空間のセンシングを利用する目的や用途、利用環境に応じて、センシング方法を切り替えたり、複数のセンシング方法を組み合わせたりして、目的に応じたセンシング結果を得られる送信装置および送信方法が必要とされている。
 上記態様の検出装置によると、電波を用いた物体との間の距離の検出と、画像情報を用いた検出位置の制御とを行うことで、距離の検出対象の物体を容易に特定して距離の検出を行うこともできる。
 例えば、タッチパネル等の表示部と入力部の機能を有する装置に表示された映像に基づいてユーザが検出対象の物体を指定、または選択する信号を入力する場合、電波を用いたセンシングを行う対象物をユーザが容易に指定できるようになる。
 また、例えば、撮像部で取得された画像情報を用いた画像処理により、検出対象となる物体を検出して、検出された物体との間の距離の測定を行う場合、画像情報に含まれる色や形状などの特徴量を物体の検出に用いることが可能となり、電波による検出のみを行う場合と比較して、物体の検出精度の向上や、物体の識別能力の向上を促進することができる。
 また、本開示において、センシングに用いるセンサーは電波を用いたセンシングに限定されない。例えば、LIDAR(Light Detection and Ranging)などの光を用いたセンシングであってもよい。また、複数のセンサーを組み合わせて用いる場合、組み合わせるセンサーはどのようなものであってもよい。例えば、センサーとしてカメラを用いて、撮影された映像自体、当該映像に対して特徴量を抽出するための画像処理またはパターン認識などの画像処理を施して得られた結果をセンシングデータ(または、位置情報)として用いてもよい。また、例えばユーザが装着しているウェアラブル端末が備える、例えば、マイク、位置センサー、加速度センサー、筋電位センサー、温度センサーなどの任意のセンサーで得られたデータをセンシングデータとして用いてもよい。
 端末(または、基地局)は、自身が具備している「動画、画像などを撮影するイメージセンサー、赤外線センサー、光センサーを搭載するカメラ」を用いてセンシングを行ってもよい。これにより、端末は、位置情報を得て、本明細書におけるサーバー104に伝送し、サーバー104は、端末に相当するキャラクタを仮想空間に登場させ、端末に相当するキャラクタを制御してもよい。
 例えば、端末は、自身が具備している「動画、画像などを撮影するイメージセンサーを搭載するカメラ」を用いて、静止画、および/または、動画を撮影し、「静止画、および/または、動画により、位置推定を行い、位置情報を得てもよい。
 このとき、端末が位置推定を行う際、自身が保有している動画や静止画を利用して位置推定を行ってもよい。
 また、別の方法として、端末は、他の装置に、静止画、および/または、動画を伝送し、他の装置が、端末の位置を推定する。そして、端末は、他の装置から、自身の位置推定情報を得てもよい。
 端末は、位置情報を本明細書におけるサーバー104に伝送し、サーバー104は、端末に相当するキャラクタを仮想空間に登場させ、端末に相当するキャラクタを制御してもよい。
 また、複数のセンシングデータを用いて検出された事象を組み合わせた連携動作の登録を、ユーザが設定画面やGUIなどを用いて登録する場合を例として考えられるが、その他の方法で登録されてもよい。例えば、機器へのジェスチャーの登録処理において、自動的に作成されてもよい。例えば、システムにおいて、ユーザがジェスチャーの登録開始を指示すると、ユーザがジェスチャーを行っている期間に、同一または互いに異なる複数の機器に備えられた第1のセンサーと第2のセンサーがそれぞれセンシングデータの取得を行い、それぞれのセンサーで得られたセンシングデータの時間的変化のパターンを記憶する。その後、登録されたジェスチャーが行われたか否かを判定は、第1のセンサーで得られたセンシングデータと第2のセンサーで取得されたセンシングデータを用いて行われる。上記構成によると、複数のセンシングデータを用いて検出された事象を組み合わせた連携動作の登録を簡単化することができるという効果が得られる。
 なお、電波を用いたセンシングを実施するセンサーを用いる場合、上述の処理において用いられるセンシングデータは、例えば点群やメッシュなどの任意の形式で表現される3次元の位置や形状を示すデータであってもよいし、受信信号に対して任意の信号処理を施して得られる、例えば、パイロットやリファレンス信号から推定された伝送路特性、基準信号と受信信号との相関値またはOFDM信号におけるサブキャリア間の位相差などのデータであってもよい。また、センシングデータは、例えば、上述した初期センシングなどの移動する対象物が無い状態で得られたセンシング結果と、対象物の検出などのために行われている通常のセンシングで得られたセンシング結果との差分を抽出したデータであってもよい。
 また、本開示において、センシングに用いるセンサーは電波を用いたセンシングに限定されない。例えば、動画、画像などを撮影するイメージセンサー、赤外線センサー、光センサーを搭載するカメラを例とする装置により、物理的に存在する生物、物体などを認識し、この装置はこの認識したものの情報をサーバー104に伝送する。加えて、この装置は、撮影した位置の情報をあわせてサーバー104に伝送する。そして、サーバー104は、位置の情報に基づいて仮想空間を選択し、選択した仮想空間に、認識した「物理的に存在する生物、物体などに相当するキャラクタ」を登場させ、仮想空間において認識した「物理的に存在する生物、物体などに相当するキャラクタ」を制御してもよい。
 実空間を「(フィジカルな)現実空間」、「ユニバース」と呼んでもよい。また、実空間は「AR(Augmented Reality)(拡張現実)(実世界を仮想的に拡張した世界)」であってもよい。実空間を、例として、我々の住む物理世界ととらえてもよい。実空間を別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 また、仮想空間を「サイバー空間」、「メタバース空間」、「マルチバース空間(の一つ)」、「バーチャル空間」、「VR(Virtual Reality)(仮想現実)」、「仮想世界」と呼んでもよい。なお、仮想空間を別の呼び方で呼んでもよい。以上の点については、本明細書全体で同様である。
 さらに、キャラクタを「アバター」、「オブジェクト」と呼んでもよい。アバターを、例として、ゲーム、ネット、仮想空間の中で登場する、端末を保有しているユーザ自身の分身ととらえてもよい。なお、キャラクタを別の呼び方で呼んでもよい。
 デジタルツインとは、フィジカルな現実空間(例えば、実空間)で得たモノや環境にまつわるデータを、サイバー空間(例えば、仮想空間)上に移管し再現する技術概念を指す。 リアル空間でセンサーデバイスなどからIoT(Internet of Things)技術を駆使して得たデータ・情報を、鏡のようにそっくりサイバー空間に反映させるためデジタルツイン、つまり「デジタルの双子」と呼ぶことになる。
 仮想空間における「端末に相当するキャラクタ」は、「人のようなキャラクタ(または、オブジェクト、アバター)」、「動物のようなキャラクタ(または、オブジェクト、アバター)」、「鳥のようなキャラクタ(または、オブジェクト、アバター)」、「飛行体(ドローン、航空機、飛行機)のようなキャラクタ(または、オブジェクト、アバター)」、「車のようなキャラクタ(または、オブジェクト、アバター)」、「自転車のようなキャラクタ(または、オブジェクト、アバター)」、「バイクのようなキャラクタ(または、オブジェクト、アバター)」、「電車のようなキャラクタ(または、オブジェクト、アバター)」、「列車のようなキャラクタ(または、オブジェクト、アバター)」、「ロボットのようなキャラクタ(または、オブジェクト、アバター)」であってもよいが、これに限ったものではない。
 また、サーバー104は、端末が予め規定された複数の端末の種類のいずれであるかを判定し、それぞれの状態に対応付けられたオブジェクト、または、オブジェクトグループから選択されたオブジェクトを、仮想空間に表示するとしてもよい。端末の種類とオブジェクトの対応付けは上記の例に限らない。例えば、端末の種類によって異なる動物の形状をしたオブジェクトを対応付けてもよいし、端末の種類によって形状は同じであるが色が異なるオブジェクトを対応付けてもよい。
 なお、本開示は各実施の形態に限定されず、種々変更して実施することが可能である。例えば、各実施の形態では、通信装置として行う場合について説明しているが、これに限られるものではなく、この通信方法をソフトウェアとして行うことも可能である。
 例えば、上記通信方法を実行するプログラムを予めROM(Read Only Memory)に格納しておき、そのプログラムをCPU(Central Processing Unit)によって動作させるようにしても良い。
 また、上記通信方法を実行するプログラムをコンピュータで読み取り可能な記憶媒体に格納し、記憶媒体に格納されたプログラムをコンピュータのRAMに記録して、コンピュータをそのプログラムにしたがって動作させるようにしても良い。
 そして、上記の各実施の形態などの各構成は、典型的には、入力端子及び出力端子を有する集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらは、個別に1チップ化されてもよいし、各実施の形態の全ての構成または一部の構成を含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限られるものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。さらに、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適応等が可能性としてあり得る。
 また、FPGA(Field Programmable Gate Array)およびCPUの少なくとも一方が、本開示において説明した通信方法を実現するために必要なソフトウェアの全部あるいは一部を無線通信または有線通信によりダウンロードできるような構成であってもよい。さらに、更新のためのソフトウェアの全部あるいは一部を無線通信または有線通信によりダウンロードできるような構成であってもよい。そして、ダウンロードしたソフトウェアを記憶部に格納し、格納されたソフトウェアに基づいてFPGAおよびCPUの少なくとも一方を動作させることにより、本開示において説明したデジタル信号処理を実行するようにしてもよい。
 このとき、FPGAおよびCPUの少なくとも一方を具備する機器は、通信モデムと無線または有線で接続し、この機器と通信モデムにより、本開示において説明した通信方法を実現してもよい。
 例えば、本明細書で記載した基地局、端末などの通信装置が、FPGA、および、CPUのうち、少なくとも一方を具備しており、FPGA及びCPUの少なくとも一方を動作させるためのソフトウェアを外部から入手するためのインタフェースを通信装置が具備していてもよい。さらに、通信装置が外部から入手したソフトウェアを格納するための記憶部を具備し、格納されたソフトウェアに基づいて、FPGA、CPUを動作させることで、本開示において説明した信号処理を実現するようにしてもよい。
 本明細書において、受信装置、受信部に関連する処理に関するアプリケーションをサーバーが提供し、端末は、このアプリケーションをインストールすることで、本明細書で記載した受信装置の機能を実現してもよい。なお、アプリケーションは、本明細書に記載した送信装置を具備する通信装置がネットワークを介しサーバーと接続することによって、端末に提供されてもよいし、アプリケーションは、別の送信機能を有する通信装置がネットワークを介しサーバーと接続することによって、端末に提供されてもよい。なお、アプリケーションの一例として、実施の形態を用いて説明した「実空間と仮想空間を連動させたアプリケーション」が考えられる。
 同様に、本明細書において、送信装置、送信部に関連する処理に関するアプリケーションをサーバーが提供し、通信装置は、このアプリケーションをインストールすることで、本明細書で記載した送信装置の機能を実現してもよい。なお、アプリケーションは、他の通信装置がネットワークを介しサーバーと接続することによって、この通信装置に提供されるという方法が考えられる。
 なお、本件は各実施の形態に限定されず、種々変更して実施することが可能である。例えば、各実施の形態では、通信装置として行う場合について説明しているが、これに限られるものではなく、この通信方法をソフトウェアとして行うことも可能である。
 また、例えば、上記通信方法を実行するプログラムを予めROMに格納しておき、そのプログラムをCPUによって動作させるようにしても良い。
 また、上記通信方法を実行するプログラムをコンピュータで読み取り可能な記憶媒体に格納し、記憶媒体に格納されたプログラムをコンピュータのRAM(Random Access Memory)に記録して、コンピュータをそのプログラムにしたがって動作させるようにしても良い。
 そして、上記の各実施の形態などの各構成は、典型的には集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、各実施の形態の全ての構成または一部の構成を含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限られるものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
 なお、FPGAおよびCPUの少なくとも一方が、本開示において説明した通信方法を実現するために必要なソフトウェアの全部あるいは一部を無線通信または有線通信によりダウンロードできるような構成であってもよい。さらに、更新のためのソフトウェアの全部あるいは一部を無線通信または有線通信によりダウンロードできるような構成であってもよい。そして、ダウンロードしたソフトウェアを記憶部に格納し、格納されたソフトウェアに基づいてFPGAおよびCPU少なくとも一方を動作させることにより、本開示において説明したデジタル信号処理を実行するようにしてもよい。
 このとき、FPGAおよびCPUの少なくとも一方を具備する機器は、通信モデムと無線または有線で接続し、この機器と通信モデムにより、本開示において説明した通信方法を実現してもよい。
 例えば、本明細書で記載した基地局、AP、端末などの通信装置が、FPGA、および、CPUのうち、少なくとも一方を具備しており、FPGA及びCPUの少なくとも一方を動作させるためのソフトウェアを外部から入手するためのインタフェースを通信装置が具備していてもよい。さらに、通信装置が外部から入手したソフトウェアを格納するための記憶部を具備し、格納されたソフトウェアに基づいて、FPGA、CPUを動作させることで、本開示において説明した信号処理を実現するようにしてもよい。
 さらに、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適応等が可能性としてあり得る。
 本件は、複数のアンテナからそれぞれ異なる変調信号を送信する無線システムに広く適用できる。また、複数の送信箇所を持つ有線通信システム(例えば、PLC(Power Line Communication)システム、光通信システム、DSL(Digital Subscriber Line:デジタル加入者線)システム)において、MIMO伝送を行う場合についても適用することができる。通信装置は、無線装置と称されてもよい。
 「データ」、「データシンボル」、「データフレーム」は、例えば、PDSCH(Physical Downlink Shared Channel)、PUSCH(Physical Uplink Shared Channel)であってもよい。
 上述の各実施の形態においては、各構成要素に用いる「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。
 (補足2)
 本開示は各実施の形態に限定されず、種々変更して実施することが可能である。例えば、各実施の形態では、通信装置、(信号)処理装置として行う場合について説明しているが、これに限られるものではなく、この通信方法、信号処理をソフトウェアとして行うことも可能である。
 例えば、上述の「通信方法、信号処理」を実行するプログラムを予めROMに格納しておき、そのプログラムをCPU、(CPU)アーキテクチャーによって動作させるようにしても良い。
 また、上述の「通信方法、信号処理」を実行するプログラムをコンピュータで読み取り可能な記憶媒体に格納し、記憶媒体に格納されたプログラムをコンピュータのRAMに記録して、コンピュータをそのプログラムにしたがって動作させるようにしても良い。
 そして、上記の各実施の形態などの各構成は、典型的には、入力端子及び出力端子を有する集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、各実施の形態の全ての構成または一部の構成を含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限られるものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。さらに、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適応等が可能性としてあり得る。
 また、「FPGA、CPU、(CPU)アーキテクチャー」の少なくとも一つが、本開示において説明した「通信方法、信号処理」を実現するために必要な「ソフトウェア、アプリケーション(ソフトウェア)」の全部あるいは一部を無線通信または有線通信によりダウンロードできるような構成であってもよい。さらに、更新のための「ソフトウェア、アプリケーション(ソフトウェア)」の全部あるいは一部を無線通信または有線通信によりダウンロードできるような構成であってもよい。そして、ダウンロードした「ソフトウェア、アプリケーション(ソフトウェア)」を記憶部に格納し、格納された「ソフトウェア、アプリケーション(ソフトウェア)」に基づいて「FPGA、CPU、(CPU)アーキテクチャー」の少なくとも一つを動作させることにより、本開示において説明したデジタル信号処理を実行するようにしてもよい。
 このとき、「FPGA、CPU、(CPU)アーキテクチャー」の少なくとも一つを具備する機器は、通信モデムと無線または有線で接続し、この機器と通信モデムにより、本開示において説明した「通信方法、信号処理」を実現してもよい。
 例えば、本明細書で記載した基地局、端末などの通信装置、撮影装置、オブジェクトが、「FPGA、CPU、(CPU)アーキテクチャー」の少なくとも一つを具備しており、「FPGA、CPU、(CPU)アーキテクチャー」の少なくとも一つを動作させるための「ソフトウェア、アプリケーション(ソフトウェア)」を外部から入手するためのインタフェースを通信装置が具備していてもよい。さらに、通信装置が外部から入手したソフトウェアを格納するための記憶部を具備し、格納された「ソフトウェア、アプリケーション(ソフトウェア)」に基づいて、「FPGA、CPU、(CPU)アーキテクチャー」を動作させることで、本開示において説明した信号処理を実現するようにしてもよい。
 本明細書において、「送信装置、送信部に関連する処理」、「受信装置、受信部に関連する処理」に関するアプリケーション、「通信方法、信号処理」に関するアプリケーションをサーバーが提供し、端末は、このアプリケーションをインストールすることで、本明細書で記載した送信機能、受信装置の機能、「通信方法、信号処理」を実現してもよい。なお、アプリケーションは、本明細書に記載した送信装置を具備する通信装置がネットワークを介しサーバーと接続することによって、端末に提供してもよいし、アプリケーションは、別の送信機能を有する通信装置がネットワークを介しサーバーと接続することによって、端末に提供してもよい。なお、アプリケーションの一例として、実施の形態を用いて説明した「実空間と仮想空間を連動させたアプリケーション」が考えられる。
 なお、本件は各実施の形態に限定されず、種々変更して実施することが可能である。例えば、各実施の形態では、通信装置として行う場合について説明しているが、これに限られるものではなく、この通信方法をソフトウェアとして行うことも可能である。
 また、例えば、上記通信方法を実行するプログラムを予めROMに格納しておき、そのプログラムをCPUによって動作させるようにしても良い。
 また、上記通信方法を実行するプログラムをコンピュータで読み取り可能な記憶媒体に格納し、記憶媒体に格納されたプログラムをコンピュータのRAMに記録して、コンピュータをそのプログラムにしたがって動作させるようにしても良い。
 そして、上記の各実施の形態などの各構成は、典型的には集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、各実施の形態の全ての構成または一部の構成を含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限られるものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
 なお、本開示において端末やオブジェクトなどの位置を推定することについて開示しているが、当該位置の推定は、端末やオブジェクトの位置と向きの情報を含んでいてもよい。
 例えば、端末やオブジェクトにとっての前方などの基準となる向きが設定されている場合、位置推定を行う機器は位置推定を行う機器が用いる座標系における端末やオブジェクトの位置を示す座標値と、位置推定を行う機器が用いる座標系における上記の基準となる向きを示すベクトル値または2つの角度の値とを推定する。検出対象となる端末やオブジェクトにとっての上下方向と、推定を行う機器が用いる座標系における上下方向とが一致する、または角度差が小さく無視しても問題ない場合には、上記の検出方法を用いることで位置と向きの推定に必要な演算量の削減や推定誤差の軽減の効果が得られる可能性がある。
 また、例えば、検出対象となる端末やオブジェクトに固有の座標系が設定されている場合、位置推定を行う機器は、位置推定を行う機器が用いる座標系における端末やオブジェクトの位置を示す座標値と、端末やオブジェクトに設定された座標系の軸の向きを推定を行う機器が用いる座標系の軸の向きに一致させるために必要な軸ごとの回転角の値とを推定する。検出対象となる端末やオブジェクトに設定された座標系の軸の向きと、推定を行う機器が用いる座標系の軸の向きとがいずれの軸も一致しない場合には、上記の検出方法を用いることで検出対象の端末やオブジェクトの向きを適切に取得できる可能性がある。
 なお、上記の説明では、位置推定を行う機器が用いる座標系における位置や向きを推定する場合について説明したが、位置推定を行う機器が推定して保持、または出力する推定値が基づく座標系は位置推定を行う機器が用いる座標系でなくてもよい。例えば、位置推定を行う際に、位置推定を行う機器が三次元または二次元の地図データを用いる場合、位置推定を行う機器は、推定に用いた三次元または二次元の地図データが基づいている座標系における位置または向きを示す値を推定してもよい。
 また、本開示において絶対的な位置や相対的な位置という用語を用いているが、これらの用語は例えば以下のように解釈されてもよい。例えば、絶対的な位置は、WGS84、日本測地系2011、国際地球基準座標系などの測地系を用いて指定される位置情報であってもよいし、上記の測地系とは異なる実空間上の位置を直接的または間接的に指定可能な任意の座標系で指定される位置情報であってもよい。すなわち、本開示において「絶対的」と呼んでいる位置情報は、実空間における端末またはオブジェクトの位置を示すためにシステムで利用している位置情報であればよく、実空間の地理的な位置を誤差なく示す座標系であることを意図したものではない。
 また、本開示において実空間に配置された基地局などの通信機器やカメラを用いて端末やオブジェクトの位置情報を取得する位置推定方法と、端末が備えるカメラやLidarで得られた情報を用いて端末が自己位置推定を行う位置推定方法とを開示しているが、本開示においていずれか一方の位置推定方法を用いると説明した実施の形態は、他方の位置推定方法を用いる構成に置き換えられてもよい。例えば、実空間に配置された基地局などの通信機器やカメラを用いて端末やオブジェクトの位置情報を取得する構成を端末が備えるカメラやLidarで得られた情報を用いて端末が自己位置推定を行う位置推定方法に置き換える場合、端末が推定した端末の位置情報を基地局などの通信機器やカメラに送信する。なお、端末の位置情報をサーバーに送信する場合は、端末は自身の位置情報を直接サーバーに送信してもよい。ここで、直接サーバーに送信するとは、例えば端末において生成された端末の位置情報を格納したパケットがサーバーに送信されることを意味しており、通信経路上に基地局が配置されていてもよい。すなわち、端末からサーバー宛てに送信された端末の位置情報は、基地局によって中継されていてもよい。
 上記説明における端末が備えるカメラやLidarを用いて端末が行う位置推定は、VPS(Visual Positioning System)と呼ばれることもある。端末は自身の位置情報を、カメラやLidarを用いて取得された映像データまたは点群データと3次元地図情報とのマッチングを行うことで推定してもよいし、カメラやLidarを用いて取得された映像データを事前に取得された映像データとマッチングすることで推定してもよい。また、端末の位置推定を行う際に、端末は、カメラで取得された映像データとLidarで取得された点群データの両方を用いてもよいし、複数のカメラのそれぞれから得られた複数の映像データを用いてもよいし、複数のLidarから取得された複数の画像データまたは点群データを用いてもよい。
 また、端末の位置推定を行う際に、端末は、カメラやLidarを用いて取得された映像または画像データまたは点群データに加えて、ジャイロセンサー、速度センサー、加速度センサーおよび気圧センサーなどの任意のセンサーまたは任意の複数のセンサーの組み合わせから得られたセンシングデータを用いてもよい。
 また、端末は、1つまたは複数のカメラから得られた映像データを用いて周囲に位置するオブジェクトの表面上の点の位置を推定することで点群データを生成し、生成した点群データを位置推定に用いてもよい。また、端末がLidarから取得するデータは、Lidarが測距したい領域または撮影領域全体を含む広範囲な領域に照射した測距用の光の反射光を用いて測定されたDepth画像であってもよいし、Lidarが照射したレーザー光の反射光を用いて測定された点群データであってもよい。
 また、Lidarが取得する点群データは、取得された点毎の距離を示すデータに加えて反射率を示すデータや推定された距離の推定精度を表す信頼度を示すデータを含んでいてもよい。
 本開示において、サーバーが広告(更新)情報のアップロードの許可を行う構成を例に挙げて説明したが、広告(更新)情報はサーバーの許可がなくてもアップロードして、アップロードされた広告(更新)情報を端末が仮想空間上で表示できるようにしてもよい。
 また、仮想空間中に表示される広告または実空間においてAR表示される広告は、予め指定された広告を表示可能な平面領域または空間領域に対して表示できるように制限されていてもよい。また、広告を表示可能な平面領域または空間領域に対して表示される広告は、仮想空間中に提示される、または実空間にAR表示されるオブジェクトを管理するサーバーとは別の、広告コンテンツを提供するサーバーから提供されていてもよい。この場合、広告コンテンツを提供するサーバーが、アップロードされる広告データについて仮想空間に提示するかどうかを判断してもよい。また、仮想空間に提示するかどうかは、ユーザごとに切り替えられてもよい。例えば、広告の提示可否を判断するサーバーは、ユーザの年齢や嗜好性情報などに基づいて判断を行ってもよい。
 また、仮想空間において提示されている広告に対して、当該広告を見たユーザが提示を拒否したい広告であれば、当該広告の提示を拒否する旨を通知することができるようにしてもよい。例えば、端末の表示画面に表示された広告に対して提示を拒否する旨を通知するためのリンクやメッセージの送信宛先の情報が提示されるようにしてもよい。また、サーバーは、広告の提示される領域や広告として表示されるオブジェクトに対して、上記の提示を拒否する旨を通知するためのリンクやメッセージの送信宛先の情報を含めて端末に送信することにより、上記の機能を提供することが可能となる。
 なお、上記の説明では提示を拒否する旨を通知するとしたが、他のユーザに対しても表示することが好ましくないと判断された広告に対して、その旨を提示できるようにしてもよい。
 なお、端末の位置推定を行うために基地局が送信するリファレンス信号をPRS(Positioning reference signal)と呼んでもよい。また、端末の位置推定を行うために端末が送信するリファレンス信号をPositioning用SRS(sounding reference signal)と呼んでもよい。なお、リファレンス信号の呼び方は、この例に限ったものではない。
 本明細書において、サーバーの構成、動作について説明を行ったが、サーバーが、LMF、AMFであってもよい。
 端末とサーバーのやりとりなど、第1装置と第2装置のやりとりにおける処理の順番は例に示した順番に限ったものではなく、また、他の処理が加わってもよい。
 端末、装置、サーバーのやりとりなど、第1装置、第2装置、第3装置のやりとりにおける処理の順番は例に示した順番に限ったものではなく、また、他の処理が加わってもよい。
 実施の形態6において、「実空間と仮想空間に、(同時に)、広告情報、または、情報を掲載する方法」の例について説明した。別の例について説明する。
 実空間に、「広告の看板」、「ビル、建物を利用した広告枠」、「商業施設などに存在している広告枠」、「道路に設置されているものを利用した広告枠」、「バス、タクシー、電車などを利用した広告枠」が存在しているものとする。そして、仮想空間における、「広告の看板」に相当するもの(ところ)、「ビル、建物を利用した広告枠」に相当するもの(ところ)、「商業施設などに存在している広告枠」に相当するもの(ところ)、「道路に設置されているものを利用した広告枠」に相当するもの(ところ)、「バス、タクシー、電車などを利用した広告枠」に相当するもの(ところ)に、広告情報、または、情報を掲載するものとする。
 例えば、実空間の「広告の看板」と仮想空間の「広告の看板」に相当するもの(ところ)に広告情報、または、情報を掲載する。ただし、実空間の「広告、または、情報」と仮想空間の「広告、または、情報」は連動しているが、同じ情報でなくてもよい。
 また、実空間の「ビル、建物を利用した広告枠」と仮想空間の「ビル、建物を利用した広告枠」に相当するもの(ところ)に広告情報、または、情報を掲載する。ただし、実空間の「広告、または、情報」と仮想空間の「広告、または、情報」は連動しているが、同じ情報でなくてもよい。
 実空間の「商業施設などに存在している広告枠」と仮想空間の「商業施設などに存在している広告枠」に相当するもの(ところ)に広告情報、または、情報を掲載する。ただし、実空間の「広告、または、情報」と仮想空間の「広告、または、情報」は連動しているが、同じ情報でなくてもよい。
 実空間の「道路に設置されているものを利用した広告枠」と仮想空間の「道路に設置されているものを利用した広告枠」に相当するもの(ところ)に広告情報、または、情報を掲載する。ただし、実空間の「広告、または、情報」と仮想空間の「広告、または、情報」は連動しているが、同じ情報でなくてもよい。
 実空間の「バス、タクシー、電車などを利用した広告枠」と仮想空間の「バス、タクシー、電車などを利用した広告枠」に相当するもの(ところ)に広告情報、または、情報を掲載する。ただし、実空間の「広告、または、情報」と仮想空間の「広告、または、情報」は連動しているが、同じ情報でなくてもよい。
 このとき、ユーザが参加する3D(3 dimensions)(3-dimentional)空間内に、現実の屋外広告と同様の形式で掲載される広告枠である、VOOH(Virtual Out of Home)を利用したものであってもよい。これにより、ユーザのプレイ環境は阻害せず、ネイティブに訴求可能であり、また、デジタル上の空間で掲載されるためユーザの広告視認時間/視野角/距離を判定し適切な接触(ビューアブルインプレッション)計測を行い、配信を設定できるという効果を得ることができる。
 なお、広告の掲載方法、広告の連動方法、広告の変更方法、広告の更新方法、広告の提供方法などについては、実施の形態6で説明した方法を適用することができる。
 上記の各実施の形態のシステムの基本的な構成および処理は、下記のとおりである。
 図74Aは、各実施の形態のシステムの基本的な構成を示す図である。
 図74Aに示されるように、システムは、サーバー7400と、第1端末7410と、第1基地局7420とを少なくとも備える。システムは、さらに、第2基地局7430を備えてもよい。なお、第1端末7410を単に端末ともいい、第1基地局7420を単に基地局ともいう。
 サーバー7400は、通信部7401とプロセッサ7402を備える。
 通信部7401は、実空間の第1領域に第1端末7410が滞在していることを示す制御情報を受信する。制御情報は、第1端末7410が第1基地局7420と通信していることを示す情報である。
 プロセッサ7402は、第1端末7410に対応する情報を生成する。プロセッサ7402は、第1基地局7420から第1端末7410の位置情報を取得し、第1端末7410の位置情報に基づいて、第1端末7410に対応する画像を表示する第1仮想空間中の位置を変更してもよい。プロセッサ7402が取得する位置情報は、例えば、第1基地局7420がセンシングした第1端末7410の位置情報であり得る。
 通信部7401は、プロセッサ7402が生成した情報を実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、第2端末の表示画面に表示させる。
 第1端末7410は、通信部7411とプロセッサ7412を備える。
 通信部7411は、実空間の第1領域に配置された第1基地局7420と通信を行っている。
 プロセッサ7412は、第1基地局7420を示す識別子と第1端末7410とを示す識別子を含む制御情報を生成し、実空間の第1領域に対応する第1仮想空間を提供するサーバー7400に対して、制御情報を送信する。制御情報は、第1端末7410が第1基地局7420と通信していることを示す情報である。
 なお、実空間の第1領域には、第1基地局7420と第2基地局7430とが対応付けられていてもよい。第2基地局7430は、第1基地局7420とは異なる基地局である。
 また、第1仮想空間には、実空間の第1領域と第2領域が対応付けられていてもよい。第2領域は、第1領域とは異なる実空間の領域である。
 また、実空間の第1領域は、前記第1仮想空間の第1領域と対応付けられていてもよい。
 第1基地局7420は、通信部7421とプロセッサ7422とを備える。第1基地局7420は実空間の第1領域に配置されている。
 通信部7421は、実空間の第1領域に滞在している第1端末7410と通信を行っている。
 プロセッサ7422は、第1基地局7420を示す識別子と第1端末7410を示す識別子とを含む制御情報を生成する。
 通信部7421は、実空間の第1領域に対応する第1仮想空間を提供するサーバー7400に対して、制御情報を送信する。
 第2端末は、第1端末に対応する画像を表示画面に表示させることができる。第2端末は、実空間の第1領域の外に位置している。
 図74Bは、各実施の形態のシステムの基本的な処理の一例を示す図である。
 第1端末は、実空間の第1領域に配置された第1基地局と通信を行い(ステップS7401)、実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と端末を示す識別子とを含む制御情報を送信する(ステップS7403)。
 なお、第1端末は、さらに、第1基地局との間で第1端末の位置情報を生成するセンシングを実施してもよい。その場合、第1端末は、センシングにより得た第1端末の位置情報をサーバーに対して送信することができる。
 サーバーは、実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し(ステップS7431またはS7432)、第1端末に対応する情報を実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し(ステップS7433)、第2端末の表示画面に第1端末に対応する画像を表示させる。サーバーが受信する制御情報は、第1端末から受信する制御情報#1、または、第1基地局から受信する制御情報#2があり得る。
 第1基地局は、実空間の第1領域に滞在している第1端末と通信を行い(ステップS7402)、実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と第1端末を示す識別子とを含む制御情報#2を送信することができる。
 なお、第1基地局は、第1端末の位置情報を生成するセンシングを実施し、センシングにより得た第1端末の位置情報をサーバーに対して送信することができる。
 以上の処理により、システムは、端末(または、ユーザ)の実空間での位置に基づいて、キャラクタ(アバター)を仮想空間上に登場させることができる。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の装置などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、上記ソフトウェアは、コンピュータに、サーバーが実施する方法であって、実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し、前記第1端末に対応する情報を前記実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、前記第2端末の表示画面に前記第1端末に対応する画像を表示させる方法を実行させるプログラムである。
 また、上記ソフトウェアは、コンピュータに、端末が実施する方法であって、実空間の第1領域に配置された第1基地局と通信を行い、前記実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と端末を示す識別子とを含む制御情報を送信する方法を実行させるプログラムである。
 また、上記ソフトウェアは、コンピュータに、実空間の第1領域に配置された基地局が実施する方法であって、前記実空間の第1領域に滞在している第1端末と通信を行い、前記実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と前記第1端末を示す識別子とを含む制御情報を送信する方法を実行させるプログラムである。
 以上、一つまたは複数の態様に係る装置などについて、実施の形態に基づいて説明したが、本開示に基づいて把握される発明は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 本開示は、例えば、無線通信装置、有線通信装置およびそれらの装置を備える端末や機器において適用可能な発明を含む。
 7400  サーバー
 7401、7411、7421  通信部
 7402、7412、7422  プロセッサ
 7410  第1端末
 7420  第1基地局
 7430  第2基地局

Claims (14)

  1.  サーバーが実施する方法であって、
     実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し、
     前記第1端末に対応する情報を前記実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、前記第2端末の表示画面に前記第1端末に対応する画像を表示させる、
     方法。
  2.  前記第2端末は、前記実空間の第1領域の外に位置している、
     請求項1記載の方法。
  3.  前記制御情報は、前記第1端末が第1基地局と通信していることを示す情報である、
     請求項1記載の方法。
  4.  前記実空間の第1領域には、前記第1基地局と前記第1基地局とは異なる第2基地局が対応付けられている、
     請求項3記載の方法。
  5.  前記第1仮想空間には、前記実空間の第1領域と、前記実空間の第1領域とは異なる実空間の第2領域が対応付けられている、
     請求項3記載の方法。
  6.  前記実空間の第1領域は、前記第1仮想空間の第1領域と対応付けられている、
     請求項3記載の方法。
  7.  前記方法はさらに、
     前記第1基地局から前記第1端末の位置情報を取得し、
     前記第1端末の位置情報に基づいて、前記第1端末に対応する画像を表示する前記第1仮想空間中の位置を変更する、
     請求項3記載の方法。
  8.  通信部とプロセッサを備えるサーバーであって、
     前記通信部は、実空間の第1領域に第1端末が滞在していることを示す制御情報を受信し、
     前記プロセッサは、前記第1端末に対応する情報を生成し、
     前記通信部は、前記情報を前記実空間の第1領域に対応する第1仮想空間を表示している第2端末に送信し、前記第2端末の表示画面に表示させる、
     サーバー。
  9.  端末が実施する方法であって、
     実空間の第1領域に配置された第1基地局と通信を行い、
     前記実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と端末を示す識別子とを含む制御情報を送信する、
     方法。
  10.  前記方法は、さらに、
     前記第1基地局との間で当該端末の位置情報を生成するセンシングを実施し、
     前記位置情報を前記サーバーに対して送信する、
     請求項9記載の方法。
  11.  通信部とプロセッサを備える端末であって、
     前記通信部は、実空間の第1領域に配置された第1基地局と通信を行っており、
     前記プロセッサは、第1基地局を示す識別子と当該端末とを示す識別子を含む制御情報を生成し、
     前記実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、前記制御情報を送信する、
     端末。
  12.  実空間の第1領域に配置された基地局が実施する方法であって、
     前記実空間の第1領域に滞在している第1端末と通信を行い、
     前記実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、第1基地局を示す識別子と前記第1端末を示す識別子とを含む制御情報を送信する、
     方法。
  13.  前記方法は、さらに、
     前記第1端末の位置情報を生成するセンシングを実施し、
     前記位置情報を前記サーバーに対して送信する、
     請求項12記載の方法。
  14.  通信部とプロセッサを備える基地局であって、前記基地局は実空間の第1領域に配置されており、
     前記通信部は、前記実空間の第1領域に滞在している第1端末と通信を行っており、
     前記プロセッサは、第1基地局を示す識別子と前記第1端末を示す識別子とを含む制御情報を生成し、
     前記通信部は、前記実空間の第1領域に対応する第1仮想空間を提供するサーバーに対して、前記制御情報を送信する、
     基地局。
PCT/JP2023/029714 2022-08-19 2023-08-17 方法、サーバー、端末、および、基地局 WO2024038895A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263399433P 2022-08-19 2022-08-19
US63/399,433 2022-08-19

Publications (1)

Publication Number Publication Date
WO2024038895A1 true WO2024038895A1 (ja) 2024-02-22

Family

ID=89941732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/029714 WO2024038895A1 (ja) 2022-08-19 2023-08-17 方法、サーバー、端末、および、基地局

Country Status (1)

Country Link
WO (1) WO2024038895A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105538A (ja) * 1996-09-30 1998-04-24 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
JP2001326960A (ja) * 2000-05-18 2001-11-22 Tomo-Digi Corp 情報配信システム、情報配信サーバ、携帯端末、情報配信方法及び記録媒体
JP2006318294A (ja) * 2005-05-13 2006-11-24 Vodafone Kk 情報配信装置及び情報配信システム
JP2008301412A (ja) * 2007-06-04 2008-12-11 Ntt Docomo Inc メッセージ配信システム、制御装置、及びメッセージ配信方法
JP2020035392A (ja) * 2018-08-31 2020-03-05 真一 福重 遠隔コミュニケーションシステム等
WO2020261336A1 (ja) * 2019-06-24 2020-12-30 ガンホー・オンライン・エンターテイメント株式会社 サーバ装置、プログラム、方法及び端末装置
WO2020261337A1 (ja) * 2019-06-24 2020-12-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置、プログラム、及び方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105538A (ja) * 1996-09-30 1998-04-24 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
JP2001326960A (ja) * 2000-05-18 2001-11-22 Tomo-Digi Corp 情報配信システム、情報配信サーバ、携帯端末、情報配信方法及び記録媒体
JP2006318294A (ja) * 2005-05-13 2006-11-24 Vodafone Kk 情報配信装置及び情報配信システム
JP2008301412A (ja) * 2007-06-04 2008-12-11 Ntt Docomo Inc メッセージ配信システム、制御装置、及びメッセージ配信方法
JP2020035392A (ja) * 2018-08-31 2020-03-05 真一 福重 遠隔コミュニケーションシステム等
WO2020261336A1 (ja) * 2019-06-24 2020-12-30 ガンホー・オンライン・エンターテイメント株式会社 サーバ装置、プログラム、方法及び端末装置
WO2020261337A1 (ja) * 2019-06-24 2020-12-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置、プログラム、及び方法

Similar Documents

Publication Publication Date Title
JP7096343B2 (ja) 無線通信システムにおいて測位情報を得る方法及びそのための装置
CN102939139B (zh) 共享虚拟空间中便携式设备的校准
US20180165885A1 (en) Systems and Methods for Creating and Sharing a 3-Dimensional Augmented Reality Space
US20170169617A1 (en) Systems and Methods for Creating and Sharing a 3-Dimensional Augmented Reality Space
CN108540542B (zh) 一种移动增强现实系统及显示的方法
CN105009163B (zh) 具有增强现实机制的内容传送系统及其操作方法
US20160358013A1 (en) Method and system for ambient proximity sensing techniques between mobile wireless devices for imagery redaction and other applicable uses
US20140188990A1 (en) Method and apparatus for establishing user group network sessions using location parameters in an augmented reality display
US20150004935A1 (en) Method and apparatus for generating access codes based on information embedded in various signals
US20110187726A1 (en) Image processing device, image processing method, and program
CN104508601B (zh) 具有改良的虚拟显示功能的头戴式电脑
CN105164631A (zh) 用于创建多装置媒体呈现的方法和设备
US10825252B2 (en) Information processing program, method, and system for sharing virtual process for real object in real world using augmented reality
KR102479360B1 (ko) 증강 현실 서비스 제공 방법 및 장치
CN104798434A (zh) 通过行为预测防止掉线呼叫
WO2012023253A1 (ja) 受信表示装置、情報発信装置、光無線通信システム、受信表示用集積回路、情報発信用集積回路、受信表示プログラム、情報発信プログラム、及び光無線通信方法
KR20190050768A (ko) 광 통신 소스들의 데이터 프로세싱 및 인증
US11963015B2 (en) Method for transmitting and receiving AoD information and device therefor
TW202243500A (zh) 用於超寬頻應用之系統和方法
WO2021185375A1 (zh) 一种分享数据的方法及设备
US11722847B2 (en) Method and apparatus for augmented reality service in wireless communication system
US20220124636A1 (en) Method for transmitting and receiving uplink reference signal for positioning, and device therefor
CN108055390B (zh) 基于手机屏幕颜色确定其客户端对应id的AR方法和系统
US11386632B2 (en) Augmented reality apparatus, system and method, and computer-readable storage medium
CN107995097A (zh) 一种互动ar红包的方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23854929

Country of ref document: EP

Kind code of ref document: A1