WO2023228856A1 - 仮想オブジェクトデータ選択装置 - Google Patents

仮想オブジェクトデータ選択装置 Download PDF

Info

Publication number
WO2023228856A1
WO2023228856A1 PCT/JP2023/018587 JP2023018587W WO2023228856A1 WO 2023228856 A1 WO2023228856 A1 WO 2023228856A1 JP 2023018587 W JP2023018587 W JP 2023018587W WO 2023228856 A1 WO2023228856 A1 WO 2023228856A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual object
object data
user
visible
virtual
Prior art date
Application number
PCT/JP2023/018587
Other languages
English (en)
French (fr)
Inventor
亮介 倉地
けい 石黒
文紀 新清
雅之 横尾
正臣 金内
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023228856A1 publication Critical patent/WO2023228856A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a virtual object data selection device.
  • XR Extended Reality
  • XR is a general term for AR (Augmented Reality), VR (Virtual Reality), MR (Mixed Reality), and the like.
  • a server converts object data in a specific format to object data in a common format different from the specific format.
  • the server manages VR content including object data and configuration files in a common format.
  • the content creation device creates VR content that includes common format object data and configuration files downloaded from the server.
  • the content creation device uploads the configuration file to the server.
  • the viewing device allows the viewer to virtually experience immersion in the VR content to be viewed downloaded from the server.
  • virtual object data is transmitted to an XR device in units of areas set in real space or virtual space. That is, when a user holding an XR device enters the area, virtual object data corresponding to all virtual objects placed within the area is transmitted. On the other hand, if visibility within the area is not good, the user may not necessarily see all the virtual objects within the area, and some of the virtual object data transmitted to the XP device may not be used. Further, although a huge virtual object is visible even from outside the area, transmission may not start until the user enters the area.
  • An object of the present invention is to efficiently transmit and receive virtual object data.
  • a virtual object data selection device selects a plurality of virtual objects based on first position information, first shape information, a plurality of second shape information, and a plurality of second position information.
  • a selection unit that selects at least one virtual object data from among a plurality of virtual object data in a one-to-one correspondence, the first position information indicating a user's position in real space, and the first shape information indicates the shape of a real object located in the real space, each of the plurality of second shape information indicates the shape of each virtual object, and each of the plurality of second position information indicates the shape of each virtual object located in the real space.
  • a transmission control unit that transmits the at least one virtual object data selected by the selection unit to a display device.
  • a virtual object based on virtual object data is displayed superimposed on the user's field of view in the real space, and the selection unit selects at least one virtual object that is visible from the user's position from among the plurality of virtual objects.
  • one visible object is estimated, and virtual object data corresponding to the at least one visible object is selected as the at least one virtual object data.
  • virtual object data can be efficiently transmitted and received.
  • FIG. 1 is a block diagram showing the configuration of a system 1 according to an embodiment.
  • 1 is a block diagram showing the configuration of a terminal device 10.
  • FIG. 2 is a block diagram showing the configuration of a server 20.
  • FIG. FIG. 3 is a plan view showing the positional relationship of objects in a virtual object map MP.
  • FIG. 3 is a schematic diagram showing a virtual object map MP.
  • 3 is a flowchart showing the operation of the processing device 206.
  • FIG. 1 is a block diagram showing the configuration of a system 1 according to an embodiment.
  • the system 1 includes a terminal device 10 and a server 20.
  • the terminal device 10 is an example of a display device
  • the server 20 is an example of a virtual object data selection device.
  • the terminal device 10 and the server 20 are connected via a communication network N. Note that although only one terminal device 10 is illustrated in FIG. 1, the system 1 can include any number of terminal devices 10.
  • the system 1 is a system that presents various information to a user holding a terminal device 10 using AR technology.
  • the AR technology is a technology that displays a virtual object superimposed on a real space, thereby allowing the user to view the virtual object as if it existed in the real space. That is, the terminal device 10 displays the virtual object V (see FIG. 5, etc.) based on the virtual object data VD (see FIG. 3) in a superimposed manner on the real space within the visual field of the user.
  • the virtual object is, for example, a still image, a moving image, a 3DCG model, text, or the like.
  • the terminal device 10 may output other types of information, such as audio information.
  • the terminal device 10 is, for example, a see-through head-mounted display, or a mobile information processing terminal such as a smartphone or a tablet. In this embodiment, it is assumed that the terminal device 10 is a see-through head-mounted display.
  • the server 20 stores a plurality of virtual object data VD for displaying virtual objects on the terminal device 10. Each virtual object data VD has a one-to-one correspondence with a different virtual object V.
  • the terminal device 10 receives the virtual object data VD from the server 20 and displays the virtual object V corresponding to the virtual object data VD.
  • FIG. 2 is a block diagram showing the configuration of the terminal device 10.
  • the shape of the terminal device 10 is, for example, the same shape as general eyeglasses.
  • the terminal device 10 has a left lens placed in front of the user's left eye, a right lens placed in front of the user's right eye, and a frame that supports the left lens and the right lens.
  • the frame has a bridge provided between the left lens and the right lens, and a pair of temples that extend over the left and right ears.
  • the terminal device 10 includes a projection device 101, a speaker 102, a communication device 103, a GPS device 104, a storage device 107, a processing device 108, and a bus 109.
  • Each configuration shown in FIG. 2 is stored, for example, in a frame.
  • the projection device 101, the speaker 102, the communication device 103, the GPS device 104, the storage device 107, and the processing device 108 are interconnected by a bus 109 for communicating information.
  • the bus 109 may be configured using a single bus, or may be configured using different buses for each element such as a device.
  • the projection device 101 includes left and right lenses, a display panel, and optical members.
  • the display panel and the optical member are housed in a frame, for example.
  • the display panel and the optical member may be provided in pairs on each side, corresponding to the left and right lenses.
  • the projection device 101 displays a projection image corresponding to a virtual object on a display panel based on control from the processing device 108.
  • the display panel is, for example, a liquid crystal panel or an organic EL (Electro Luminescence) panel.
  • the optical member guides the light emitted from the display panel to the left and right lenses.
  • Each of the left lens and right lens has a half mirror.
  • the half mirrors of the left lens and the right lens transmit the light representing the real space, thereby guiding the light representing the real space to the user's eyes.
  • the half mirrors included in the left lens and the right lens reflect the light representing the virtual object guided by the optical member toward the user's eyes.
  • the light from the real space that has passed through the half mirror and the light reflecting the virtual object reflected by the half mirror are superimposed and incident on the user's eyes, allowing the user to see where the virtual object is located in the real space. I perceive it as if I were there. That is, the left lens and the right lens function as a transmissive display placed in front of the eyeball.
  • the speaker 102 outputs audio.
  • the audio output by the speaker 102 is, for example, audio output accompanying a virtual object.
  • Speaker 102 is controlled by processing unit 108 .
  • the speaker 102 is placed, for example, in a frame. Alternatively, the speaker 102 may not be included in the terminal device 10 and may be separate from the terminal device 10.
  • the communication device 103 communicates with the server 20 using wireless communication or wired communication.
  • the communication device 103 includes an interface connectable to the communication network N, and communicates with the communication device 203 of the server 20 (see FIG. 3) via the communication network N.
  • the GPS device 104 receives radio waves from multiple satellites and generates position information from the received radio waves.
  • the location information indicates the location of the terminal device 10.
  • the location information may be in any format as long as the location can be specified. In this embodiment, latitude and longitude are used as location information.
  • the position information may be obtained using means other than the GPS device 104. For example, information specifying the name of the facility where the terminal device 10 is located and the location in the facility may be received by a beacon or the like provided in the facility.
  • the position of the terminal device 10 and the Posture may also be detected.
  • the position of the terminal device 10 may be detected by a VPS (Visual Positioning Service/System).
  • the terminal device 10 includes an imaging device that images the surroundings of the user, and transmits a captured image captured by the imaging device to the server 20 (or a location specifying server that identifies the location of the terminal device 10).
  • the server 20 (or location specifying server) has a map in which images of real objects arranged in real space are associated with position information of the real objects.
  • the server 20 (or location specifying server) identifies the location where the captured image was captured, that is, the location of the terminal device 10, by comparing the captured image with a map.
  • a marker indicating position information may be placed in advance in real space, and the position information may be acquired by the terminal device 10 detecting the marker from a captured image captured by an imaging device.
  • the storage device 107 is a recording medium that can be read by the processing device 108.
  • the storage device 107 includes, for example, nonvolatile memory and volatile memory. Examples of nonvolatile memories include ROM (Read Only Memory), EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Memory). Programmable Read Only Memory).
  • the volatile memory is, for example, RAM (Random Access Memory).
  • Storage device 107 stores program PG1.
  • the program PG1 is a program for operating the terminal device 10.
  • the processing device 108 includes one or more CPUs (Central Processing Units).
  • CPUs Central Processing Units
  • One or more CPUs are an example of one or more processors.
  • a processor and a CPU are each an example of a computer.
  • the processing device 108 reads the program PG1 from the storage device 107.
  • the processing device 108 functions as the operation control unit 110 by executing the program PG1.
  • the operation control unit 110 includes a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), and a PLD (Programmable Logic). It may be configured by a circuit such as an FPGA (Field Programmable Gate Array) or an FPGA (Field Programmable Gate Array).
  • the operation control unit 110 controls the operation of the terminal device 10.
  • the operation control unit 110 causes the communication device 103 to control the projection device 101 based on the virtual object data VD from the server 20, and causes the virtual object to be displayed superimposed on the real space.
  • the terminal device 10 when the terminal device 10 is a portable information processing terminal such as a smartphone or a tablet, the terminal device 10 includes, for example, an imaging device and a display instead of the projection device 101.
  • the terminal device 10 displays the captured image captured by the imaging device on the display, and displays the virtual object V corresponding to the virtual object data VD acquired from the server 20 in a superimposed manner on the captured image displayed on the display.
  • FIG. 3 is a block diagram showing the configuration of the server 20.
  • Server 20 includes a communication device 203, a storage device 205, a processing device 206, and a bus 207.
  • the communication device 203, the storage device 205, and the processing device 206 are interconnected by a bus 207 for communicating information.
  • the bus 207 may be configured using a single bus, or may be configured using different buses for each device.
  • the communication device 203 communicates with the terminal device 10 using wireless communication or wired communication.
  • the communication device 203 includes an interface connectable to the communication network N, and communicates with the terminal device 10 via the communication network N.
  • the storage device 205 is a recording medium that can be read by the processing device 206.
  • Storage device 205 includes, for example, nonvolatile memory and volatile memory.
  • Non-volatile memories are, for example, ROM, EPROM and EEPROM.
  • Volatile memory is, for example, RAM.
  • the storage device 205 stores a program PG2, a plurality of virtual object data VD (VD to VDn), and a virtual object map MP.
  • the program PG2 is a program for operating the server 20.
  • the virtual object data VD is data for outputting a virtual object on the terminal device 10.
  • Each of the plurality of virtual object data VD corresponds to a different virtual object. That is, the plurality of virtual object data VD corresponds to the plurality of virtual objects V on a one-to-one basis.
  • the virtual object data VD corresponding to the virtual object Vn will be referred to as virtual object data VDn as necessary.
  • virtual object data VD corresponding to virtual object V1 is virtual object data VD1.
  • the virtual object map MP is data indicating the arrangement of virtual objects V in real space. Details of the virtual object map MP will be described later.
  • the processing device 206 includes one or more CPUs.
  • One or more CPUs are an example of one or more processors.
  • a processor and a CPU are each an example of a computer.
  • the processing device 206 reads the program PG2 from the storage device 205.
  • the processing device 206 functions as an acquisition section 210, a selection section 212, a determination section 214, and a transmission control section 216 by executing the program PG3.
  • At least a portion of the acquisition section 210, the selection section 212, the determination section 214, and the transmission control section 216 may be configured by a circuit such as a DSP, an ASIC, a PLD, and an FPGA.
  • FIG. 5 is a schematic diagram showing the virtual object map MP
  • FIG. 4 is a plan view showing the positional relationship of objects in the virtual object map MP.
  • FIG. 5 is a diagram viewed from the point P shown in FIG. 4 in the direction indicated by the arrow D on the three-dimensional virtual object map MP. In FIGS. 4 and 5, the virtual object V is shown shaded.
  • the virtual object map MP includes first shape information, multiple pieces of second shape information, and multiple pieces of second position information.
  • the first shape information indicates the shape of a real object located in real space.
  • Each of the plurality of pieces of second shape information indicates the shape of each of the plurality of virtual objects V1 to Vn.
  • Each piece of second position information indicates a position in real space where each of the plurality of virtual objects V1 to Vn is placed.
  • buildings B1 to B4, trees T1 to T3, and a road S which are examples of real objects located in real space, are shown in three dimensions.
  • FIG. 5 shows three-dimensionally virtual objects V1, V3, and V6 that are virtually arranged in the real space and superimposed on the real objects.
  • the first shape information is obtained, for example, by three-dimensionally scanning the real space in advance. Further, the second shape information and the second position information are obtained from the virtual object data VD. Note that the virtual object map MP does not necessarily include all of the first shape information, second shape information, and second position information; for example, these pieces of information stored separately may be read each time to create a map as shown in FIG. A three-dimensional map may also be formed.
  • virtual objects V1 to V7 are arranged around point P, but when looking in the direction indicated by arrow D from point P, only virtual objects V1, V3, and V6 are visible. can.
  • the virtual object V2 is hidden by the tree T2 and cannot be seen.
  • the virtual object V4 is placed inside the building B1 and is therefore not visible.
  • the virtual object V5 is located in an area opposite to the direction indicated by the arrow D with respect to the point P, and is therefore not visible.
  • the virtual object V7 is located in an area opposite to the direction indicated by the arrow D with respect to the point P, and is in the shadow of the tree T5, so it is not visible.
  • the acquisition unit 210 acquires first position information indicating the user's position in real space.
  • the acquisition unit 210 acquires the position information generated by the GPS device 104 (see FIG. 2) as the first position information.
  • the selection unit 212 selects at least one of the plurality of virtual object data VD1 to VDn based on the first position information, the first shape information, the plurality of second shape information, and the plurality of second position information. Select virtual object data VD.
  • the virtual object data VD selected by the selection unit 212 is virtual object data VD to be transmitted to the terminal device 10 via the transmission control unit 216, which will be described later.
  • the virtual object data VD selected by the selection unit 212 may be referred to as "selected object data.”
  • the selection unit 212 estimates at least one visible object visible from the user's position from among the plurality of virtual objects V1 to Vn, and selects at least one virtual object data VD corresponding to the at least one visible object. Select as object data.
  • the virtual object map MP includes first shape information, multiple pieces of second shape information, and multiple pieces of second position information.
  • the selection unit 212 estimates how the real space and the virtual object V appear at the user's position based on the virtual object map MP and the first position information acquired by the acquisition unit 210.
  • a virtual object visible from the user's position becomes a visible object. For example, if the user's position is point P shown in FIG.
  • the selection unit 212 estimates that the visible objects are virtual objects V1, V3, and V6. In this case, the selection unit 212 selects the virtual object data VD1, VD3, and VD6 as the selected object data.
  • the selection unit 212 may estimate the user's movement direction based on the change in the first position information over time, and may estimate that the user's face is facing the movement direction. Furthermore, if the direction of the face is unknown, visible objects may be estimated from the user's position all the way around. For example, if the user's position is point P shown in FIG. 4 and the direction the user is facing is unknown, the selection unit 212 estimates that the visible objects are virtual objects V1, V3, V5, and V6. In this case, the selection unit 212 selects virtual object data VD1, VD3, VD5, and VD6 as selected object data.
  • the visible object is a virtual object V that is visible to the user at the present moment, but the selection unit 212 is a virtual object that will be visible to the user in the near future (for example, several seconds, tens of seconds, or several minutes).
  • the virtual object V may be predicted. That is, the selection unit 212 estimates the user's position after a predetermined time based on at least one of the user's moving direction and the user's moving speed. The selection unit 212 estimates at least one predicted visible object that is visible from the user's position after the estimated predetermined time from among the plurality of virtual objects V1 to Vn, and selects a virtual object corresponding to the at least one predicted visible object. Data VD is selected as selected object data. In this case, the transmission control unit 216, which will be described later, transmits virtual object data VD (selected object data) corresponding to the predicted visible object to the terminal device 10.
  • VD selected object data
  • the selection unit 212 estimates that the predicted visible object is the virtual object V2, and selects the virtual object data VD2 as the selected object data.
  • the terminal device 10 can smoothly display the virtual objects V. can be displayed. Further, even when the amount of selected object data is large, for example, the data transmission time can be secured, so that display delays or display defects of the virtual object V are less likely to occur. Therefore, the quality of the user's visual experience using the terminal device 10 can be improved.
  • the user's movement direction can be estimated based on the direction of change over time in the user's position indicated by the first position information, as described above.
  • the user's moving speed may be estimated based on the displacement per unit time of the user's position indicated by the first position information.
  • the user's moving direction and moving speed can be estimated more accurately by using the first shape information. For example, if the user is located in an aisle, it can be predicted that the user's movement direction is likely to be along the aisle. Furthermore, it is predicted that the moving speed will be lower in locations with elevation differences, such as stairs or slopes, compared to flat locations. Therefore, the selection unit 212 may use the first shape information in addition to the first position information to predict the user's moving direction and moving speed.
  • the determining unit 214 determines the transmission order of the plurality of virtual object data VD when the selection unit 212 selects the plurality of virtual object data VD (when there is a plurality of selected object data).
  • the determining unit 214 determines the transmission order of the plurality of virtual object data VD, for example, using any of the following methods [1] to [3].
  • the transmission order of the plurality of virtual object data VD may be, for example, the order in which transmission of each virtual object data VD is started.
  • the transmission of the virtual object data VD whose transmission is started later may be completed earlier than the virtual object data VD whose transmission is started first.
  • the determining unit 214 determines to transmit the plurality of virtual object data VD in order from the virtual object data VD of the virtual object V whose position in the real space is closest to the user's position.
  • the visible objects are virtual object data VD1, VD3, and VD6 as shown in FIG. 5.
  • the determining unit 214 determines to transmit the virtual object data VD1, VD3, and VD6 to the terminal device 10 in this order. According to the method [1], it is possible to more reliably transmit the virtual object data VD of the virtual object V to which the user tends to pay attention.
  • [2] Transmit the virtual objects V in order from the highest priority If a priority is set for each virtual object V, by transmitting the virtual object data VD in the order of the highest priority, the virtual object V with the highest priority can be reliably displayed on the terminal device 10. That is, in [2], when a priority is set for each of the plurality of virtual objects V, the determining unit 214 selects the plurality of virtual object data VD in order from the virtual object data VD of the virtual object V with the highest priority. Decide to send.
  • the virtual objects V1 to V7 are arranged in order of priority: virtual objects V7, V6, V5, V4, V3, V2, and V1.
  • the visible objects are virtual objects V1, V3, and V6 as shown in FIG. 5.
  • the determining unit 214 determines to transmit the virtual object data VD6, VD3, and VD1 to the terminal device 10 in this order. According to the method [2], the virtual object data VD of the virtual object V having a high priority can be transmitted more reliably.
  • the priority order is set by, for example, an administrator who manages the virtual object V.
  • the priority order may be set according to the advertising fee. Specifically, the higher the advertising fee for the virtual object V, the higher the priority may be given.
  • the determining unit 214 estimates the proportion of the visual field of the user that each of the plurality of visible objects displayed by the terminal device 10 occupies, and determines which of the plurality of visible objects has a high proportion of the visual field. It is determined that the virtual object data VD will be transmitted in order.
  • the determining unit 214 determines to transmit the virtual object data VD5, VD1, and VD3 to the terminal device 10 in this order. According to the method [3], it is possible to more reliably transmit the virtual object data VD of the virtual object V that occupies a high proportion of the user's visual field and to which the user tends to pay attention.
  • Virtual object data VD with a large amount of data may take time to complete transmission.
  • the determining unit 214 determines to transmit the plurality of virtual object data VD in order from the one having the largest amount of data.
  • the virtual objects are V6, V5, V4, V2, V1, V3, and V7.
  • the visible objects are virtual objects V1, V3, and V6.
  • the determining unit 214 determines to transmit the virtual object data VD6, VD1, and VD3 to the terminal device 10 in this order. According to the method [4], virtual object data VD having a large amount of data can be transmitted more reliably.
  • the transmission control unit 216 transmits the virtual object data VD to the terminal device 10. More specifically, the transmission control unit 216 controls the communication device 203 to select at least one virtual object data VD selected by the selection unit 213 from among the plurality of virtual object data VD stored in the storage device 205. It is transmitted to the terminal device 10. Furthermore, when a plurality of virtual object data VD are selected by the selection section 213, the transmission control section 216 transmits the plurality of virtual object data VD in the order determined by the determination section 214.
  • the virtual object data VD transmitted by the transmission control unit 216 is received by the terminal device 10.
  • the terminal device 10 uses the projection device 101 to display a virtual object V corresponding to at least one virtual object data VD so as to be superimposed on the user's visual field in the real space. The user perceives the virtual object V as if it actually exists in the surrounding real space.
  • FIG. 6 is a flowchart showing the operation of processing device 206.
  • the processing device 206 repeats the processing of FIG. 6 at predetermined processing intervals.
  • the processing device 206 functions as the acquisition unit 210 and receives the first location information from the terminal device 10 (step S101).
  • the processing device 206 functions as the determining unit 214, maps the position indicated by the first position information on the virtual object map MP, and estimates the visible object (step S102). At this time, the processing device 206 may estimate the user's moving direction and moving speed based on the first position information, and may estimate the predicted visible object.
  • step S103: NO the processing device 206 determines whether there is a new visible object. If there are multiple new visible objects (step S104: YES), the processing device 206 functions as the determining unit 214, and determines the transmission order of the virtual object data VD using, for example, any of the methods [1] to [4] above. Determine (step S105). If there are not a plurality of new visible objects (step S104: NO), the processing device 206 advances the process to step S106.
  • the processing device 206 functions as the transmission control unit 216 and transmits the virtual object data VD of the new visible object to the terminal device 10 (step S106). If there are a plurality of new visible objects, the processing device 206 transmits the plurality of virtual object data VD in the transmission order determined in step S105. After that, the processing device 206 returns the process to step S101.
  • the server 20 stores the user's position in the real space, the shape of the real object located in the real space, the shape of each of the plurality of virtual objects V, Based on the arrangement of each of the plurality of virtual objects V in the real space, a visible object that is a virtual object V that is visible to the user is estimated, and virtual object data VD of the visible object is transmitted to the terminal device 10. Therefore, compared to transmitting the virtual object data VD within an area all at once as in the prior art, unnecessary data transmission and reception is reduced. More specifically, the server 20 avoids transmitting virtual object data VD corresponding to virtual objects V that cannot be visually recognized by the user.
  • the processing load on the server 20 and the terminal device 10 can be reduced, and communication resources can be effectively utilized. Furthermore, the virtual object data VD is also transmitted at an appropriate timing even for a huge virtual object V, such as the virtual object V6, which is located at a distance from the user.
  • the server 20 estimates a predicted visible object that is at least one virtual object that is visible from the user's position after a predetermined time, and transmits virtual object data VD corresponding to the predicted visible object to the terminal device 10.
  • the terminal device 10 can smoothly display the virtual objects V.
  • the amount of virtual object data VD is large, for example, the data transmission time can be secured, so that display delays or display defects of the virtual object V are less likely to occur. Therefore, the quality of the user's visual experience using the terminal device 10 can be improved.
  • the server 20 transmits the plurality of virtual object data VD in order from the virtual object data VD of the virtual object V whose position in real space is closest to the user's position. Send. Therefore, the virtual object data VD of the virtual object V to which the user tends to pay attention can be transmitted more reliably.
  • the server 20 transmits the plurality of virtual object data VD in order from the virtual object data VD of the virtual object V with the highest priority, for example. Therefore, the virtual object data VD of the virtual object V having a high priority can be transmitted more reliably.
  • the server 20 when transmitting the plurality of virtual object data VD, the server 20 sends the plurality of virtual object data VD in order from the virtual object V in which the visible object displayed on the terminal device 10 occupies a high proportion of the user's field of view. Send. It is possible to more reliably transmit the virtual object data VD of the virtual object V that occupies a high proportion of the user's visual field and to which the user tends to pay attention.
  • the server 20 decides, for example, to transmit the plurality of virtual object data VDs in order from the virtual object data VD with the largest amount of data. Therefore, virtual object data VD having a large amount of data can be transmitted more reliably.
  • the terminal device 10 was configured only with a glasses-type terminal device.
  • the terminal device 10 is not limited to this, and may include a glasses-type terminal device and a portable terminal device such as a smartphone, a tablet terminal, or a notebook computer.
  • the eyeglass-type terminal device and the portable terminal device are connected to each other.
  • the terminal device 10 includes a portable terminal device, part or all of the functions of the operation control unit 110 may be performed by the portable terminal device.
  • each functional block may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g. , wired, wireless, etc.) and may be realized using a plurality of these devices.
  • the functional block may be realized by combining software with the one device or the plurality of devices.
  • Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, exploration, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, consideration, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, as (signing), but these are limited to I can't do it.
  • a functional block (configuration unit) that performs transmission is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.
  • information notification may be performed using physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented using broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof.
  • RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • SUPER 3G IMT-Advanced
  • 4G 4th generation mobile
  • 5G 5th generation mobile communication system
  • 6G 6th generation mobile communication system
  • xG xth generation on mobile communication system
  • FRA Full Radio Access
  • NR new Radio
  • NX New radio access
  • Future generation radio access FX
  • W-CDMA registered trademark
  • GSM registered trademark
  • CDMA2000 Code Division Multiple Access
  • UMB User Mobile Broad band
  • IEEE 802.11 Wi-Fi (registered trademark)
  • IEEE 802.16 WiMAX (registered trademark)
  • IEEE 802.20 UWB (Ultra-Wide Band
  • Bluetooth registered trademark
  • the specific operations performed by the base station may be performed by its upper node in some cases.
  • various operations performed for communication with a terminal are performed by the base station and other network nodes other than the base station (e.g., MME or It is clear that this could be done by at least one of the following: (conceivable, but not limited to) S-GW, etc.).
  • MME mobile phone
  • S-GW network node
  • Information, etc. can be output from the upper layer (or lower layer) to the lower layer (or upper layer).
  • Information etc. may be input/output via multiple network nodes.
  • Input/output information, etc. may be stored in a specific location (eg, memory) or may be managed using a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
  • Judgment may be performed using a value expressed by 1 bit (0 or 1), a truth value (Boolean: true or false), or a comparison of numerical values. (For example, comparison with a predetermined value).
  • Software includes instructions, instruction sets, codes, code segments, program codes, programs, software, firmware, middleware, microcode, hardware description languages, or other names. Should be construed broadly to mean a subprogram, software module, application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc. Additionally, software, instructions, information, etc. may be sent and received via a transmission medium.
  • the software may use wired (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and/or wireless technologies (infrared, microwave, etc.) to access a website, When transmitted from a server or other remote source, these wired and/or wireless technologies are included within the definition of transmission medium.
  • the information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. which may be referred to throughout the above description, may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may also be represented by a combination of Note that terms explained in this disclosure and terms necessary for understanding this disclosure may be replaced with terms having the same or similar meanings.
  • at least one of the channel and the symbol may be a signal.
  • the signal may be a message.
  • a component carrier (CC) may be called a carrier frequency, a cell, a frequency carrier, or the like.
  • the information, parameters, etc. described in this disclosure may be expressed using absolute values, relative values from a predetermined value, or corresponding It may be expressed using the information of .
  • radio resources may be indicated by an index.
  • the names used for the parameters described above are not restrictive in any respect.
  • the mathematical formulas etc. using these parameters may differ from those explicitly disclosed in this disclosure. Since the various channels (e.g. PUCCH, PDCCH, etc.) and information elements may be identified by any suitable designation, the various names assigned to these various channels and information elements are in no way exclusive designations. isn't it.
  • Base Station (BS),” “wireless base station,” “fixed station,” “NodeB,” “eNodeB (eNB),” and “gNodeB ( gNB)", “access point”, “transmission point”, “reception point”, “transmission/reception point”, “cell”, “se Kuta”, “ Terms such as “cell group”, “carrier”, “component carrier”, etc. may be used interchangeably.
  • a base station is sometimes referred to by terms such as macrocell, small cell, femtocell, and picocell.
  • a base station can accommodate one or more (eg, three) cells.
  • the overall coverage area of the base station can be partitioned into multiple smaller areas, and each smaller area is divided into multiple subsystems (e.g., small indoor base stations (RRHs)). Communication services may also be provided by a remote radio head).
  • RRHs small indoor base stations
  • Communication services may also be provided by a remote radio head).
  • the term "cell” or “sector” refers to a portion or the entire coverage area of a base station and/or base station subsystem that provides communication services in this coverage.
  • the base station transmitting information to the terminal may be read as the base station instructing the terminal to control/operate based on the information.
  • mobile station MS
  • user terminal user equipment
  • terminal terminal
  • a mobile station is defined by a person skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable terminology.
  • At least one of the base station and the mobile station may be called a transmitting device, receiving device, communication device, etc.
  • the base station and the mobile station may be a device mounted on a mobile body, the mobile body itself, or the like.
  • the moving body refers to a movable object, and the moving speed is arbitrary. Naturally, this also includes cases where the moving object is stopped.
  • the mobile object is, for example, a vehicle, a transport vehicle, an automobile, a motorcycle, a bicycle, a connected car, an excavator, a bulldozer, a wheel loader, a dump truck, a forklift, a train, a bus, a cart, a rickshaw, a ship and other watercraft.
  • the mobile object may be a mobile object that autonomously travels based on a travel command. It may be a vehicle (e.g. car, airplane, etc.), an unmanned moving object (e.g. drone, self-driving car, etc.), or a robot (manned or unmanned). good.
  • the base station and the mobile station includes devices that do not necessarily move during communication operations.
  • at least one of the base station and the mobile station may be an IoT (Internet of Things) device such as a sensor.
  • IoT Internet of Things
  • the base station in the present disclosure may be replaced by a user terminal.
  • communication between a base station and a user terminal is replaced with communication between multiple user terminals (for example, it may be called D2D (Device-to-Device), V2X (Vehicle-to-Everything), etc.).
  • D2D Device-to-Device
  • V2X Vehicle-to-Everything
  • each aspect/embodiment of the present disclosure may be applied.
  • a configuration may be adopted in which the user terminal has the functions that the above-described base station has.
  • words such as "up” and “down” may be replaced with words corresponding to inter-terminal communication (for example, "side”).
  • uplink channels, downlink channels, etc. may be replaced with side channels.
  • the user terminal in the present disclosure may be replaced by a base station.
  • the base station may have the functions that the user terminal described above has.
  • determining and “determining” used in the present disclosure may encompass a wide variety of operations.
  • "Judgment” and “decision” include, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, in query) (e.g., a search in a table, database, or other data structure), and assuming that an assertion has been made is a “judgment” or “decision.”
  • judgment and “decision” refer to receiving (e.g., receiving information), transmitting (e.g., sending information), input, output, and access.
  • (accessing) may include regarding the act as a "judgment” or “decision.”
  • judgment and “decision” mean that things such as resolving, selecting, choosing, establishing, and comparing are considered to be “judgment” and “decision.” may be included.
  • judgment and “decision” may include regarding some action as having been “judged” or “determined.”
  • judgment (decision) may be read as “assuming", “expecting”, “considering”, etc.
  • connection refers to any direct or indirect connection or coupling between two or more elements.
  • the bonds or connections between elements may be physical, logical, or a combination thereof.
  • connection may be replaced with "access.”
  • two elements may include one or more electrical wires, cables, and/or printed electrical connections, as well as in the radio frequency domain, as some non-limiting and non-inclusive examples. , electromagnetic energy having wavelengths in the microwave and optical (both visible and non-visible) ranges.
  • the reference signal can also be abbreviated as RS (Reference Signal), and may be called a pilot depending on the applied standard.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

選択部は、第1位置情報と、第1形状情報と、複数の第2形状情報と、複数の第2位置情報とに基づいて、複数の仮想オブジェクトデータの中から少なくとも1つの仮想オブジェクトデータを選択する。第1位置情報は、現実空間におけるユーザの位置を示す。第1形状情報は、現実空間に位置する現実オブジェクトの形状を示す。複数の第2形状情報の各々は、各仮想オブジェクトの形状を示す。複数の第2位置情報の各々は、各仮想オブジェクトが配置される現実空間の位置を示す。送信制御部は、仮想オブジェクトデータを表示装置に送信する。選択部は、ユーザの位置から視認可能な少なくとも1つの視認オブジェクトを推定し、少なくとも1つの視認オブジェクトに対応する仮想オブジェクトデータを少なくとも1つの仮想オブジェクトデータとして選択する。

Description

仮想オブジェクトデータ選択装置
 本発明は、仮想オブジェクトデータ選択装置に関する。
 近年、XR(Extended Reality)技術が普及している。XRは、AR(Augmented Reality)、VR(virtual reality)およびMR(Mixed Reality)等の総称である。例えば、下記特許文献1に記載のVRコンテンツ管理システムにおいて、サーバは、特定フォーマットのオブジェクトデータを、特定フォーマットとは異なる共通フォーマットのオブジェクトデータに変換する。サーバは、共通フォーマットのオブジェクトデータと設定ファイルとを含むVRコンテンツを管理する。コンテンツ作成装置は、サーバからダウンロードされた共通フォーマットのオブジェクトデータおよび設定ファイルを含むVRコンテンツを作成する。コンテンツ作成装置は、設定ファイルをサーバにアップロードする。視聴装置は、サーバからダウンロードされた視聴対象のVRコンテンツへの没入を仮想的に視聴者に体験させる。
特開2019-168934号公報
 一般に、XRデバイスへの仮想オブジェクトデータの送信は、現実空間または仮想空間に設定されたエリア単位で行われる。すなわち、XRデバイスを保持したユーザが上記エリア内に進入した場合には、エリア内に配置された全ての仮想オブジェクトに対応する仮想オブジェクトデータが送信される。一方で、エリア内の見通しが良好ではない場合は、ユーザがエリア内の仮想オブジェクトを全て視認するとは限らず、XPデバイスに送信された仮想オブジェクトデータの一部が利用されない場合もある。また、巨大な仮想オブジェクトは、エリア外からも視認可能にもかかわらず、ユーザがエリア内に進入するまで送信が開始されない場合がある。
 本発明の目的は、仮想オブジェクトデータの送受信を効率的に行うことにある。
 本発明の一態様に係る仮想オブジェクトデータ選択装置は、第1位置情報と、第1形状情報と、複数の第2形状情報と、複数の第2位置情報とに基づいて、複数の仮想オブジェクトと1対1に対応する複数の仮想オブジェクトデータの中から少なくとも1つの仮想オブジェクトデータを選択する選択部であって、前記第1位置情報は、現実空間におけるユーザの位置を示し、前記第1形状情報は、前記現実空間に位置する現実オブジェクトの形状を示し、前記複数の第2形状情報の各々は、各仮想オブジェクトの形状を示し、前記複数の第2位置情報の各々は、各仮想オブジェクトが配置される現実空間の位置を示す、選択部と、前記選択部によって選択された前記少なくとも1つの仮想オブジェクトデータを表示装置に送信する送信制御部と、を備え、前記表示装置は、前記少なくとも1つの仮想オブジェクトデータに基づく仮想オブジェクトを、前記現実空間のうち前記ユーザの視野範囲に重畳して表示し、前記選択部は、前記複数の仮想オブジェクトの中から、前記ユーザの位置から視認可能な少なくとも1つの視認オブジェクトを推定し、前記少なくとも1つの視認オブジェクトに対応する仮想オブジェクトデータを前記少なくとも1つの仮想オブジェクトデータとして選択する。
 本発明の一態様によれば、仮想オブジェクトデータの送受信を効率的に行うことができる。
実施形態に係るシステム1の構成を示すブロック図である。 端末装置10の構成を示すブロック図である。 サーバ20の構成を示すブロック図である。 仮想オブジェクトマップMPにおけるオブジェクトの位置関係を示す平面図である。 仮想オブジェクトマップMPを示す模式図である。 処理装置206の動作を示すフローチャートである。
A.実施形態
A-1.システム構成
 図1は、実施形態に係るシステム1の構成を示すブロック図である。システム1は、端末装置10と、サーバ20とを備える。端末装置10は表示装置の一例であり、サーバ20は仮想オブジェクトデータ選択装置の一例である。端末装置10と、サーバ20とは、通信網Nを介して接続されている。なお、図1では、端末装置10を1台のみ図示しているが、システム1は、任意の台数の端末装置10を備えることが可能である。
 本実施形態において、システム1は、端末装置10を保持するユーザに対して、AR技術を利用して各種情報を提示するシステムである。ここで、AR技術とは、現実空間に仮想オブジェクトを重ね合わせて表示することで、仮想オブジェクトが現実空間に存在するかのようにユーザに視認させる技術である。すなわち、端末装置10は、仮想オブジェクトデータVD(図3参照)に基づく仮想オブジェクトV(図5等参照)をユーザの視野範囲の現実空間に重畳して表示する。仮想オブジェクトは、例えば静止画像、動画、3DCGモデル、およびテキスト等である。なお、端末装置10は、仮想オブジェクトVを表示する際に、例えば音声情報等の他の種類の情報を出力してもよい。
 端末装置10は、例えばシースルー型のヘッドマウントディスプレイ、またはスマートフォン、タブレット等の携帯情報処理端末である。本実施形態では、端末装置10が、シースルー型のヘッドマウントディスプレイであるものとする。サーバ20は、端末装置10で仮想オブジェクトを表示するための複数の仮想オブジェクトデータVDを記憶する。各仮想オブジェクトデータVDは、それぞれ異なる仮想オブジェクトVと1対1に対応している。端末装置10は、サーバ20から仮想オブジェクトデータVDを受信し、仮想オブジェクトデータVDに対応する仮想オブジェクトVを表示する。
A-2.端末装置10
 図2は、端末装置10の構成を示すブロック図である。端末装置10の形状は、例えば一般的な眼鏡と同様の形状である。端末装置10は、ユーザの左眼の前方に配置される左レンズと、ユーザの右眼の前方に配置される右レンズと、左レンズおよび右レンズを支持するフレームを有する。フレームは、左レンズと右レンズとの間に設けられたブリッジ、および左右の耳にかかる一対のテンプルを有する。
 端末装置10は、投影装置101と、スピーカ102と、通信装置103と、GPS装置104と、記憶装置107と、処理装置108と、バス109とを備える。図2に示す各構成は、例えばフレームに格納されている。投影装置101と、スピーカ102と、通信装置103と、GPS装置104と、記憶装置107と、処理装置108とは、情報を通信するためのバス109によって相互に接続される。バス109は、単一のバスを用いて構成されてもよいし、装置等の要素間ごとに異なるバスを用いて構成されてもよい。
 投影装置101は、左右のレンズ、表示パネルおよび光学部材を含む。表示パネルおよび光学部材は、例えばフレームに収容されている。表示パネルおよび光学部材は、左右のレンズに対応して、左右1対ずつ設けられてもよい。投影装置101は、処理装置108からの制御に基づいて、仮想オブジェクトに対応する投射画像を表示パネルに表示する。表示パネルは、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルである。光学部材は、表示パネルから射出された光を左右のレンズに導光する。
 左レンズと右レンズの各々は、ハーフミラーを有する。左レンズと右レンズが有するハーフミラーは、現実空間を表す光を透過させることによって、現実空間を表す光をユーザの目に導く。また、左レンズと右レンズが有するハーフミラーは、光学部材によって導光された仮想オブジェクトを示す光をユーザの目に向けて反射する。ハーフミラーを透過した現実空間の光と、ハーフミラーによって反射された仮想オブジェクトを示す光とが重畳してユーザの目に入射されることによって、ユーザは、現実空間上に仮想オブジェクトが位置しているように知覚する。すなわち、左レンズと右レンズは、眼球の前面に配置される透過型のディスプレイとして機能する。
 スピーカ102は、音声を出力する。スピーカ102が出力する音声は、例えば仮想オブジェクトに付随して出力される音声等である。スピーカ102は、処理装置108によって制御される。スピーカ102は、例えばフレームに配置される。または、スピーカ102は、端末装置10に含まれずに、端末装置10とは別体でもよい。
 通信装置103は、無線通信または有線通信を用いてサーバ20と通信する。本実施形態において、通信装置103は、通信網Nに接続可能なインターフェースを備え、通信網Nを介してサーバ20の通信装置203(図3参照)と通信する。
 GPS装置104は、複数の衛星からの電波を受信し、受信した電波から位置情報を生成する。位置情報は、端末装置10の位置を示す。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。本実施形態では、位置情報として緯度および経度が用いられる。なお、位置情報はGPS装置104以外の手段を用いて得られてもよい。例えば、施設に設けられたビーコン等によって、端末装置10が位置する施設名および施設における位置を特定する情報を受信してもよい。
 なお、GPS装置104に代えて、または、GPS装置104に加えて、地磁気センサ、加速度センサ、角加速度センサ、または慣性計測装置(IMU: Inertial Measurement Unit)等のセンサ類によって端末装置10の位置および姿勢が検出されてもよい。
 また、GPS装置104に代えて、または、GPS装置104に加えて、VPS(Visual Positioning Service/System)により端末装置10の位置が検出されてもよい。この場合、端末装置10は、ユーザの周囲を撮像する撮像装置を有し、撮像装置で撮像した撮像画像をサーバ20(または端末装置10の位置を特定する位置特定サーバ)に送信する。サーバ20(または位置特定サーバ)は、現実空間に配置された現実オブジェクトを写した画像と現実オブジェクトの位置情報とが対応付けられたマップを有する。サーバ20(または位置特定サーバ)は、撮影画像とマップとを照合して、撮影画像が撮影された位置、すなわち端末装置10の位置を特定する。
 または、例えば予め現実空間に位置情報を示すマーカーを配置しておき、端末装置10が撮像装置で撮像した撮影画像からマーカーを検出することで位置情報が取得されてもよい。
 記憶装置107は、処理装置108が読み取り可能な記録媒体である。記憶装置107は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置107は、プログラムPG1を記憶する。プログラムPG1は、端末装置10を動作させるためのプログラムである。
 処理装置108は、1または複数のCPU(Central Processing Unit)を含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
 処理装置108は、記憶装置107からプログラムPG1を読み取る。処理装置108は、プログラムPG1を実行することによって、動作制御部110として機能する。動作制御部110は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。
 動作制御部110は、端末装置10の動作を制御する。例えば、動作制御部110は、通信装置103がサーバ20から仮想オブジェクトデータVDに基づいて投影装置101を制御し、現実空間に重畳して仮想オブジェクトを表示させる。
 なお、端末装置10がスマートフォンまたはタブレット等の携帯情報処理端末である場合、端末装置10は、投影装置101に代えて、例えば撮像装置とディスプレイとを備える。端末装置10は、撮像装置で撮像した撮像画像をディスプレイに表示し、サーバ20から取得した仮想オブジェクトデータVDに対応する仮想オブジェクトVを、ディスプレイに表示された撮像画像と重畳して表示する。
A-3.サーバ20
 図3は、サーバ20の構成を示すブロック図である。サーバ20は、通信装置203と、記憶装置205と、処理装置206と、バス207とを含む。通信装置203と、記憶装置205と、処理装置206とは、情報を通信するためのバス207によって相互に接続される。バス207は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 通信装置203は、無線通信または有線通信を用いて端末装置10と通信する。本実施形態において、通信装置203は、通信網Nに接続可能なインターフェースを備え、通信網Nを介して端末装置10と通信する。
 記憶装置205は、処理装置206が読み取り可能な記録媒体である。記憶装置205は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM、EPROMおよびEEPROMである。揮発性メモリーは、例えば、RAMである。記憶装置205は、プログラムPG2と、複数の仮想オブジェクトデータVD(VD~VDn)と、仮想オブジェクトマップMPとを記憶する。
 プログラムPG2は、サーバ20を動作させるためのプログラムである。仮想オブジェクトデータVDは、端末装置10で仮想オブジェクトを出力するためのデータである。複数の仮想オブジェクトデータVDは、それぞれ異なる仮想オブジェクトに対応する。すなわち、複数の仮想オブジェクトデータVDは、複数の仮想オブジェクトVと1対1に対応する。以下、必要に応じて、仮想オブジェクトVnに対応する仮想オブジェクトデータVDを仮想オブジェクトデータVDnと表記する。例えば、仮想オブジェクトV1に対応する仮想オブジェクトデータVDは仮想オブジェクトデータVD1である。仮想オブジェクトマップMPは、現実空間における仮想オブジェクトVの配置を示すデータである。仮想オブジェクトマップMPの詳細は後述する。
 処理装置206は、1または複数のCPUを含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
 処理装置206は、記憶装置205からプログラムPG2を読み取る。処理装置206は、プログラムPG3を実行することによって、取得部210、選択部212、決定部214および送信制御部216として機能する。取得部210、選択部212、決定部214および送信制御部216の少なくとも一部は、DSP、ASIC、PLDおよびFPGA等の回路によって構成されてもよい。
A-4.処理装置206の詳細
 つぎに、処理装置206がプログラムPG2を実行することで実現する、取得部210、選択部212、決定部214および送信制御部216の詳細について説明する。説明に先立って、記憶装置205に記憶された仮想オブジェクトマップMPの詳細について説明する。
 図5は、仮想オブジェクトマップMPを示す模式図であり、図4は、仮想オブジェクトマップMPにおけるオブジェクトの位置関係を示す平面図である。図5は、3次元の仮想オブジェクトマップMP上で図4に示す地点Pから矢印Dが示す方向を見た図である。図4および図5において、仮想オブジェクトVが網掛けで示される。
 仮想オブジェクトマップMPには、第1形状情報と、複数の第2形状情報と、複数の第2位置情報とが含まれる。第1形状情報は、現実空間に位置する現実オブジェクトの形状を示す。複数の第2形状情報の各々は、複数の仮想オブジェクトV1~Vnの各々の形状を示す。複数の第2位置情報の各々は、複数の仮想オブジェクトV1~Vnの各々が配置される現実空間の位置を示す。例えば図5には、現実空間に位置する現実オブジェクトの一例である、建物B1~B4、樹木T1~T3、道路S等が3次元で示される。また、図5には、現実オブジェクトと重畳して、現実空間に仮想的に配置された仮想オブジェクトV1,V3,V6が3次元で示される。
 第1形状情報は、例えば予め現実空間を3次元スキャンすることで得られる。また、第2形状情報および第2位置情報は、仮想オブジェクトデータVDから得られる。なお、仮想オブジェクトマップMPに、第1形状情報、第2形状情報および第2位置情報が全て含まれるに限らず、例えば別々に記憶されたこれらの情報を都度読み込んで、図5に示すような3次元のマップを形成してもよい。
 仮想オブジェクトマップMPを用いることによって、現実空間の任意の位置から見た現実空間オブジェクトおよび仮想オブジェクトの見え方を把握することができる。例えば、図4を参照すると、地点Pの周辺には仮想オブジェクトV1~V7が配置されているが、地点Pから矢印Dが示す方向を見た場合には仮想オブジェクトV1,V3,V6のみが視認できる。例えば、仮想オブジェクトV2は樹木T2の陰になって視認されない。仮想オブジェクトV4は建物B1の内部に配置されているため視認されない。仮想オブジェクトV5は地点Pに対して矢印Dが示す方向と反対側の領域に位置するため視認されない。仮想オブジェクトV7は地点Pに対して矢印Dが示す方向と反対側の領域に位置し、かつ樹木T5の陰になっているため、視認されない。
 つづいて、処理装置206の各機能部(図3参照)について説明する。取得部210は、ユーザの現実空間における位置を示す第1位置情報を取得する。本実施形態では、取得部210は、GPS装置104(図2参照)によって生成された位置情報を第1位置情報として取得する。
 選択部212は、第1位置情報と、第1形状情報と、複数の第2形状情報と、複数の第2位置情報とに基づいて、複数の仮想オブジェクトデータVD1~VDnの中から少なくとも1つの仮想オブジェクトデータVDを選択する。選択部212が選択する仮想オブジェクトデータVDは、後述する送信制御部216を介して端末装置10に送信する仮想オブジェクトデータVDである。以下、選択部212によって選択された仮想オブジェクトデータVDを、「選択オブジェクトデータ」という場合がある。
 選択部212は、複数の仮想オブジェクトV1~Vnの中から、ユーザの位置から視認可能な少なくとも1つの視認オブジェクトを推定し、少なくとも1つの視認オブジェクトに対応する仮想オブジェクトデータVDを、少なくとも1つの選択オブジェクトデータとして選択する。上述のように、仮想オブジェクトマップMPには、第1形状情報と、複数の第2形状情報と、複数の第2位置情報とが含まれる。選択部212は、仮想オブジェクトマップMPと、取得部210が取得した第1位置情報とに基づいて、ユーザの位置における現実空間および仮想オブジェクトVの見え方を推定する。ユーザの位置から見える仮想オブジェクトが、視認オブジェクトとなる。例えば、ユーザの位置が図4に示す地点Pであり、矢印Dが示す方向をユーザが向いている場合、選択部212は、視認オブジェクトが仮想オブジェクトV1,V3,V6であると推定する。この場合、選択部212は、仮想オブジェクトデータVD1,VD3,VD6を選択オブジェクトデータとして選択する。
 なお、ユーザが視認可能な範囲は、ユーザの顔の向きよって異なる。選択部212は、例えば、第1位置情報の経時的な変化に基づいて、ユーザの移動方向を推定し、ユーザの顔が移動方向を向いているもの推定してもよい。また、顔の向きが不明な場合は、ユーザの位置から全周に渡って視認オブジェクトを推定してもよい。例えば、ユーザの位置が図4に示す地点Pであり、ユーザが向いている方向が不明な場合、選択部212は、視認オブジェクトが仮想オブジェクトV1,V3,V5,V6であると推定する。この場合、選択部212は、仮想オブジェクトデータVD1,VD3,VD5,VD6を選択オブジェクトデータとして選択する。
 ここで、視認オブジェクトは、現時点においてユーザが視認可能な仮想オブジェクトVであるが、選択部212は、近い将来(例えば数秒後、数十秒後または数分後)にユーザが視認可能となることが予測される仮想オブジェクトVを予測してもよい。すなわち、選択部212は、ユーザの移動方向およびユーザの移動速度の少なくともいずれかに基づいて、所定時間後におけるユーザの位置を推定する。選択部212は、複数の仮想オブジェクトV1~Vnのうち、当該推定した所定時間後におけるユーザの位置から視認可能な少なくとも1つの予測視認オブジェクトを推定し、少なくとも1つの予測視認オブジェクトに対応する仮想オブジェクトデータVDを、選択オブジェクトデータとして選択する。この場合、後述する送信制御部216は、予測視認オブジェクトに対応する仮想オブジェクトデータVD(選択オブジェクトデータ)を端末装置10に送信する。
 例えば、ユーザの現在位置が図4に示す地点Pであり、矢印Dが示す方向にユーザが歩いている場合、所定時間後にはユーザは地点Qに到達することが予測される。地点Qからは、地点Pでは樹木T2に隠れて見えなかった仮想オブジェクトV2が見えるようになることが予測される。この場合、選択部212は、予測視認オブジェクトが仮想オブジェクトV2であると推定し、仮想オブジェクトデータVD2を選択オブジェクトデータとして選択する。
 このように、近い将来にユーザから視認可能となる可能性がある予測視認オブジェクトの仮想オブジェクトデータVDが選択オブジェクトデータとして端末装置10に予め送信されることで、端末装置10は仮想オブジェクトVをスムーズに表示することができる。また、例えば選択オブジェクトデータのデータ量が大きい場合でも、データの送信時間を確保することができるので、仮想オブジェクトVの表示遅延または表示不良が生じにくい。よって、端末装置10を用いたユーザの視覚体験の品質を向上させることができる。
 なお、ユーザの移動方向は、上述のように第1位置情報が示すユーザの位置の経時的な変化の向きに基づいて推定され得る。また、ユーザの移動速度は、第1位置情報が示すユーザの位置の単位時間当たりの変位に基づいて推定され得る。また、ユーザの移動方向および移動速度は、第1形状情報を用いることで、より精度よく推定され得る。例えば、ユーザが通路に位置している場合には、ユーザの移動方向は通路に沿っていく可能性が高いと予測できる。また、例えば階段または坂道などの標高差がある箇所では、平坦な箇所と比較して移動速度が低下することが予測される。よって、選択部212は、第1位置情報に加えて第1形状情報を用いて、ユーザの移動方向および移動速度を予測してもよい。
 決定部214は、選択部212によって複数の仮想オブジェクトデータVDが選択された場合に(選択オブジェクトデータが複数ある場合に)、複数の仮想オブジェクトデータVDの送信順序を決定する。決定部214は、例えば以下の[1]~[3]のいずれかの方法で、複数の仮想オブジェクトデータVDの送信順序を決定する。
 なお、複数の仮想オブジェクトデータVDの送信に当たって、仮想オブジェクトデータVDを1つ1つ直列的に送信する場合と、複数の仮想オブジェクトデータVDを並列的に送信する場合とが考えられる。後者の場合、複数の仮想オブジェクトデータVDの送信順序とは、例えば各仮想オブジェクトデータVDの送信を開始する順序であってもよい。この場合、仮想オブジェクトデータVDのデータ量によっては、先に送信が開始された仮想オブジェクトデータVDよりも後に送信が開始された仮想オブジェクトデータVDの方が先に送信が完了する場合もある。
[1]ユーザの位置に近い仮想オブジェクトVから順に送信
 視認オブジェクトのうちユーザが注意を向けやすいのは、ユーザに近い位置に配置された視認オブジェクトである場合がある。また、予測視認オブジェクトに関しても、ユーザの現在位置により近い予測視認オブジェクトの方が先に視認可能となる可能性が高いと考えられる。よって、[1]では、決定部214は、現実空間において配置される位置が、ユーザの位置に近い仮想オブジェクトVの仮想オブジェクトデータVDから順に複数の仮想オブジェクトデータVDを送信すると決定する。
 例えば、ユーザの位置が図4に示す地点Pであり、矢印Dが示す方向をユーザが向いている場合、視認オブジェクトは、図5に示すように仮想オブジェクトデータVD1,VD3,VD6である。この場合、決定部214は、仮想オブジェクトデータVD1,VD3,VD6の順に端末装置10に送信すると決定する。[1]の方法によれば、ユーザが注意を向けやすい仮想オブジェクトVの仮想オブジェクトデータVDをより確実に送信することができる。
[2]優先順位が高い仮想オブジェクトVから順に送信
 それぞれの仮想オブジェクトVに優先順位が設定されている場合、優先順位が高い順に仮想オブジェクトデータVDを送信することで、優先順位が高い仮想オブジェクトVを端末装置10で確実に表示することができる。すなわち、[2]では、複数の仮想オブジェクトVの各々に優先順位が設定されている場合、決定部214は、優先順位が高い仮想オブジェクトVの仮想オブジェクトデータVDから順に複数の仮想オブジェクトデータVDを送信すると決定する。
 例えば、仮想オブジェクトV1~V7を優先順位が高い順に並べると、仮想オブジェクトV7,V6,V5,V4,V3,V2,V1であるものとする。ユーザの位置が図4に示す地点Pであり、矢印Dが示す方向をユーザが向いている場合、視認オブジェクトは、図5に示すように仮想オブジェクトV1,V3,V6である。この場合、決定部214は、仮想オブジェクトデータVD6,VD3,VD1の順に端末装置10に送信すると決定する。[2]の方法によれば、優先順位が高い仮想オブジェクトVの仮想オブジェクトデータVDをより確実に送信することができる。
 なお、優先順位は、例えば仮想オブジェクトVを管理する管理者が設定する。例えば仮想オブジェクトVが、企業等が広告料金を支払って出稿する広告である場合には、広告料金に応じて優先順位を設定してもよい。具体的には、広告料金が高い仮想オブジェクトVほど、優先順位を高くしてもよい。
[3]ユーザの視野に占める割合が高い仮想オブジェクトから順に送信
 視認オブジェクトのうちユーザが注意を向けやすいのは、ユーザの視野に占める割合が高い、すなわち、ユーザから大きく見える視認オブジェクトである場合がある。よって、[3]では、決定部214は、端末装置10によって表示される複数の視認オブジェクトの各々がユーザの視野範囲に占める割合を推定し、複数の視認オブジェクトのうち視野範囲に占める割合が高いものから順に仮想オブジェクトデータVDを送信すると決定する。
 例えば、ユーザの位置が図4に示す地点Pであり、矢印Dが示す方向をユーザが向いている場合、ユーザの視野範囲に占める割合は、図5に示すように、仮想オブジェクトV5,V1,V3の順で高い。よって、決定部214は、仮想オブジェクトデータVD5,VD1,VD3の順に端末装置10に送信すると決定する。[3]の方法によれば、ユーザの視野に占める割合が高く、ユーザが注意を向けやすい仮想オブジェクトVの仮想オブジェクトデータVDをより確実に送信することができる。
[4]データ量が大きい仮想オブジェクトから順に送信
 データ量が大きい仮想オブジェクトデータVDは、送信が完了するまでに時間がかかる場合がある。特に、予測視認オブジェクトの仮想オブジェクトデータVDを送信するにあたっては、データ量が大きい仮想オブジェクトデータVDを早いタイミングから送信しておくのが有効な場合がある。よって、[4]では、決定部214は、データ量の大きい仮想オブジェクトデータVDから順に複数の仮想オブジェクトデータVDを送信すると決定する。
 例えば、仮想オブジェクトデータVD1~VD7をデータ量が大きい順に並べると、仮想オブジェクトV6,V5,V4,V2,V1,V3,V7であるものとする。ユーザの位置が図4に示す地点Pであり、矢印Dが示す方向をユーザが向いている場合、視認オブジェクトは、仮想オブジェクトV1,V3,V6である。この場合、決定部214は、仮想オブジェクトデータVD6,VD1,VD3の順に端末装置10に送信すると決定する。[4]の方法によれば、データ量が大きい仮想オブジェクトデータVDをより確実に送信することができる。
 上記[1]~[4]では、図4の地点Pにユーザが位置する場合の視認オブジェクトを具体例にして仮想オブジェクトデータVDの送信順序を説明したが、予測視認オブジェクトを送信する場合についても同様に、[1]~[4]のように送信順序を決定することができる。
 送信制御部216は、端末装置10に仮想オブジェクトデータVDを送信する。より詳細には、送信制御部216は、通信装置203を制御して、記憶装置205に記憶された複数の仮想オブジェクトデータVDのうち、選択部213によって選択された少なくとも1つの仮想オブジェクトデータVDを端末装置10に送信する。また、送信制御部216は、選択部213によって複数の仮想オブジェクトデータVDが選択された場合、決定部214が決定した順序で複数の仮想オブジェクトデータVDを送信する。
 送信制御部216が送信した仮想オブジェクトデータVDは、端末装置10に受信される。端末装置10は、投影装置101を用いて、少なくとも1つの仮想オブジェクトデータVDに対応する仮想オブジェクトVを、現実空間のうちユーザの視野範囲に重畳して表示する。ユーザは、周囲の現実空間に仮想オブジェクトVが実際に存在するかのように知覚する。
A-5.処理装置206の動作
 図6は、処理装置206の動作を示すフローチャートである。処理装置206は、所定の処理間隔で図6の処理を繰り返す。処理装置206は、取得部210として機能し、端末装置10から第1位置情報を受信する(ステップS101)。処理装置206は、決定部214として機能し、第1位置情報が示す位置を仮想オブジェクトマップMP上にマッピングし、視認オブジェクトを推定する(ステップS102)。この時、処理装置206は、第1位置情報に基づいてユーザの移動方向および移動速度を推定し、予測視認オブジェクトを推定してもよい。
 ユーザの移動に伴って視認オブジェクトは変化する。前回の視認オブジェクトの推定時にはなかった視認オブジェクトが存在する場合、当該視認オブジェクトを「新規の視認オブジェクト」とする。新規の視認オブジェクトがない場合(ステップS103:NO)、処理装置206は、処理をステップS101に戻す。一方、新規の視認オブジェクトがある場合(ステップS103:YES)、処理装置206は、新規の視認オブジェクトが複数であるか否かを判断する(ステップS104)。新規の視認オブジェクトが複数である場合(ステップS104:YES)、処理装置206は決定部214として機能し、例えば上記[1]~[4]のいずれかの方法で仮想オブジェクトデータVDの送信順序を決定する(ステップS105)。新規の視認オブジェクトが複数ではない場合(ステップS104:NO)、処理装置206は、処理をステップS106に進める。
 処理装置206は送信制御部216として機能し、新規の視認オブジェクトの仮想オブジェクトデータVDを端末装置10に送信する(ステップS106)。新規の視認オブジェクトが複数の場合、処理装置206は、ステップS105で決定した送信順序で複数の仮想オブジェクトデータVDを送信する。その後、処理装置206は、ステップS101に処理を戻す。
 A-5.実施形態のまとめ
 以上説明したように、実施形態によれば、サーバ20は、ユーザの現実空間における位置と、現実空間に位置する現実オブジェクトの形状と、複数の仮想オブジェクトVの各々の形状と、複数の仮想オブジェクトVの各々の現実空間における配置とに基づいて、ユーザから視認可能な仮想オブジェクトVである視認オブジェクトを推定し、視認オブジェクトの仮想オブジェクトデータVDを端末装置10に送信する。よって、先行技術のようにエリア内の仮想オブジェクトデータVDを一括して送信するのと比較して、無駄なデータの送受信が低減される。より具体的には、サーバ20は、ユーザが視認できない仮想オブジェクトVに対応する仮想オブジェクトデータVDを送信するのを回避する。よって、サーバ20および端末装置10の処理負荷が軽減されるとともに、通信リソースが有効に活用され得る。また、例えば仮想オブジェクトV6のように、ユーザから離れた位置に配置された巨大な仮想オブジェクトVについても、適切なタイミングで仮想オブジェクトデータVDが送信される。
 また、サーバ20は、所定時間後におけるユーザの位置から視認可能な少なくとも1つの仮想オブジェクトである予測視認オブジェクトを推定し、予測視認オブジェクトに対応する仮想オブジェクトデータVDを端末装置10に送信する。近い将来にユーザから視認可能となる可能性がある予測視認オブジェクトの仮想オブジェクトデータVDが予め端末装置10に送信されることで、端末装置10は仮想オブジェクトVをスムーズに表示することができる。また、例えば仮想オブジェクトデータVDのデータ量が大きい場合でも、データの送信時間を確保することができるので、仮想オブジェクトVの表示遅延または表示不良が生じにくい。よって、端末装置10を用いたユーザの視覚体験の品質を向上させることができる。
 また、サーバ20は、複数の仮想オブジェクトデータVDを送信する際、一例として、現実空間において配置される位置がユーザの位置に近い仮想オブジェクトVの仮想オブジェクトデータVDから順に複数の仮想オブジェクトデータVDを送信する。よって、ユーザが注意を向けやすい仮想オブジェクトVの仮想オブジェクトデータVDをより確実に送信することができる。
 また、サーバ20は、複数の仮想オブジェクトデータVDを送信する際、一例として、優先順位が高い仮想オブジェクトVの仮想オブジェクトデータVDから順に複数の仮想オブジェクトデータVDを送信する。よって、優先順位が高い仮想オブジェクトVの仮想オブジェクトデータVDをより確実に送信することができる。
 また、サーバ20は、複数の仮想オブジェクトデータVDを送信する際、一例として、端末装置10で表示された視認オブジェクトがユーザの視野範囲に占める割合が高い仮想オブジェクトVから順に複数の仮想オブジェクトデータVDを送信する。ユーザの視野に占める割合が高く、ユーザが注意を向けやすい仮想オブジェクトVの仮想オブジェクトデータVDをより確実に送信することができる。
 また、サーバ20は、複数の仮想オブジェクトデータVDを送信する際、一例として、データ量の大きい仮想オブジェクトデータVDから順に複数の仮想オブジェクトデータVDを送信すると決定する。よって、データ量が大きい仮想オブジェクトデータVDをより確実に送信することができる。
 B:変形例
 上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
 B1:第1変形例
 上述した実施形態では、端末装置10は眼鏡型の端末装置のみで構成されていた。これに限らず、端末装置10は眼鏡型の端末装置と、スマートフォン、タブレット端末、ノートパソコン等の携帯型の端末装置とを含んでもよい。この場合、眼鏡型の端末装置と携帯型の端末装置とは相互に接続される。端末装置10が携帯型の端末装置を含む場合、動作制御部110の機能の一部又は全部を、携帯型の端末装置が担ってもよい。
 C:その他
 (1-1)上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
 (1-2)情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
 (1-3)本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG)(xG(xは、例えば整数、小数))、FRA(Future Radio Access)、NR(new Radio)、New radio access(NX)、Future generation radio access(FX)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張、修正、作成、規定された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい
 (1-4)本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 (1-5)本開示において基地局によって行われるとした特定動作は、場合によってはその上位ノード(upper node)によって行われることもある。基地局を有する1つ又は複数のネットワークノード(network nodes)からなるネットワークにおいて、端末との通信のために行われる様々な動作は、基地局及び基地局以外の他のネットワークノード(例えば、MME又はS-GWなどが考えられるが、これらに限られない)の少なくとも1つによって行われ得ることは明らかである。上記において基地局以外の他のネットワークノードが1つである場合を例示したが、複数の他のネットワークノードの組み合わせ(例えば、MME及びS-GW)であってもよい。
 (1-6)情報等(※「情報、信号」の項目参照)は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。情報等は、複数のネットワークノードを介して入出力されてもよい。
 (1-7)入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 (1-8)判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 (1-9)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
 (2-1)ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 (2-2)本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
 (2-3)本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
 (2-4)また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
 (2-5)本開示においては、「基地局(BS:Base Station)」、「無線基地局」、「固定局(fixed station)」、「NodeB」、「eNodeB(eNB)」、「gNodeB(gNB)」、「アクセスポイント(access point)」、「送信ポイント(transmission point)」、「受信ポイント(reception point)、「送受信ポイント(transmission/reception point)」、「セル」、「セクタ」、「セルグループ」、「キャリア」、「コンポーネントキャリア」などの用語は、互換的に使用され得る。基地局は、マクロセル、スモールセル、フェムトセル、ピコセルなどの用語で呼ばれる場合もある。基地局は、1つ又は複数(例えば、3つ)のセルを収容することができる。基地局が複数のセルを収容する場合、基地局のカバレッジエリア全体は複数のより小さいエリアに区分でき、各々のより小さいエリアは、基地局サブシステム(例えば、屋内用の小型基地局(RRH:Remote Radio Head)によって通信サービスを提供することもできる。「セル」又は「セクタ」という用語は、このカバレッジにおいて通信サービスを行う基地局及び基地局サブシステムの少なくとも一方のカバレッジエリアの一部又は全体を指す。本開示において、基地局が端末に情報を送信することは、基地局が端末に対して、情報に基づく制御・動作を指示することと読み替えられてもよい。
 (2-6)本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
 (2-7)基地局及び移動局の少なくとも一方は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、基地局及び移動局の少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、移動可能な物体をいい、移動速度は任意である。また移動体が停止している場合も当然含む。当該移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン(登録商標)、マルチコプター、クアッドコプター、気球、およびこれらに搭載される物を含み、またこれらに限らない。また、当該移動体は、運行指令に基づいて自律走行する移動体であってもよい。乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、基地局及び移動局の少なくとも一方は、必ずしも通信動作時に移動しない装置も含む。例えば、基地局及び移動局の少なくとも一方は、センサなどのIoT(Internet of Things)機器であってもよい。また、本開示における基地局は、ユーザ端末で読み替えてもよい。例えば、基地局及びユーザ端末間の通信を、複数のユーザ端末間の通信(例えば、D2D(Device-to-Device)、V2X(Vehicle-to-Everything)などと呼ばれてもよい)に置き換えた構成について、本開示の各態様/実施形態を適用してもよい。この場合、上述の基地局が有する機能をユーザ端末が有する構成としてもよい。また、「上り」及び「下り」などの文言は、端末間通信に対応する文言(例えば、「サイド(side)」)で読み替えられてもよい。例えば、上りチャネル、下りチャネルなどは、サイドチャネルで読み替えられてもよい。同様に、本開示におけるユーザ端末は、基地局で読み替えてもよい。この場合、上述のユーザ端末が有する機能を基地局が有する構成としてもよい。
 (3-1)本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
 (3-2)「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
 (3-3)参照信号は、RS(Reference Signal)と略称することもでき、適用される標準によってパイロット(Pilot)と呼ばれてもよい。
 (3-4)本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 (3-5)本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 (3-6)上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。
 (3-7)本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 (3-8)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 (3-9)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
 (4)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
 1…システム、10…端末装置、20…サーバ、101…投影装置、103…通信装置、104…GPS装置、203…通信装置、205…記憶装置、206…処理装置、210…取得部、212…選択部、214…決定部、216…送信制御部、MP…仮想オブジェクトマップ、N…通信網、V(V1~Vn)…仮想オブジェクト、VD(VD1~Vn)…仮想オブジェクトデータ。

Claims (6)

  1.  第1位置情報と、第1形状情報と、複数の第2形状情報と、複数の第2位置情報とに基づいて、複数の仮想オブジェクトと1対1に対応する複数の仮想オブジェクトデータの中から少なくとも1つの仮想オブジェクトデータを選択する選択部であって、
     前記第1位置情報は、現実空間におけるユーザの位置を示し、
     前記第1形状情報は、前記現実空間に位置する現実オブジェクトの形状を示し、
     前記複数の第2形状情報の各々は、各仮想オブジェクトの形状を示し、
     前記複数の第2位置情報の各々は、各仮想オブジェクトが配置される現実空間の位置を示す、
     選択部と、
     前記選択部によって選択された前記少なくとも1つの仮想オブジェクトデータを表示装置に送信する送信制御部と、を備え、
     前記表示装置は、前記少なくとも1つの仮想オブジェクトデータに基づく仮想オブジェクトを、前記現実空間のうち前記ユーザの視野範囲に重畳して表示し、
     前記選択部は、前記複数の仮想オブジェクトの中から、前記ユーザの位置から視認可能な少なくとも1つの視認オブジェクトを推定し、前記少なくとも1つの視認オブジェクトに対応する仮想オブジェクトデータを前記少なくとも1つの仮想オブジェクトデータとして選択する、
     仮想オブジェクトデータ選択装置。
  2.  前記選択部は、前記ユーザの移動方向および前記ユーザの移動速度の少なくともいずれかに基づいて、所定時間後における前記ユーザの位置を推定し、前記複数の仮想オブジェクトのうち、前記推定した前記所定時間後における前記ユーザの位置から視認可能な少なくとも1つの予測視認オブジェクトを推定し、前記少なくとも1つの予測視認オブジェクトに対応する仮想オブジェクトデータを前記少なくとも1つの仮想オブジェクトデータとして選択する、
     請求項1記載の仮想オブジェクトデータ選択装置。
  3.  前記選択部によって複数の仮想オブジェクトデータが選択された場合に、前記複数の仮想オブジェクトデータの送信順序を決定する決定部を更に備え、
     前記決定部は、前記現実空間に配置される位置が、前記ユーザの位置に近い仮想オブジェクトの仮想オブジェクトデータから順に前記複数の仮想オブジェクトデータを送信すると決定する、
     請求項1記載の仮想オブジェクトデータ選択装置。
  4.  前記選択部によって複数の仮想オブジェクトデータが選択された場合に、前記複数の仮想オブジェクトデータの送信順序を決定する決定部を更に備え、
     前記複数の仮想オブジェクトの各々には、優先順位が設定されており、
     前記決定部は、前記優先順位が高い仮想オブジェクトの仮想オブジェクトデータから順に前記複数の仮想オブジェクトデータを送信すると決定する、
     請求項1記載の仮想オブジェクトデータ選択装置。
  5.  前記選択部によって複数の仮想オブジェクトデータが選択された場合に、前記仮想オブジェクトデータの送信順序を決定する決定部を更に備え、
     前記選択部によって選択された複数の仮想オブジェクトデータは、前記ユーザの位置から視認可能と推定された複数の視認オブジェクトに対応し、
     前記決定部は、前記表示装置によって表示される前記複数の視認オブジェクトの各々が前記視野範囲に占める割合を推定し、前記複数の視認オブジェクトのうち前記視野範囲に占める割合が高いものから順に前記複数の仮想オブジェクトデータを送信すると決定する、
     請求項1記載の仮想オブジェクトデータ選択装置。
  6.  前記選択部によって複数の仮想オブジェクトデータが選択された場合に、前記複数の仮想オブジェクトデータの送信順序を決定する決定部を更に備え、
     前記決定部は、データ量の大きい仮想オブジェクトデータから順に前記複数の仮想オブジェクトデータを送信すると決定する、
     請求項1記載の仮想オブジェクトデータ選択装置。
PCT/JP2023/018587 2022-05-23 2023-05-18 仮想オブジェクトデータ選択装置 WO2023228856A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-083551 2022-05-23
JP2022083551 2022-05-23

Publications (1)

Publication Number Publication Date
WO2023228856A1 true WO2023228856A1 (ja) 2023-11-30

Family

ID=88919247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/018587 WO2023228856A1 (ja) 2022-05-23 2023-05-18 仮想オブジェクトデータ選択装置

Country Status (1)

Country Link
WO (1) WO2023228856A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505002A (ja) * 2019-10-15 2022-01-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505002A (ja) * 2019-10-15 2022-01-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム

Similar Documents

Publication Publication Date Title
US11770724B2 (en) Mobile terminal for displaying whether QoS is satisfied in wireless communication system
WO2019119355A1 (zh) 无人机飞行路径的确定方法及装置
CN109451833B (zh) 用于无人机切换的方法、装置及基站
US11368964B2 (en) Data transmission method, apparatus, and unmanned aerial vehicle
EP3716688A1 (en) Data transmission method and apparatus, and unmanned aerial vehicle
EP3809730A1 (en) Information transmission method and device
US20220264619A1 (en) Operation method of ue associated with sci in wireless communication system
EP3796571B1 (en) Method and device for controlling unmanned aerial vehicle to access network
US10506647B2 (en) Mobility in enterprise networks
KR20210048739A (ko) Ar 모빌리티 제어 장치 및 ar 모빌리티 제어 방법
US20220104169A1 (en) Method and apparatus for controlling early data transmission procedure in a wireless communication system
US20230224951A1 (en) Operation method of relay ue in wireless communication system
WO2023228856A1 (ja) 仮想オブジェクトデータ選択装置
US11997037B2 (en) UE operation method related to sidelink PTRS in wireless communication system
WO2023228565A1 (ja) 表示制御装置
CN114731715A (zh) 在无线通信系统中控制与侧链路通信有关的配置的方法和装置
WO2023243300A1 (ja) レンダリング制御装置
KR20210027037A (ko) 내비게이션 영상 제공 방법 및 디바이스
KR20210134827A (ko) 데이터를 송수신하는 방법 및 통신 기기
US20240049097A1 (en) Methods, apparatuses, and computer program products for fast cell selection using conditional handover and intercell beam management reporting
US20240088991A1 (en) Method for wireless communication and communication device
WO2024085084A1 (ja) アバター制御装置
JP2024039111A (ja) 表示制御装置
WO2024075512A1 (ja) アバター画像生成装置
EP4190115A1 (en) Methods, computer readable medium and devices for communication

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811729

Country of ref document: EP

Kind code of ref document: A1