WO2021125190A1 - Information processing device, information processing system, and information processing method - Google Patents

Information processing device, information processing system, and information processing method Download PDF

Info

Publication number
WO2021125190A1
WO2021125190A1 PCT/JP2020/046823 JP2020046823W WO2021125190A1 WO 2021125190 A1 WO2021125190 A1 WO 2021125190A1 JP 2020046823 W JP2020046823 W JP 2020046823W WO 2021125190 A1 WO2021125190 A1 WO 2021125190A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
information processing
processing device
data
evaluation
Prior art date
Application number
PCT/JP2020/046823
Other languages
French (fr)
Japanese (ja)
Inventor
秀憲 青木
富士夫 荒井
智彦 後藤
京二郎 永野
遼 深澤
春香 藤澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2021125190A1 publication Critical patent/WO2021125190A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to an information processing device, an information processing system, and an information processing method.
  • An evaluation data generation unit that generates first evaluation data based on the first map and a third map used for managing services, and the first map or the first map that the object generation unit uses to generate the virtual object.
  • a map selection unit for selecting a map based on the first evaluation data may be further provided.
  • the map selection unit further includes a self-position estimation unit that estimates the self-position, acquires a first evaluation value corresponding to the self-position from the first evaluation data, and generates the object based on the first evaluation value.
  • the first map or the second map that the unit uses to generate the virtual object may be selected.
  • the map selection unit may select the first map when the first evaluation value is equal to or less than the threshold value.
  • the map selection unit may select the first map when the second evaluation value is equal to or less than the first evaluation value.
  • the information processing system includes a first information processing device that generates a first map based on a first image, and a second information processing device that generates a second map based on a second image.
  • the first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device, and the second information processing device is the second map or the second map.
  • the virtual object may be generated based on the first map acquired from the first information processing apparatus.
  • the figure which showed the example of the evaluation data. A flowchart showing an example of the map selection process.
  • the information processing device may be a device other than a wearable computer.
  • the information processing device according to the present disclosure may be a device portable to a user such as a game device, a smartphone, a tablet, or a laptop computer, and the information processing device according to the present disclosure may be an automobile, an aircraft, a ship, or a railway. It may be a device mounted in the cockpit (driver's seat) or console of a moving body such as a vehicle.
  • the information processing system 100 of FIG. 1 includes two wearable computers (information processing devices). However, the information processing system according to the present disclosure may include more information processing devices. Details of the information processing apparatus according to the present disclosure will be described later.
  • the point cloud data generated in advance can be used.
  • point cloud data updated with the passage of time may be used.
  • the global map data 36 may be data generated by the same method as the local map data described later, or may be data generated by a method different from the local map data.
  • the global map data 36 of the space may be generated by a technique such as SFM or LIDAR.
  • the global map data 36 may be generated by using an automobile equipped with a laser scanner or an unmanned aerial vehicle (UAV: Unmanned Aerial Vehicle) equipped with a laser scanner.
  • UAV Unmanned Aerial Vehicle
  • FIG. 2 shows an example of a global map.
  • the global map of FIG. 2 shows the shape and position of objects along the streets of the city.
  • a global map including a wide area where the service is expected to be used is prepared in advance. Therefore, if you refer to the global map, you can see that the buildings are continuous along the road to a long distance.
  • FIG. 3 shows an example of global map data including the global map of FIG.
  • the global map data 36 data expressing the shape and position of an object in space in a three-dimensional Cartesian coordinate system can be used.
  • the data format of the global map data 36 is not limited.
  • the block diagram of FIG. 4 shows an example of the information processing apparatus according to the present disclosure.
  • the information processing device of FIG. 4 corresponds to the wearable computer 1A or 1B of FIG.
  • the information processing device 1 includes an image pickup unit 2, a sensor unit 3, a processing circuit 4, a storage unit 5, a communication circuit 6, a display unit 7, and an audio circuit 8.
  • the processing circuit 4 for example, a hardware circuit including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof can be used. it can.
  • the processing circuit 4 includes a local map generation unit 10, a self-position estimation unit 11, a map acquisition unit 12, a map selection unit 13, an evaluation data generation unit 14, and an object generation unit 15 as internal components. Includes.
  • the block diagram of FIG. 5 shows an example of data stored in the storage unit.
  • the image data 20 the first local map data 21, the second local map data 22, the global map data 23, the first evaluation data 24, the second evaluation data 25, and the like.
  • the map processing program 26 and the application program 27 are stored.
  • a volatile memory for example, DRAM or SRAM
  • a non-volatile memory for example, NAND flash memory, NOR flash memory, resistance change type memory, magnetoresistive memory
  • a hard disk SSD (Solid State Drive) or these You can use the combination of.
  • the type of memory / storage used as the storage unit 5 does not matter.
  • FIG. 6 shows an example of a local map.
  • the local map of FIG. 6 shows the shape and position of an object along the road in the same city as that of FIG.
  • the local map generation unit 10 generates a local map from an area where a sufficient number of images can be captured. Therefore, as in the area 28 of FIG. 6, information on the shape and position of the object cannot be sufficiently obtained, and there is a possibility that an area for which a local map has not been created remains in the space.
  • the information on the shape and position of the object in the vicinity of the user in the local map is updated in real time. Therefore, it is possible to acquire detailed information about the area in the space that the user is observing for a long time.
  • the self-position estimation unit 11 estimates the position of the information processing device 1 in space.
  • the self-position estimation unit 11 can estimate the self-position based on the image captured by the imaging unit 2, for example.
  • the self-position estimation unit 11 may estimate the self-position based on the measured value of the sensor in the sensor unit 3.
  • the coordinates in the first local map indicating the current position of the information processing device 1 are updated.
  • the self-position estimation unit 11 may calculate the coordinates in at least one of the second local map and the global map when estimating the self-position.
  • the coordinates for example, offset values (x l , y l , z l ) from the origin in the Cartesian coordinate system can be used.
  • the method of expressing the coordinates is not limited. Other types of coordinate systems, such as spherical or polar coordinates, may be used.
  • the method of coordinate conversion between the first local coordinate and the global coordinate will be described.
  • conversion to the other coordinate system is performed when the first local coordinates or global coordinates corresponding to the same position in the space are obtained will be described.
  • FIG. 8 shows an example in which the position c is expressed using each coordinate system when the global coordinate system is a and the first local coordinate system is b.
  • a P c is a vector indicating the position of c in the coordinate system a.
  • b P c is a vector indicating the position of c in the coordinate system b.
  • a R b is a rotation matrix for converting a vector represented by the coordinate system b into a vector represented by the coordinate system a.
  • a P b is a vector indicating the position of b in the coordinate system a.
  • a T b is a representation of the rotation matrix a R b and the vector a P b in 4 ⁇ 4 of the homogeneous coordinate system.
  • the object generation unit 15 executes AR-related processing such as generation of a virtual object and processing of a service provided to the user.
  • the application program 27 of the storage unit 5 can be executed on the processing circuit 4 to provide the function of the object generation unit 15 to the user.
  • the object generation unit 15 executes the client-side processing of the service.
  • the service program 34 of the management server 30 executes the processing on the server side of the service.
  • the object generation unit 15 when the service program 34 of the management server 30 transmits a command requesting the generation of a virtual object at a predetermined global coordinate, the object generation unit 15 generates a virtual object at the first local coordinate obtained by converting the global coordinate. Then, the user can visually recognize the virtual object through the display unit 7.
  • the map selection unit 13 selects the map used by the object generation unit 15 to display the virtual object based on the evaluation data described later. When the map is selected by the map selection unit 13, the coordinate system used for displaying the virtual object is also determined.
  • View V1 and view V2 of FIG. 9 may be realized by a combination of an image or video displayed on the display unit 7 and a background transmitted through the display unit 7. Further, the view V1 and the view V2 may be realized only by the image or the video displayed on the display unit 7.
  • the service program 34 of the management server 30 transmits a command to generate the virtual object A1 at predetermined global coordinates to the wearable computers 1A and 1B.
  • the virtual object A1 is a character that appears in the service.
  • the virtual object A1 may be a still image or an animation.
  • each of the wearable computers 1A and 1B converts the global coordinates into the local coordinates and displays the virtual object A1 which is a character on the display unit 7.
  • the virtual object A1 which is a character is displayed at a position shifted from above the object OBJ, the user U2 cannot recognize that the character is protruding from the opening of the jar. ..
  • the body shapes and heights of users who use the service will be diverse, and since each user will take different behavior patterns, there will be differences in the area in the space where the user's line of sight is directed. Therefore, a different local map is generated for each wearable computer. If different local maps are used depending on the wearable computer, the appearance of the virtual object may differ depending on the user as shown in the example of FIG. 9, and the quality of service may deteriorate. For example, when the virtual object is an enemy character, the appearance of the enemy character differs depending on the user. In this case, it becomes difficult for a plurality of users who play the action game to cooperate and fight against the enemy character, and the user's satisfaction level is lowered. Therefore, it is desirable to suppress the deviation of the appearance of the virtual object among a plurality of users according to the service situation and situation.
  • the evaluation data generation unit 14 generates evaluation data.
  • the flowchart of FIG. 10 shows an example of evaluation data generation processing. Hereinafter, the evaluation data generation process will be described with reference to the flowchart of FIG.
  • the evaluation data generation unit 14 divides the point cloud data in the vicinity of the first local coordinates in the first local map into the point cloud data in the vicinity of the global coordinates corresponding to the first local coordinates in the global map.
  • the similarity is calculated based on this (step S104).
  • step S104 for example, the similarity value can be calculated for each mesh that divides the space based on the first local coordinate system.
  • Data D1 in FIG. 11 shows an example of the degree of similarity between the global map and the local map calculated in step S104. In the example of FIG. 11, the similarity value is shown for each two-dimensional region. However, the actually calculated similarity may be associated with the coordinates in the three-dimensional space or the mesh in the three-dimensional space.
  • the evaluation data generation unit 14 acquires the attribute information in the vicinity of the first local coordinates from the program that uses the map (step S105). For example, the evaluation data generation unit 14 may acquire attribute information in the vicinity of the first local coordinates from the object generation unit 15 in step S105. Similar to the similarity data calculated in step S104, data in which a value is set for each mesh in which the space is divided based on the first local coordinate system can be used as the attribute information.
  • the flowchart of FIG. 15 shows an example of the map selection process.
  • the process will be described with reference to the flowchart of FIG.
  • the explanation of the flowchart when it is stated that data is to be acquired, it shall include not only the case of acquiring the entire relevant data but also the acquisition of a part of the relevant data.
  • the process to be executed branches according to the determination result in step S203.
  • the object generation unit 15 uses the first local map (first local map data 21) when the virtual object is generated. Use (step S208). If the first evaluation value is less than or equal to the threshold value, it is not highly necessary to create a virtual object using the same local map as other users, or even if the first local map is used, a virtual object is created between users. It is assumed that the deviation of the appearance of the object will not increase. Therefore, when the determination in step S203 is negative, the object generation unit 15 executes the virtual object generation process using the first local map (step S208).
  • the map acquisition unit 12 When the first evaluation value of the self-position in the evaluation data is larger than the threshold value (YES in step S203), the map acquisition unit 12 has the second local map (second local map data 22) and the second local map data 22 from other information processing devices.
  • the second evaluation data (second evaluation data 25) is acquired (step S204). If the first evaluation value is larger than the threshold value, it is assumed that there is a large difference in the appearance of the virtual object between users, or it is highly necessary to generate the virtual object using the same local map as other users. The object.
  • the information processing device from which the second local map data 22 and the second evaluation data 25 are acquired is not particularly limited.
  • the map acquisition unit 12 can acquire the second local map data 22 and the second evaluation data 25 from at least one of the information processing devices in the information processing system 100 in step S204. Further, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the plurality of information processing devices in step S204.
  • the information processing device 1 may select another information processing device that is the acquisition source of the second local map data 22 and the second evaluation data 25.
  • the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the information processing device having the highest intensity of the beacon signal received via the communication circuit 6. Further, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from one or more information processing devices selected based on the strength of the beacon signal. Further, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the user or the information processing device designated by the object generation unit 15. This makes it possible to select the information processing device that is the acquisition source of the local map based on the position of each user and the processing in the object generation unit 15.
  • the map selection unit 13 uses the second local map (second local map data 22) and the second evaluation data. (Second evaluation data 25) is used to obtain the second evaluation value of the self-position (step S205).
  • the evaluation value obtained based on the second local coordinates is referred to as the second evaluation value.
  • the map selection unit 13 obtains the second local coordinates corresponding to the self-position based on the first local coordinates corresponding to the self-position.
  • the map selection unit 13 performs the above-mentioned coordinate transformation to calculate the second local coordinates corresponding to its own position. Further, the map selection unit 13 may calculate the second local coordinates corresponding to its own position based on the shape and position of the object included in the first local map data 21 and the second local map data 22. For example, pattern matching may be performed based on the feature amount, and the second local coordinates corresponding to the self-position in the second local map data 22 may be searched. However, the method in which the map selection unit 13 calculates the second local coordinates corresponding to its own position does not matter.
  • the map selection unit 13 searches for the second local coordinates corresponding to the self-position in the second evaluation data 25. As a result, the map selection unit 13 can obtain the second evaluation value of the self-position. Then, the map selection unit 13 determines whether or not the second evaluation value of the self-position is larger than the first evaluation value of the self-position (step S206).
  • the map selection unit 13 acquires the second local from the plurality of information processing devices.
  • the processes of steps S205 and S206 can be executed for the map data 22 and the second evaluation data 25.
  • the object generation unit 15 generates a virtual object using the second local map data 22 of the information processing apparatus having the largest value obtained by subtracting the first evaluation value from the second evaluation value in step S207. You may. Further, when an information processing device for which the determination in step S206 is affirmative is detected, a virtual object may be generated using the second local map data 22 acquired from the information processing device.
  • FIG. 16 shows an example of how a virtual object looks in the information processing system according to the present disclosure.
  • the user U1 wearing the wearable computer 1A and the user U2 wearing the wearable computer 1B are facing the object OBJ at the same positions and postures as in FIG. Similar to FIG. 9, the object OBJ is a jar having an opening at the top.
  • View V1 shows an example of how it looks from user U1.
  • the view V2 shows an example of how the user U2 sees the view.
  • the service program 34 of the management server 30 transmits a command to generate the virtual object A1 at predetermined global coordinates to the wearable computers 1A and 1B as in FIG.
  • the wearable computer 1A and the wearable computer 1B execute the processing of the flowchart of FIG. 15 and select the local coordinates (local map) to be used when the virtual object A1 is generated. Therefore, the wearable computer 1A and the wearable computer 1B generate the virtual object A1 by using either the first local map or the second local map.
  • the information processing device and the information processing system it is possible to eliminate the difference in the appearance of virtual objects between users and improve the quality of services using AR. Multiple users will be able to share their experiences in augmented reality space. For example, when the virtual object is an enemy character, a plurality of users playing an action game can cooperate to fight the enemy character.
  • the information processing device includes a map generation unit that generates a first map based on an image, a map acquisition unit that acquires a second map from another device, and a virtual object using the first map or the second map. It may be provided with an object generation unit that generates.
  • the first local map data 21 is an example of the first map.
  • the second local map data 22 is an example of the second map.
  • the wearable computer 1B corresponds to another device.
  • the information processing apparatus is used by an evaluation data generation unit that generates the first evaluation data based on the first map and the third map used for service management, and an object generation unit that generates a virtual object. It may further include a map selection unit that selects the first map or the second map based on the first evaluation data.
  • the global map data 23 and 36 described above are examples of the third map.
  • the evaluation data generation unit may generate the first evaluation data based on the degree of similarity between the first map and the third map.
  • the map acquisition unit may acquire the third map from the server.
  • the management server 30 described above is an example of a server.
  • the map selection unit may select the first map when the first evaluation value is equal to or less than the threshold value. Further, the map acquisition unit acquires the second evaluation data corresponding to the second map from another device, and the map selection unit acquires the second evaluation value corresponding to the self-position from the second evaluation data, and the second evaluation value is obtained. The second map may be selected when the evaluation value is larger than the first evaluation value. Further, the map selection unit may select the first map when the second evaluation value is equal to or less than the first evaluation value.
  • the information processing system includes a first information processing device that generates a first map based on a first image and a second information processing device that generates a second map based on a second image.
  • the first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device.
  • the second information processing device generates a virtual object based on the second map or the first map acquired from the first information processing device.
  • the first information processing device corresponds to the wearable computer 1A
  • the second information processing device corresponds to the wearable computer 1B.
  • the first map is, for example, the first local map data 21 generated by the local map generation unit 10 of the first information processing apparatus.
  • the second map is, for example, the second local map data 22 stored in the storage unit 5 of the first information processing apparatus.
  • the second map also corresponds to the first local map data 21 generated by the local map generation unit 10 of the second information processing apparatus.
  • the first information processing apparatus estimates the first self-position, acquires the first evaluation value corresponding to the first self-position from the first evaluation data, and performs the first evaluation. You may choose the first or second map to use to create the virtual object based on the value.
  • the second information processing device estimates the second self-position, acquires the third evaluation value corresponding to the second self-position from the second evaluation data, and uses it to generate a virtual object based on the third evaluation value. You may choose the first map or the second map.
  • the third evaluation value corresponds to the first evaluation value in steps S202 and S203 of FIG.
  • the first self-position and the second self-position are estimated by, for example, the self-position estimation unit 11 in each information processing device.
  • the flowchart of FIG. 17 shows an example of the display processing of the virtual object in the modification 1. Hereinafter, the process will be described with reference to the flowchart of FIG.
  • the self-position estimation unit 11 estimates the self-position of the information processing device 1 (step S211). For example, the self-position estimation unit 11 can obtain the first local coordinates corresponding to the self-position of the information processing device 1 in step S211.
  • the map selection unit 13 obtains the first evaluation value of the self-position from the first evaluation data (first evaluation data 24) (step S212). For example, the map selection unit 13 searches for a mesh in the first evaluation data 24 including the first local coordinates corresponding to its own position. As a result, the map selection unit 13 can obtain the evaluation value set in the mesh.
  • the map selection unit 13 determines whether or not the first evaluation value of the self-position in the evaluation data is larger than the threshold value (step S213). For example, when the data D4 (FIG. 14) is used as the first evaluation data, a value larger than 0 and smaller than 1 can be used as the threshold value. However, a different threshold may be used.
  • FIG. 18 shows an example of how the virtual object looks in the first modification.
  • the user U1 wearing the wearable computer 1A and the user U2 wearing the wearable computer 1B are facing the object OBJ at the same positions and postures as in FIGS. 9 and 16.
  • the object OBJ is a jar having an opening at the top.
  • View V1 shows an example of how it looks from user U1.
  • the view V2 shows an example of how the user U2 sees the view.
  • the service program 34 of the management server 30 transmits a command to generate the virtual object A1 at predetermined global coordinates to the wearable computers 1A and 1B, as in FIGS. 9 and 16.
  • the wearable computer 1A and the wearable computer 1B execute the processing of the flowchart of FIG. 17 and determine whether or not the generated virtual object is displayed larger than the specified size.
  • the virtual object A1 is displayed in a predetermined size.
  • the display deviation is small, and the virtual object A1 which is a character appears at a position corresponding to the upper part of the jar. Therefore, the user U1 can visually recognize how the character is popping out of the opening of the jar, as intended by the service.
  • the virtual object A1 is displayed larger than the specified size.
  • the virtual object A1 is enlarged 1.5 times as large as the specified size (size of FIG. 9). Therefore, in FIG. 16, as in FIG. 9, the display position of the virtual object A1 which is a character is displaced, but it is difficult for the user U2 to recognize this displacement.
  • the virtual object A1 is enlarged in three directions of the x-axis, the y-axis, and the z-axis.
  • the object generation unit 15 may expand the virtual object in the direction of a part of the axes. Further, the object generation unit 15 may execute a predetermined arithmetic process on the virtual object to change the shape of the virtual object and display it.
  • the information processing apparatus controls at least one of the size and shape of the virtual object displayed on the display unit 7 according to the first evaluation value of the self-position in the first evaluation data. May be good.
  • the processing of the flowchart of FIG. 17 also makes it possible to eliminate the deviation in the appearance of virtual objects between users and improve the quality of services using AR.
  • the object generation unit is a virtual object having a size larger when the first evaluation value is larger than the threshold value as compared with the case where the first evaluation value is less than or equal to the threshold value. May be generated.
  • the first information processing apparatus when the first evaluation value is larger than the threshold value, the first information processing apparatus produces a virtual object having a larger size than when the first evaluation value is equal to or less than the threshold value. It may be generated. Further, the second information processing apparatus may generate a virtual object having a larger size when the third evaluation value is larger than the threshold value as compared with the case where the third evaluation value is equal to or less than the threshold value.
  • the information processing device 1 may execute the processing of the flowchart of FIG. 15 in combination with the flowchart of FIG. That is, the information processing apparatus according to the present disclosure may execute a combination of a process of selecting a local map to be used when displaying a virtual object and a process of controlling at least one of the size and shape of the virtual object to be displayed.
  • the transmitting member 17 may be coated with a coating that prevents transmission of a specific wavelength band such as an infrared component or an ultraviolet component among electromagnetic waves. Further, a film that prevents transmission of a specific wavelength band of electromagnetic waves may be attached to the transmission member 17. Further, the head-mounted display 1C of FIG. 19 includes an earphone 16. The earphone 16 reproduces voice based on the voice signal output by the audio circuit 8.
  • the configuration of the head-mounted display shown in FIG. 19 is only an example. Therefore, a head-mounted display having a different shape may be used. Further, a head-mounted display in which an audio device such as an earphone is omitted may be used. For example, the user may use external earphones or headphones that receive audio signals transmitted by the head-mounted display via wireless communication (eg, Bluetooth).
  • wireless communication eg, Bluetooth
  • FIG. 20 shows an example of the configuration of the display unit.
  • the display unit 7 of FIG. 20 includes an illuminance sensor 3A, a dimming element 18, and a display 19.
  • the illuminance sensor 3A detects the ambient brightness of the head-mounted display 1C.
  • the dimming element 18 is, for example, a plate-shaped element containing an electrochromic material.
  • the voltage applied to the dimming element 18 is adjusted according to the measured value of the illuminance sensor 3A. For example, the applied voltage of the dimming element 18 can be increased when the measured value of the illuminance sensor 3A becomes large, and the applied voltage of the dimming element 18 can be decreased when the measured value of the illuminance sensor 3A becomes small. ..
  • the processing for superimposed display includes, for example, image generation processing, delay compensation processing, sound image generation processing, and the like.
  • image generation processing for example, image generation processing, delay compensation processing, sound image generation processing, and the like.
  • the information processing device may include a display unit that superimposes and displays a virtual object generated by the object generation unit on the background.
  • the display unit may include a transmissive display.
  • the information processing device may be a wearable computer.
  • the information processing device, information processing system, and information processing method according to the present disclosure it is possible to reduce the deviation in the appearance of virtual objects among a plurality of users. As a result, the quality of service using AR and the satisfaction of users can be improved. Multiple users will be able to share their experiences in augmented reality space. Specifically, in an action game, a plurality of users can cooperate to fight against an enemy character. Since the map to be used at each position in the space can be selected, the map can be used according to the service situation and timing. In addition, since the map to be used can be switched at the timing required on the service side, it is possible to suppress the influence on the processing load and the response speed.
  • the present technology can have the following configurations.
  • a map generator that generates the first map based on the image
  • a map acquisition unit that acquires a second map from another device
  • An information processing device including an object generation unit that creates a virtual object using the first map or the second map.
  • An evaluation data generation unit that generates the first evaluation data based on the first map and the third map used for managing the service.
  • the information processing apparatus according to (1) further comprising a map selection unit for selecting the first map or the second map used by the object generation unit for generating the virtual object based on the first evaluation data.
  • the map selection unit acquires a first evaluation value corresponding to the self-position from the first evaluation data, and the object generation unit uses the first map to generate the virtual object based on the first evaluation value. Or select the second map, The information processing device according to (2). (4) The map selection unit selects the first map when the first evaluation value is equal to or less than a threshold value. The information processing device according to (3). (5) The map acquisition unit acquires the second evaluation data corresponding to the second map from the other device, and obtains the second evaluation data. The map selection unit acquires a second evaluation value corresponding to the self-position from the second evaluation data, and selects the second map when the second evaluation value is larger than the first evaluation value. The information processing device according to (3) or (4).
  • the information processing device according to any one of (1) to (9).
  • a sensor unit for measuring at least one of the direction in which the image pickup unit is facing or the inclination angle of the image pickup unit is provided.
  • the map generation unit generates the first map using the measured values of the sensor unit.
  • the information processing device according to (10).
  • a display unit that superimposes and displays a virtual object generated by the object generation unit on the background is further provided.
  • the display includes a transmissive display.
  • a wearable computer The information processing device according to (12).
  • a first information processing device that generates a first map based on a first image, It is equipped with a second information processing device that generates a second map based on the second image.
  • the first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device.
  • the second information processing device generates the virtual object based on the second map or the first map acquired from the first information processing device.
  • Information processing system (15) Further equipped with a server that manages services using the third map
  • the first information processing apparatus generates first evaluation data based on the first map and the third map, selects the first map or the second map based on the first evaluation data, and virtualizes the first map. Used to create an object
  • the second information processing device generates second evaluation data based on the second map and the third map, selects the second map or the first map based on the first evaluation data, and the above. Used to create virtual objects,
  • the information processing system according to (14).
  • Steps to generate the first map based on the image The step of getting the second map from another device, Have the computer perform the steps of creating a virtual object using the first map or the second map.
  • Information processing method (20) The step of generating the first evaluation data based on the first map and the third map used for managing the service, and The information processing method according to (19), further including a step of selecting the first map or the second map used for generating the virtual object based on the first evaluation data.
  • Information processing device 1A, 1B Wearable computer 1C Head-mounted display 2 Imaging unit 3 Sensor unit 3A Illumination sensor 4 Processing circuit 5 Storage unit 6, 32 Communication circuit 7 Display unit 8 Audio circuit 10 Local map generator 11 Self-position estimation unit 12 Map acquisition unit 13 Map selection unit 14 Evaluation data generation unit 15 Object generation unit 16 Earphones 17 Transmission member 18 Dimming element 19 Display 30 Management server 31 Bus 33 Processor 34 Service program 35 Storage 36 Global map data 40 Network 41 Base station

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[Problem] To provide an information processing device, an information processing system, and an information processing method that make it possible to increase the quality of a service using AR and the satisfaction level of a user. [Solution] An information processing device according to the present disclosure comprises: a map generation unit that generates a first map on the basis of an image; a map acquisition unit that acquires a second map from another device; an object generation unit that uses the first map or the second map to generate a virtual object; and a display unit that displays the virtual object generated by the object generation unit as superposed on a background.

Description

情報処理装置、情報処理システムおよび情報処理方法Information processing equipment, information processing system and information processing method
 本開示は、情報処理装置、情報処理システムおよび情報処理方法に関する。 This disclosure relates to an information processing device, an information processing system, and an information processing method.
 拡張現実(AR: Augmented Reality)を使うと、現実世界の中にキャラクタ、テキスト、アイコン、アイテム、アニメーションなどの仮想オブジェクトを重畳した画像をユーザに提供することができる。また、情報通信技術によって複数のユーザに同一の仮想オブジェクトを見せることが可能なサービスおよびアプリケーションが実現されている。 Augmented Reality (AR) can be used to provide users with images in which virtual objects such as characters, texts, icons, items, and animations are superimposed in the real world. In addition, information and communication technology has realized services and applications that can show the same virtual object to a plurality of users.
特開2011-186808号公報Japanese Unexamined Patent Publication No. 2011-186808 特開2014-203175号公報Japanese Unexamined Patent Publication No. 2014-203175
 仮想オブジェクトをシステム内の同一座標に表示させても、ユーザによって仮想オブジェクトの見え方にずれが生じることがある。このため、ARを使ったサービスの品質およびユーザの満足度が低下してしまう問題があった。 Even if the virtual object is displayed at the same coordinates in the system, the appearance of the virtual object may be different depending on the user. Therefore, there is a problem that the quality of the service using AR and the satisfaction of the user are lowered.
 上述の課題に鑑みて、本開示は、ARを使ったサービスの品質およびユーザの満足度を高めることを可能にする情報処理装置、情報処理システムおよび情報処理方法を提供する。 In view of the above-mentioned problems, the present disclosure provides an information processing device, an information processing system, and an information processing method that can improve the quality of services using AR and the satisfaction of users.
 本開示の一態様による情報処理装置は、画像に基づいて第1マップを生成するマップ生成部と、他の装置から第2マップを取得するマップ取得部と、前記第1マップまたは前記第2マップを使って仮想オブジェクトを生成するオブジェクト生成部とを備えていてもよい。 The information processing device according to one aspect of the present disclosure includes a map generation unit that generates a first map based on an image, a map acquisition unit that acquires a second map from another device, and the first map or the second map. It may have an object generator that creates a virtual object using.
 前記第1マップとサービスの管理に使われる第3マップとに基づいて第1評価データを生成する評価データ生成部と、前記オブジェクト生成部が前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択するマップ選択部とをさらに備えていてもよい。 An evaluation data generation unit that generates first evaluation data based on the first map and a third map used for managing services, and the first map or the first map that the object generation unit uses to generate the virtual object. 2 A map selection unit for selecting a map based on the first evaluation data may be further provided.
 自己位置を推定する自己位置推定部をさらに備え、前記マップ選択部は、前記第1評価データより前記自己位置に対応する第1評価値を取得し、前記第1評価値に基づいて前記オブジェクト生成部が前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択してもよい。 The map selection unit further includes a self-position estimation unit that estimates the self-position, acquires a first evaluation value corresponding to the self-position from the first evaluation data, and generates the object based on the first evaluation value. The first map or the second map that the unit uses to generate the virtual object may be selected.
 前記マップ選択部は、前記第1評価値がしきい値以下であるときに前記第1マップを選択してもよい。 The map selection unit may select the first map when the first evaluation value is equal to or less than the threshold value.
 前記マップ取得部は、前記他の装置から前記第2マップに対応する第2評価データを取得し、前記マップ選択部は、前記第2評価データより前記自己位置に対応する第2評価値を取得し、前記第2評価値が前記第1評価値より大きいときに前記第2マップを選択してもよい。 The map acquisition unit acquires the second evaluation data corresponding to the second map from the other device, and the map selection unit acquires the second evaluation value corresponding to the self-position from the second evaluation data. Then, the second map may be selected when the second evaluation value is larger than the first evaluation value.
 前記マップ選択部は、前記第2評価値が前記第1評価値以下であるときに前記第1マップを選択してもよい。 The map selection unit may select the first map when the second evaluation value is equal to or less than the first evaluation value.
 前記オブジェクト生成部は、前記第1評価値がしきい値より大きいときに前記第1評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成してもよい。 The object generation unit may generate the virtual object having a size larger than when the first evaluation value is equal to or less than the threshold value when the first evaluation value is larger than the threshold value.
 前記評価データ生成部は、前記第1マップと前記第3マップとの間の類似度に基づいて前記第1評価データを生成してもよい。 The evaluation data generation unit may generate the first evaluation data based on the degree of similarity between the first map and the third map.
 前記マップ取得部は、サーバから前記第3マップを取得してもよい。 The map acquisition unit may acquire the third map from the server.
 前記画像を撮影する撮像部をさらに備えていてもよい。 An imaging unit for capturing the image may be further provided.
 前記撮像部が向いている方向または前記撮像部の傾斜角の少なくともいずれかを計測するセンサ部をさらに備えていてもよい。 A sensor unit that measures at least one of the direction in which the image pickup unit is facing or the inclination angle of the image pickup unit may be further provided.
 前記オブジェクト生成部が生成した仮想オブジェクトを背景に重畳して表示する表示部をさらに備えていてもよい。 A display unit that superimposes and displays a virtual object generated by the object generation unit on the background may be further provided.
 前記表示部は、透過型ディスプレイを含み、ウェアラブルコンピュータであってもよい。 The display unit includes a transmissive display and may be a wearable computer.
 本開示の一態様による情報処理システムは、第1画像に基づいて第1マップを生成する第1情報処理装置と、第2画像に基づいて第2マップを生成する第2情報処理装置とを備え、前記第1情報処理装置は、前記第1マップまたは前記第2情報処理装置から取得した前記第2マップに基づいて仮想オブジェクトを生成し、前記第2情報処理装置は、前記第2マップまたは前記第1情報処理装置から取得した前記第1マップに基づいて前記仮想オブジェクトを生成してもよい。 The information processing system according to one aspect of the present disclosure includes a first information processing device that generates a first map based on a first image, and a second information processing device that generates a second map based on a second image. The first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device, and the second information processing device is the second map or the second map. The virtual object may be generated based on the first map acquired from the first information processing apparatus.
 第3マップを使ってサービスの管理を行うサーバをさらに備え、前記第1情報処理装置は、前記第1マップと前記第3マップに基づいて第1評価データを生成し、前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択し、仮想オブジェクトの生成に使用し、前記第2情報処理装置は、前記第2マップと前記第3マップに基づいて第2評価データを生成し、前記第2マップまたは前記第1マップを前記第1評価データに基づいて選択し、前記仮想オブジェクトの生成に使用してもよい。 The first information processing apparatus further includes a server that manages services using the third map, generates first evaluation data based on the first map and the third map, and uses the first map or the third map. The second map is selected based on the first evaluation data and used to generate a virtual object, and the second information processing apparatus generates the second evaluation data based on the second map and the third map. , The second map or the first map may be selected based on the first evaluation data and used to generate the virtual object.
 前記第1情報処理装置は、第1自己位置を推定し、前記第1自己位置に対応する第1評価値を前記第1評価データより取得し、前記第1評価値に基づいて前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択し、前記第2情報処理装置は、第2自己位置を推定し、前記第2自己位置に対応する第3評価値を前記第2評価データより取得し、前記第3評価値に基づいて前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択してもよい。 The first information processing apparatus estimates the first self-position, acquires the first evaluation value corresponding to the first self-position from the first evaluation data, and based on the first evaluation value, of the virtual object. The first map or the second map to be used for generation is selected, the second information processing apparatus estimates the second self-position, and the third evaluation value corresponding to the second self-position is the second evaluation data. The first map or the second map which is acquired from the above and used for generating the virtual object may be selected based on the third evaluation value.
 前記第1情報処理装置は、前記第2情報処理装置から前記第2評価データを取得し、前記第2評価データより前記第1自己位置に対応する第2評価値を取得し、前記第2評価値が前記第1評価値より大きいときに前記第2マップを選択し、前記第2情報処理装置は、前記第1情報処理装置から前記第1評価データを取得し、前記第1評価データより前記第2自己位置に対応する第4評価値を取得し、前記第4評価値が前記第3評価値より大きいときに前記第1マップを選択してもよい。 The first information processing apparatus acquires the second evaluation data from the second information processing apparatus, acquires the second evaluation value corresponding to the first self-position from the second evaluation data, and obtains the second evaluation value. When the value is larger than the first evaluation value, the second map is selected, and the second information processing apparatus acquires the first evaluation data from the first information processing apparatus and obtains the first evaluation data from the first evaluation data. The first map may be selected when the fourth evaluation value corresponding to the second self-position is acquired and the fourth evaluation value is larger than the third evaluation value.
 前記第1情報処理装置は、前記第1評価値がしきい値より大きいときに前記第1評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成し、前記第2情報処理装置は、前記第3評価値がしきい値より大きいときに前記第3評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成してもよい。 When the first evaluation value is larger than the threshold value, the first information processing apparatus generates the virtual object having a size larger than that when the first evaluation value is equal to or less than the threshold value, and the second information processing device generates the virtual object. The information processing apparatus may generate the virtual object having a size larger when the third evaluation value is larger than the threshold value as compared with the case where the third evaluation value is equal to or less than the threshold value.
 本開示の一態様による情報処理方法は、画像に基づいて第1マップを生成するステップと、他の装置から第2マップを取得するステップと、前記第1マップまたは前記第2マップを使って仮想オブジェクトを生成するステップとをコンピュータに実行させてもよい。 The information processing method according to one aspect of the present disclosure includes a step of generating a first map based on an image, a step of acquiring a second map from another device, and a virtual method using the first map or the second map. You may want the computer to perform steps to create the object.
 前記第1マップとサービスの管理に使われる第3マップに基づいて第1評価データを生成するステップと、前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択するステップとをさらに含んでいてもよい。 The step of generating the first evaluation data based on the first map and the third map used for managing the service, and the first map or the second map used for generating the virtual object are used as the first evaluation data. It may further include a step of selection based on.
本開示による情報処理システムの例を示した図。The figure which showed the example of the information processing system by this disclosure. 本開示による情報処理装置の例を示したブロック図。The block diagram which showed the example of the information processing apparatus by this disclosure. 記憶部に保存されるデータの例を示したブロック図。A block diagram showing an example of data stored in a storage unit. 座標系間の関係の例を示した図。The figure which showed the example of the relationship between the coordinate systems. グローバルマップの例を示した図。The figure which showed the example of the global map. グローバルマップデータの例を示した図。The figure which showed the example of the global map data. ローカルマップの例を示した図。The figure which showed the example of the local map. ローカルマップデータの例を示した図。The figure which showed the example of the local map data. ユーザによる仮想オブジェクトの見え方のずれの例を示した図。The figure which showed the example of the deviation of the appearance of a virtual object by a user. 評価データの生成処理の例を示したフローチャート。A flowchart showing an example of evaluation data generation processing. グローバルマップとローカルマップの類似度の例を示した図。The figure which showed the example of the similarity between a global map and a local map. 仮想オブジェクトの表示領域を指定するデータの例を示した図。The figure which showed the example of the data which specifies the display area of a virtual object. 領域ごとの優先度の例を示した図。The figure which showed the example of the priority for each area. 評価データの例を示した図。The figure which showed the example of the evaluation data. マップ選択の処理の例を示したフローチャート。A flowchart showing an example of the map selection process. 本開示による情報処理システムにおける仮想オブジェクトの見え方の例を示す図。The figure which shows the example of the appearance of the virtual object in the information processing system by this disclosure. 変形例1における仮想オブジェクトの表示処理の例を示すフローチャート。The flowchart which shows the example of the display processing of the virtual object in the modification 1. 変形例1における仮想オブジェクトの見え方の例を示す図。The figure which shows the example of the appearance of the virtual object in the modification 1. ヘッドマウントディスプレイの着用例を示した図。The figure which showed the wearing example of the head mounted display. 表示部の構成の例を示した図。The figure which showed the example of the structure of the display part. ヘッドマウントディスプレイにおける処理の例を示した図。The figure which showed the example of the processing in the head-mounted display.
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
 図1は、本開示による情報処理システムの例を示している。図1の情報処理システム100は、ユーザに拡張現実(AR)を使ったサービスを提供する。ARを使って提供されるサービスには、例えば、ゲーム、アトラクション、トレーニングシステム、作業支援システムまたは販売促進システムがある。 FIG. 1 shows an example of an information processing system according to the present disclosure. The information processing system 100 of FIG. 1 provides a user with a service using augmented reality (AR). Services provided using AR include, for example, games, attractions, training systems, work support systems or sales promotion systems.
 ARを使ったゲームの例としては、マルチプレーヤのアクションゲームがある。ただし、ゲームの種類については問わない。ARを使ったアトラクションの例としては、スポーツ観戦イベントまたはライブ鑑賞イベントがある。ARを使ったトレーニングシステムの例としては、医療、製造または移動体の運転における技能を向上させるためのシステムがある。ARを使った作業支援システムの例としては、工事現場または機械の保守現場で使われるシステムがある。また、ARを使った販売促進システムの例としては、顧客にインテリアの設置後の風景を体験させるシステム、建物のリフォーム後の風景を体験させるシステムまたは顧客に衣服を着用した後の姿を提示するシステムがある。ただし、これらはARを使ったサービスの例にしかすぎない。したがって、情報処理システム100は、これらとは異なるサービスを提供してもよい。 An example of a game using AR is a multiplayer action game. However, the type of game does not matter. Examples of attractions using AR include watching sports events or watching live events. An example of a training system using AR is a system for improving skills in medical, manufacturing or mobile driving. An example of a work support system using AR is a system used at a construction site or a machine maintenance site. In addition, as an example of a sales promotion system using AR, a system that allows the customer to experience the scenery after the interior is installed, a system that allows the customer to experience the scenery after the remodeling of the building, or a system that allows the customer to experience the appearance after wearing clothes is presented. There is a system. However, these are just examples of services using AR. Therefore, the information processing system 100 may provide services different from these.
 図1の情報処理システム100は、ウェアラブルコンピュータ1Aと、ウェアラブルコンピュータ1Bと、管理サーバ30と、基地局41とを備えている。管理サーバ30は、ネットワーク40を介して基地局41に接続されている。ネットワーク40は、例えば、TCP/IPによる通信が可能な情報通信ネットワークである。基地局41は、例えば、無線LANのアクセスポイントまたは移動通信システムの基地局である。ウェアラブルコンピュータ1Aおよび1Bは、いずれも無線通信機能を備えている。このため、ウェアラブルコンピュータ1Aおよび1Bは、ネットワーク40と基地局41とを介して管理サーバ30とデータ通信を行うことができる。また、ウェアラブルコンピュータ1Aと、ウェアラブルコンピュータ1Bは、直接または基地局41を介して、互いにデータ通信を行うことができるものとする。 The information processing system 100 of FIG. 1 includes a wearable computer 1A, a wearable computer 1B, a management server 30, and a base station 41. The management server 30 is connected to the base station 41 via the network 40. The network 40 is, for example, an information communication network capable of communication by TCP / IP. The base station 41 is, for example, a wireless LAN access point or a base station of a mobile communication system. Both the wearable computers 1A and 1B have a wireless communication function. Therefore, the wearable computers 1A and 1B can perform data communication with the management server 30 via the network 40 and the base station 41. Further, it is assumed that the wearable computer 1A and the wearable computer 1B can perform data communication with each other directly or via the base station 41.
 ウェアラブルコンピュータ1Aおよび1Bは、自己位置推定とマップの作成を並行して行う機能(SLAM: Simultaneous Localization and Mapping)を備え、ユーザにARを使ったサービスを体験させる情報処理装置である。ウェアラブルコンピュータは、例えば、ヘッドマウントディスプレイ(HMD)、スマートグラス、ARヘルメットまたはスマートウォッチなどのユーザの身体のいずれかの部位に着用して使用される装置のことをいう。以下では、本開示による情報処理装置がウェアラブルコンピュータである場合を例に説明をする。 Wearable computers 1A and 1B are information processing devices equipped with a function (SLAM: Simultaneous Localization and Mapping) that performs self-position estimation and map creation in parallel, and allow users to experience services using AR. A wearable computer is a device that is worn and used on any part of the user's body, such as a head-mounted display (HMD), smart glasses, AR helmet, or smart watch. In the following, a case where the information processing device according to the present disclosure is a wearable computer will be described as an example.
 ただし、本開示による情報処理装置は、ウェアラブルコンピュータ以外の装置であってもよい。例えば、本開示による情報処理装置は、ゲーム機器、スマートフォン、タブレット、ノートパソコンなどのユーザが携帯可能な装置であってもよい、また、本開示による情報処理装置は、自動車、航空機、船舶、鉄道車両などの移動体のコックピット(操縦席)またはコンソールに実装される装置であってもよい。 However, the information processing device according to the present disclosure may be a device other than a wearable computer. For example, the information processing device according to the present disclosure may be a device portable to a user such as a game device, a smartphone, a tablet, or a laptop computer, and the information processing device according to the present disclosure may be an automobile, an aircraft, a ship, or a railway. It may be a device mounted in the cockpit (driver's seat) or console of a moving body such as a vehicle.
 ウェアラブルコンピュータは、自身でマップ(ローカルマップ)に相当するデータを生成する。図1のウェアラブルコンピュータ1Aは、ローカルマップデータ21Aを生成する。また、ウェアラブルコンピュータ1Bは、ローカルマップデータ21Bを生成する。ローカルマップデータは、例えば、複数の特徴点によって空間内にある物体の形状および位置を表現した点群データ(ポイントクラウド)である。本開示によるウェアラブルコンピュータは、例えば、SFM(Structure from Motion)によって点群データを生成することができる。ただし、点群データを生成する方法については、問わない。例えば、本開示によるウェアラブルコンピュータは、LIDAR(Laser Imaging Detection And Ranging)によって点群データを生成してもよい。この場合、ウェアラブルコンピュータは、光源と測距センサとを備える。 The wearable computer itself generates data corresponding to a map (local map). The wearable computer 1A of FIG. 1 generates local map data 21A. Further, the wearable computer 1B generates the local map data 21B. The local map data is, for example, point cloud data (point cloud) that expresses the shape and position of an object in space by a plurality of feature points. The wearable computer according to the present disclosure can generate point cloud data by, for example, SFM (Structure from Motion). However, the method of generating the point cloud data does not matter. For example, the wearable computer according to the present disclosure may generate point cloud data by LIDAR (Laser Imaging Detection And Ringing). In this case, the wearable computer includes a light source and a distance measuring sensor.
 図1の情報処理システム100は、ふたつのウェアラブルコンピュータ(情報処理装置)を含んでいる。ただし、本開示による情報処理システムは、これより多くの情報処理装置を含んでいてもよい。本開示による情報処理装置の詳細については、後述する。 The information processing system 100 of FIG. 1 includes two wearable computers (information processing devices). However, the information processing system according to the present disclosure may include more information processing devices. Details of the information processing apparatus according to the present disclosure will be described later.
 管理サーバ30は、ARを使ったサービスの管理を行うコンピュータである。管理サーバ30は、通信回路32と、プロセッサ33と、ストレージ35とを備えている。通信回路32、プロセッサ33、ストレージ35は、互いにバス31を介して接続されている。通信回路32は、例えば、NIC(ネットワークインタフェースカード)である。プロセッサ33は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)などのハードウェア回路である。ストレージ35は、データを保存可能な記憶領域を提供する。ストレージ35として、揮発性メモリ(例えば、DRAMまたはSRAM)、不揮発性メモリ(例えば、NANDフラッシュメモリ、NORフラッシュメモリ、抵抗変化型メモリ、磁気抵抗メモリ)、ハードディスク、SSD(Solid State Drive)またはこれらの組み合わせを使うことができる。 The management server 30 is a computer that manages services using AR. The management server 30 includes a communication circuit 32, a processor 33, and a storage 35. The communication circuit 32, the processor 33, and the storage 35 are connected to each other via the bus 31. The communication circuit 32 is, for example, a NIC (network interface card). The processor 33 is a hardware circuit such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). The storage 35 provides a storage area in which data can be stored. As the storage 35, a volatile memory (for example, DRAM or SRAM), a non-volatile memory (for example, NAND flash memory, NOR flash memory, resistance change type memory, magnetoresistive memory), a hard disk, SSD (Solid State Drive) or these Combinations can be used.
 図1に示されているように、ストレージ35には、グローバルマップデータ36が保存されている。グローバルマップデータ36として、例えば、複数の特徴点によって空間内にある物体の形状および位置を表現した点群データ(ポイントクラウド)を使うことができる。グローバルマップデータ36は、サービスが提供される空間のマップに相当する。プロセッサ33上で実行されるサービスプログラム34は、グローバルマップデータ36で規定されている座標に基づいて、仮想オブジェクトを生成する位置、サービス内でイベントを発生させる位置を指定することができる。また、サービスプログラム34は、グローバルマップデータ36で規定されている座標に基づいて、サービスを利用しているユーザの位置を管理してもよい。 As shown in FIG. 1, the global map data 36 is stored in the storage 35. As the global map data 36, for example, point cloud data (point cloud) expressing the shape and position of an object in space by a plurality of feature points can be used. The global map data 36 corresponds to a map of the space in which the service is provided. The service program 34 executed on the processor 33 can specify the position where the virtual object is generated and the position where the event is generated in the service based on the coordinates defined in the global map data 36. Further, the service program 34 may manage the position of the user who is using the service based on the coordinates defined in the global map data 36.
 仮想オブジェクトは、現実世界の背景の上に重畳して表示されるコンテンツであって、ARオブジェクトともよばれる。仮想オブジェクトの例としては、キャラクタ、テキスト、アイコン、アイテムが挙げられる。ただし、仮想オブジェクトの種類を限定するものではない。仮想オブジェクトは、動きを伴うアニメーションであってもよいし、静止しているものであってもよい。 A virtual object is content that is displayed superimposed on the background of the real world, and is also called an AR object. Examples of virtual objects include characters, text, icons, and items. However, it does not limit the types of virtual objects. The virtual object may be an animation with motion or it may be stationary.
 グローバルマップデータ36として、事前に生成された点群データを使うことができる。ただし、グローバルマップデータ36として、時間経過とともに更新される点群データを使ってもよい。グローバルマップデータ36は、後述のローカルマップデータと同様の方法で生成されたデータであってもよいし、ローカルマップデータとは異なる方法によって生成されたデータであってもよい。例えば、SFMまたはLIDARなどの技術によって空間のグローバルマップデータ36を生成してもよい。また、レーザスキャナーを搭載した自動車またはレーザスキャナーを搭載した無人航空機(UAV:Unmanned Aerial Vehicle)を使ってグローバルマップデータ36を生成してもよい。 As the global map data 36, the point cloud data generated in advance can be used. However, as the global map data 36, point cloud data updated with the passage of time may be used. The global map data 36 may be data generated by the same method as the local map data described later, or may be data generated by a method different from the local map data. For example, the global map data 36 of the space may be generated by a technique such as SFM or LIDAR. Further, the global map data 36 may be generated by using an automobile equipped with a laser scanner or an unmanned aerial vehicle (UAV: Unmanned Aerial Vehicle) equipped with a laser scanner.
 図2は、グローバルマップの例を示している。図2のグローバルマップは、街の道路沿いにある物体の形状および位置を示している。図2の例では、あらかじめサービスの利用が想定される広い領域を含むグローバルマップが用意されている。このため、グローバルマップを参照すると、遠方まで道路に沿って建物が連続していることがわかる。図3は、図2のグローバルマップを含むグローバルマップデータの例を示している。図3のように、グローバルマップデータ36として、空間内の物体の形状および位置を3次元直交座標系で表現したデータを使うことができる。ただし、グローバルマップデータ36のデータ形式を限定するものではない。 Figure 2 shows an example of a global map. The global map of FIG. 2 shows the shape and position of objects along the streets of the city. In the example of FIG. 2, a global map including a wide area where the service is expected to be used is prepared in advance. Therefore, if you refer to the global map, you can see that the buildings are continuous along the road to a long distance. FIG. 3 shows an example of global map data including the global map of FIG. As shown in FIG. 3, as the global map data 36, data expressing the shape and position of an object in space in a three-dimensional Cartesian coordinate system can be used. However, the data format of the global map data 36 is not limited.
 次に、本開示による情報処理装置の詳細について説明する。 Next, the details of the information processing device according to the present disclosure will be described.
 図4のブロック図は、本開示による情報処理装置の例を示している。図4の情報処理装置は、図1のウェアラブルコンピュータ1Aまたは1Bに相当する。情報処理装置1は、撮像部2と、センサ部3と、処理回路4と、記憶部5と、通信回路6と、表示部7と、オーディオ回路8とを備えている。処理回路4として、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらの組み合わせを含むハードウェア回路を使うことができる。処理回路4は、内部の構成要素として、ローカルマップ生成部10と、自己位置推定部11と、マップ取得部12と、マップ選択部13と、評価データ生成部14と、オブジェクト生成部15とを含んでいる。 The block diagram of FIG. 4 shows an example of the information processing apparatus according to the present disclosure. The information processing device of FIG. 4 corresponds to the wearable computer 1A or 1B of FIG. The information processing device 1 includes an image pickup unit 2, a sensor unit 3, a processing circuit 4, a storage unit 5, a communication circuit 6, a display unit 7, and an audio circuit 8. As the processing circuit 4, for example, a hardware circuit including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof can be used. it can. The processing circuit 4 includes a local map generation unit 10, a self-position estimation unit 11, a map acquisition unit 12, a map selection unit 13, an evaluation data generation unit 14, and an object generation unit 15 as internal components. Includes.
 図5のブロック図は、記憶部に保存されるデータの例を示している。図5の記憶部5には、画像データ20と、第1ローカルマップデータ21と、第2ローカルマップデータ22と、グローバルマップデータ23と、第1評価データ24と、第2評価データ25と、マップ処理プログラム26と、アプリケーションプログラム27とが保存されている。記憶部5として、揮発性メモリ(例えば、DRAMまたはSRAM)、不揮発性メモリ(例えば、NANDフラッシュメモリ、NORフラッシュメモリ、抵抗変化型メモリ、磁気抵抗メモリ)、ハードディスク、SSD(Solid State Drive)またはこれらの組み合わせを使うことができる。ただし、記憶部5として使われるメモリ/ストレージの種類については問わない。 The block diagram of FIG. 5 shows an example of data stored in the storage unit. In the storage unit 5 of FIG. 5, the image data 20, the first local map data 21, the second local map data 22, the global map data 23, the first evaluation data 24, the second evaluation data 25, and the like. The map processing program 26 and the application program 27 are stored. As the storage unit 5, a volatile memory (for example, DRAM or SRAM), a non-volatile memory (for example, NAND flash memory, NOR flash memory, resistance change type memory, magnetoresistive memory), a hard disk, SSD (Solid State Drive) or these You can use the combination of. However, the type of memory / storage used as the storage unit 5 does not matter.
 以下では、図4および図5を参照しながら、各構成要素を説明する。 In the following, each component will be described with reference to FIGS. 4 and 5.
 撮像部2は、例えば、CMOSイメージセンサまたはCCDイメージセンサなどの撮像素子を含む。例えば、可視光線を検出しカラー画像を出力する撮像素子を使うことができる。ただし、撮像部2は、赤外線などその他の波長帯域の電磁波を検出する撮像素子を含んでいてもよい。撮像部2が撮影した画像は、画像データ20として記憶部5に保存される。撮像部2は、例えば、情報処理装置1を着用しているユーザの視線と同一方向における画像を撮影する。ただし、撮像部2が撮影と行う方向とユーザの視線の方向は、必ず一致していなくてもよい。また、撮像部2の視野(FOV)はユーザの視野と異なっていてもよい。なお、撮像部2は、情報処理装置1内のその他の構成要素と一体的に実装されたものであってもよいし、外付けの装置であってもよい。 The image pickup unit 2 includes, for example, an image pickup element such as a CMOS image sensor or a CCD image sensor. For example, an image sensor that detects visible light and outputs a color image can be used. However, the image pickup unit 2 may include an image pickup element that detects electromagnetic waves in other wavelength bands such as infrared rays. The image taken by the imaging unit 2 is stored in the storage unit 5 as image data 20. The imaging unit 2 captures, for example, an image in the same direction as the line of sight of the user wearing the information processing device 1. However, the direction in which the imaging unit 2 performs shooting and the direction in which the user's line of sight does not necessarily have to match. Further, the field of view (FOV) of the imaging unit 2 may be different from the field of view of the user. The imaging unit 2 may be integrally mounted with other components in the information processing device 1, or may be an external device.
 センサ部3は、例えば、情報処理装置1の位置推定が可能なセンサまたは情報処理装置1の姿勢検出が可能なセンサの少なくともいずれかを含む。センサ部3は、例えば、加速度センサ、ジャイロセンサ、電子コンパス、GPS受信器、または傾きセンサなどのセンサを含んでいてもよい。情報処理装置1は、センサ部3を介して、自身の位置または姿勢の少なくともいずれかの情報を取得してもよい。ここで、姿勢は、撮像部2が向いている方向または情報処理装置1の傾斜角の少なくともいずれかを含んでいてもよい。 The sensor unit 3 includes, for example, at least one of a sensor capable of estimating the position of the information processing device 1 and a sensor capable of detecting the posture of the information processing device 1. The sensor unit 3 may include, for example, a sensor such as an acceleration sensor, a gyro sensor, an electronic compass, a GPS receiver, or a tilt sensor. The information processing device 1 may acquire at least one information of its own position or posture via the sensor unit 3. Here, the posture may include at least one of the direction in which the imaging unit 2 is facing or the tilt angle of the information processing device 1.
 センサ部3は、撮像部2による画像の撮影動作と連動して計測を行ってもよい。例えば、センサ部3は、撮像部2が画像を撮影したときに、画像の撮影タイミングにおける情報処理装置1の位置または姿勢の少なくともいずれかを計測してもよい。そして、センサ部3は、情報処理装置1の位置または姿勢の少なくともいずれかを含む情報を、記憶部5に撮像部2が撮影した画像と関連付けて保存してもよい。すなわち、記憶部5の画像データ20は、それぞれの画像が撮影されたときにおける情報処理装置1の位置または姿勢の少なくともいずれかの情報を含んでいてもよい。また、センサ部3は、温度センサまたは照度センサなど、その他の種類の物理的な情報を計測するセンサを含んでいてもよい。 The sensor unit 3 may perform measurement in conjunction with an image shooting operation by the imaging unit 2. For example, the sensor unit 3 may measure at least one of the position or the posture of the information processing device 1 at the image shooting timing when the image capturing unit 2 takes an image. Then, the sensor unit 3 may store information including at least one of the positions and postures of the information processing device 1 in the storage unit 5 in association with the image captured by the imaging unit 2. That is, the image data 20 of the storage unit 5 may include at least information on the position or posture of the information processing device 1 when each image is taken. In addition, the sensor unit 3 may include a sensor that measures other types of physical information, such as a temperature sensor or an illuminance sensor.
 通信回路6は、無線によるデータ通信を行うための回路である。通信回路6は、アンテナを含んでいてもよい。処理回路4内の各構成要素は、通信回路6を介して外部の装置とデータ通信を行うことができる。通信回路6として、例えば、無線LAN(IEEE802.11シリーズまたはその上位規格)または各種の移動通信規格に対応した回路を使うことができる。ただし、通信回路6で使われる通信規格の種類については、問わない。 The communication circuit 6 is a circuit for wireless data communication. The communication circuit 6 may include an antenna. Each component in the processing circuit 4 can perform data communication with an external device via the communication circuit 6. As the communication circuit 6, for example, a circuit corresponding to a wireless LAN (IEEE802.11 series or a higher standard thereof) or various mobile communication standards can be used. However, the type of communication standard used in the communication circuit 6 does not matter.
 表示部7は、グラフィックおよび文字などのコンテンツを表示する装置である。表示部7として、コンテンツを背景に重畳させて表示する透過型ディスプレイを含んでいてもよい。また、表示部7は、撮像部2で撮影された映像を表示し、当該映像の上にコンテンツを重畳させることが可能なディスプレイを含んでいてもよい。表示部7は、例えば、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイまたはMicroLEDディスプレイを含んでいてもよい。ただし、表示部7で使われるディスプレイの種類については、特に問わない。後述するように、表示部7は、調光素子を含んでいてもよい。例えば、表示部7は、オブジェクト生成部15が指定した内容のコンテンツをユーザに視覚的に提示する。ただし、表示部7に表示されるコンテンツは、管理サーバ30のサービスプログラム34が指定した内容のものであってもよい。なお、表示部7は、情報処理装置1内のその他の構成要素と一体的に実装されたものであってもよいし、外付けの装置であってもよい。 The display unit 7 is a device that displays contents such as graphics and characters. The display unit 7 may include a transmissive display that displays the content superimposed on the background. Further, the display unit 7 may include a display capable of displaying the image captured by the imaging unit 2 and superimposing the content on the image. The display unit 7 may include, for example, a liquid crystal display, an OLED (Organic Light Emitting Diode) display, or a MicroLED display. However, the type of display used in the display unit 7 is not particularly limited. As will be described later, the display unit 7 may include a dimming element. For example, the display unit 7 visually presents the content specified by the object generation unit 15 to the user. However, the content displayed on the display unit 7 may be the content specified by the service program 34 of the management server 30. The display unit 7 may be integrally mounted with other components in the information processing device 1, or may be an external device.
 オーディオ回路8は、サービスで使われる音声を再生する回路である。例えば、サービスで使われている音声がデジタル形式のデータである場合、オーディオ回路8は、デジタル形式のデータをアナログ形式の音声信号に変換する。そして、オーディオ回路8は、アナログ形式の音声信号をイヤホン、ヘッドホンまたはスピーカーなどのオーディオ機器に出力する。オーディオ回路8が再生する音声は、オブジェクト生成部15が指定したデータに基づくものであってもよい。また、オーディオ回路8は、管理サーバ30のサービスプログラム34が指定したデータに基づいて音声を再生してもよい。オーディオ回路8は、音声の録音(マイクロホン)の機能を備えていてもよい。 The audio circuit 8 is a circuit that reproduces the voice used in the service. For example, when the audio used in the service is digital format data, the audio circuit 8 converts the digital format data into an analog format audio signal. Then, the audio circuit 8 outputs an analog-format audio signal to an audio device such as an earphone, a headphone, or a speaker. The sound reproduced by the audio circuit 8 may be based on the data specified by the object generation unit 15. Further, the audio circuit 8 may reproduce audio based on the data specified by the service program 34 of the management server 30. The audio circuit 8 may have a voice recording (microphone) function.
 ローカルマップ生成部10は、撮像部2に複数のタイミングで画像を撮影させる。例えば、撮像部2は、周期的に画像を撮影する。ただし、画像の撮影タイミングを限定するものではない。例えば、撮像部2は、ユーザが指定したタイミングで画像を撮影してもよい。これにより、情報処理装置1を着用したユーザの移動にしたがって、異なる位置および角度で撮影された複数の画像を含む画像データ20を得ることができる。上述のように、画像データ20内のそれぞれの画像は、情報処理装置1の位置または姿勢の少なくともいずれかを含む情報に関連付けられていてもよい。 The local map generation unit 10 causes the imaging unit 2 to capture an image at a plurality of timings. For example, the imaging unit 2 periodically captures an image. However, the timing of taking an image is not limited. For example, the imaging unit 2 may capture an image at a timing specified by the user. As a result, it is possible to obtain image data 20 including a plurality of images taken at different positions and angles according to the movement of the user wearing the information processing device 1. As described above, each image in the image data 20 may be associated with information including at least one of the positions or orientations of the information processing apparatus 1.
 そして、ローカルマップ生成部10は、画像データ20内の画像より特徴点を抽出し、点群データ(ポイントクラウド)を生成することができる。ローカルマップ生成部10は、情報処理装置1の位置または姿勢の少なくともいずれかを含む情報を使って点群データを生成してもよい。ここで、点群データは、空間内にある物体の形状および位置を表現するためのデータ形式の一例にしかすぎない。したがって、ローカルマップ生成部10は、空間内にある物体の形状および位置を表現するために点群データとは異なる形式のデータを生成してもよい。ローカルマップ生成部10は、第1ローカルマップデータ21を記憶部5に保存する。第1ローカルマップデータ21は、空間内における座標情報を含んでいてもよい。なお、ローカルマップ生成部10は、サービスが提供される空間を複数の空間メッシュに分割し、空間メッシュごとに点群データを生成してもよい。 Then, the local map generation unit 10 can extract feature points from the image in the image data 20 and generate point cloud data (point cloud). The local map generation unit 10 may generate point cloud data using information including at least one of the positions and orientations of the information processing device 1. Here, the point cloud data is only an example of a data format for expressing the shape and position of an object in space. Therefore, the local map generation unit 10 may generate data in a format different from the point cloud data in order to express the shape and position of the object in the space. The local map generation unit 10 stores the first local map data 21 in the storage unit 5. The first local map data 21 may include coordinate information in space. The local map generation unit 10 may divide the space in which the service is provided into a plurality of spatial meshes and generate point cloud data for each spatial mesh.
 なお、ローカルマップ生成部10が生成する第1ローカルマップデータ21は、点群データを変換したデータを含んでいてもよい。例えば、ローカルマップ生成部10は、点群データを変換し、ポリゴンまたがNURBS(非一様有理Bスプライン)などのデータを生成し、第1ローカルマップデータ21として保存してもよい。また、ローカルマップ生成部10は、点群データのサーフェス化処理を行い、画像をサーフェス上に投影することにより、色情報(例えば、RGB)を含む第1ローカルマップデータ21を生成してもよい。 The first local map data 21 generated by the local map generation unit 10 may include data obtained by converting the point cloud data. For example, the local map generation unit 10 may convert point cloud data, generate data such as polygons or NURBS (non-uniform rational B-spline), and store it as the first local map data 21. Further, the local map generation unit 10 may generate the first local map data 21 including the color information (for example, RGB) by performing the surface formation processing of the point cloud data and projecting the image on the surface. ..
 図6は、ローカルマップの例を示している。図6のローカルマップは、図2と同じ街の道路沿いにある物体の形状および位置を示したものである。ローカルマップ生成部10は、充分な数の画像が撮影できた領域よりローカルマップの生成を行う。このため、図6の領域28のように物体の形状および位置の情報が充分に得られず、ローカルマップが未作成の領域が空間内に残る可能性がある。一方、ローカルマップ内のユーザ近傍にある物体の形状および位置の情報については、リアルタイムで更新が行われる。したがって、ユーザが長時間観察している空間内の領域については、詳細な情報を取得することが可能となる。 FIG. 6 shows an example of a local map. The local map of FIG. 6 shows the shape and position of an object along the road in the same city as that of FIG. The local map generation unit 10 generates a local map from an area where a sufficient number of images can be captured. Therefore, as in the area 28 of FIG. 6, information on the shape and position of the object cannot be sufficiently obtained, and there is a possibility that an area for which a local map has not been created remains in the space. On the other hand, the information on the shape and position of the object in the vicinity of the user in the local map is updated in real time. Therefore, it is possible to acquire detailed information about the area in the space that the user is observing for a long time.
 図6を参照すると、図2のグローバルマップと比べて道路右側にある建物の形状に関する情報がより高い精度で得られている。また、道路右側にいる通行人、道路上にある小石などのリアルタイムな情報が得られていることがわかる。このように、ローカルマップを使うと、天気、日光の向き、植物の成長などの現在の環境に関する情報を処理に反映させることができる。特に、ロケーションベースのサービスまたはアプリケーションの場合、ローカルマップを使うと仮想オブジェクトの表示精度が高まる可能性がある。一方、ローカルマップでは、情報処理装置1を着用するユーザの身長または体型によって得られる物体の形状および位置の情報に相違点が生じる可能性がある。 With reference to FIG. 6, information on the shape of the building on the right side of the road is obtained with higher accuracy than the global map of FIG. In addition, it can be seen that real-time information such as passersby on the right side of the road and pebbles on the road is obtained. In this way, local maps can be used to reflect information about the current environment, such as weather, sunlight orientation, and plant growth, in the process. Especially for location-based services or applications, using local maps can improve the display accuracy of virtual objects. On the other hand, in the local map, there may be a difference in the information on the shape and position of the object obtained depending on the height or body shape of the user who wears the information processing device 1.
 図7は、ローカルマップデータの例を示している。ローカルマップデータとして、図7のように空間内の物体の形状および位置を3次元直交座標系で表現したデータを使うことができる。ただし、ローカルマップデータで使われる座標系の種類を限定するものではない。 FIG. 7 shows an example of local map data. As the local map data, as shown in FIG. 7, data expressing the shape and position of an object in space in a three-dimensional Cartesian coordinate system can be used. However, it does not limit the type of coordinate system used in the local map data.
 後述するように、本開示による情報処理装置は、自装置で生成したローカルマップだけでなく、他の情報処理装置によって生成されたローカルマップを使うこともできる。自装置で生成したローカルマップを第1ローカルマップ、他の情報処理装置が生成したローカルマップを第2ローカルマップとよぶものとする。例えば、情報処理装置1は、自己位置の推定時に第1ローカルマップを使うことができる。また、情報処理装置1は、仮想オブジェクトの生成など一部の処理において第2ローカルマップを任意的に使うことができる。ただし、それぞれの処理において使用されるマップを限定するものではない。図5の第1ローカルマップデータ21は、第1ローカルマップを含むデータである。一方、図5の第2ローカルマップデータ22は、他の情報処理装置によって生成された第2ローカルマップを含むデータである。 As will be described later, the information processing device according to the present disclosure can use not only the local map generated by the own device but also the local map generated by another information processing device. The local map generated by the own device is called the first local map, and the local map generated by another information processing device is called the second local map. For example, the information processing device 1 can use the first local map when estimating its own position. Further, the information processing device 1 can arbitrarily use the second local map in some processes such as generation of a virtual object. However, the map used in each process is not limited. The first local map data 21 in FIG. 5 is data including the first local map. On the other hand, the second local map data 22 in FIG. 5 is data including the second local map generated by another information processing apparatus.
 自己位置推定部11は、情報処理装置1の空間内における位置を推定する。自己位置推定部11は、例えば、撮像部2が撮影した画像に基づいて自己位置を推定することができる。自己位置推定部11は、センサ部3内のセンサの計測値に基づいて自己位置を推定してもよい。自己位置推定部11が空間内における位置を推定すると、情報処理装置1の現在位置を示す第1ローカルマップ内の座標が更新される。なお、自己位置推定部11は、自己位置の推定時に、第2ローカルマップまたはグローバルマップの少なくともいずれかのマップにおける座標を計算してもよい。座標として、例えば、直交座標系における原点からのオフセット値(x,y,z)を使うことができる。ただし、座標の表現方法については、限定しない。例えば、球座標または極座標系などその他の種類の座標系が使われていてもよい。 The self-position estimation unit 11 estimates the position of the information processing device 1 in space. The self-position estimation unit 11 can estimate the self-position based on the image captured by the imaging unit 2, for example. The self-position estimation unit 11 may estimate the self-position based on the measured value of the sensor in the sensor unit 3. When the self-position estimation unit 11 estimates the position in space, the coordinates in the first local map indicating the current position of the information processing device 1 are updated. The self-position estimation unit 11 may calculate the coordinates in at least one of the second local map and the global map when estimating the self-position. As the coordinates, for example, offset values (x l , y l , z l ) from the origin in the Cartesian coordinate system can be used. However, the method of expressing the coordinates is not limited. Other types of coordinate systems, such as spherical or polar coordinates, may be used.
 第1ローカルマップで使われる座標系は、管理サーバ30(グローバルマップ)で使われる座標系と同一の種類のものであってもよいし、異なる種類のものであってもよい。また、第1ローカルマップで使われる座標系の原点は、管理サーバ30で使われる座標系の原点と一致していてもよいし、異なる位置に設定されたものであってもよい。第1ローカルマップで使われる座標(系)をローカル座標(系)とよび、管理サーバ30で使われるグローバル座標(系)と区別するものとする。また、第2ローカルマップで使われている座標(系)を第2ローカル座標(系)とよぶものとする。 The coordinate system used in the first local map may be of the same type as the coordinate system used in the management server 30 (global map), or may be of a different type. Further, the origin of the coordinate system used in the first local map may be the same as the origin of the coordinate system used in the management server 30, or may be set at a different position. The coordinates (system) used in the first local map are called local coordinates (system), and are distinguished from the global coordinates (system) used in the management server 30. Further, the coordinates (system) used in the second local map are referred to as the second local coordinates (system).
 自己位置推定部11は、所定の周期で自己位置を推定してもよい。また、自己位置推定部11は、所定の条件が満たされたときに自己位置を推定してもよい。例えば、自己位置推定部11は、撮像部2で特定の物体(キーオブジェクトとよぶ)を含む画像が検出されたことを条件に空間内の座標を計算してもよい。この画像をキーフレームとよぶものとする。キーフレームは、ユーザが選択したものであってもよいし、特徴点に基づいて自己位置推定部11が選択したものであってもよい。自己位置推定部11またはユーザは、画像データ20内のキーフレームに相当する画像にラベルを付加してもよい。 The self-position estimation unit 11 may estimate the self-position at a predetermined cycle. Further, the self-position estimation unit 11 may estimate the self-position when a predetermined condition is satisfied. For example, the self-position estimation unit 11 may calculate the coordinates in space on the condition that the image pickup unit 2 detects an image including a specific object (called a key object). This image is called a keyframe. The key frame may be selected by the user or may be selected by the self-position estimation unit 11 based on the feature points. The self-position estimation unit 11 or the user may add a label to the image corresponding to the key frame in the image data 20.
 また、キーオブジェクトのグローバル座標の値が管理サーバ30から通知されている場合、自己位置推定部11は、グローバル座標の値に基づいて第1ローカル座標のずれを補正してもよい。例えば、自己位置推定部11は、キーオブジェクトが検出された第1ローカル座標をグローバル座標に変換し、当該グローバル座標の値が管理サーバ30から通知された値と異なっている場合、管理サーバ30から通知されたグローバル座標を第1ローカル座標に変換して得られた値を自己位置に設定してもよい。これにより、第1ローカル座標系とグローバル座標系との間の整合性を担保することができる。 Further, when the global coordinate value of the key object is notified from the management server 30, the self-position estimation unit 11 may correct the deviation of the first local coordinate based on the global coordinate value. For example, the self-position estimation unit 11 converts the first local coordinate in which the key object is detected into the global coordinate, and when the value of the global coordinate is different from the value notified from the management server 30, the management server 30 informs the user. The value obtained by converting the notified global coordinates to the first local coordinates may be set as the self-position. As a result, the consistency between the first local coordinate system and the global coordinate system can be ensured.
 ここで、第1ローカル座標とグローバル座標との間の座標変換の方法について説明する。例えば、管理サーバ30のグローバルマップデータ36と、情報処理装置1の第1ローカルマップデータ21のデータ内の特徴点を比較し、空間内の同一の位置であるか否かを判定することが可能である。以下では、空間内の同一の位置に相当する第1ローカル座標またはグローバル座標が得られたときに、他方の座標系への変換を行う場合について述べる。 Here, the method of coordinate conversion between the first local coordinate and the global coordinate will be described. For example, it is possible to compare the global map data 36 of the management server 30 with the feature points in the data of the first local map data 21 of the information processing device 1 and determine whether or not they are at the same position in the space. Is. In the following, a case where conversion to the other coordinate system is performed when the first local coordinates or global coordinates corresponding to the same position in the space are obtained will be described.
 はじめに、説明で使われる表記を説明する。座標系uで表現された位置vの位置ベクトルをと表す。また、座標系vで表現されたベクトルを座標系uで表現されたベクトルに変換するための回転行列をと表す。3次元の直交座標系が使われる場合、は、要素数3のベクトルとなり、は、3×3の回転行列となる。また、下記の式(1)のは、座標系vで表現された位置ベクトルを座標系uに変換するための行列である。は、を同時座標系で表した4×4行列である。
Figure JPOXMLDOC01-appb-M000001
ここで、0は、[0,0,0]の行列であるものとする。
First, the notation used in the explanation will be explained. The position vector of the position v represented by the coordinate system u is expressed as u P v . Further, the rotation matrix for converting the vector represented by the coordinate system v into the vector represented by the coordinate system u is represented by u R v . When a three-dimensional Cartesian coordinate system is used, u P v is a vector with three elements, and u R v is a 3 × 3 rotation matrix. Further, the uT v of the following equation (1) is a matrix for converting the position vector represented by the coordinate system v into the coordinate system u. u T v is a 4 × 4 matrix representing u P v and u R v in a simultaneous coordinate system.
Figure JPOXMLDOC01-appb-M000001
Here, 0 3 is assumed to be a matrix of [0, 0, 0].
 図8は、グローバル座標系をa、第1ローカル座標系をbとしたときに、それぞれの座標系を使って位置cを表現した例を示している。図8において、は、座標系aにおけるcの位置を示したベクトルである。また、は、座標系bにおけるcの位置を示したベクトルである。また、は、座標系bで表現されたベクトルを座標系aで表現されたベクトルに変換するための回転行列である。は、座標系aにおけるbの位置を示したベクトルである。また、は、回転行列と、ベクトルを同次座標系の4×4で表現したものである。 FIG. 8 shows an example in which the position c is expressed using each coordinate system when the global coordinate system is a and the first local coordinate system is b. In FIG. 8, a P c is a vector indicating the position of c in the coordinate system a. Further, b P c is a vector indicating the position of c in the coordinate system b. Further, a R b is a rotation matrix for converting a vector represented by the coordinate system b into a vector represented by the coordinate system a. a P b is a vector indicating the position of b in the coordinate system a. Further, a T b is a representation of the rotation matrix a R b and the vector a P b in 4 × 4 of the homogeneous coordinate system.
 上述の表記を使う場合、座標系aと座標系bとの間には下記の式(2)の関係が成立する。
Figure JPOXMLDOC01-appb-M000002
When the above notation is used, the relationship of the following equation (2) is established between the coordinate system a and the coordinate system b.
Figure JPOXMLDOC01-appb-M000002
 また、下記の式(3)を使うと、座標系bで表現された情報処理装置1の位置および姿勢を座標系aに変換することができる。
Figure JPOXMLDOC01-appb-M000003
Further, by using the following equation (3), the position and orientation of the information processing apparatus 1 represented by the coordinate system b can be converted into the coordinate system a.
Figure JPOXMLDOC01-appb-M000003
 上述の式(2)および(3)を4×4行列によって同次座標系で表現すると、下記の式(4)および式(5)が得られる。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
When the above equations (2) and (3) are expressed in a homogeneous coordinate system by a 4 × 4 matrix, the following equations (4) and (5) are obtained.
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 画像データ20内に同一の物体(例えば、キーオブジェクト)を撮影した画像が複数存在する場合、同一の物体を含む複数の画像のそれぞれを使って行列式を求め、複数の行列式の平均値を計算してもよい。上述の位置ベクトルと位置ベクトルとの間の関係を規定する行列式を使うことによって、グローバル座標(座標系aの座標)とローカル座標(座標系bの座標)との間の変換を行うことができる。第1ローカル座標と他の情報処理装置で使われている第2ローカル座標との間の変換ならびに第2ローカル座標とグローバル座標との間の変換も、上述と同様の方法によって行うことが可能である。 When there are a plurality of images of the same object (for example, a key object) in the image data 20, a determinant is obtained using each of the plurality of images including the same object, and the average value of the plurality of determinants is calculated. You may calculate. By using the matrix equation that defines the relationship between the position vector a P c and the position vector b P c described above, between the global coordinates (coordinates of the coordinate system a) and the local coordinates (coordinates of the coordinate system b). Can be converted. The conversion between the first local coordinate and the second local coordinate used in other information processing devices and the conversion between the second local coordinate and the global coordinate can also be performed by the same method as described above. is there.
 以下では、再び図4および図5を参照しながら、それぞれの構成要素を説明する。 In the following, each component will be described with reference to FIGS. 4 and 5 again.
 マップ取得部12は、外部の装置からマップのデータを取得する。例えば、情報処理装置1が図1のウェアラブルコンピュータ1Aである場合、マップ取得部12は、ウェアラブルコンピュータ1Bよりローカルマップデータ21Bを取得することができる。マップ取得部12は、ローカルマップデータ21Bを第2ローカルマップデータ22として、記憶部5に保存する。また、マップ取得部12は、管理サーバ30よりグローバルマップデータ36を取得する。マップ取得部12は、グローバルマップデータ36をグローバルマップデータ23として記憶部5に保存する。また、マップ取得部12は、他の情報処理装置から取得した評価データデータを第2評価データ25として記憶部5に保存する。 The map acquisition unit 12 acquires map data from an external device. For example, when the information processing device 1 is the wearable computer 1A of FIG. 1, the map acquisition unit 12 can acquire the local map data 21B from the wearable computer 1B. The map acquisition unit 12 stores the local map data 21B as the second local map data 22 in the storage unit 5. Further, the map acquisition unit 12 acquires the global map data 36 from the management server 30. The map acquisition unit 12 stores the global map data 36 as the global map data 23 in the storage unit 5. Further, the map acquisition unit 12 stores the evaluation data data acquired from another information processing device as the second evaluation data 25 in the storage unit 5.
 オブジェクト生成部15は、仮想オブジェクトの生成などAR関連の処理と、ユーザに提供されるサービスの処理とを実行する。記憶部5のアプリケーションプログラム27を処理回路4上で実行し、オブジェクト生成部15の機能をユーザに提供することができる。サービスがクライアントサーバシステムとして実装されている場合、オブジェクト生成部15は、サービスのクライアント側の処理を実行する。この場合、管理サーバ30のサービスプログラム34は、サービスのサーバ側の処理を実行する。 The object generation unit 15 executes AR-related processing such as generation of a virtual object and processing of a service provided to the user. The application program 27 of the storage unit 5 can be executed on the processing circuit 4 to provide the function of the object generation unit 15 to the user. When the service is implemented as a client-server system, the object generation unit 15 executes the client-side processing of the service. In this case, the service program 34 of the management server 30 executes the processing on the server side of the service.
 例えば、管理サーバ30のサービスプログラム34は、グローバル座標系に基づいて仮想オブジェクトを生成する位置と、イベントを発生させる位置とを指定する。オブジェクト生成部15は、サービスプログラム34から指定されたグローバル座標を第1ローカル座標または第2ローカル座標の少なくともいずれかに変換し、クライアント側の処理を実行することができる。 For example, the service program 34 of the management server 30 specifies a position where a virtual object is generated and a position where an event is generated based on the global coordinate system. The object generation unit 15 can convert the global coordinates specified by the service program 34 into at least one of the first local coordinates and the second local coordinates, and execute the processing on the client side.
 例えば、管理サーバ30のサービスプログラム34が所定のグローバル座標に仮想オブジェクトの生成を求める指令を送信した場合、オブジェクト生成部15は、グローバル座標を変換した第1ローカル座標に仮想オブジェクトを生成する。そして、ユーザは、表示部7を介して、仮想オブジェクトを視覚的に認識することができる。 For example, when the service program 34 of the management server 30 transmits a command requesting the generation of a virtual object at a predetermined global coordinate, the object generation unit 15 generates a virtual object at the first local coordinate obtained by converting the global coordinate. Then, the user can visually recognize the virtual object through the display unit 7.
 なお、オブジェクト生成部15は、グローバル座標を変換した第1ローカル座標から所定の距離をシフトさせた位置に仮想オブジェクトを生成してもよい。また、管理サーバ30のサービスプログラム34が所定の範囲のグローバル座標(例えば、空間メッシュ)内に仮想オブジェクトを表示する指令を送信した場合、オブジェクト生成部15は、空間メッシュに該当する第1ローカル座標の範囲を計算する。そして、オブジェクト生成部15は、空間メッシュの範囲内で仮想オブジェクトの表示位置を調整してもよい。また、オブジェクト生成部15は、第2ローカル座標を使って仮想オブジェクトの表示位置を決めてもよい。 Note that the object generation unit 15 may generate a virtual object at a position shifted by a predetermined distance from the first local coordinate obtained by converting the global coordinates. Further, when the service program 34 of the management server 30 transmits a command to display a virtual object within the global coordinates (for example, the spatial mesh) of a predetermined range, the object generation unit 15 causes the first local coordinates corresponding to the spatial mesh. Calculate the range of. Then, the object generation unit 15 may adjust the display position of the virtual object within the range of the spatial mesh. Further, the object generation unit 15 may determine the display position of the virtual object by using the second local coordinates.
 マップ選択部13は、後述する評価データに基づきオブジェクト生成部15が仮想オブジェクトの表示に使用するマップを選択する。マップ選択部13によってマップが選択されると、仮想オブジェクトの表示に使用される座標系も確定する。 The map selection unit 13 selects the map used by the object generation unit 15 to display the virtual object based on the evaluation data described later. When the map is selected by the map selection unit 13, the coordinate system used for displaying the virtual object is also determined.
 図9は、ユーザによる仮想オブジェクトの見え方のずれの例を示している。図9には、ウェアラブルコンピュータ1Aを着用したユーザU1と、物体OBJと、ウェアラブルコンピュータ1Bを着用したユーザU2とが示されている。図9では、2名のユーザが示されている。ただし、サービスを利用するユーザの数は、これより多くてもよい。図9の物体OBJは、上部に開口部を有する壺である。ユーザU1とユーザU2は、異なる位置に立っているものの、いずれも物体OBJの方向を向いている。ビューV1は、ウェアラブルコンピュータ1Aを着用したユーザU1からの見え方の例を示している。一方、ビューV2は、ウェアラブルコンピュータ1Bを着用したユーザU2からの見え方の例を示している。 FIG. 9 shows an example of the deviation of the appearance of the virtual object by the user. FIG. 9 shows a user U1 wearing a wearable computer 1A, an object OBJ, and a user U2 wearing a wearable computer 1B. In FIG. 9, two users are shown. However, the number of users who use the service may be larger than this. The object OBJ in FIG. 9 is a jar having an opening at the top. Although the user U1 and the user U2 stand at different positions, they both face the direction of the object OBJ. View V1 shows an example of how the user U1 wearing the wearable computer 1A sees it. On the other hand, the view V2 shows an example of how the user U2 who wears the wearable computer 1B sees it.
 図9のビューV1およびビューV2は、表示部7に表示された画像または映像と、表示部7を透過した背景の組み合わせによって実現されるものであってもよい。また、ビューV1およびビューV2は、表示部7に表示される画像または映像のみによって実現されるものであってもよい。 View V1 and view V2 of FIG. 9 may be realized by a combination of an image or video displayed on the display unit 7 and a background transmitted through the display unit 7. Further, the view V1 and the view V2 may be realized only by the image or the video displayed on the display unit 7.
 図9では、管理サーバ30のサービスプログラム34が所定のグローバル座標に仮想オブジェクトA1を生成する指令をウェアラブルコンピュータ1Aおよび1Bに送信している。仮想オブジェクトA1は、サービスに登場するキャラクタである。仮想オブジェクトA1は、静止画像であってもよいし、アニメーションであってもよい。サービス内では、壺の開口部からキャラクタが飛び出している視覚的な演出が求められているものとする。このように、仮想オブジェクトが生成される位置と、仮想オブジェクトの動きは、マップ内の絶対的な座標だけでなく、空間内の物体との相対的な位置関係によって制御されるものであってもよい。 In FIG. 9, the service program 34 of the management server 30 transmits a command to generate the virtual object A1 at predetermined global coordinates to the wearable computers 1A and 1B. The virtual object A1 is a character that appears in the service. The virtual object A1 may be a still image or an animation. Within the service, it is assumed that there is a demand for a visual effect in which the character protrudes from the opening of the jar. In this way, the position where the virtual object is generated and the movement of the virtual object are controlled not only by the absolute coordinates in the map but also by the relative positional relationship with the object in space. Good.
 ここで、ウェアラブルコンピュータ1Aおよび1Bのそれぞれがグローバル座標をローカル座標に変換し、キャラクタである仮想オブジェクトA1を表示部7に表示している。図9を参照すると、ウェアラブルコンピュータ1AのビューV1では、壺の開口部からキャラクタが飛び出している視覚的な演出が実現されている。一方、ウェアラブルコンピュータ1BのビューV2では、キャラクタである仮想オブジェクトA1が物体OBJの上方からずれた位置に表示されているため、ユーザU2は、キャラクタが壺の開口部から飛び出していることを認識できない。 Here, each of the wearable computers 1A and 1B converts the global coordinates into the local coordinates and displays the virtual object A1 which is a character on the display unit 7. Referring to FIG. 9, in the view V1 of the wearable computer 1A, a visual effect in which the character protrudes from the opening of the jar is realized. On the other hand, in the view V2 of the wearable computer 1B, since the virtual object A1 which is a character is displayed at a position shifted from above the object OBJ, the user U2 cannot recognize that the character is protruding from the opening of the jar. ..
 サービスを利用するユーザの体型および身長は多岐にわたることが予想される、また、それぞれのユーザは、異なる行動パターンをとるため、ユーザの視線が向けられる空間内の領域に違いが生じる。このため、ウェアラブルコンピュータごとに異なるローカルマップが生成される。ウェアラブルコンピュータによって異なるローカルマップが使われると、図9の例のように、ユーザによって仮想オブジェクトの見え方に違いが生じ、サービスの品質が低下するおそれがある。例えば、仮想オブジェクトが敵キャラクタである場合、ユーザによって敵キャラクタの見え方が異なることになる。この場合、アクションゲームをプレイする複数のユーザが協力して敵キャラクタと戦うことが難しくなり、ユーザの満足度が低下してしまう。このため、サービスの場面および状況に応じ、複数のユーザ間における仮想オブジェクトの見え方のずれを抑えることが望ましい。 It is expected that the body shapes and heights of users who use the service will be diverse, and since each user will take different behavior patterns, there will be differences in the area in the space where the user's line of sight is directed. Therefore, a different local map is generated for each wearable computer. If different local maps are used depending on the wearable computer, the appearance of the virtual object may differ depending on the user as shown in the example of FIG. 9, and the quality of service may deteriorate. For example, when the virtual object is an enemy character, the appearance of the enemy character differs depending on the user. In this case, it becomes difficult for a plurality of users who play the action game to cooperate and fight against the enemy character, and the user's satisfaction level is lowered. Therefore, it is desirable to suppress the deviation of the appearance of the virtual object among a plurality of users according to the service situation and situation.
 評価データ生成部14は、評価データを生成する。図10のフローチャートは、評価データの生成処理の例を示している。以下では、図10のフローチャートを参照しながら、評価データの生成処理を説明する。 The evaluation data generation unit 14 generates evaluation data. The flowchart of FIG. 10 shows an example of evaluation data generation processing. Hereinafter, the evaluation data generation process will be described with reference to the flowchart of FIG.
 はじめに、ローカルマップ生成部10は、第1ローカルマップ(第1ローカルマップデータ21)を更新する(ステップS101)。そして、マップ取得部12は、管理サーバ30より、グローバルマップデータ23を取得する(ステップS102)。例えば、管理サーバ30がグローバルマップデータの更新を行っている場合、情報処理装置1は、更新後のグローバルマップデータ23を得ることができる。ただし、情報処理装置1にあらかじめインストールされたグローバルマップデータ23を使用する場合または管理サーバ30でグローバルマップデータの更新が行われない場合には、ステップS102の処理をスキップしてもよい。 First, the local map generation unit 10 updates the first local map (first local map data 21) (step S101). Then, the map acquisition unit 12 acquires the global map data 23 from the management server 30 (step S102). For example, when the management server 30 updates the global map data, the information processing apparatus 1 can obtain the updated global map data 23. However, if the global map data 23 pre-installed in the information processing device 1 is used, or if the management server 30 does not update the global map data, the process of step S102 may be skipped.
 次に、自己位置推定部11は、第1ローカルマップ内の第1ローカル座標に対応するグローバルマップ内のグローバル座標を特定する(ステップS103)。例えば、自己位置推定部11は、評価データの生成が行われる領域内の第1ローカル座標を選択し、座標変換によって当該第1ローカル座標に相当するグローバル座標を計算することができる。 Next, the self-position estimation unit 11 specifies the global coordinates in the global map corresponding to the first local coordinates in the first local map (step S103). For example, the self-position estimation unit 11 can select the first local coordinates in the area where the evaluation data is generated, and calculate the global coordinates corresponding to the first local coordinates by the coordinate transformation.
 そして、評価データ生成部14は、第1ローカルマップ内で第1ローカル座標の近傍にある点群データと、グローバルマップ内で第1ローカル座標に対応するグローバル座標の近傍にある点群データとに基づいて類似度を計算する(ステップS104)。ステップS104では、例えば、第1ローカル座標系に基づき空間を分割したメッシュごとに類似度の値を計算することができる。図11のデータD1は、ステップS104で計算されるグローバルマップとローカルマップとの間の類似度の例を示している。図11の例では、2次元の領域ごとに類似度の値が示されている。ただし、現実に計算される類似度は、3次元空間内の座標または3次元空間内のメッシュに関連付けられていてもよい。 Then, the evaluation data generation unit 14 divides the point cloud data in the vicinity of the first local coordinates in the first local map into the point cloud data in the vicinity of the global coordinates corresponding to the first local coordinates in the global map. The similarity is calculated based on this (step S104). In step S104, for example, the similarity value can be calculated for each mesh that divides the space based on the first local coordinate system. Data D1 in FIG. 11 shows an example of the degree of similarity between the global map and the local map calculated in step S104. In the example of FIG. 11, the similarity value is shown for each two-dimensional region. However, the actually calculated similarity may be associated with the coordinates in the three-dimensional space or the mesh in the three-dimensional space.
 例えば、第1ローカル座標を中心点とする半径rの球内にある点群データと、第1ローカル座標に対応するグローバル座標を中心点とする半径rの球内にある点群データとを使って類似度の計算を行うことができる。ただし、類似度の計算対象となる空間内の領域の形状および大きさについては、限定しない。類似度は、例えば、テンプレートマッチング、特徴点マッチングまたはヒストグラム比較などの手法を用いて計算することができる。また、特徴量間の距離または特徴量のクラスタリングなどの機械学習的方法によって類似度の計算を行ってもよい。また、その他の方法によって類似度の計算を行ってもよい。 For example, using point cloud data in a sphere with a radius r centered on the first local coordinate and point cloud data in a sphere with a radius r centered on the global coordinates corresponding to the first local coordinate. The similarity can be calculated. However, the shape and size of the area in the space for which the similarity is calculated are not limited. The similarity can be calculated using techniques such as template matching, feature point matching or histogram comparison. In addition, the similarity may be calculated by a machine learning method such as a distance between features or clustering of features. Further, the similarity may be calculated by another method.
 次に、評価データ生成部14は、マップを利用するプログラムより第1ローカル座標近傍における属性情報を取得する(ステップS105)。例えば、評価データ生成部14は、ステップS105でオブジェクト生成部15より第1ローカル座標近傍における属性情報を取得してもよい。ステップS104で計算した類似度のデータと同様、属性情報として、第1ローカル座標系に基づき空間を分割したメッシュごとに値が設定されたデータを使うことができる。 Next, the evaluation data generation unit 14 acquires the attribute information in the vicinity of the first local coordinates from the program that uses the map (step S105). For example, the evaluation data generation unit 14 may acquire attribute information in the vicinity of the first local coordinates from the object generation unit 15 in step S105. Similar to the similarity data calculated in step S104, data in which a value is set for each mesh in which the space is divided based on the first local coordinate system can be used as the attribute information.
 例えば、属性情報として、図12のように仮想オブジェクトの表示対象領域であるか否かを示したデータを使うことができる。図12のデータD2では、仮想オブジェクトの表示対象となるメッシュの値を1.0、仮想オブジェクトの表示対象とならないメッシュの値を0.0に設定している。また、属性情報として、図13のように優先して使用されるマップを指定するデータを使ってもよい。図13のデータD3では、正値が複数ユーザ間で見え方のずれを減らすことが優先される領域を示し、負値がグローバルマップとの整合性が優先される領域を示している。データD3では、例えば、ボスキャラクターが表示されるメッシュまたは複数ユーザどうしの協力が求められるメッシュの値を大きく設定することができる。データD2およびデータD3に例示した属性情報を使うことによって、サービスにおける仮想オブジェクト表示の有無、仮想オブジェクトの用途、仮想オブジェクトの表示精度の重要性などを反映することができる。 For example, as the attribute information, data indicating whether or not it is the display target area of the virtual object can be used as shown in FIG. In the data D2 of FIG. 12, the value of the mesh that is the display target of the virtual object is set to 1.0, and the value of the mesh that is not the display target of the virtual object is set to 0.0. Further, as the attribute information, data for designating a map to be preferentially used as shown in FIG. 13 may be used. In the data D3 of FIG. 13, the positive value indicates the region in which the reduction of the deviation in appearance among a plurality of users is prioritized, and the negative value indicates the region in which the consistency with the global map is prioritized. In the data D3, for example, the value of the mesh on which the boss character is displayed or the mesh in which cooperation between a plurality of users is required can be set large. By using the attribute information exemplified in the data D2 and the data D3, it is possible to reflect the presence / absence of the virtual object display in the service, the purpose of the virtual object, the importance of the display accuracy of the virtual object, and the like.
 ここでは、評価データ生成部14がオブジェクト生成部15より属性情報を取得する場合を例に説明した。ただし、評価データ生成部14は、他の構成要素より属性情報を取得してもよい。例えば、評価データ生成部14は、管理サーバ30のサービスプログラム34より属性情報を取得してもよい。ただし、この場合には、グローバル座標で表現された属性情報を第1ローカル座標に変換する必要がある。 Here, the case where the evaluation data generation unit 14 acquires the attribute information from the object generation unit 15 has been described as an example. However, the evaluation data generation unit 14 may acquire attribute information from other components. For example, the evaluation data generation unit 14 may acquire attribute information from the service program 34 of the management server 30. However, in this case, it is necessary to convert the attribute information expressed in global coordinates to the first local coordinates.
 そして、評価データ生成部14は、類似度と属性情報に基づき評価データの計算を行う(ステップS106)。例えば、図11~図13に示したデータD1~D3を使って評価データを計算することが可能である。例えば、データD1~D3の対応するメッシュについて、D1×D2+D3を計算し、評価データを計算することができる。ここで、D1~D3は、データD1~D3内のそれぞれのメッシュを示している。図14のデータD4は、ステップS106で計算された評価データの一例である。図14のデータD4のように、評価データとして、1で正規化した値を含むデータを使ってもよい。データD4では、メッシュD4ごとに評価値が設定されている。 Then, the evaluation data generation unit 14 calculates the evaluation data based on the similarity and the attribute information (step S106). For example, it is possible to calculate the evaluation data using the data D1 to D3 shown in FIGS. 11 to 13. For example, for the corresponding meshes of the data D1 to D3, Dr 1 × Dr 2 + Dr 3 can be calculated and the evaluation data can be calculated. Here, Dr 1 to Dr 3 indicate the respective meshes in the data D1 to D3. The data D4 in FIG. 14 is an example of the evaluation data calculated in step S106. As the evaluation data, as in the data D4 of FIG. 14, data including a value normalized by 1 may be used. In the data D4, the evaluation value for each mesh D r 4 is set.
 第1ローカルマップデータ21またはグローバルマップデータ23の少なくともいずれかが更新された場合、評価データ生成部14は、上述のデータD1を更新してもよい。また、データD2およびデータD3として、オブジェクト生成部15またはサービスプログラム34が設定したデータを使うことができる。ただし、評価データ生成部14は、ユーザの動き、ユーザの向いている方向または時刻に応じてデータD2またはデータD3を補正してもよい。 When at least one of the first local map data 21 and the global map data 23 is updated, the evaluation data generation unit 14 may update the above-mentioned data D1. Further, as the data D2 and the data D3, the data set by the object generation unit 15 or the service program 34 can be used. However, the evaluation data generation unit 14 may correct the data D2 or the data D3 according to the movement of the user, the direction in which the user is facing, or the time.
 また、オブジェクト生成部15で使用されるマップの切り替えに伴う負荷の増大および処理の遅延を避けることが望まれる場合、評価データ生成部14は、データD3の値を小さく補正してもよい。例えば、オブジェクト生成部15で使用されるマップが切り替わると、仮想オブジェクトの表示位置または形状が突然変化する可能性がある。なお、データD3の値を小さく補正する処理は、オブジェクト生成部15またはサービスプログラム34によって実行されてもよいし、ユーザの操作に応じて実行されてもよい。 Further, when it is desired to avoid an increase in load and a delay in processing due to switching of the map used in the object generation unit 15, the evaluation data generation unit 14 may correct the value of the data D3 to be small. For example, when the map used by the object generation unit 15 is switched, the display position or shape of the virtual object may suddenly change. The process of correcting the value of the data D3 to be small may be executed by the object generation unit 15 or the service program 34, or may be executed according to the operation of the user.
 評価データ生成部14は、計算した評価データを第1評価データ24として記憶部5に保存する。第1評価データ24は、例えば、第1ローカル座標系に基づき空間を分割したメッシュごとに設定された評価値を含むデータである。ただし、第1評価データ24は、これとは異なる形式のデータであってもよい。例えば、第1評価データ24は、それぞれの座標ごとに設定された評価値を含むデータであってもよい。また、第1評価データ24で使われている座標系は、第1ローカル座標系とは異なる座標系であってもよい。 The evaluation data generation unit 14 stores the calculated evaluation data as the first evaluation data 24 in the storage unit 5. The first evaluation data 24 is, for example, data including evaluation values set for each mesh that divides the space based on the first local coordinate system. However, the first evaluation data 24 may be data in a format different from this. For example, the first evaluation data 24 may be data including evaluation values set for each coordinate. Further, the coordinate system used in the first evaluation data 24 may be a coordinate system different from the first local coordinate system.
 図10のフローチャートの処理の説明は、以上である。例えば、記憶部5のマップ処理プログラム26を処理回路4上で実行することにより、上述のローカルマップ生成部10、自己位置推定部11、マップ取得部12、マップ選択部13または評価データ生成部14の機能を実現することができる。ただし、ハードウェア回路によってローカルマップ生成部10、自己位置推定部11、マップ取得部12、マップ選択部13または評価データ生成部14の少なくともいずれかの処理が実装されていてもよい。 This is the end of the description of the processing of the flowchart of FIG. For example, by executing the map processing program 26 of the storage unit 5 on the processing circuit 4, the above-mentioned local map generation unit 10, self-position estimation unit 11, map acquisition unit 12, map selection unit 13, or evaluation data generation unit 14 Functions can be realized. However, at least one of the processes of the local map generation unit 10, the self-position estimation unit 11, the map acquisition unit 12, the map selection unit 13, and the evaluation data generation unit 14 may be implemented by the hardware circuit.
 本開示による情報処理装置は、評価データに基づきマップ選択の処理を行うことができる。以下では、マップ選択の処理について説明する。 The information processing device according to the present disclosure can perform map selection processing based on the evaluation data. The map selection process will be described below.
 図15のフローチャートは、マップ選択の処理の例を示している、以下では、図15のフローチャートを参照しながら処理を説明する。なお、フローチャートの説明で、データを取得すると述べた場合、それは、該当するデータ全体を取得する場合だけでなく、該当するデータの一部を取得することも含むものとする。 The flowchart of FIG. 15 shows an example of the map selection process. Hereinafter, the process will be described with reference to the flowchart of FIG. In the explanation of the flowchart, when it is stated that data is to be acquired, it shall include not only the case of acquiring the entire relevant data but also the acquisition of a part of the relevant data.
 はじめに、自己位置推定部11は、情報処理装置1の自己位置を推定する(ステップS201)。例えば、自己位置推定部11は、ステップS201で情報処理装置1の自己位置に相当する第1ローカル座標を得ることができる。次に、マップ選択部13は、第1評価データ(第1評価データ24)より自己位置の第1評価値を得る(ステップS202)。例えば、マップ選択部13は、自己位置に相当する第1ローカル座標を含む第1評価データ24内のメッシュを探索する。これによりマップ選択部13は、メッシュに設定された評価値を得ることができる。ここで、第1ローカル座標に基づいて得られる評価値を第1評価値とよぶものとする。 First, the self-position estimation unit 11 estimates the self-position of the information processing device 1 (step S201). For example, the self-position estimation unit 11 can obtain the first local coordinates corresponding to the self-position of the information processing device 1 in step S201. Next, the map selection unit 13 obtains the first evaluation value of the self-position from the first evaluation data (first evaluation data 24) (step S202). For example, the map selection unit 13 searches for a mesh in the first evaluation data 24 including the first local coordinates corresponding to its own position. As a result, the map selection unit 13 can obtain the evaluation value set in the mesh. Here, the evaluation value obtained based on the first local coordinates is referred to as the first evaluation value.
 そして、マップ選択部13は、第1評価データ内における自己位置の第1評価値がしきい値より大きいか否かを判定する(ステップS203)。例えば、第1評価データとしてデータD4(図14)が使われる場合、しきい値として0より大きく1より小さい値を使うことができる。ただし、これとは異なるしきい値を使ってもよい。 Then, the map selection unit 13 determines whether or not the first evaluation value of the self-position in the first evaluation data is larger than the threshold value (step S203). For example, when the data D4 (FIG. 14) is used as the first evaluation data, a value larger than 0 and smaller than 1 can be used as the threshold value. However, a different threshold may be used.
 ステップS203での判定結果に応じて、実行される処理が分岐する。評価データ内における自己位置の第1評価値がしきい値以下である場合(ステップS203のNO)、オブジェクト生成部15は、仮想オブジェクトの生成時に第1ローカルマップ(第1ローカルマップデータ21)を使用する(ステップS208)。第1評価値がしきい値以下である場合、他のユーザと同一のローカルマップを使って仮想オブジェクトを生成する必要性が高くない、あるいは第1ローカルマップを使っていてもユーザ間で仮想オブジェクトの見え方のずれが大きくならないことが想定される。このため、ステップS203での判定が否定的である場合、オブジェクト生成部15は、第1ローカルマップを使って仮想オブジェクトの生成処理を実行する(ステップS208)。 The process to be executed branches according to the determination result in step S203. When the first evaluation value of the self-position in the evaluation data is equal to or less than the threshold value (NO in step S203), the object generation unit 15 uses the first local map (first local map data 21) when the virtual object is generated. Use (step S208). If the first evaluation value is less than or equal to the threshold value, it is not highly necessary to create a virtual object using the same local map as other users, or even if the first local map is used, a virtual object is created between users. It is assumed that the deviation of the appearance of the object will not increase. Therefore, when the determination in step S203 is negative, the object generation unit 15 executes the virtual object generation process using the first local map (step S208).
 評価データ内における自己位置の第1評価値がしきい値より大きい場合(ステップS203のYES)、マップ取得部12は、他の情報処理装置より第2ローカルマップ(第2ローカルマップデータ22)および第2評価データ(第2評価データ25)を取得する(ステップS204)。第1評価値がしきい値より大きい場合、ユーザ間で仮想オブジェクトの見え方のずれが大きい、あるいは他のユーザと同一のローカルマップを使って仮想オブジェクトを生成する必要性が高いことが想定される。 When the first evaluation value of the self-position in the evaluation data is larger than the threshold value (YES in step S203), the map acquisition unit 12 has the second local map (second local map data 22) and the second local map data 22 from other information processing devices. The second evaluation data (second evaluation data 25) is acquired (step S204). If the first evaluation value is larger than the threshold value, it is assumed that there is a large difference in the appearance of the virtual object between users, or it is highly necessary to generate the virtual object using the same local map as other users. The object.
 なお、第2ローカルマップデータ22および第2評価データ25の取得元となる情報処理装置については、特に問わない。マップ取得部12は、ステップS204で情報処理システム100内の少なくともいずれかの情報処理装置より第2ローカルマップデータ22および第2評価データ25を取得することができる。また、マップ取得部12は、ステップS204で複数の情報処理装置より第2ローカルマップデータ22および第2評価データ25を取得してもよい。 The information processing device from which the second local map data 22 and the second evaluation data 25 are acquired is not particularly limited. The map acquisition unit 12 can acquire the second local map data 22 and the second evaluation data 25 from at least one of the information processing devices in the information processing system 100 in step S204. Further, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the plurality of information processing devices in step S204.
 例えば、マップ取得部12は、管理サーバ30のサービスプログラム34から指定された情報処理装置より第2ローカルマップデータ22および第2評価データ25を取得してもよい。例えば、サービスプログラム34は、ユーザの識別子に基づいて第2ローカルマップデータ22および第2評価データ25の取得元となる情報処理装置を指定してもよい。これにより、サービス内の状況に応じて、共通したローカルマップを使用する情報処理装置を選択することが可能となる。 For example, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the information processing device designated by the service program 34 of the management server 30. For example, the service program 34 may specify an information processing device that is the acquisition source of the second local map data 22 and the second evaluation data 25 based on the user's identifier. This makes it possible to select an information processing device that uses a common local map according to the situation in the service.
 また、情報処理装置1側で第2ローカルマップデータ22および第2評価データ25の取得元となる他の情報処理装置を選択してもよい。例えば、マップ取得部12は、通信回路6を介して受信したビーコン信号の強度が最も高い情報処理装置から第2ローカルマップデータ22および第2評価データ25を取得してもよい。また、マップ取得部12は、ビーコン信号の強度に基づいて選択したひとつまたは複数の情報処理装置から第2ローカルマップデータ22および第2評価データ25を取得してもよい。さらに、マップ取得部12は、オブジェクト生成部15が指定したユーザまたは情報処理装置より第2ローカルマップデータ22および第2評価データ25を取得してもよい。これにより、それぞれのユーザの位置およびオブジェクト生成部15内の処理に基づいてローカルマップの取得元となる情報処理装置を選択することが可能となる。 Further, the information processing device 1 may select another information processing device that is the acquisition source of the second local map data 22 and the second evaluation data 25. For example, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the information processing device having the highest intensity of the beacon signal received via the communication circuit 6. Further, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from one or more information processing devices selected based on the strength of the beacon signal. Further, the map acquisition unit 12 may acquire the second local map data 22 and the second evaluation data 25 from the user or the information processing device designated by the object generation unit 15. This makes it possible to select the information processing device that is the acquisition source of the local map based on the position of each user and the processing in the object generation unit 15.
 マップ取得部12が他の情報処理装置より第2ローカルマップデータ22および第2評価データ25を取得したら、マップ選択部13は、第2ローカルマップ(第2ローカルマップデータ22)および第2評価データ(第2評価データ25)を使って自己位置の第2評価値を求める(ステップS205)。ここで、第2ローカル座標に基づいて得られる評価値を第2評価値とよぶものとする。例えば、マップ選択部13は、自己位置に相当する第1ローカル座標に基づき、自己位置に相当する第2ローカル座標を求める。 When the map acquisition unit 12 acquires the second local map data 22 and the second evaluation data 25 from another information processing device, the map selection unit 13 uses the second local map (second local map data 22) and the second evaluation data. (Second evaluation data 25) is used to obtain the second evaluation value of the self-position (step S205). Here, the evaluation value obtained based on the second local coordinates is referred to as the second evaluation value. For example, the map selection unit 13 obtains the second local coordinates corresponding to the self-position based on the first local coordinates corresponding to the self-position.
 例えば、マップ選択部13は、上述の座標変換を行って自己位置に相当する第2ローカル座標を計算する。また、マップ選択部13は、第1ローカルマップデータ21と第2ローカルマップデータ22に含まれている物体の形状および位置に基づいて自己位置に相当する第2ローカル座標を計算してもよい。例えば、特徴量に基づくパターンマッチングを行い、第2ローカルマップデータ22内の自己位置に相当する第2ローカル座標を探索してもよい。ただし、マップ選択部13が自己位置に相当する第2ローカル座標を計算する方法については問わない。 For example, the map selection unit 13 performs the above-mentioned coordinate transformation to calculate the second local coordinates corresponding to its own position. Further, the map selection unit 13 may calculate the second local coordinates corresponding to its own position based on the shape and position of the object included in the first local map data 21 and the second local map data 22. For example, pattern matching may be performed based on the feature amount, and the second local coordinates corresponding to the self-position in the second local map data 22 may be searched. However, the method in which the map selection unit 13 calculates the second local coordinates corresponding to its own position does not matter.
 マップ選択部13は、第2評価データ25内の自己位置に相当する第2ローカル座標を探索する。これにより、マップ選択部13は、自己位置の第2評価値を得ることができる。そして、マップ選択部13は、自己位置の第2評価値が自己位置の第1評価値より大きいか否かを判定する(ステップS206)。 The map selection unit 13 searches for the second local coordinates corresponding to the self-position in the second evaluation data 25. As a result, the map selection unit 13 can obtain the second evaluation value of the self-position. Then, the map selection unit 13 determines whether or not the second evaluation value of the self-position is larger than the first evaluation value of the self-position (step S206).
 ステップS206での判定結果に応じて、実行される処理が分岐する。第2評価値が第1評価値以下である場合(ステップS206のNO)、オブジェクト生成部15は、第1ローカルマップ(第1ローカルマップデータ21)を使って仮想オブジェクトの生成処理を実行する(ステップS208)。すなわち、ステップS206の判定が否定的である場合、オブジェクト生成部15は、第1ローカル座標系を使って仮想オブジェクトの生成処理を実行してもよい。 The process to be executed branches according to the determination result in step S206. When the second evaluation value is equal to or less than the first evaluation value (NO in step S206), the object generation unit 15 executes a virtual object generation process using the first local map (first local map data 21) (NO in step S206). Step S208). That is, if the determination in step S206 is negative, the object generation unit 15 may execute the virtual object generation process using the first local coordinate system.
 第2評価値が第1評価値より大きい場合(ステップS206のYES)、オブジェクト生成部15は、第2ローカルマップ(第2ローカルマップデータ22)を使って仮想オブジェクトの生成処理を実行する(ステップS207)。すなわち、ステップS206の判定が肯定的である場合、オブジェクト生成部15は、第2ローカル座標系を使って仮想オブジェクトの生成処理を実行してもよい。 When the second evaluation value is larger than the first evaluation value (YES in step S206), the object generation unit 15 executes a virtual object generation process using the second local map (second local map data 22) (step). S207). That is, if the determination in step S206 is affirmative, the object generation unit 15 may execute the virtual object generation process using the second local coordinate system.
 なお、ステップS204でマップ取得部12が複数の情報処理装置より第2ローカルマップデータ22および第2評価データ25を取得した場合、マップ選択部13は、複数の情報処理装置から取得した第2ローカルマップデータ22および第2評価データ25についてステップS205およびステップS206の処理を実行することができる。この場合、オブジェクト生成部15は、ステップS207で第2評価値より第1評価値を減算して得られた値が最も大きい情報処理装置の第2ローカルマップデータ22を使って仮想オブジェクトを生成してもよい。また、ステップS206の判定が肯定的となる情報処理装置を検出したら、当該情報処理装置から取得した第2ローカルマップデータ22を使って仮想オブジェクトを生成してもよい。 When the map acquisition unit 12 acquires the second local map data 22 and the second evaluation data 25 from the plurality of information processing devices in step S204, the map selection unit 13 acquires the second local from the plurality of information processing devices. The processes of steps S205 and S206 can be executed for the map data 22 and the second evaluation data 25. In this case, the object generation unit 15 generates a virtual object using the second local map data 22 of the information processing apparatus having the largest value obtained by subtracting the first evaluation value from the second evaluation value in step S207. You may. Further, when an information processing device for which the determination in step S206 is affirmative is detected, a virtual object may be generated using the second local map data 22 acquired from the information processing device.
 同一のサービスを利用している複数のユーザのそれぞれが使用している情報処理装置において、図15のフローチャートの処理を実行することが可能である。例えば、上述の図9のように、ユーザU1およびユーザU2がいずれも物体OBJの方向を向いている場合を想定する。この場合、ユーザU1が着用しているウェアラブルコンピュータ1Aと、ユーザU2が着用しているウェアラブルコンピュータ1Bで同一のローカルマップを使って仮想オブジェクトを生成することが可能となる。 It is possible to execute the processing of the flowchart of FIG. 15 in the information processing device used by each of a plurality of users using the same service. For example, as shown in FIG. 9 above, it is assumed that both the user U1 and the user U2 are facing the direction of the object OBJ. In this case, the wearable computer 1A worn by the user U1 and the wearable computer 1B worn by the user U2 can generate a virtual object using the same local map.
 例えば、ウェアラブルコンピュータ1Aで第1評価値がしきい値以下であり、ウェアラブルコンピュータ1Bで第1評価値がしきい値より大きくなる場合、仮想オブジェクトの生成時に両者で同一のローカルマップが使用される可能性がある。これにより、ユーザ間における仮想オブジェクトの見え方のずれを少なくすることができる。また、条件に応じてウェアラブルコンピュータ1Aと、ウェアラブルコンピュータ1Bで異なるローカルマップを使って仮想オブジェクトを生成してもよい。 For example, if the first evaluation value is less than or equal to the threshold value in the wearable computer 1A and the first evaluation value is larger than the threshold value in the wearable computer 1B, the same local map is used for both when creating the virtual object. there is a possibility. As a result, it is possible to reduce the deviation of the appearance of the virtual object between users. Further, depending on the conditions, the wearable computer 1A and the wearable computer 1B may generate virtual objects using different local maps.
 図16は、本開示による情報処理システムにおける仮想オブジェクトの見え方の例を示している。図16では、ウェアラブルコンピュータ1Aを着用したユーザU1と、ウェアラブルコンピュータ1Bを着用したユーザU2が、図9と同じ位置および姿勢で物体OBJの方向を向いている。図9と同様、物体OBJは、上部に開口部を有する壺である。ビューV1は、ユーザU1からの見え方の例を示している。また、ビューV2は、ユーザU2からの見え方の例を示している。図16では、図9と同様、管理サーバ30のサービスプログラム34が所定のグローバル座標に仮想オブジェクトA1を生成する指令をウェアラブルコンピュータ1Aおよび1Bに送信しているものとする。 FIG. 16 shows an example of how a virtual object looks in the information processing system according to the present disclosure. In FIG. 16, the user U1 wearing the wearable computer 1A and the user U2 wearing the wearable computer 1B are facing the object OBJ at the same positions and postures as in FIG. Similar to FIG. 9, the object OBJ is a jar having an opening at the top. View V1 shows an example of how it looks from user U1. Further, the view V2 shows an example of how the user U2 sees the view. In FIG. 16, it is assumed that the service program 34 of the management server 30 transmits a command to generate the virtual object A1 at predetermined global coordinates to the wearable computers 1A and 1B as in FIG.
 図16の例では、ウェアラブルコンピュータ1Aおよびウェアラブルコンピュータ1Bが図15のフローチャートの処理を実行し、仮想オブジェクトA1の生成時に使用するローカル座標(ローカルマップ)を選択している。したがって、ウェアラブルコンピュータ1Aおよびウェアラブルコンピュータ1Bは、第1ローカルマップまたは第2ローカルマップのいずれかを使って仮想オブジェクトA1を生成している。 In the example of FIG. 16, the wearable computer 1A and the wearable computer 1B execute the processing of the flowchart of FIG. 15 and select the local coordinates (local map) to be used when the virtual object A1 is generated. Therefore, the wearable computer 1A and the wearable computer 1B generate the virtual object A1 by using either the first local map or the second local map.
 図16を参照すると、ウェアラブルコンピュータ1BのビューV2では、壺の上部にキャラクタが出現しており、図9にあった表示位置のずれの問題が解消されている。このため、ユーザU1だけでなく、ユーザU2も、キャラクタが壺の開口部から飛び出している様子を視覚的に認識することが可能である。また、3名以上のユーザが同一のローカルマップを使って、仮想オブジェクトの見え方のずれを抑制することも可能である。 With reference to FIG. 16, in view V2 of the wearable computer 1B, a character appears at the upper part of the jar, and the problem of display position deviation shown in FIG. 9 is solved. Therefore, not only the user U1 but also the user U2 can visually recognize how the character is popping out from the opening of the jar. It is also possible for three or more users to use the same local map to suppress the deviation of the appearance of virtual objects.
 本開示による情報処理装置および情報処理システムを使うことにより、ユーザ間による仮想オブジェクトの見え方のずれを解消し、ARを使ったサービスの品質を高めることができる。複数のユーザが拡張現実空間内で体験を共有することが可能となる。例えば、仮想オブジェクトが敵キャラクタである場合、アクションゲームをプレイする複数のユーザが協力して敵キャラクタと戦うことができる。 By using the information processing device and the information processing system according to the present disclosure, it is possible to eliminate the difference in the appearance of virtual objects between users and improve the quality of services using AR. Multiple users will be able to share their experiences in augmented reality space. For example, when the virtual object is an enemy character, a plurality of users playing an action game can cooperate to fight the enemy character.
 このように、本開示による情報処理方法は、画像に基づいて第1マップを生成するステップと、他の装置から第2マップを取得するステップと、第1マップまたは第2マップを使って仮想オブジェクトを生成するステップとをコンピュータに実行させるものであってもよい。また、本開示による情報処理方法は、第1マップとサービスの管理に使われる第3マップに基づいて第1評価データを生成するステップと、仮想オブジェクトの生成に使う第1マップまたは第2マップを第1評価データに基づいて選択するステップとをさらに含んでいてもよい。第1マップは、例えば、第1ローカルマップデータ21に相当する。第2マップは、例えば、第2ローカルマップデータ22に相当する。第3マップは、例えば、グローバルマップデータ23および36に相当する。 As described above, the information processing method according to the present disclosure includes a step of generating a first map based on an image, a step of acquiring a second map from another device, and a virtual object using the first map or the second map. It may be the one that causes the computer to perform the steps to generate. Further, the information processing method according to the present disclosure includes a step of generating the first evaluation data based on the first map and the third map used for managing the service, and the first map or the second map used for generating the virtual object. It may further include a step of selection based on the first evaluation data. The first map corresponds to, for example, the first local map data 21. The second map corresponds to, for example, the second local map data 22. The third map corresponds to, for example, global map data 23 and 36.
 ここでは、本開示による情報処理装置の概要を整理する。 Here, the outline of the information processing device according to this disclosure is organized.
 本開示による情報処理装置は、画像に基づいて第1マップを生成するマップ生成部と、他の装置から第2マップを取得するマップ取得部と、第1マップまたは第2マップを使って仮想オブジェクトを生成するオブジェクト生成部とを備えていてもよい。ここで、第1ローカルマップデータ21は、第1マップの一例である。また、第2ローカルマップデータ22は、第2マップの一例である。例えば、上述のウェアラブルコンピュータ1Aからみて、ウェアラブルコンピュータ1Bは、他の装置に相当する。 The information processing device according to the present disclosure includes a map generation unit that generates a first map based on an image, a map acquisition unit that acquires a second map from another device, and a virtual object using the first map or the second map. It may be provided with an object generation unit that generates. Here, the first local map data 21 is an example of the first map. The second local map data 22 is an example of the second map. For example, in view of the above-mentioned wearable computer 1A, the wearable computer 1B corresponds to another device.
 また、本開示による情報処理装置は、第1マップとサービスの管理に使われる第3マップとに基づいて第1評価データを生成する評価データ生成部と、オブジェクト生成部が仮想オブジェクトの生成に使う第1マップまたは第2マップを第1評価データに基づいて選択するマップ選択部とをさらに備えていてもよい。上述のグローバルマップデータ23および36は、第3マップの例である。評価データ生成部は、第1マップと第3マップとの間の類似度に基づいて第1評価データを生成してもよい。マップ取得部は、サーバから第3マップを取得してもよい。上述の管理サーバ30は、サーバの一例である。 Further, the information processing apparatus according to the present disclosure is used by an evaluation data generation unit that generates the first evaluation data based on the first map and the third map used for service management, and an object generation unit that generates a virtual object. It may further include a map selection unit that selects the first map or the second map based on the first evaluation data. The global map data 23 and 36 described above are examples of the third map. The evaluation data generation unit may generate the first evaluation data based on the degree of similarity between the first map and the third map. The map acquisition unit may acquire the third map from the server. The management server 30 described above is an example of a server.
 また、本開示による情報処理装置は、自己位置を推定する自己位置推定部をさらに備えていてもよい。この場合、マップ選択部は、第1評価データより自己位置に対応する第1評価値を取得し、第1評価値に基づいてオブジェクト生成部が仮想オブジェクトの生成に使う第1マップまたは第2マップを選択する。 Further, the information processing apparatus according to the present disclosure may further include a self-position estimation unit that estimates the self-position. In this case, the map selection unit acquires the first evaluation value corresponding to the self-position from the first evaluation data, and the object generation unit uses the first map or the second map to generate the virtual object based on the first evaluation value. Select.
 図15のフローチャートで例示したように、マップ選択部は、第1評価値がしきい値以下であるときに第1マップを選択してもよい。また、マップ取得部は、他の装置から第2マップに対応する第2評価データを取得し、マップ選択部は、第2評価データより自己位置に対応する第2評価値を取得し、第2評価値が第1評価値より大きいときに第2マップを選択してもよい。また、マップ選択部は、第2評価値が第1評価値以下であるときに第1マップを選択してもよい。 As illustrated in the flowchart of FIG. 15, the map selection unit may select the first map when the first evaluation value is equal to or less than the threshold value. Further, the map acquisition unit acquires the second evaluation data corresponding to the second map from another device, and the map selection unit acquires the second evaluation value corresponding to the self-position from the second evaluation data, and the second evaluation value is obtained. The second map may be selected when the evaluation value is larger than the first evaluation value. Further, the map selection unit may select the first map when the second evaluation value is equal to or less than the first evaluation value.
 本開示による情報処理装置は、画像を撮影する撮像部を備えていてもよい。また、本開示による情報処理装置は、撮像部が向いている方向または撮像部の傾斜角の少なくともいずれかを計測するセンサ部をさらに備えていてもよい。この場合、マップ生成部は、センサ部の計測値を使って第1マップを生成してもよい。 The information processing device according to the present disclosure may include an imaging unit that captures an image. Further, the information processing apparatus according to the present disclosure may further include a sensor unit that measures at least one of the direction in which the imaging unit is facing and the tilt angle of the imaging unit. In this case, the map generation unit may generate the first map using the measured values of the sensor unit.
 次に、本開示による情報処理システムの概要を整理する。 Next, the outline of the information processing system according to this disclosure will be summarized.
 本開示による情報処理システムは、第1画像に基づいて第1マップを生成する第1情報処理装置と、第2画像に基づいて第2マップを生成する第2情報処理装置とを備えていてもよい。第1情報処理装置は、第1マップまたは第2情報処理装置から取得した第2マップに基づいて仮想オブジェクトを生成する。第2情報処理装置は、第2マップまたは第1情報処理装置から取得した第1マップに基づいて仮想オブジェクトを生成する。例えば、第1情報処理装置は、ウェアラブルコンピュータ1Aに相当し、第2情報処理装置は、ウェアラブルコンピュータ1Bに相当する。 Even if the information processing system according to the present disclosure includes a first information processing device that generates a first map based on a first image and a second information processing device that generates a second map based on a second image. Good. The first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device. The second information processing device generates a virtual object based on the second map or the first map acquired from the first information processing device. For example, the first information processing device corresponds to the wearable computer 1A, and the second information processing device corresponds to the wearable computer 1B.
 第1マップは、例えば、第1情報処理装置のローカルマップ生成部10が生成する第1ローカルマップデータ21である。第2マップは、例えば、第1情報処理装置の記憶部5に保存される第2ローカルマップデータ22である。また、第2マップは、第2情報処理装置のローカルマップ生成部10が生成する第1ローカルマップデータ21にも相当する。 The first map is, for example, the first local map data 21 generated by the local map generation unit 10 of the first information processing apparatus. The second map is, for example, the second local map data 22 stored in the storage unit 5 of the first information processing apparatus. The second map also corresponds to the first local map data 21 generated by the local map generation unit 10 of the second information processing apparatus.
 また、本開示による情報処理システムは、第3マップを使ってサービスの管理を行うサーバをさらに備えていてもよい。この場合、第1情報処理装置は、第1マップと第3マップに基づいて第1評価データを生成し、第1マップまたは第2マップを第1評価データに基づいて選択し、仮想オブジェクトの生成に使用してもよい。一方、第2情報処理装置は、第2マップと第3マップに基づいて第2評価データを生成し、第2マップまたは第1マップを第1評価データに基づいて選択し、仮想オブジェクトの生成に使用してもよい。グローバルマップデータ23および36は、第3マップの例である。 Further, the information processing system according to the present disclosure may further include a server that manages services using the third map. In this case, the first information processing apparatus generates the first evaluation data based on the first map and the third map, selects the first map or the second map based on the first evaluation data, and generates a virtual object. May be used for. On the other hand, the second information processing apparatus generates the second evaluation data based on the second map and the third map, selects the second map or the first map based on the first evaluation data, and generates a virtual object. You may use it. Global map data 23 and 36 are examples of the third map.
 また、図15のフローチャートに例示したように、第1情報処理装置は、第1自己位置を推定し、第1自己位置に対応する第1評価値を第1評価データより取得し、第1評価値に基づいて仮想オブジェクトの生成に使う第1マップまたは第2マップを選択してもよい。一方、第2情報処理装置は、第2自己位置を推定し、第2自己位置に対応する第3評価値を第2評価データより取得し、第3評価値に基づいて仮想オブジェクトの生成に使う第1マップまたは第2マップを選択してもよい。ここで、第3評価値は、図15のステップS202およびステップS203における第1評価値に相当する。第1自己位置および第2自己位置は、例えば、それぞれの情報処理装置における自己位置推定部11によって推定される。 Further, as illustrated in the flowchart of FIG. 15, the first information processing apparatus estimates the first self-position, acquires the first evaluation value corresponding to the first self-position from the first evaluation data, and performs the first evaluation. You may choose the first or second map to use to create the virtual object based on the value. On the other hand, the second information processing device estimates the second self-position, acquires the third evaluation value corresponding to the second self-position from the second evaluation data, and uses it to generate a virtual object based on the third evaluation value. You may choose the first map or the second map. Here, the third evaluation value corresponds to the first evaluation value in steps S202 and S203 of FIG. The first self-position and the second self-position are estimated by, for example, the self-position estimation unit 11 in each information processing device.
 図15のフローチャートで例示したように、第1情報処理装置は、第2情報処理装置から第2評価データを取得し、第2評価データより第1自己位置に対応する第2評価値を取得し、第2評価値が第1評価値より大きいときに第2マップを選択してもよい。一方、第2情報処理装置は、第1情報処理装置から第1評価データを取得し、第1評価データより第2自己位置に対応する第4評価値を取得し、第4評価値が第3評価値より大きいときに第1マップを選択してもよい。例えば、第3評価値は、図15のステップS202およびステップS203における第1評価値に相当する。この場合、第4評価値は、図15のステップS205およびステップS206における第2評価値に相当する。 As illustrated in the flowchart of FIG. 15, the first information processing apparatus acquires the second evaluation data from the second information processing apparatus, and acquires the second evaluation value corresponding to the first self-position from the second evaluation data. , The second map may be selected when the second evaluation value is larger than the first evaluation value. On the other hand, the second information processing apparatus acquires the first evaluation data from the first information processing apparatus, acquires the fourth evaluation value corresponding to the second self-position from the first evaluation data, and the fourth evaluation value is the third. The first map may be selected when it is larger than the evaluation value. For example, the third evaluation value corresponds to the first evaluation value in steps S202 and S203 of FIG. In this case, the fourth evaluation value corresponds to the second evaluation value in steps S205 and S206 of FIG.
 上述では、仮想オブジェクトの生成時に使うローカルマップとして、自装置で生成した第1ローカルマップまたは他の情報処理装置が生成した第2ローカルマップを選択することによって、ユーザ間における仮想オブジェクトの見え方のずれを解消する情報処理装置および情報処理システムについて説明した。ただし、本開示による情報処理装置および情報処理システムでは、これとは異なる方法によってユーザ間における仮想オブジェクトの見え方のずれを解消してもよい。 In the above, by selecting the first local map generated by the own device or the second local map generated by another information processing device as the local map used when the virtual object is generated, the appearance of the virtual object among users can be seen. The information processing device and the information processing system that eliminate the deviation have been described. However, in the information processing device and the information processing system according to the present disclosure, the deviation in the appearance of the virtual object between users may be eliminated by a method different from this.
 図17のフローチャートは、変形例1における仮想オブジェクトの表示処理の例を示している。以下では、図17のフローチャートを参照しながら、処理を説明する。 The flowchart of FIG. 17 shows an example of the display processing of the virtual object in the modification 1. Hereinafter, the process will be described with reference to the flowchart of FIG.
 はじめに、自己位置推定部11は、情報処理装置1の自己位置を推定する(ステップS211)。例えば、自己位置推定部11は、ステップS211で情報処理装置1の自己位置に相当する第1ローカル座標を得ることができる。次に、マップ選択部13は、第1評価データ(第1評価データ24)より自己位置の第1評価値を得る(ステップS212)。例えば、マップ選択部13は、自己位置に相当する第1ローカル座標を含む第1評価データ24内のメッシュを探索する。これによりマップ選択部13は、メッシュに設定された評価値を得ることができる。 First, the self-position estimation unit 11 estimates the self-position of the information processing device 1 (step S211). For example, the self-position estimation unit 11 can obtain the first local coordinates corresponding to the self-position of the information processing device 1 in step S211. Next, the map selection unit 13 obtains the first evaluation value of the self-position from the first evaluation data (first evaluation data 24) (step S212). For example, the map selection unit 13 searches for a mesh in the first evaluation data 24 including the first local coordinates corresponding to its own position. As a result, the map selection unit 13 can obtain the evaluation value set in the mesh.
 そして、マップ選択部13は、評価データ内における自己位置の第1評価値がしきい値より大きいか否かを判定する(ステップS213)。例えば、第1評価データとしてデータD4(図14)が使われる場合、しきい値として0より大きく1より小さい値を使うことができる。ただし、これとは異なるしきい値を使ってもよい。 Then, the map selection unit 13 determines whether or not the first evaluation value of the self-position in the evaluation data is larger than the threshold value (step S213). For example, when the data D4 (FIG. 14) is used as the first evaluation data, a value larger than 0 and smaller than 1 can be used as the threshold value. However, a different threshold may be used.
 ステップS213での判定結果に応じて、実行される処理が分岐する。評価データ内における自己位置の第1評価値がしきい値以下である場合(ステップS213のNO)、オブジェクト生成部15は、生成した仮想オブジェクトを表示部7に規定サイズで表示する(ステップS215)。 The process to be executed branches according to the determination result in step S213. When the first evaluation value of the self-position in the evaluation data is equal to or less than the threshold value (NO in step S213), the object generation unit 15 displays the generated virtual object on the display unit 7 in a specified size (step S215). ..
 評価データ内における自己位置の第1評価値がしきい値より大きい場合(ステップS213のYES)、オブジェクト生成部15は、生成した仮想オブジェクトを表示部7に規定サイズより大きく表示する(ステップS214)。 When the first evaluation value of the self-position in the evaluation data is larger than the threshold value (YES in step S213), the object generation unit 15 displays the generated virtual object on the display unit 7 larger than the specified size (step S214). ..
 図18は、変形例1における仮想オブジェクトの見え方の例を示している。図18では、ウェアラブルコンピュータ1Aを着用したユーザU1と、ウェアラブルコンピュータ1Bを着用したユーザU2が、図9および図16と同じ位置および姿勢で物体OBJの方向を向いている。物体OBJは、上部に開口部を有する壺である。ビューV1は、ユーザU1からの見え方の例を示している。また、ビューV2は、ユーザU2からの見え方の例を示している。また、図18では、図9および図16と同様に、管理サーバ30のサービスプログラム34が所定のグローバル座標に仮想オブジェクトA1を生成する指令をウェアラブルコンピュータ1Aおよび1Bに送信しているものとする。 FIG. 18 shows an example of how the virtual object looks in the first modification. In FIG. 18, the user U1 wearing the wearable computer 1A and the user U2 wearing the wearable computer 1B are facing the object OBJ at the same positions and postures as in FIGS. 9 and 16. The object OBJ is a jar having an opening at the top. View V1 shows an example of how it looks from user U1. Further, the view V2 shows an example of how the user U2 sees the view. Further, in FIG. 18, it is assumed that the service program 34 of the management server 30 transmits a command to generate the virtual object A1 at predetermined global coordinates to the wearable computers 1A and 1B, as in FIGS. 9 and 16.
 図18の例では、ウェアラブルコンピュータ1Aおよびウェアラブルコンピュータ1Bが図17のフローチャートの処理を実行し、生成した仮想オブジェクトを規定のサイズより大きく表示するか否かを判定している。ウェアラブルコンピュータ1Aでは、第1評価データ内における自己位置の第1評価値がしきい値以下であると判定されたため、仮想オブジェクトA1が規定の大きさで表示されている。ウェアラブルコンピュータ1AのビューV1では、表示のずれが小さく、壺の上部に相当する位置にキャラクタである仮想オブジェクトA1が出現している。このため、ユーザU1は、サービスで意図されているように、キャラクタが壺の開口部から飛び出している様子を視覚的に認識することができる。 In the example of FIG. 18, the wearable computer 1A and the wearable computer 1B execute the processing of the flowchart of FIG. 17 and determine whether or not the generated virtual object is displayed larger than the specified size. In the wearable computer 1A, since it is determined that the first evaluation value of the self-position in the first evaluation data is equal to or less than the threshold value, the virtual object A1 is displayed in a predetermined size. In the view V1 of the wearable computer 1A, the display deviation is small, and the virtual object A1 which is a character appears at a position corresponding to the upper part of the jar. Therefore, the user U1 can visually recognize how the character is popping out of the opening of the jar, as intended by the service.
 一方、ウェアラブルコンピュータ1Bでは、評価データ内における自己位置の第1評価値がしきい値より大きいと判定されたため、仮想オブジェクトA1が規定の大きさより大きく表示されている。ウェアラブルコンピュータ1BのビューV2を参照すると、仮想オブジェクトA1が規定サイズ(図9のサイズ)と比べて1.5倍に拡大されている。このため、図16でも、図9と同様、キャラクタである仮想オブジェクトA1の表示位置のずれが生じているものの、ユーザU2からは、このずれが認識しづらくなっている。 On the other hand, in the wearable computer 1B, since it is determined that the first evaluation value of the self-position in the evaluation data is larger than the threshold value, the virtual object A1 is displayed larger than the specified size. With reference to view V2 of the wearable computer 1B, the virtual object A1 is enlarged 1.5 times as large as the specified size (size of FIG. 9). Therefore, in FIG. 16, as in FIG. 9, the display position of the virtual object A1 which is a character is displaced, but it is difficult for the user U2 to recognize this displacement.
 図18の例では、仮想オブジェクトA1がx軸、y軸およびz軸の3方向で拡大されている。ただし、オブジェクト生成部15は、仮想オブジェクトを一部の軸の方向で拡大してもよい。また、オブジェクト生成部15は、仮想オブジェクトに対して所定の演算処理を実行し、仮想オブジェクトの形状を変更して表示してもよい。このように、本開示による情報処理装置は、第1評価データ内における自己位置の第1評価値に応じて表示部7で仮想オブジェクトが表示される大きさまたは形状の少なくともいずれかを制御してもよい。 In the example of FIG. 18, the virtual object A1 is enlarged in three directions of the x-axis, the y-axis, and the z-axis. However, the object generation unit 15 may expand the virtual object in the direction of a part of the axes. Further, the object generation unit 15 may execute a predetermined arithmetic process on the virtual object to change the shape of the virtual object and display it. As described above, the information processing apparatus according to the present disclosure controls at least one of the size and shape of the virtual object displayed on the display unit 7 according to the first evaluation value of the self-position in the first evaluation data. May be good.
 図17のフローチャートの処理によっても、ユーザ間による仮想オブジェクトの見え方のずれを解消し、ARを使ったサービスの品質を高めることが可能となる。 The processing of the flowchart of FIG. 17 also makes it possible to eliminate the deviation in the appearance of virtual objects between users and improve the quality of services using AR.
 図17のフローチャートおよび図18で例示したように、オブジェクト生成部は、第1評価値がしきい値より大きいときに第1評価値がしきい値以下であるときと比べて大きいサイズの仮想オブジェクトを生成してもよい。 As illustrated in the flowchart of FIG. 17 and FIG. 18, the object generation unit is a virtual object having a size larger when the first evaluation value is larger than the threshold value as compared with the case where the first evaluation value is less than or equal to the threshold value. May be generated.
 また、本開示による情報処理システムにおいて、第1情報処理装置は、第1評価値がしきい値より大きいときに第1評価値がしきい値以下であるときと比べて大きいサイズの仮想オブジェクトを生成してもよい。また、第2情報処理装置は、第3評価値がしきい値より大きいときに第3評価値がしきい値以下であるときと比べて大きいサイズの仮想オブジェクトを生成してもよい。 Further, in the information processing system according to the present disclosure, when the first evaluation value is larger than the threshold value, the first information processing apparatus produces a virtual object having a larger size than when the first evaluation value is equal to or less than the threshold value. It may be generated. Further, the second information processing apparatus may generate a virtual object having a larger size when the third evaluation value is larger than the threshold value as compared with the case where the third evaluation value is equal to or less than the threshold value.
 なお、情報処理装置1は、図15のフローチャートの処理と、図17のフローチャートとを組み合わせて実行してもよい。すなわち、本開示による情報処理装置は、仮想オブジェクトの表示時に使用するローカルマップの選択処理ならびに仮想オブジェクトが表示される大きさまたは形状の少なくともいずれかを制御する処理を組み合わせて実行してもよい。 Note that the information processing device 1 may execute the processing of the flowchart of FIG. 15 in combination with the flowchart of FIG. That is, the information processing apparatus according to the present disclosure may execute a combination of a process of selecting a local map to be used when displaying a virtual object and a process of controlling at least one of the size and shape of the virtual object to be displayed.
 図19は、ヘッドマウントディスプレイの着用例を示している。図19は、本開示による情報処理装置がウェアラブルコンピュータの1種であるヘッドマウントディスプレイ1Cである場合の例を示している。ヘッドマウントディスプレイ1Cの着用時にユーザの目と対向する面には、表示部7が設けられている。表示部7として、例えば、背景に重なるようにコンテンツを表示することが可能な透過型ディスプレイを使うことができる。また、ヘッドマウントディスプレイ1Cの表示部7と反対側の面には、透過部材17が設けられている。透過部材17として、例えば、ポリイミド、アクリル、エポキシまたはガラスなどの可視光に対する透過性を有する材料を使うことができる。ただし、透過部材17として使われる材料の種類については問わない。 FIG. 19 shows an example of wearing a head-mounted display. FIG. 19 shows an example in which the information processing apparatus according to the present disclosure is a head-mounted display 1C which is a kind of wearable computer. A display unit 7 is provided on a surface facing the user's eyes when the head-mounted display 1C is worn. As the display unit 7, for example, a transmissive display capable of displaying content so as to overlap the background can be used. A transmissive member 17 is provided on the surface of the head-mounted display 1C opposite to the display unit 7. As the transmitting member 17, for example, a material having transparency to visible light such as polyimide, acrylic, epoxy or glass can be used. However, the type of material used as the transparent member 17 does not matter.
 なお、透過部材17に電磁波のうち、赤外線成分または紫外線成分など特定の波長帯域の透過を妨げるコーティングが施されていてもよい。また、透過部材17に電磁波のうち、特定の波長帯域の透過を妨げるフィルムが貼付されていてもよい。また、図19のヘッドマウントディスプレイ1Cは、イヤホン16を備えている。イヤホン16は、オーディオ回路8が出力した音声信号に基づき、音声を再生する。 The transmitting member 17 may be coated with a coating that prevents transmission of a specific wavelength band such as an infrared component or an ultraviolet component among electromagnetic waves. Further, a film that prevents transmission of a specific wavelength band of electromagnetic waves may be attached to the transmission member 17. Further, the head-mounted display 1C of FIG. 19 includes an earphone 16. The earphone 16 reproduces voice based on the voice signal output by the audio circuit 8.
 図19に示したヘッドマウントディスプレイの構成は、一例にしかすぎない。したがって、これとは異なる形状のヘッドマウントディスプレイを使ってもよい。また、イヤホンなどのオーディオ機器が省略されたヘッドマウントディスプレイを使ってもよい。例えば、ユーザは、無線通信(例えば、Bluetooth)によってヘッドマウントディスプレイが送信した音声信号を受信する外付けのイヤホンまたはヘッドホンを使ってもよい。 The configuration of the head-mounted display shown in FIG. 19 is only an example. Therefore, a head-mounted display having a different shape may be used. Further, a head-mounted display in which an audio device such as an earphone is omitted may be used. For example, the user may use external earphones or headphones that receive audio signals transmitted by the head-mounted display via wireless communication (eg, Bluetooth).
 図20は、表示部の構成の例を示している。図20の表示部7は、照度センサ3Aと、調光素子18と、ディスプレイ19とを備えている。照度センサ3Aは、ヘッドマウントディスプレイ1Cの周囲の明るさを検出する。調光素子18は、例えば、エレクトロクロミック材料を含む板状の素子である。調光素子18に印加される電圧は、照度センサ3Aの計測値に応じて調整される。例えば、照度センサ3Aの計測値が大きくなったときに調光素子18の印加電圧を高くし、照度センサ3Aの計測値が小さくなったときに調光素子18の印加電圧を低くすることができる。このような制御を行うことにより、照度の低い環境では、調光素子18の透過率を高くし、照度の高い環境で調光素子18の透過率を抑えることが可能である。ディスプレイ19は、透過型ディスプレイである。図20の構成の表示部7を採用することにより、屋外などの明るい環境で利用可能なヘッドマウントディスプレイ1Cをユーザに提供することが可能となる。 FIG. 20 shows an example of the configuration of the display unit. The display unit 7 of FIG. 20 includes an illuminance sensor 3A, a dimming element 18, and a display 19. The illuminance sensor 3A detects the ambient brightness of the head-mounted display 1C. The dimming element 18 is, for example, a plate-shaped element containing an electrochromic material. The voltage applied to the dimming element 18 is adjusted according to the measured value of the illuminance sensor 3A. For example, the applied voltage of the dimming element 18 can be increased when the measured value of the illuminance sensor 3A becomes large, and the applied voltage of the dimming element 18 can be decreased when the measured value of the illuminance sensor 3A becomes small. .. By performing such control, it is possible to increase the transmittance of the dimming element 18 in an environment with low illuminance and suppress the transmittance of the dimming element 18 in an environment with high illuminance. The display 19 is a transmissive display. By adopting the display unit 7 having the configuration shown in FIG. 20, it is possible to provide the user with a head-mounted display 1C that can be used in a bright environment such as outdoors.
 図21は、ヘッドマウントディスプレイ1Cの処理回路4によって実行されるAR関連の処理の例を示している。図21に示したように、AR関連の処理は、環境理解のための処理、応答決定のための処理、重畳表示のための処理の3つの処理に分類される。環境理解のための処理の例としては、自己位置決定処理が含まれる。自己位置決定処理の詳細は、上述の自己位置推定部11の説明で述べた通りである。応答決定のための処理の例としては、アプリロジック処理が含まれる。アプリロジック処理の一例としては、上述のオブジェクト生成部15による仮想オブジェクトの表示位置決定処理がある。 FIG. 21 shows an example of AR-related processing executed by the processing circuit 4 of the head-mounted display 1C. As shown in FIG. 21, AR-related processes are classified into three processes: a process for understanding the environment, a process for determining a response, and a process for superimposing display. An example of processing for understanding the environment includes self-positioning processing. The details of the self-position determination process are as described in the above-mentioned explanation of the self-position estimation unit 11. An example of processing for determining a response includes application logic processing. As an example of the application logic process, there is a virtual object display position determination process by the object generation unit 15 described above.
 重畳表示のための処理は、例えば、画像生成処理、遅延補償処理、音像生成処理などを含む。重畳表示のための処理が完了すると、ディスプレイまたはオーディオ機器への出力信号を生成することが可能になる。 The processing for superimposed display includes, for example, image generation processing, delay compensation processing, sound image generation processing, and the like. When the process for superimposed display is completed, it becomes possible to generate an output signal to a display or an audio device.
 本開示による情報処理装置は、オブジェクト生成部が生成した仮想オブジェクトを背景に重畳して表示する表示部を備えていてもよい。表示部は、透過型ディスプレイを含んでいてもよい。また、本開示による情報処理装置は、ウェアラブルコンピュータであってもよい。 The information processing device according to the present disclosure may include a display unit that superimposes and displays a virtual object generated by the object generation unit on the background. The display unit may include a transmissive display. Further, the information processing device according to the present disclosure may be a wearable computer.
 本開示による情報処理装置、情報処理システムおよび情報処理方法を使うことにより、複数ユーザ間における仮想オブジェクトの見え方のずれを軽減することが可能である。これにより、ARを使ったサービスの品質およびユーザの満足度を高めることができる。複数のユーザが拡張現実空間内で体験を共有することが可能となる。具体的には、アクションゲームでは、複数のユーザが協力して敵キャラクタとの戦うことが可能となる。空間内のそれぞれの位置で使用するマップを選択することができるため、サービスの状況およびタイミングに合ったマップを使用することができる。また、サービス側で必要であるタイミングで使用するマップの切り替えを行うことができるため、処理負荷および応答速度への影響を抑えることが可能である。 By using the information processing device, information processing system, and information processing method according to the present disclosure, it is possible to reduce the deviation in the appearance of virtual objects among a plurality of users. As a result, the quality of service using AR and the satisfaction of users can be improved. Multiple users will be able to share their experiences in augmented reality space. Specifically, in an action game, a plurality of users can cooperate to fight against an enemy character. Since the map to be used at each position in the space can be selected, the map can be used according to the service situation and timing. In addition, since the map to be used can be switched at the timing required on the service side, it is possible to suppress the influence on the processing load and the response speed.
 なお、本技術は、以下のような構成をとることができる。
(1)
 画像に基づいて第1マップを生成するマップ生成部と、
 他の装置から第2マップを取得するマップ取得部と、
 前記第1マップまたは前記第2マップを使って仮想オブジェクトを生成するオブジェクト生成部と
 を備えた情報処理装置。
(2)
 前記第1マップとサービスの管理に使われる第3マップとに基づいて第1評価データを生成する評価データ生成部と、
 前記オブジェクト生成部が前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択するマップ選択部とをさらに備える、 (1)に記載の情報処理装置。
(3)
 自己位置を推定する自己位置推定部をさらに備え、
 前記マップ選択部は、前記第1評価データより前記自己位置に対応する第1評価値を取得し、前記第1評価値に基づいて前記オブジェクト生成部が前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択する、
 (2)に記載の情報処理装置。
(4)
 前記マップ選択部は、前記第1評価値がしきい値以下であるときに前記第1マップを選択する、
 (3)に記載の情報処理装置。
(5)
 前記マップ取得部は、前記他の装置から前記第2マップに対応する第2評価データを取得し、
 前記マップ選択部は、前記第2評価データより前記自己位置に対応する第2評価値を取得し、前記第2評価値が前記第1評価値より大きいときに前記第2マップを選択する、
 (3)または(4)に記載の情報処理装置。
(6)
 前記マップ選択部は、前記第2評価値が前記第1評価値以下であるときに前記第1マップを選択する、
 (5)に記載の情報処理装置。
(7)
 前記オブジェクト生成部は、前記第1評価値がしきい値より大きいときに前記第1評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成する、 (3)ないし(6)のいずれか一項に記載の情報処理装置。
(8)
 前記評価データ生成部は、前記第1マップと前記第3マップとの間の類似度に基づいて前記第1評価データを生成する、
 (2)ないし(7)のいずれか一項に記載の情報処理装置。
(9)
 前記マップ取得部は、サーバから前記第3マップを取得する、
 (2)ないし8のいずれか一項に記載の情報処理装置。
(10)
 前記画像を撮影する撮像部をさらに備える、
 (1)ないし(9)のいずれか一項に記載の情報処理装置。
(11)
 前記撮像部が向いている方向または前記撮像部の傾斜角の少なくともいずれかを計測するセンサ部をさらに備え、
 前記マップ生成部は、前記センサ部の計測値を使って前記第1マップを生成する、
 (10)に記載の情報処理装置。
(12)
 前記オブジェクト生成部が生成した仮想オブジェクトを背景に重畳して表示する表示部をさらに備える、
 (1)ないし(11)のいずれか一項に記載の情報処理装置。
(13)
 前記表示部は、透過型ディスプレイを含み、
 ウェアラブルコンピュータである、
 (12)に記載の情報処理装置。
(14)
 第1画像に基づいて第1マップを生成する第1情報処理装置と、
 第2画像に基づいて第2マップを生成する第2情報処理装置とを備え、
 前記第1情報処理装置は、前記第1マップまたは前記第2情報処理装置から取得した前記第2マップに基づいて仮想オブジェクトを生成し、
 前記第2情報処理装置は、前記第2マップまたは前記第1情報処理装置から取得した前記第1マップに基づいて前記仮想オブジェクトを生成する、
 情報処理システム。
(15)
 第3マップを使ってサービスの管理を行うサーバをさらに備え、
 前記第1情報処理装置は、前記第1マップと前記第3マップに基づいて第1評価データを生成し、前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択し、仮想オブジェクトの生成に使用し、
 前記第2情報処理装置は、前記第2マップと前記第3マップに基づいて第2評価データを生成し、前記第2マップまたは前記第1マップを前記第1評価データに基づいて選択し、前記仮想オブジェクトの生成に使用する、
 (14)に記載の情報処理システム。
(16)
 前記第1情報処理装置は、第1自己位置を推定し、前記第1自己位置に対応する第1評価値を前記第1評価データより取得し、前記第1評価値に基づいて前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択し、
 前記第2情報処理装置は、第2自己位置を推定し、前記第2自己位置に対応する第3評価値を前記第2評価データより取得し、前記第3評価値に基づいて前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択する、
 (15)に記載の情報処理システム。
(17)
 前記第1情報処理装置は、前記第2情報処理装置から前記第2評価データを取得し、前記第2評価データより前記第1自己位置に対応する第2評価値を取得し、前記第2評価値が前記第1評価値より大きいときに前記第2マップを選択し、
 前記第2情報処理装置は、前記第1情報処理装置から前記第1評価データを取得し、前記第1評価データより前記第2自己位置に対応する第4評価値を取得し、前記第4評価値が前記第3評価値より大きいときに前記第1マップを選択する、
 (16)に記載の情報処理システム。
(18)
 前記第1情報処理装置は、前記第1評価値がしきい値より大きいときに前記第1評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成し、
 前記第2情報処理装置は、前記第3評価値がしきい値より大きいときに前記第3評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成する、
 (16)または(17)に記載の情報処理システム。
(19)
 画像に基づいて第1マップを生成するステップと、
 他の装置から第2マップを取得するステップと、
 前記第1マップまたは前記第2マップを使って仮想オブジェクトを生成するステップとをコンピュータに実行させる、
 情報処理方法。
(20)
 前記第1マップとサービスの管理に使われる第3マップに基づいて第1評価データを生成するステップと、
 前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択するステップとをさらに含む
 (19)に記載の情報処理方法。
The present technology can have the following configurations.
(1)
A map generator that generates the first map based on the image,
A map acquisition unit that acquires a second map from another device,
An information processing device including an object generation unit that creates a virtual object using the first map or the second map.
(2)
An evaluation data generation unit that generates the first evaluation data based on the first map and the third map used for managing the service.
The information processing apparatus according to (1), further comprising a map selection unit for selecting the first map or the second map used by the object generation unit for generating the virtual object based on the first evaluation data.
(3)
It also has a self-position estimation unit that estimates the self-position.
The map selection unit acquires a first evaluation value corresponding to the self-position from the first evaluation data, and the object generation unit uses the first map to generate the virtual object based on the first evaluation value. Or select the second map,
The information processing device according to (2).
(4)
The map selection unit selects the first map when the first evaluation value is equal to or less than a threshold value.
The information processing device according to (3).
(5)
The map acquisition unit acquires the second evaluation data corresponding to the second map from the other device, and obtains the second evaluation data.
The map selection unit acquires a second evaluation value corresponding to the self-position from the second evaluation data, and selects the second map when the second evaluation value is larger than the first evaluation value.
The information processing device according to (3) or (4).
(6)
The map selection unit selects the first map when the second evaluation value is equal to or less than the first evaluation value.
The information processing device according to (5).
(7)
When the first evaluation value is larger than the threshold value, the object generation unit generates the virtual object having a larger size than when the first evaluation value is equal to or less than the threshold value, (3) to (3). The information processing apparatus according to any one of 6).
(8)
The evaluation data generation unit generates the first evaluation data based on the degree of similarity between the first map and the third map.
The information processing device according to any one of (2) to (7).
(9)
The map acquisition unit acquires the third map from the server.
(2) The information processing device according to any one of 8 to 8.
(10)
An image pickup unit for capturing the image is further provided.
The information processing device according to any one of (1) to (9).
(11)
Further, a sensor unit for measuring at least one of the direction in which the image pickup unit is facing or the inclination angle of the image pickup unit is provided.
The map generation unit generates the first map using the measured values of the sensor unit.
The information processing device according to (10).
(12)
A display unit that superimposes and displays a virtual object generated by the object generation unit on the background is further provided.
The information processing device according to any one of (1) to (11).
(13)
The display includes a transmissive display.
A wearable computer,
The information processing device according to (12).
(14)
A first information processing device that generates a first map based on a first image,
It is equipped with a second information processing device that generates a second map based on the second image.
The first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device.
The second information processing device generates the virtual object based on the second map or the first map acquired from the first information processing device.
Information processing system.
(15)
Further equipped with a server that manages services using the third map
The first information processing apparatus generates first evaluation data based on the first map and the third map, selects the first map or the second map based on the first evaluation data, and virtualizes the first map. Used to create an object
The second information processing device generates second evaluation data based on the second map and the third map, selects the second map or the first map based on the first evaluation data, and the above. Used to create virtual objects,
The information processing system according to (14).
(16)
The first information processing apparatus estimates the first self-position, acquires the first evaluation value corresponding to the first self-position from the first evaluation data, and based on the first evaluation value, of the virtual object. Select the first map or the second map to be used for generation,
The second information processing device estimates the second self-position, acquires the third evaluation value corresponding to the second self-position from the second evaluation data, and based on the third evaluation value, of the virtual object. Select the first map or the second map to be used for generation,
The information processing system according to (15).
(17)
The first information processing apparatus acquires the second evaluation data from the second information processing apparatus, acquires the second evaluation value corresponding to the first self-position from the second evaluation data, and obtains the second evaluation value. When the value is larger than the first evaluation value, the second map is selected.
The second information processing apparatus acquires the first evaluation data from the first information processing apparatus, acquires the fourth evaluation value corresponding to the second self-position from the first evaluation data, and obtains the fourth evaluation value. Select the first map when the value is greater than the third evaluation value.
The information processing system according to (16).
(18)
When the first evaluation value is larger than the threshold value, the first information processing device generates the virtual object having a size larger than that when the first evaluation value is equal to or less than the threshold value.
When the third evaluation value is larger than the threshold value, the second information processing device generates the virtual object having a larger size than when the third evaluation value is equal to or less than the threshold value.
The information processing system according to (16) or (17).
(19)
Steps to generate the first map based on the image,
The step of getting the second map from another device,
Have the computer perform the steps of creating a virtual object using the first map or the second map.
Information processing method.
(20)
The step of generating the first evaluation data based on the first map and the third map used for managing the service, and
The information processing method according to (19), further including a step of selecting the first map or the second map used for generating the virtual object based on the first evaluation data.
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。 The aspects of the present disclosure are not limited to the individual embodiments described above, but also include various modifications that can be conceived by those skilled in the art, and the effects of the present disclosure are not limited to the above-mentioned contents. That is, various additions, changes and partial deletions are possible without departing from the conceptual idea and purpose of the present disclosure derived from the contents defined in the claims and their equivalents.
 1 情報処理装置
 1A、1B ウェアラブルコンピュータ
 1C ヘッドマウントディスプレイ
 2 撮像部
 3 センサ部
 3A 照度センサ
 4 処理回路
 5 記憶部
 6、32 通信回路
 7 表示部
 8 オーディオ回路
 10 ローカルマップ生成部
 11 自己位置推定部
 12 マップ取得部
 13 マップ選択部
 14 評価データ生成部
 15 オブジェクト生成部
 16 イヤホン
 17 透過部材
 18 調光素子
 19 ディスプレイ
 30 管理サーバ
 31 バス
 33 プロセッサ
 34 サービスプログラム
 35 ストレージ
 36 グローバルマップデータ
 40 ネットワーク
 41 基地局
1 Information processing device 1A, 1B Wearable computer 1C Head-mounted display 2 Imaging unit 3 Sensor unit 3A Illumination sensor 4 Processing circuit 5 Storage unit 6, 32 Communication circuit 7 Display unit 8 Audio circuit 10 Local map generator 11 Self-position estimation unit 12 Map acquisition unit 13 Map selection unit 14 Evaluation data generation unit 15 Object generation unit 16 Earphones 17 Transmission member 18 Dimming element 19 Display 30 Management server 31 Bus 33 Processor 34 Service program 35 Storage 36 Global map data 40 Network 41 Base station

Claims (20)

  1.  画像に基づいて第1マップを生成するマップ生成部と、
     他の装置から第2マップを取得するマップ取得部と、
     前記第1マップまたは前記第2マップを使って仮想オブジェクトを生成するオブジェクト生成部と
     を備えた情報処理装置。
    A map generator that generates the first map based on the image,
    A map acquisition unit that acquires a second map from another device,
    An information processing device including an object generation unit that creates a virtual object using the first map or the second map.
  2.  前記第1マップとサービスの管理に使われる第3マップとに基づいて第1評価データを生成する評価データ生成部と、
     前記オブジェクト生成部が前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択するマップ選択部とをさらに備える、 請求項1に記載の情報処理装置。
    An evaluation data generation unit that generates the first evaluation data based on the first map and the third map used for managing the service.
    The information processing apparatus according to claim 1, further comprising a map selection unit for selecting the first map or the second map used by the object generation unit for generating the virtual object based on the first evaluation data.
  3.  自己位置を推定する自己位置推定部をさらに備え、
     前記マップ選択部は、前記第1評価データより前記自己位置に対応する第1評価値を取得し、前記第1評価値に基づいて前記オブジェクト生成部が前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択する、
     請求項2に記載の情報処理装置。
    It also has a self-position estimation unit that estimates the self-position.
    The map selection unit acquires a first evaluation value corresponding to the self-position from the first evaluation data, and the object generation unit uses the first map to generate the virtual object based on the first evaluation value. Or select the second map,
    The information processing device according to claim 2.
  4.  前記マップ選択部は、前記第1評価値がしきい値以下であるときに前記第1マップを選択する、
     請求項3に記載の情報処理装置。
    The map selection unit selects the first map when the first evaluation value is equal to or less than a threshold value.
    The information processing device according to claim 3.
  5.  前記マップ取得部は、前記他の装置から前記第2マップに対応する第2評価データを取得し、
     前記マップ選択部は、前記第2評価データより前記自己位置に対応する第2評価値を取得し、前記第2評価値が前記第1評価値より大きいときに前記第2マップを選択する、
     請求項3に記載の情報処理装置。
    The map acquisition unit acquires the second evaluation data corresponding to the second map from the other device, and obtains the second evaluation data.
    The map selection unit acquires a second evaluation value corresponding to the self-position from the second evaluation data, and selects the second map when the second evaluation value is larger than the first evaluation value.
    The information processing device according to claim 3.
  6.  前記マップ選択部は、前記第2評価値が前記第1評価値以下であるときに前記第1マップを選択する、
     請求項5に記載の情報処理装置。
    The map selection unit selects the first map when the second evaluation value is equal to or less than the first evaluation value.
    The information processing device according to claim 5.
  7.  前記オブジェクト生成部は、前記第1評価値がしきい値より大きいときに前記第1評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成する、 請求項3に記載の情報処理装置。 The object generation unit according to claim 3, wherein when the first evaluation value is larger than the threshold value, the object generation unit generates the virtual object having a larger size than when the first evaluation value is equal to or less than the threshold value. Information processing device.
  8.  前記評価データ生成部は、前記第1マップと前記第3マップとの間の類似度に基づいて前記第1評価データを生成する、
     請求項2に記載の情報処理装置。
    The evaluation data generation unit generates the first evaluation data based on the degree of similarity between the first map and the third map.
    The information processing device according to claim 2.
  9.  前記マップ取得部は、サーバから前記第3マップを取得する、
     請求項2に記載の情報処理装置。
    The map acquisition unit acquires the third map from the server.
    The information processing device according to claim 2.
  10.  前記画像を撮影する撮像部をさらに備える、
     請求項1に記載の情報処理装置。
    An image pickup unit for capturing the image is further provided.
    The information processing device according to claim 1.
  11.  前記撮像部が向いている方向または前記撮像部の傾斜角の少なくともいずれかを計測するセンサ部をさらに備え、
     前記マップ生成部は、前記センサ部の計測値を使って前記第1マップを生成する、
     請求項10に記載の情報処理装置。
    Further, a sensor unit for measuring at least one of the direction in which the image pickup unit is facing or the inclination angle of the image pickup unit is provided.
    The map generation unit generates the first map using the measured values of the sensor unit.
    The information processing device according to claim 10.
  12.  前記オブジェクト生成部が生成した仮想オブジェクトを背景に重畳して表示する表示部をさらに備える、
     請求項1に記載の情報処理装置。
    A display unit that superimposes and displays a virtual object generated by the object generation unit on the background is further provided.
    The information processing device according to claim 1.
  13.  前記表示部は、透過型ディスプレイを含み、
     ウェアラブルコンピュータである、
     請求項12に記載の情報処理装置。
    The display includes a transmissive display.
    A wearable computer,
    The information processing device according to claim 12.
  14.  第1画像に基づいて第1マップを生成する第1情報処理装置と、
     第2画像に基づいて第2マップを生成する第2情報処理装置とを備え、
     前記第1情報処理装置は、前記第1マップまたは前記第2情報処理装置から取得した前記第2マップに基づいて仮想オブジェクトを生成し、
     前記第2情報処理装置は、前記第2マップまたは前記第1情報処理装置から取得した前記第1マップに基づいて前記仮想オブジェクトを生成する、
     情報処理システム。
    A first information processing device that generates a first map based on a first image,
    It is equipped with a second information processing device that generates a second map based on the second image.
    The first information processing device generates a virtual object based on the first map or the second map acquired from the second information processing device.
    The second information processing device generates the virtual object based on the second map or the first map acquired from the first information processing device.
    Information processing system.
  15.  第3マップを使ってサービスの管理を行うサーバをさらに備え、
     前記第1情報処理装置は、前記第1マップと前記第3マップに基づいて第1評価データを生成し、前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択し、仮想オブジェクトの生成に使用し、
     前記第2情報処理装置は、前記第2マップと前記第3マップに基づいて第2評価データを生成し、前記第2マップまたは前記第1マップを前記第1評価データに基づいて選択し、前記仮想オブジェクトの生成に使用する、
     請求項14に記載の情報処理システム。
    Further equipped with a server that manages services using the third map
    The first information processing apparatus generates first evaluation data based on the first map and the third map, selects the first map or the second map based on the first evaluation data, and virtualizes the first map. Used to create an object
    The second information processing device generates second evaluation data based on the second map and the third map, selects the second map or the first map based on the first evaluation data, and the above. Used to create virtual objects,
    The information processing system according to claim 14.
  16.  前記第1情報処理装置は、第1自己位置を推定し、前記第1自己位置に対応する第1評価値を前記第1評価データより取得し、前記第1評価値に基づいて前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択し、
     前記第2情報処理装置は、第2自己位置を推定し、前記第2自己位置に対応する第3評価値を前記第2評価データより取得し、前記第3評価値に基づいて前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを選択する、
     請求項15に記載の情報処理システム。
    The first information processing apparatus estimates the first self-position, acquires the first evaluation value corresponding to the first self-position from the first evaluation data, and based on the first evaluation value, of the virtual object. Select the first map or the second map to be used for generation,
    The second information processing device estimates the second self-position, acquires the third evaluation value corresponding to the second self-position from the second evaluation data, and based on the third evaluation value, of the virtual object. Select the first map or the second map to be used for generation,
    The information processing system according to claim 15.
  17.  前記第1情報処理装置は、前記第2情報処理装置から前記第2評価データを取得し、前記第2評価データより前記第1自己位置に対応する第2評価値を取得し、前記第2評価値が前記第1評価値より大きいときに前記第2マップを選択し、
     前記第2情報処理装置は、前記第1情報処理装置から前記第1評価データを取得し、前記第1評価データより前記第2自己位置に対応する第4評価値を取得し、前記第4評価値が前記第3評価値より大きいときに前記第1マップを選択する、
     請求項16に記載の情報処理システム。
    The first information processing apparatus acquires the second evaluation data from the second information processing apparatus, acquires the second evaluation value corresponding to the first self-position from the second evaluation data, and obtains the second evaluation value. When the value is larger than the first evaluation value, the second map is selected.
    The second information processing apparatus acquires the first evaluation data from the first information processing apparatus, acquires the fourth evaluation value corresponding to the second self-position from the first evaluation data, and obtains the fourth evaluation value. Select the first map when the value is greater than the third evaluation value.
    The information processing system according to claim 16.
  18.  前記第1情報処理装置は、前記第1評価値がしきい値より大きいときに前記第1評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成し、
     前記第2情報処理装置は、前記第3評価値がしきい値より大きいときに前記第3評価値がしきい値以下であるときと比べて大きいサイズの前記仮想オブジェクトを生成する、
     請求項16に記載の情報処理システム。
    When the first evaluation value is larger than the threshold value, the first information processing device generates the virtual object having a size larger than that when the first evaluation value is equal to or less than the threshold value.
    When the third evaluation value is larger than the threshold value, the second information processing device generates the virtual object having a larger size than when the third evaluation value is equal to or less than the threshold value.
    The information processing system according to claim 16.
  19.  画像に基づいて第1マップを生成するステップと、
     他の装置から第2マップを取得するステップと、
     前記第1マップまたは前記第2マップを使って仮想オブジェクトを生成するステップとをコンピュータに実行させる、
     情報処理方法。
    Steps to generate the first map based on the image,
    The step of getting the second map from another device,
    Have the computer perform the steps of creating a virtual object using the first map or the second map.
    Information processing method.
  20.  前記第1マップとサービスの管理に使われる第3マップに基づいて第1評価データを生成するステップと、
     前記仮想オブジェクトの生成に使う前記第1マップまたは前記第2マップを前記第1評価データに基づいて選択するステップとをさらに含む
     請求項19に記載の情報処理方法。
    The step of generating the first evaluation data based on the first map and the third map used for managing the service, and
    The information processing method according to claim 19, further comprising a step of selecting the first map or the second map used for generating the virtual object based on the first evaluation data.
PCT/JP2020/046823 2019-12-19 2020-12-15 Information processing device, information processing system, and information processing method WO2021125190A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019229580 2019-12-19
JP2019-229580 2019-12-19

Publications (1)

Publication Number Publication Date
WO2021125190A1 true WO2021125190A1 (en) 2021-06-24

Family

ID=76478796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/046823 WO2021125190A1 (en) 2019-12-19 2020-12-15 Information processing device, information processing system, and information processing method

Country Status (1)

Country Link
WO (1) WO2021125190A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186808A (en) * 2010-03-09 2011-09-22 Sony Corp Information processing apparatus, map update method, program, and information processing system
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186808A (en) * 2010-03-09 2011-09-22 Sony Corp Information processing apparatus, map update method, program, and information processing system
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience

Similar Documents

Publication Publication Date Title
US20210407160A1 (en) Method and sytem for presenting a digital information related to a real object
US11157070B2 (en) Massive simultaneous remote digital presence world
CN108780578B (en) Augmented reality system and method of operating an augmented reality system
US10482662B2 (en) Systems and methods for mixed reality transitions
CN107209950B (en) Automatic generation of virtual material from real world material
EP3666352B1 (en) Method and device for augmented and virtual reality
US11204639B2 (en) Artificial reality system having multiple modes of engagement
US10607403B2 (en) Shadows for inserted content
US11069075B2 (en) Machine learning inference on gravity aligned imagery
CN116778368A (en) Planar detection using semantic segmentation
CN111602104A (en) Method and apparatus for presenting synthetic reality content in association with identified objects
EP4134917A1 (en) Imaging systems and methods for facilitating local lighting
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
WO2021125190A1 (en) Information processing device, information processing system, and information processing method
JP2015118578A (en) Augmented reality information detail
JP7400810B2 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20901550

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20901550

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP