WO2023074852A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2023074852A1
WO2023074852A1 PCT/JP2022/040396 JP2022040396W WO2023074852A1 WO 2023074852 A1 WO2023074852 A1 WO 2023074852A1 JP 2022040396 W JP2022040396 W JP 2022040396W WO 2023074852 A1 WO2023074852 A1 WO 2023074852A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
information
position information
wearable device
self
Prior art date
Application number
PCT/JP2022/040396
Other languages
English (en)
French (fr)
Inventor
健介 上田
信貴 松嶌
勇一 水越
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023074852A1 publication Critical patent/WO2023074852A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to an information processing device.
  • MR Mated Reality
  • the real environment perceived by the user is augmented by a computer.
  • this technology for example, it is possible to precisely superimpose the virtual space on the real space that the user sees through the MR glasses worn on the head.
  • Patent Document 1 discloses a technology for replacing the position coordinates of the virtual space with the latitude, longitude, and altitude information of the real space.
  • the measurement processing device is a position specifying device that measures latitude, longitude, and altitude. Get the position coordinates in .
  • the measurement processor also images the localization device.
  • the measurement processing device generates a correspondence table by associating the position coordinates in the virtual space of the photographed position specifying device with the position coordinates in the real space of the measurement points.
  • the measurement processing device converts the coordinates of the three-dimensional point cloud data in the virtual space into position coordinates in the real space using a predetermined conversion formula generated using the correspondence table.
  • the measurement processing device calculates the coordinates of the three-dimensional point cloud data in the virtual space. , it cannot be converted to the coordinates of the real space accurately. Therefore, when the technique according to Patent Document 1 is applied to the MR glasses, the real space and the virtual space do not precisely overlap with each other in the MR glasses. For example, the virtual object displayed on the MR glasses is displayed at a position different from the position intended by the service provider of the virtual space.
  • an object of the present invention is to provide an information processing apparatus that enables MR glasses to acquire a more accurate self-position when acquiring the self-position.
  • An information processing device stores imaging information indicating a captured image captured by an imaging device, imaging position information indicating the position of the imaging device, and provisional position information indicating the position of a wearable device.
  • an acquisition unit that acquires; an identification unit that identifies a person wearing the wearable device from one or more person images included in the captured image based on the imaging information and the provisional position information; and the imaging position information.
  • a calculation unit that calculates self-position information indicating the position of the wearable device worn by the person identified by the identification unit, an output unit that supplies the self-position information to the wearable device, and wherein accuracy of the imaging position information is higher than accuracy of the provisional position information.
  • a more accurate self-position can be obtained when the MR glasses obtain the self-position.
  • FIG. 1 is a block diagram showing a configuration example of a wearable device 20 according to a first embodiment
  • FIG. FIG. 2 is a perspective view showing the appearance of the MR glasses 50 according to the first embodiment
  • 4 is a schematic diagram of virtual space VS provided to user U1 by using MR glasses 50.
  • FIG. 4 is a schematic diagram of virtual space VS provided to user U1 by using MR glasses 50.
  • FIG. 4 is a schematic diagram of virtual space VS provided to user U1 by using MR glasses 50.
  • FIG. 4 is a schematic diagram of virtual space VS provided to user U1 by using MR glasses 50.
  • FIG. 2 is a block diagram showing a configuration example of the MR glasses 50; 2 is a block diagram showing a configuration example of a terminal device 40 according to the first embodiment;
  • FIG. 1 is a block diagram showing a configuration example of an information processing apparatus 10 according to a first embodiment;
  • FIG. 4 is a flowchart showing the operation of the information processing system 1 according to the first embodiment;
  • the block diagram which shows the structural example of 20 A of wearable apparatuses which concern on 2nd Embodiment.
  • the block diagram which shows the structural example of 10 A of information processing apparatuses which concern on 2nd Embodiment.
  • the flowchart which shows operation
  • FIG. 1 First Embodiment
  • FIG. 1 First Embodiment
  • FIG. 1 the configuration of an information processing system 1 including an information processing apparatus 10 according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 10.
  • FIG. 1 First Embodiment
  • FIG. 1 is a diagram showing the overall configuration of an information processing system 1 according to the first embodiment of the present invention.
  • the information processing system 1 is a system that provides a virtual space to a user U1 wearing MR glasses 50, which will be described later, using MR technology.
  • the MR technology is, for example, a device such as a see-through type head-mounted display, in which the coordinate space of the real world and the coordinate space of the virtual world are superimposed precisely so that the user wearing the device can see the real world. It is a technology that makes it possible to experience a composite world of the world and the virtual world.
  • MR technology includes AR (Augmented Reality) technology and VR (Virtual Reality) technology.
  • the information processing system 1 includes an information processing device 10 , a wearable device 20 and an imaging device 30 .
  • the information processing device 10, the wearable device 20, and the imaging device 30 are communicably connected to each other via a communication network NET.
  • FIG. 1 shows two wearable devices 20, a wearable device 20-1 and a wearable device 20-2, as the wearable devices 20.
  • this number is merely an example, and the information processing system 1 can include any number of wearable devices 20 .
  • the wearable device 20 is a device worn by the user to perceive the virtual space.
  • FIG. 2 is a block diagram showing a configuration example of the wearable device 20.
  • Wearable device 20 includes terminal device 40 and MR glasses 50 .
  • the terminal device 40 and the MR glasses 50 are communicably connected to each other.
  • the terminal device 40 acquires image information to be displayed on the MR glasses 50 from the information processing device 10 by being communicably connected to the information processing device 10 . Further, the terminal device 40 causes the MR glasses 50 to display the image information acquired from the information processing device 10 .
  • the terminal device 40 is a device for displaying a virtual object placed in the virtual space on the MR glasses 50 worn on the head of the user.
  • the virtual space is, for example, a celestial space.
  • the virtual objects are, for example, virtual objects representing data such as still images, moving images, 3DCG models, HTML files, and text files, and virtual objects representing applications. Examples of text files include memos, source codes, diaries, and recipes. Examples of applications include browsers, applications for using SNS, and applications for generating document files.
  • the terminal device 40 is preferably a mobile terminal device such as a smart phone and a tablet, for example.
  • the MR glasses 50 are see-through wearable displays worn on the user's head. Under the control of the terminal device 40, the MR glasses 50 display virtual objects on the display panels provided for each of the binocular lenses. In the present invention, the position of the MR glasses 50 is the position of the wearable device 20. FIG.
  • the information processing device 10 provides various data and cloud services to the terminal device 40 via the communication network NET.
  • the information processing device 10 also calculates self-position information indicating the absolute position of the wearable device 20 in the world coordinate system. Furthermore, the information processing device 10 outputs the calculated self-location information to the wearable device 20 .
  • the world coordinate system in this embodiment is a coordinate system representing the entire space including the wearable device 20 and the imaging device 30 .
  • the imaging device 30 images a person wearing the wearable device 20 .
  • the imaging device 30 is, for example, a stereo camera, and in addition to the image of the person wearing the wearable device 20, acquires vector information indicating the distance and direction from the imaging device 30 to the imaging target.
  • each pixel forming a captured image captured by the imaging device 30 is associated with vector information indicating the distance and direction from the imaging device 30 to the pixel.
  • the captured image captured by the imaging device 30, the distance from the imaging device 30 to the imaging target, and the imaging information indicating the direction from the imaging device 30 to the imaging target are sent to the information processing device 10 via the communication network NET. supplied.
  • the installation position of the imaging device 30 is fixed.
  • imaging information indicating a captured image and distance information supplied from the imaging device 30 is an example of second imaging information described later.
  • FIG. 3 is a perspective view showing the appearance of the MR glasses 50.
  • the MR glasses 50 have temples 91 and 92, a bridge 93, trunks 94 and 95, and lenses 59L and 59R, like general spectacles.
  • An imaging device 56 is provided in the bridge 93 . After imaging the external world, the imaging device 56 outputs imaging information indicating the captured image. Imaging information indicating a captured image output from the imaging device 56 is an example of first imaging information described later.
  • Each of the lenses 59L and 59R has a half mirror.
  • the body portion 94 is provided with a liquid crystal panel or an organic EL panel for the left eye (hereinafter collectively referred to as a display panel) and an optical member for guiding light emitted from the display panel for the left eye to the lens 59L. .
  • the half mirror provided in the lens 59L transmits external light and guides it to the left eye, and reflects the light guided by the optical member to enter the left eye.
  • the body portion 95 is provided with a display panel for the right eye and an optical member that guides light emitted from the display panel for the right eye to the lens 59R.
  • the half mirror provided in the lens 59R transmits external light and guides it to the right eye, and reflects the light guided by the optical member to enter the right eye.
  • the display 58 which will be described later, includes a lens 59L, a left-eye display panel, a left-eye optical member, and a lens 59R, a right-eye display panel, and a right-eye optical member.
  • the user can observe the image displayed on the display panel in a see-through state superimposed on the state of the outside world. Further, the MR glasses 50 display the image for the left eye on the display panel for the left eye and the image for the right eye on the display panel for the right eye, among the binocular images with parallax, so that the image for the user U1 is displayed. On the other hand, it is possible to perceive the displayed image as if it had depth and stereoscopic effect.
  • FIG. 4 to 6 are schematic diagrams of the virtual space VS provided to the user U1 by using the MR glasses 50.
  • FIG. As shown in FIG. 4, in the virtual space VS, virtual objects VO1 to VO5 representing various contents such as browsers, cloud services, images, and moving images are arranged.
  • the user U1 walks around the public space while wearing the MR glasses 50 on which the virtual objects VO1 to VO5 arranged in the virtual space VS are displayed. It becomes possible to experience the space VS.
  • the user U1 can act in the public space while receiving benefits brought about by the virtual objects VO1 to VO5 placed in the virtual space VS.
  • a plurality of users U1 to U3 it is possible for a plurality of users U1 to U3 to share the virtual space VS.
  • the plurality of users U1-U3 share one or a plurality of virtual objects VO, and the users U1-U3 It is possible to communicate between
  • the MR glasses 50 display a text box X superimposed on the scenery image W as the real space to notify the reception status of mail and today's schedule. be done.
  • the text box X in an area without obstacles in the landscape image W, that is, in the blue sky area in the example shown in FIG. Become.
  • FIG. 7 is a block diagram showing a configuration example of the MR glasses 50.
  • the MR glasses 50 include a processing device 51 , a storage device 52 , a line-of-sight detection device 53 , a GPS device 54 , a motion detection device 55 , an imaging device 56 , a communication device 57 and a display 58 .
  • Each element of the MR glasses 50 is interconnected by one or more buses for communicating information.
  • the term "apparatus" in this specification may be read as another term such as a circuit, a device, or a unit.
  • the processing device 51 is a processor that controls the entire MR glass 50, and is configured using, for example, one or more chips.
  • the processing device 51 is configured using, for example, a central processing unit (CPU) including an interface with peripheral devices, an arithmetic device, registers, and the like. Some or all of the functions of the processing device 51 are implemented by hardware such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA (Field Programmable Gate Array). may be realized.
  • the processing device 51 executes various processes in parallel or sequentially.
  • the storage device 52 is a recording medium readable and writable by the processing device 51, and stores a plurality of programs including the control program PR1 executed by the processing device 51.
  • the line of sight detection device 53 After detecting the line of sight of the user U1, the line of sight detection device 53 supplies line of sight information indicating the direction of the line of sight of the user U1 to the processing device 51, which will be described later. Any method may be used for the line-of-sight detection device 53 to detect the line of sight.
  • the line-of-sight detection device 53 may detect line-of-sight information based on the position of the inner corner of the eye and the position of the iris.
  • the GPS device 54 receives radio waves from a plurality of satellites and generates first position information from the received radio waves.
  • the positional information indicates the position of the MR glasses 50 .
  • the first location information may be in any format as long as the location can be specified.
  • the first position information indicates the latitude and longitude of the MR glasses 50, for example.
  • the first position information may indicate the altitude of the MR glasses 50 in addition to the latitude and longitude.
  • the first location information is obtained from GPS device 54 .
  • the MR glasses 50 may obtain the first position information by any method.
  • the acquired first position information is supplied to the processing device 51 as temporary position information indicating the position of the wearable device 20 .
  • the movement detection device 55 After detecting the movement of the MR glasses 50 , the movement detection device 55 supplies movement information indicating the movement to the processing device 51 .
  • the motion detection device 55 corresponds to an inertial sensor such as an acceleration sensor that detects acceleration and a gyro sensor that detects angular acceleration.
  • the acceleration sensor detects acceleration in orthogonal X-, Y-, and Z-axes.
  • the gyro sensor detects angular acceleration around the X-, Y-, and Z-axes.
  • the motion detection device 55 can generate posture information indicating the posture of the MR glasses 50 based on the output information of the gyro sensor.
  • the motion data includes acceleration data respectively indicating three-axis accelerations and angular acceleration data respectively indicating three-axis angular accelerations.
  • the imaging device 56 outputs first imaging information indicating a captured image obtained by imaging the outside world.
  • the imaging device 56 includes, for example, a lens, an imaging element, an amplifier, and an AD converter.
  • the light condensed through the lens is converted into an image pickup signal, which is an analog signal, by the image pickup device.
  • the amplifier amplifies the imaging signal and outputs it to the AD converter.
  • the AD converter converts the amplified imaging signal, which is an analog signal, into first imaging information, which is a digital signal.
  • the converted first imaging information is supplied to the processing device 51 .
  • the first imaging information output to the processing device 51 is supplied to the terminal device 40 via the communication device 57 .
  • the terminal device 40 controls the terminal device 40 according to the recognized gestures. That is, the imaging device 56 functions as an input device for inputting instructions from the user U1, like a pointing device and a touch panel.
  • the communication device 57 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 57 is also called a network device, network controller, network card, communication module, or the like, for example.
  • the communication device 57 may include a connector for wired connection and an interface circuit corresponding to the connector.
  • the communication device 57 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 58 is a device that displays images.
  • a display 58 displays various images under the control of the processing device 51 .
  • the display 58 includes a lens 59L, a left-eye display panel, a left-eye optical member, and a lens 59R, a right-eye display panel, and a right-eye optical member, as described above.
  • Various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display panel.
  • the processing device 51 functions as an acquisition unit 511 and a display control unit 512, for example, by reading the control program PR1 from the storage device 52 and executing it.
  • the acquisition unit 511 acquires the control signal from the terminal device 40 . More specifically, the acquisition unit 511 acquires a control signal for controlling display on the MR glasses 50 generated by a display control unit 415 provided in the terminal device 40 and described later.
  • the acquisition unit 511 also acquires line-of-sight information input from the line-of-sight detection device 53 , position information input from the GPS device 54 , motion information input from the motion detection device 55 , and first information input from the imaging device 56 . Acquire imaging information. Then, the acquisition unit 511 supplies the acquired line-of-sight information, first position information, motion information, and imaging information to the communication device 57 . The communication device 57 transmits the line-of-sight information, the first position information, the motion information, and the imaging information acquired from the acquisition unit 511 to the terminal device 40 . Furthermore, the acquisition unit 511 stores the acquired line-of-sight information, first position information, motion information, and imaging information in the storage device 52 .
  • the acquisition unit 511 acquires second position information as self-position information indicating the position of the wearable device 20 from the terminal device 40 by using the communication device 57 . Furthermore, the acquisition unit 511 stores the acquired second position information in the storage device 52 .
  • the second position information has higher accuracy than the first position information.
  • the first location information is GPS information obtained from the GPS device 54 as described above. An error of about 100 m may occur with a general-purpose GPS device.
  • the second location information is self-location information that the MR glasses 50 acquire from the information processing device 10 via the terminal device 40 .
  • the self position information is calculated using relative position information from the imaging device 30 to the MR glasses 50 . Since the relative position information is information measured by the imaging device 30 as a stereo camera, for example, when the distance from the imaging device 30 to the imaging target is about 100 m, an error of at most about 1 m occurs.
  • the display control unit 512 controls display on the display 58 based on the control signal from the terminal device 40 acquired by the acquisition unit 511 .
  • FIG. 8 is a block diagram showing a configuration example of the terminal device 40.
  • the terminal device 40 includes a processing device 41 , a storage device 42 , a communication device 43 , a display 44 , an input device 45 and an inertial sensor 46 .
  • Each element of the terminal device 40 is interconnected by one or more buses for communicating information.
  • the processing device 41 is a processor that controls the entire terminal device 40, and is configured using, for example, one or more chips.
  • the processing unit 41 is configured using, for example, a central processing unit (CPU) including interfaces with peripheral devices, arithmetic units, registers, and the like.
  • CPU central processing unit
  • a part or all of the functions of the processing device 11 may be implemented by hardware such as DSP, ASIC, PLD, and FPGA.
  • the processing device 41 executes various processes in parallel or sequentially.
  • the storage device 42 is a recording medium readable and writable by the processing device 41, and stores a plurality of programs including the control program PR2 executed by the processing device 41.
  • the communication device 43 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 43 is also called a network device, a network controller, a network card, a communication module, etc., for example.
  • the communication device 43 may include a connector for wired connection and an interface circuit corresponding to the connector. Further, the communication device 43 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 44 is a device that displays images and character information.
  • the display 44 displays various images under the control of the processing device 41 .
  • various display panels such as a liquid crystal display panel and an organic EL (Electro Luminescence) display panel are preferably used as the display 44 .
  • the input device 45 accepts operations from the user U1 who wears the MR glasses 50 on his head.
  • the input device 45 includes a pointing device such as a keyboard, touch pad, touch panel, or mouse.
  • the input device 45 may also serve as the display 44 .
  • the inertial sensor 46 is a sensor that detects inertial force.
  • the inertial sensor 46 includes, for example, one or more sensors among an acceleration sensor, an angular velocity sensor, and a gyro sensor.
  • the processing device 41 detects the orientation of the terminal device 40 based on the output information from the inertial sensor 46 . Further, the processing device 41 receives selection of the virtual object VO, input of characters, and input of instructions in the celestial sphere virtual space VS based on the orientation of the terminal device 40 .
  • the user U1 directs the central axis of the terminal device 40 toward a predetermined area of the virtual space VS, and operates the input device 45 to select the virtual object VO arranged in the predetermined area.
  • the user U1's operation on the input device 45 is, for example, a double tap. By operating the terminal device 40 in this way, the user U1 can select the virtual object VO without looking at the input device 45 of the terminal device 40 .
  • the processing device 41 functions as an acquisition unit 411, an action recognition unit 412, an identification unit 413, an output unit 414, and a display control unit 415 by reading the control program PR2 from the storage device 42 and executing it.
  • the acquisition unit 411 acquires instruction information according to the motion of the user U1 who wears the MR glasses 50 on his head.
  • the operation of the user U1 is, for example, inputting to the terminal device 40 using the input device 45 by the user U1. More specifically, the action of the user U1 may be pressing of a specific part as the input device 45 provided in the terminal device 40 . Alternatively, the operation of user U1 may be an operation using terminal device 40 as a portable controller.
  • the instruction information includes, for example, information specifying a specific virtual object VO, information changing the display of the specific virtual object VO, and, if the specific virtual object VO is an application, starting the application. Information.
  • the action of the user U1 may be visual observation of the MR glasses 50 by the user U1.
  • the instruction information is the viewpoint of the user U1 on the MR glasses 50.
  • the instruction information is transmitted from the MR glasses 50 to the terminal device 40 .
  • the action of user U1 may be a gesture of user U1.
  • the motion recognition unit 412 recognizes various gestures of the user U1.
  • the acquisition unit 411 may acquire instruction information according to various gestures of the user U1.
  • the acquisition unit 411 uses the communication device 43 to acquire the first imaging information and the first position information as the provisional position information from the MR glasses 50 .
  • the acquisition unit 411 uses the communication device 43 to acquire second position information as self-position information indicating the position of the wearable device 20 from the information processing device 10 .
  • the self-location information acquired by the acquisition unit 411 is the virtual space in which the virtual object VO is displayed and the real space viewed by the user through the MR glasses 50. It is used to precisely align the
  • the motion recognition unit 412 recognizes various gestures of the user U1 based on the imaging information obtained from the MR glasses 50. More specifically, as described above, the imaging device 56 provided in the MR glasses 50 outputs imaging information obtained by imaging the outside world. If the imaging data includes a part of the body of the user U1 wearing the MR glasses 50 on the head, the motion recognition unit 412 performs various actions of the user U1 based on the imaging data acquired from the MR glasses 50. gestures.
  • the specifying unit 413 specifies one virtual object VO among the plurality of virtual objects VO arranged in the virtual space VS.
  • the instruction information acquired by the acquisition unit 411 is information for changing the display of one virtual object VO specified by the specification unit 413, or information for activating the one virtual object VO
  • the output unit 414 Then, the instruction information is supplied to the information processing apparatus 10 .
  • the information processing device 10 changes the display of one specified virtual object VO or activates it based on the instruction information acquired from the terminal device 40 .
  • the output unit 414 transmits the first imaging information acquired from the MR glasses 50 by the acquisition unit 411 to the information processing apparatus 10 . Further, the output unit 414 transmits the first position information as the provisional position information of the wearable device 20 acquired from the MR glasses 50 by the acquisition unit 411 to the information processing device 10 .
  • the output unit 414 supplies the second position information as self-position information of the wearable device 20 acquired from the information processing device 10 by the acquisition unit 411 to the MR glasses 50 included in the wearable device 20. do. More specifically, the information processing apparatus 10 calculates second position information with higher accuracy than the first position information by a method described later. Acquisition unit 411 acquires the second position information from information processing apparatus 10 . The output unit 414 supplies the second position information to the MR glasses 50 included in the wearable device 20. FIG.
  • the display control unit 415 causes the MR glasses 50 as a display device to display a plurality of virtual objects VO arranged in the virtual space VS. More specifically, after generating image data to be displayed on the MR glasses 50 , the display control unit 415 transmits the generated image data to the MR glasses 50 via the communication device 13 .
  • the terminal device 40 may be provided with a GPS device similar to the GPS device 54 provided in the MR glasses 50.
  • the MR glasses 50 may not be equipped with the GPS device 54 .
  • FIG. 9 is a block diagram showing a configuration example of the information processing apparatus 10. As shown in FIG.
  • the information processing device 10 includes a processing device 11 , a storage device 12 , a communication device 13 , a display 14 and an input device 15 .
  • Each element of the information processing apparatus 10 is interconnected by a single bus or a plurality of buses for communicating information.
  • the processing device 11 is a processor that controls the entire information processing device 10, and is configured using, for example, one or more chips.
  • the processing unit 11 is configured using, for example, a central processing unit (CPU) including interfaces with peripheral devices, arithmetic units, registers, and the like.
  • CPU central processing unit
  • a part or all of the functions of the processing device 11 may be implemented by hardware such as DSP, ASIC, PLD, and FPGA.
  • the processing device 11 executes various processes in parallel or sequentially.
  • the storage device 12 is a recording medium readable and writable by the processing device 11, and stores a plurality of programs including a control program PR3 executed by the processing device 11, a first learning model LM1, a second learning model LM2, a third A learning model LM3, map data MD, and imaging position information indicating the absolute position of the imaging device 30 are stored.
  • the first learning model LM1 is a learning model for the later-described specifying unit 112 to extract, from a captured image, a person image included in the captured image.
  • the first learning model LM1 is generated by learning teacher data in the learning phase.
  • the teacher data used to generate the first learning model LM1 has multiple pairs of captured images and human images included in the captured images.
  • the first learning model LM1 is generated by a device external to the information processing device 10 .
  • the first learning model LM1 is preferably generated in a server (not shown).
  • the information processing apparatus 10 acquires the first learning model LM1 from a server (not shown) via the communication network NET.
  • the second learning model LM2 is a learning model for the later-described calculation unit 113 to further extract the image of the MR glasses 50 from the person image of one person identified by the identification unit 112 .
  • the second learning model LM2 is generated by learning teacher data in the learning phase.
  • the teacher data used to generate the second learning model LM2 has multiple sets of captured images and images of the MR glasses 50 included in the captured images.
  • the second learning model LM2 is generated by a device external to the information processing device 10 .
  • the second learning model LM2 is preferably generated in a server (not shown).
  • the information processing apparatus 10 acquires the second learning model LM2 from a server (not shown) via the communication network NET.
  • the third learning model LM3 is a learning model for the later-described calculation unit 113 to extract, from a captured image, a building image included in the captured image.
  • the third learning model LM3 is generated by learning teacher data in the learning phase.
  • the teacher data used to generate the third learning model LM3 has multiple pairs of captured images and building images included in the captured images.
  • the third learning model LM3 is generated by a device external to the information processing device 10 .
  • the third learning model LM3 is preferably generated in a server (not shown).
  • the information processing apparatus 10 acquires the third learning model LM3 from a server (not shown) via the communication network NET.
  • the map data MD includes captured images captured in advance by a stereo camera or the like capable of simultaneously capturing images of an object from a plurality of different directions, feature amounts of feature points included in the captured images, and absolute values associated with the feature points. It is data that includes location information. Among other things, the captured images include images of local buildings. Also, the absolute position information associated with the feature point is global position information as well as position information in the world coordinate system.
  • the communication device 13 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 13 is also called a network device, a network controller, a network card, a communication module, etc., for example.
  • the communication device 13 may include a connector for wired connection and an interface circuit corresponding to the connector. Further, the communication device 13 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 14 is a device that displays images and character information.
  • the display 14 displays various images under the control of the processing device 11 .
  • various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display 14 .
  • the input device 15 is a device that accepts operations by an administrator of the information processing system 1 .
  • the input device 15 includes a pointing device such as a keyboard, touch pad, touch panel, or mouse.
  • the input device 15 may also serve as the display 14 .
  • the processing device 11 functions as an acquisition unit 111, a specification unit 112, a calculation unit 113, a comparison unit 114, and an output unit 115, for example, by reading the control program PR3 from the storage device 12 and executing it.
  • the acquisition unit 111 acquires, from the terminal device 40 , first imaging information indicating a captured image captured by the imaging device 56 provided in the MR glasses 50 . More specifically, the acquisition unit 111 acquires, from the terminal device 40 , the first imaging information representing the captured image of the outside world of the MR glasses 50 captured by the imaging device 56 . The acquisition unit 111 also acquires first position information as provisional position information indicating the position of the wearable device 20 from the terminal device 40 .
  • the acquisition unit 111 also acquires imaging position information indicating the absolute position of the imaging device 30 in the world coordinate system. More specifically, the acquisition unit 111 may acquire imaging position information from the imaging device 30 . Alternatively, the acquisition unit 111 may acquire the imaging position information stored in the storage device 12 . Note that the accuracy of the imaging position information is higher than the accuracy of the provisional position information.
  • the acquisition unit 111 acquires second imaging information indicating the captured image from the imaging device 30 . More specifically, the acquisition unit 111 acquires second imaging information indicating a captured image including a person wearing the wearable device 20 from the imaging device 30 . As described above, since the imaging device 30 is, for example, a stereo camera, the second imaging information includes distance information from the imaging device 30 to the imaging target.
  • the identifying unit 112 uses the first learning model LM1 to extract one or more human images from the captured image indicated by the second imaging information. Further, based on the first position information as the provisional position information acquired by the acquisition unit 111, the specifying unit 112 selects the wearable device corresponding to the provisional position information from the person indicated by the extracted one or more person images. A single person wearing the device 20 is identified.
  • the second imaging information includes vector information from the imaging device 30 to the imaging target.
  • Each pixel included in one or more person images is associated with vector information corresponding to each pixel.
  • the identifying unit 112 identifies the person included in the person image having the vector information closest to the first position information as the provisional position information as one person wearing the wearable device 20 corresponding to the provisional position information. do.
  • the specifying unit 112 uses the second learning model LM2 to extract an image of the MR glasses 50 from the specified human image of the one person.
  • the calculation unit 113 calculates third position information as self-position information of the wearable device 20 based on the first imaging information acquired by the acquisition unit 111 .
  • the calculation unit 113 uses the third learning model LM3 to extract an image of a building specific to the land where the wearable device 20 is located in the captured image indicated by the first captured information. Further, the calculation unit 113 calculates the position of the extracted building by referring to the map data MD stored in the storage device 12 . Further, the calculation unit 113 calculates the distance and direction from the MR glasses 50 to the building based on the image of the building extracted from the first imaging information. Finally, the calculation unit 113 calculates third position information as self-position information of the wearable device 20 based on the position of the building and the distance and direction from the MR glasses 50 to the building.
  • the calculated third position information is normally transmitted to the terminal device 40 by the output unit 115, which will be described later.
  • the calculation unit 113 calculates self-position accuracy information based on the first imaging information acquired by the acquisition unit 111 .
  • the calculation unit 113 calculates the self-position accuracy information based on the feature amount included in the captured image indicated by the first imaging information.
  • the calculation unit 113 matches the building image included in the captured image indicated by the first imaging information with the building image included in the map data MD, and calculates the self-position accuracy information according to the degree of matching. can be calculated.
  • the calculation unit 113 matches the feature points included in the captured image indicated by the first imaging information with the feature points included in the map data MD, and calculates self-position accuracy information according to the degree of matching. You may
  • the calculation unit 113 uses the imaging position information to calculate second position information as self-position information indicating the position of the wearable device 20 worn by one person identified by the identification unit 112 . More specifically, the calculation unit 113 uses the second learning model LM2 to determine the MR glasses 50 worn by the person from the person image of the person identified by the identification unit 112. Extract the image of the part it occupies. Further, the calculation unit 113 calculates the position of the imaging device 30 as a reference based on a plurality of pieces of vector information associated with each pixel of the image of the portion occupied by the extracted MR glasses 50 . Then, the relative position information of the MR glasses 50 is calculated.
  • the calculation unit 113 calculates the vector information of the shortest distance from the imaging device 30 among a plurality of pieces of vector information associated with the pixels of the image of the portion occupied by the MR glasses 50, based on the wearable device worn by the one person. 20 may be relative position information indicating the relative position. Alternatively, the calculation unit 113 determines the vector information of the farthest distance from the imaging device 30 among the plurality of vector information associated with the pixels of the image of the portion occupied by the MR glasses 50, which is the vector information of the person wearing the MR glasses 50. It may be relative position information indicating the relative position of the wearable device 20 .
  • the calculation unit 113 adds the relative position information of the wearable device 20 to the imaging position information indicating the absolute position of the imaging device 30, thereby obtaining the self-position information indicating the absolute position of the wearable device 20 as the second position information. Calculated as position information.
  • the comparison unit 114 compares the self-location accuracy information calculated by the calculation unit 113 with the threshold. In particular, when the self-location accuracy information is less than the threshold, that is, when the accuracy of the third location information is lower than the threshold, the output unit 115 described later sends the terminal device 40 the provisional A request signal requesting first position information as position information is output.
  • the output unit 115 uses the communication device 13 to send the terminal device 40 the first position information of the wearable device 20 calculated by the calculation unit 113 based on the first imaging information. 3 location information.
  • the output unit 115 uses the communication device 13 to transmit an imaging instruction signal to the imaging device 30 using the acquisition of the provisional position information from the terminal device 40 by the acquisition unit 111 as a trigger.
  • the imaging device 30 acquires the imaging instruction signal from the information processing device 10
  • the imaging device 30 images the person wearing the wearable device 20 .
  • the output unit 115 uses the communication device 13 to transmit the second position information as self-position information of the wearable device 20 calculated by the calculation unit 113 based on the imaging position information to the terminal device 40. is transmitted to the terminal device 40 .
  • FIG. 10 is a flowchart showing the operation of the information processing system 1 according to the first embodiment. The operation of the information processing system 1 will be described below with reference to FIG.
  • step S ⁇ b>101 the processing device 41 provided in the terminal device 40 functions as the output unit 414 to transmit the first imaging information acquired from the MR glasses 50 to the information processing device 10 .
  • step S ⁇ b>102 the processing device 11 provided in the information processing device 10 functions as the calculation unit 113 to calculate self-location accuracy information based on the first imaging information acquired from the terminal device 40 .
  • step S103 the processing device 11 provided in the information processing device 10 functions as the comparison unit 114 to compare the calculated self-location accuracy information with the threshold. If the self-location accuracy information is equal to or greater than the threshold value, that is, if the determination result of step S103 is true, the information processing device 10 ends all processing. If the self-location accuracy information is less than the threshold, that is, if the determination result of step S103 is false, the information processing device 10 executes the process of step S104.
  • step S ⁇ b>104 the processing device 11 provided in the information processing device 10 functions as the output unit 115 to generate a request signal requesting the terminal device 40 for the first position information as the temporary position information of the wearable device 20 . to send.
  • step S ⁇ b>105 the processing device 41 provided in the terminal device 40 functions as the output unit 414 to transmit the first position information as provisional position information of the wearable device 20 acquired from the MR glasses 50 to the information processing device 10 . send to.
  • step S ⁇ b>106 the processing device 11 provided in the information processing device 10 functions as the output unit 115 to transmit an imaging instruction signal to the imaging device 30 .
  • step S ⁇ b>107 the imaging device 30 captures an image of the person wearing the wearable device 20 including the terminal device 40 and the MR glasses 50 .
  • step S ⁇ b>108 the imaging device 30 transmits to the information processing device 10 second imaging information indicating the captured image captured by the imaging device 30 .
  • step S109 the processing device 11 provided in the information processing device 10 functions as the specifying unit 112 to extract one or more person images from the captured image indicated by the second imaging information.
  • the processing device 11 functions as the specifying unit 112, based on the first position information as the provisional position information, to identify the person indicated by the extracted one or more person images and correspond to the provisional position information.
  • One person who wears the wearable device 20 is specified.
  • step S110 the processing device 11 included in the information processing device 10 functions as the calculation unit 113 to calculate the position of the wearable device 20 worn by the person identified in step S109 using the imaging position information.
  • the self-location information to be shown is calculated.
  • step S111 the processing device 11 included in the information processing device 10 functions as the output unit 115 to transmit the self-location information calculated in step S110 to the terminal device 40 using the communication device 13. .
  • the processing device 41 provided in the terminal device 40 functions as an output unit 414 to transmit the self-location information acquired from the information processing device 10 to the MR glasses 50 .
  • the information processing apparatus 10 includes the acquisition unit 111 , the identification unit 112 , the calculation unit 113 , and the output unit 115 .
  • the acquisition unit 111 acquires imaging information indicating a captured image captured by the imaging device 30 , imaging position information indicating the position of the imaging device 30 , and provisional position information indicating the position of the wearable device 20 .
  • the identifying unit 112 identifies the person wearing the wearable device 20 from one or more person images included in the captured image based on the imaging information and the provisional position information.
  • the calculation unit 113 calculates self-position information indicating the position of the wearable device 20 worn by the person identified by the identification unit 112 using the imaging position information.
  • the output unit 115 supplies self-location information to the wearable device 20 .
  • the accuracy of the imaging position information is higher than the accuracy of the provisional position information.
  • the MR glasses 50 can acquire a more accurate self-location when acquiring the self-location.
  • the calculation unit 113 calculates self-position information using more accurate imaging position information than provisional position information that can be acquired by the MR glasses 50 being equipped with the GPS device 54, thereby obtaining more accurate self-position information. High self-location information can be calculated.
  • the imaging position information indicates the absolute position of the imaging device 30 .
  • Self-position information indicates the absolute position of the wearable device 20 .
  • the calculation unit 113 calculates relative position information indicating the relative position of the wearable device 20 with respect to the position of the imaging device 30 indicated by the imaging position information. Further, the calculation unit 113 calculates self-position information based on the imaging position information and the relative position information.
  • the calculation unit 113 calculates imaging position information, which is the absolute position of the imaging device 30, and the relative position indicating the relative position of the wearable device 20 based on the position of the imaging device 30.
  • Imaging position information which is the absolute position of the imaging device 30, and the relative position indicating the relative position of the wearable device 20 based on the position of the imaging device 30.
  • Self-position information which is the absolute position of the wearable device 20, can be calculated from the information.
  • FIG. 2 Second Embodiment A configuration of an information processing system 1A including an information processing apparatus 10A according to a second embodiment of the present invention will be described below with reference to FIGS. 11 to 15.
  • FIG. 1A for simplification of description, the same symbols are used for the same components as in the first embodiment, and the description of their functions may be omitted. Also, in the following description, for the sake of simplification of description, mainly the differences between the second embodiment and the first embodiment will be described.
  • FIG. 11 is a diagram showing the overall configuration of an information processing system 1A according to the second embodiment of the present invention.
  • the information processing system 1A differs from the information processing system 1 according to the first embodiment in that an information processing device 10A is provided instead of the information processing device 10, and a wearable device 20A is provided instead of the wearable device 20.
  • the imaging device 30 simultaneously images the first person wearing the first wearable device 20A-1 and the second person wearing the second wearable device 20A-2.
  • FIG. 12 is a block diagram showing a configuration example of the wearable device 20A.
  • the wearable device 20A differs from the wearable device 20 according to the first embodiment in that it includes a terminal device 40A instead of the terminal device 40.
  • FIG. 12 is a block diagram showing a configuration example of the wearable device 20A.
  • the wearable device 20A differs from the wearable device 20 according to the first embodiment in that it includes a terminal device 40A instead of the terminal device 40.
  • FIG. 12 is a block diagram showing a configuration example of the wearable device 20A.
  • the wearable device 20A differs from the wearable device 20 according to the first embodiment in that it includes a terminal device 40A instead of the terminal device 40.
  • FIG. 12 is a block diagram showing a configuration example of the wearable device 20A.
  • the wearable device 20A differs from the wearable device 20 according to the first embodiment in that it includes a terminal device 40A instead of the terminal device 40.
  • FIG. 13 is a block diagram showing a configuration example of the information processing apparatus 10A.
  • the information processing device 10A differs from the information processing device 10 according to the first embodiment in that it includes a processing device 11A instead of the processing device 11 .
  • the processing device 11A has an acquisition unit 111A instead of the acquisition unit 111, a specification unit 112A instead of the specification unit 112, and a calculation unit 113A instead of the calculation unit 113.
  • the storage device 12 stores a control program PR3A instead of the control program PR3 according to the first embodiment.
  • the acquisition unit 111A does not necessarily acquire the first location information as the provisional location information.
  • the specifying unit 112A After extracting a plurality of human images from the captured image indicated by the second imaging information, the specifying unit 112A selects the person indicated by the plurality of extracted human images as the first person wearing the first wearable device 20A-1. and a second person wearing the second wearable device 20A-2. Further, the specifying unit 112A extracts the image of the MR glasses 50-1 from the human image of the first person. Furthermore, the identifying unit 112A extracts the image of the MR glasses 50-2 from the human image of the second person.
  • the calculation unit 113A uses the imaging position information to calculate self-position information indicating the first position of the first wearable device 20A-1 and the second position of the second wearable device 20A-2.
  • the output unit 115 transmits the self-location data to the terminal device 40A-1 included in the first wearable device 20A-1 and the terminal device 40A-2 included in the second wearable device 20A-2.
  • the information indicates both the first location of the first wearable device 20A-1 and the second location of the second wearable device 20A-2.
  • FIG. 13 is a block diagram showing a configuration example of the terminal device 40A.
  • the terminal device 40A differs from the terminal device 40 according to the first embodiment in that it includes a processing device 41A instead of the processing device 41.
  • the processing device 41A further includes a selection unit 416 in addition to the components included in the processing device 41 according to the first embodiment.
  • the storage device 42 stores a control program PR2A instead of the control program PR2 according to the first embodiment.
  • the selection unit 416 selects one position from the first position and the second position indicated by the self-position information acquired from the information processing device 10A. select. More specifically, the selection unit 416 selects the self-position information indicating the position closer to the position indicated by the provisional position information, out of the first position and the second position.
  • the first provisional position information is stored in the storage device 42 as the provisional position information. Moreover, the selection unit 416 selects the self-position information indicating the first position as the position closer to the first provisional position information, out of the first position and the second position.
  • the second provisional position information is stored in the storage device 42 as the provisional position information.
  • the selection unit 416 selects the self-position information indicating the second position as the position closer to the second provisional position information, out of the first position and the second position.
  • FIG. 15 is a flowchart showing the operation of the information processing system 1A according to the second embodiment. The operation of the information processing system 1A will be described below with reference to FIG.
  • step S201 the processing device 41A provided in the terminal device 40A-1 functions as the output unit 414 to transmit the first imaging information acquired from the MR glasses 50-1 to the information processing device 10.
  • step S202 the processing device 41A provided in the terminal device 40A-2 functions as the output unit 414 to transmit the first imaging information acquired from the MR glasses 50-2 to the information processing device 10.
  • step S203 the processing device 11A provided in the information processing device 10A functions as the calculation unit 113A to calculate self-location accuracy information based on the first imaging information acquired from the terminal device 40A-1. Further, the processing device 11A provided in the information processing device 10A functions as the calculation unit 113A to calculate the self-location accuracy information based on the first imaging information acquired from the terminal device 40A-2.
  • step S204 the processing device 11A provided in the information processing device 10A functions as the comparison unit 114 to compare the calculated self-location accuracy information with the threshold. If both pieces of self-location accuracy information calculated in step S203 are equal to or greater than the threshold value, that is, if the determination result in step S204 is true, the terminal device 40A-1 ends all processing. If any of the self-position accuracy information calculated in step S203 is less than the threshold, that is, if the determination result in step S204 is false, the information processing device 10A executes the process in step S205.
  • step S205 the processing device 11A provided in the information processing device 10A functions as the output unit 115 to transmit an imaging instruction signal to the imaging device 30.
  • step S206 the imaging device 30 captures the person wearing the first wearable device 20A-1 including the terminal device 40A-1 and the MR glasses 50-1 and the terminal device 40A-2 and the MR glasses 50-2.
  • a person wearing the second wearable device 20A-2 including the two is imaged at the same time.
  • step S207 the imaging device 30 outputs second imaging information indicating the captured image captured by itself to the information processing device 10A.
  • step S208 the processing device 11A provided in the information processing device 10A extracts a plurality of human images from the captured image indicated by the second captured information by functioning as the specifying unit 112A. Further, the processing device 11A functions as the identification unit 112A to select the first person wearing the first wearable device 20A-1 and the second wearable device 20A-1 from the persons indicated by the plurality of extracted person images. A second person wearing 20A-2 is specified.
  • step S209 the processing device 11A provided in the information processing device 10A functions as the calculation unit 113A, and uses the imaging position information to determine the first wearable device 20A worn by the first person identified in step S208.
  • Self-position information indicating a first position that is the absolute position of -1 and a second position that is the absolute position of the second wearable device 20A-2 worn by the second person is calculated.
  • step S210 the processing device 11A provided in the information processing device 10A functions as the output unit 115 to transmit the self-location information calculated in step S209 to the terminal device 40A-1 using the communication device 13. Send.
  • step S211 the processing device 11A provided in the information processing device 10A functions as the output unit 115 to transmit the self-location information calculated in step S209 to the terminal device 40A-2 using the communication device 13. Send.
  • step S212 the processing device 41A provided in the terminal device 40A-1 functions as the selection unit 416 to indicate the first position as the position closer to the first provisional position information, out of the first position and the second position. Select self-location information. Thereafter, the processing device 41A provided in the terminal device 40A-1 functions as the output section 414 to supply the self-location information selected by the selection section 416 to the MR glasses 50-1.
  • step S213 the processing device 41A provided in the terminal device 40A-2, by functioning as the selection unit 416, indicates the second position as the position closer to the second provisional position information, out of the first position and the second position. Select self-location information.
  • the processing device 41A provided in the terminal device 40A-2 functions as the output unit 414 to supply the self-location information selected by the selection unit 416 to the MR glasses 50-2.
  • the information processing apparatus 10A includes the acquisition unit 111, the identification unit 112A, the calculation unit 113A, and the output unit 115.
  • the acquisition unit 111 acquires imaging information indicating a captured image captured by the imaging device 30 and imaging position information indicating the position of the imaging device 30 .
  • the identifying unit 112A determines the first person wearing the first wearable device 20A-1 included in the captured image and the second person wearing the second wearable device 20A-2 included in the captured image. Identify 2 persons.
  • Calculation unit 113A calculates self-position information indicating the first position of first wearable device 20A-1 and the second position of second wearable device 20A-2 using the imaging position information.
  • the output unit 115 supplies self-location information to the first wearable device 20A-1 and the second wearable device 20A-2.
  • the first wearable device 20A-1 stores first provisional position information indicating the first position.
  • the second wearable device 20A-2 stores second provisional position information indicating the second position.
  • the first wearable device 20A-1 selects one position from the first position and the second position indicated by the self-position information based on the position indicated by the first provisional position information, so that the first wearable device 20A-1 Locate device 20A-1.
  • the second wearable device 20A-2 selects one position from the first position and the second position indicated by the self-position information based on the position indicated by the second provisional position information, thereby making the second wearable device 20A-2 Locate device 20A-2.
  • the accuracy of the imaging position information is higher than the accuracy of the provisional position information.
  • the MR glasses 50-1 and 50-2 can acquire more accurate self-positions when acquiring their own positions.
  • the calculation unit 113A obtains By calculating the self-position information using the imaging position information with higher precision than the possible provisional position information, it is possible to calculate the self-position information with higher precision.
  • the imaging position information indicates the absolute position of the imaging device 30 .
  • Self-position information indicates the absolute positions of the first wearable device 20A-1 and the second wearable device 20A-2.
  • the calculation unit 113A further calculates relative Calculate location information. Furthermore, the calculation unit 113A calculates self-position information based on the imaging position information and the relative position information.
  • the calculation unit 113A calculates the imaging position information, which is the absolute position of the imaging device 30, and the first wearable device 20A-1 and the second wearable device 20A-1 based on the position of the imaging device 30.
  • Self-position information which is the absolute positions of the first wearable device 20A-1 and the second wearable device 20A-2, can be calculated from the relative position information indicating the relative positions of the two wearable devices 20A-2.
  • the imaging device 30 is a stereo camera as an example.
  • the imaging device 30 is not limited to a stereo camera as long as it can acquire vector information indicating the distance and direction from the imaging device 30 to the imaging target.
  • the imaging device 30 includes a projection device that projects light from the imaging device 30 onto an imaging target, and a distance measuring device that calculates the distance to the imaging target based on the phase of reflected light from the imaging target. It is good also as a structure provided.
  • the imaging device 30 may acquire distance information indicating the distance to the imaging target by performing image processing on the captured image captured by the imaging device 30 .
  • the imaging device 30 may have other depth estimation functions.
  • the imaging device 30 images a person wearing the wearable device 20 .
  • the imaging device 30 includes a first person wearing the first wearable device 20A-1 and a second person wearing the second wearable device 20A-2. A person is imaged at the same time.
  • the imaging devices other than the imaging device 30 are the person wearing the wearable device 20, or the first person wearing the first wearable device 20A-1 and the second person wearing the second wearable device 20A-2. Two persons may be imaged.
  • the imaging device 56 provided in the second wearable device 20 different from the wearable device 20 may capture an image of a person wearing the wearable device 20 .
  • the imaging device 56 provided in the third wearable device 20A-3 which is different from the first wearable device 20A-1 and the second wearable device 20A-2, A first person wearing the first wearable device 20A-1 and a second person wearing the second wearable device 20A-2 may be imaged simultaneously.
  • the imaging device 30 is installed separately from the wearable device 20 or the wearable device 20A. It is possible to capture an image of a person wearing the wearable device 20 or the wearable device 20A without needing to do so.
  • the calculation unit 113 provided in the information processing device 10 acquires self-location information of the wearable device 20 based on the first imaging information acquired from the MR glasses 50 by the acquisition unit 111. to calculate the third position information as .
  • the comparison unit 114 provided in the information processing device 10 compares the self-location accuracy information acquired from the information processing device 10 by the acquisition unit 111 with the threshold.
  • the terminal device 40 or the terminal device 40A instead of the information processing device 10 or the information processing device 10A, may include the calculation unit 113 and the comparison unit 114 .
  • the calculation unit 113 included in the information processing device 10 calculates relative position information from the imaging device 30 to the wearable device 20 .
  • the calculation unit 113A included in the information processing device 10 calculates relative values from the imaging device 30 to the first wearable device 20A-1 and the second wearable device 20A-2. Position information is calculated.
  • the imaging device 30 may calculate these relative position information instead of the information processing device 10 and the information processing device 10A.
  • the terminal device 40 and the MR glasses 50 are implemented separately.
  • the terminal device 40A and the MR glasses 50 are implemented separately.
  • the method of realizing the terminal device 40 or the terminal device 40A and the MR glasses 50 in the embodiment of the present invention is not limited to this.
  • the terminal device 40 or 40A and the MR glasses 50 may be implemented in a single housing by providing the MR glasses 50 with the same functions as the terminal device 40 or the terminal device 40A.
  • the storage device 12, the storage device 42, and the storage device 52 are ROM and RAM, but flexible discs, magneto-optical discs (e.g., compact discs, digital versatile discs, Blu-ray discs), smart cards, flash memory devices (e.g. cards, sticks, key drives), CD-ROMs (Compact Disc-ROMs), registers, removable discs, hard disks, floppies ) disks, magnetic strips, databases, servers and other suitable storage media.
  • the program may be transmitted from a network via an electric communication line.
  • the program may be transmitted from the communication network NET via an electric communication line.
  • the information, signals, etc. described may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
  • input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
  • the determination may be made by a value (0 or 1) represented using 1 bit, or by a true/false value (Boolean: true or false). Alternatively, it may be performed by numerical comparison (for example, comparison with a predetermined value).
  • each function illustrated in FIGS. 1 to 15 is realized by any combination of at least one of hardware and software.
  • the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device that is physically or logically coupled, or directly or indirectly using two or more devices that are physically or logically separated (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices.
  • a functional block may be implemented by combining software in the one device or the plurality of devices.
  • the programs illustrated in the above embodiments whether referred to as software, firmware, middleware, microcode, hardware description language, or by other names, include instructions, instruction sets, code, should be construed broadly to mean code segments, program code, programs, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, etc. be.
  • software, instructions, information, etc. may be transmitted and received via a transmission medium.
  • the software uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and wireless technology (infrared, microwave, etc.) to website, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.
  • wired technology coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.
  • wireless technology infrared, microwave, etc.
  • system and “network” are used interchangeably.
  • Information, parameters, etc. described in this disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using corresponding other information. may be represented as
  • the information processing device 10, the information processing device 10A, the imaging device 30, the terminal device 40, and the terminal device 40A may be mobile stations (MS).
  • a mobile station is defined by those skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be called a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
  • terms such as “mobile station”, “user terminal”, “user equipment (UE)", “terminal”, etc. may be used interchangeably.
  • connection refers to any direct or indirect connection between two or more elements. Any connection or coupling is meant and can include the presence of one or more intermediate elements between two elements that are “connected” or “coupled” to each other. Couplings or connections between elements may be physical couplings or connections, logical couplings or connections, or a combination thereof. For example, “connection” may be replaced with "access.”
  • two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
  • the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • determining and “determining” as used in this disclosure may encompass a wide variety of actions.
  • “Judgement” and “determination” are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure), ascertaining as “judged” or “determined”, and the like.
  • "judgment” and “determination” are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment” or “decision” has been made.
  • judgment and “decision” are considered to be “judgment” and “decision” by resolving, selecting, choosing, establishing, comparing, etc. can contain.
  • judgment and “decision” can include considering that some action is “judgment” and “decision”.
  • judgment (decision) may be read as “assuming”, “expecting”, “considering”, or the like.
  • the term "A and B are different” may mean “A and B are different from each other.” The term may also mean that "A and B are different from C”. Terms such as “separate,” “coupled,” etc. may also be interpreted in the same manner as “different.”
  • notification of predetermined information is not limited to explicit notification, but is performed implicitly (for example, not notification of the predetermined information). good too.

Abstract

情報処理装置は、撮像装置によって撮像された撮像画像を示す撮像情報と、撮像装置の位置を示す撮像位置情報と、ウェアラブル装置の位置を示す暫定位置情報とを取得する取得部と、撮像情報及び暫定位置情報に基づいて、撮像画像に含まれる1又は複数の人物画像から、ウェアラブル装置を装着した人物を特定する特定部と、撮像位置情報を用いることによって、特定部によって特定された人物が装着するウェアラブル装置の位置を示す自己位置情報を算出する算出部と、自己位置情報をウェアラブル装置に出力する出力部と、を備え、撮像位置情報の精度は、暫定位置情報の精度よりも高い。

Description

情報処理装置
 本発明は、情報処理装置に関する。
 MR(Mixed Reality)技術において、ユーザが知覚する現実の環境はコンピュータにより拡張される。この技術を用いることにより、例えば、ユーザが頭部に装着するMRグラスを通じて視認する現実空間に、仮想空間を精緻に重ね合わせることが可能となる。
 MRグラスにおいては、現実空間に仮想空間を精緻に重ね合わせるため、当該MRグラスの正確な自己位置を取得する必要がある。
 現実空間と仮想空間との重ね合わせに係る技術に関して、例えば特許文献1は、仮想空間の位置座標を、現実空間の緯度、経度、及び高度情報に置換する技術を開示している。具体的には、特許文献1に係る技術において、測定処理装置は、緯度、経度、及び高度を計測する位置特定機器から、当該位置特定機器の自己の位置として測定された測定点の、現実空間内の位置座標を取得する。また、測定処理装置は、位置特定機器を撮影する。更に、測定処理装置は、撮影された位置特定機器の仮想空間内の位置座標を、上記の測定点の現実空間内の位置座標と対応付けて対応テーブルを生成する。更に、測定処理装置は、当該対応テーブルを用いて生成された所定の変換式を用いて、仮想空間内の3次元点群データの座標を、現実空間の位置座標に変換する。
特許6928217号公報
 しかし、特許文献1に係る技術において、位置特定機器が自己の位置として測定する緯度、経度、及び高度の精度が高くない場合、測定処理装置は、仮想空間内の3次元点群データの座標を、現実空間の座標に正確に変換できないこととなってしまう。そのため、MRグラスに対して特許文献1に係る技術を適用した場合、MRグラスにおいて現実空間と仮想空間とが精緻に重ね合わなくなる。例えば、MRグラスに表示される仮想オブジェクトが、仮想空間に係るサービスを提供する側の意図した位置とはずれた位置に表示されることとなってしまう。
 そこで本発明は、MRグラスが自己位置を取得する場合に、より正確な自己位置を取得することを可能とする情報処理装置を提供することを目的とする。
 本発明の好適な態様に係る情報処理装置は、撮像装置によって撮像された撮像画像を示す撮像情報と、前記撮像装置の位置を示す撮像位置情報と、ウェアラブル装置の位置を示す暫定位置情報とを取得する取得部と、前記撮像情報及び前記暫定位置情報に基づいて、前記撮像画像に含まれる1又は複数の人物画像から、前記ウェアラブル装置を装着した人物を特定する特定部と、前記撮像位置情報を用いることによって、前記特定部によって特定された人物が装着する前記ウェアラブル装置の位置を示す自己位置情報を算出する算出部と、前記自己位置情報を前記ウェアラブル装置に対して供給する出力部と、を備え、前記撮像位置情報の精度は、前記暫定位置情報の精度よりも高い、情報処理装置である。
 本発明によれば、MRグラスが自己位置を取得する場合に、より正確な自己位置を取得できる。
第1実施形態に係る情報処理システム1の全体構成を示す図。 第1実施形態に係るウェアラブル装置20の構成例を示すブロック図。 第1実施形態に係るMRグラス50の外観を示す斜視図。 MRグラス50を用いることによりユーザU1に提供される仮想空間VSの模式図。 MRグラス50を用いることによりユーザU1に提供される仮想空間VSの模式図。 MRグラス50を用いることによりユーザU1に提供される仮想空間VSの模式図。 MRグラス50の構成例を示すブロック図。 第1実施形態に係る端末装置40の構成例を示すブロック図。 第1実施形態に係る情報処理装置10の構成例を示すブロック図。 第1実施形態に係る情報処理システム1の動作を示すフローチャート。 第2実施形態に係る情報処理システム1Aの全体構成を示す図。 第2実施形態に係るウェアラブル装置20Aの構成例を示すブロック図。 第2実施形態に係る情報処理装置10Aの構成例を示すブロック図。 第2実施形態に係る端末装置40Aの構成例を示すブロック図。 第2実施形態に係る情報処理システム1Aの動作を示すフローチャート。
1:第1実施形態
 以下、図1~図10を参照することにより、本発明の第1実施形態に係る情報処理装置10を含む情報処理システム1の構成について説明する。
1.1:第1実施形態の構成
1.1.1:全体構成
 図1は、本発明の第1実施形態に係る情報処理システム1の全体構成を示す図である。情報処理システム1は、後述のMRグラス50を装着したユーザU1に対して、MR技術により、仮想空間を提供するシステムである。ここで、MR技術とは、例えば、シースルー型のヘッドマウントディスプレイ等の装置において、現実世界の座標空間と仮想世界の座標空間とを精緻に重ね合わせることで、当該装置を着用したユーザが、現実世界と仮想世界との複合世界を体験することを可能とする技術である。MR技術には、AR(Augmented Reality)技術とVR(Virtual Reality)技術とが含まれる。
 情報処理システム1は、情報処理装置10、ウェアラブル装置20、及び撮像装置30を備える。情報処理装置10、ウェアラブル装置20、及び撮像装置30は、通信網NETを介して互いに通信可能に接続される。なお、図1において、ウェアラブル装置20として、ウェアラブル装置20-1とウェアラブル装置20-2の2台のウェアラブル装置20が示される。しかし、当該台数はあくまで一例であって、情報処理システム1は、任意の台数のウェアラブル装置20を備えることが可能である。
 ウェアラブル装置20は、ユーザが仮想空間を知覚するために身に着ける装置である。図2は、ウェアラブル装置20の構成例を示すブロック図である。ウェアラブル装置20は、端末装置40と、MRグラス50とを備える。端末装置40とMRグラス50とは互いに通信可能に接続される。端末装置40は、情報処理装置10と互いに通信可能に接続することにより、情報処理装置10から、MRグラス50に表示する画像情報を取得する。また、端末装置40は、情報処理装置10から取得した画像情報を、MRグラス50に表示させる。
 端末装置40は、ユーザが頭部に装着するMRグラス50に対して、仮想空間に配置される仮想オブジェクトを表示させるための装置である。当該仮想空間は、一例として、天球型の空間である。また、仮想オブジェクトは、例として、静止画像、動画、3DCGモデル、HTMLファイル、及びテキストファイル等のデータを示す仮想オブジェクト、及びアプリケーションを示す仮想オブジェクトである。ここで、テキストファイルとしては、例として、メモ、ソースコード、日記、及びレシピが挙げられる。また、アプリケーションとしては、例として、ブラウザ、SNSを用いるためのアプリケーション、及びドキュメントファイルを生成するためのアプリケーションが挙げられる。なお、端末装置40は、例として、スマートフォン、及びタブレット等の携帯端末装置であることが好適である。
 MRグラス50は、ユーザの頭部に装着するシースルー型のウェアラブルディスプレイである。MRグラス50は、端末装置40の制御により、両眼用のレンズの各々に設けられた表示パネルに仮想オブジェクトを表示させる。なお、本発明においては、MRグラス50の位置を、ウェアラブル装置20の位置とする。
 図1に説明を戻すと、情報処理装置10は、通信網NETを介して、端末装置40に対して各種データ及びクラウドサービスを提供する。また、情報処理装置10は、世界座標系におけるウェアラブル装置20の絶対位置を示す自己位置情報を算出する。更に、情報処理装置10は、算出した自己位置情報をウェアラブル装置20に出力する。なお、本実施形態における世界座標系とは、ウェアラブル装置20及び撮像装置30を含む空間全体を表す座標系のことである。
 撮像装置30は、ウェアラブル装置20を装着した人物を撮像する。具体的には、撮像装置30は、例えばステレオカメラであり、ウェアラブル装置20を装着した人物自体の画像に加えて、当該撮像装置30から撮像対象までの距離と方向とを示すベクトル情報を取得することが可能である。より詳細には、一例として、撮像装置30によって撮像された撮像画像を構成する各画素に、撮像装置30から当該画素までの距離と方向とを示すベクトル情報が紐づけられる。撮像装置30によって撮像された撮像画像、撮像装置30から撮像対象までの距離、及び撮像装置30から撮像対象への方向を示す撮像情報は、通信網NETを介して、情報処理装置10に対して供給される。なお、撮像装置30の設置位置は固定されている。また、撮像装置30から供給される、撮像画像及び距離情報を示す撮像情報は、後述の第2の撮像情報の一例である。
1.1.2:MRグラスの構成
 図3は、MRグラス50の外観を示す斜視図である。図3に示されるようにMRグラス50の外観は、一般的な眼鏡と同様にテンプル91及び92、ブリッジ93、胴部94及び95、及びレンズ59L及び59Rを有する。ブリッジ93には撮像装置56が設けられる。撮像装置56は外界を撮像した後、撮像画像を示す撮像情報を出力する。撮像装置56から出力される、撮像画像を示す撮像情報は、後述の第1の撮像情報の一例である。
 レンズ59L及び59Rの各々は、ハーフミラーを備えている。胴部94には、左眼用の液晶パネル又は有機ELパネル(以下、表示パネルと総称する)と、左眼用の表示パネルから射出された光をレンズ59Lに導光する光学部材が設けられる。レンズ59Lに設けられるハーフミラーは、外界の光を透過させて左眼に導くと共に、光学部材によって導光された光を反射することにより、左眼に入射させる。胴部95には、右眼用の表示パネルと、右眼用の表示パネルから射出された光をレンズ59Rに導光する光学部材が設けられる。レンズ59Rに設けられるハーフミラーは、外界の光を透過させて右眼に導くと共に、光学部材によって導光された光を反射することにより、右眼に入射させる。
 後述するディスプレイ58は、レンズ59L、左眼用の表示パネル、及び左眼用の光学部材、並びにレンズ59R、右眼用の表示パネル、及び右眼用の光学部材を含む。
 以上の構成において、ユーザは表示パネルに表示される画像を、外界の様子と重ね合わせたシースルーの状態で観察できる。また、MRグラス50は、視差を伴う両眼画像のうち、左眼用画像を左眼用の表示パネルに表示させ、右眼用画像を右眼用の表示パネルに表示させることによって、ユーザU1に対し、表示された画像があたかも奥行き、及び立体感を持つかのように知覚させることが可能となる。
 図4~図6は、MRグラス50を用いることによりユーザU1に提供される仮想空間VSの模式図である。図4に示されるように、当該仮想空間VSには、例えばブラウザ、クラウドサービス、画像、及び動画等の各種コンテンツを示す仮想オブジェクトVO1~VO5が配置される。ユーザU1は、当該仮想空間VSに配置される仮想オブジェクトVO1~VO5が表示されたMRグラス50を装着した状態で公共の空間を行き来することにより、公共の空間において、プライベートな空間としての当該仮想空間VSを体験することが可能となる。延いては、当該ユーザU1が、当該仮想空間VSに配置された仮想オブジェクトVO1~VO5のもたらす便益を受けながら、公共の空間において行動することが可能となる。
 また、図5に示されるように、複数のユーザU1~U3で仮想空間VSを共有することも可能である。複数のユーザU1~U3で仮想空間VSを共有することにより、当該複数のユーザU1~U3で、1又は複数の仮想オブジェクトVOを共用すると共に、共用した仮想オブジェクトVOを介して、ユーザU1~U3間でコミュニケーションを行うことが可能となる。
 更に、図6に示されるように、MRグラス50には、一例として、現実空間としての風景画像Wに対して、メールの受信状況と今日の予定とを通知するテキストボックスXが重畳されて表示される。本実施形態においては、MR技術を用いることにより、風景画像Wのうち、障害物がない領域、すなわち図6に示される例においては、青空の領域にテキストボックスXが表示されることが可能となる。
 図7は、MRグラス50の構成例を示すブロック図である。MRグラス50は、処理装置51、記憶装置52、視線検出装置53、GPS装置54、動き検出装置55、撮像装置56、通信装置57、及びディスプレイ58を備える。MRグラス50が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読み替えてもよい。
 処理装置51は、MRグラス50の全体を制御するプロセッサであり、例えば、単数又は複数のチップを用いて構成される。処理装置51は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)を用いて構成される。なお、処理装置51が有する機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及びFPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置51は、各種の処理を並列的又は逐次的に実行する。
 記憶装置52は、処理装置51による読取及び書込が可能な記録媒体であり、処理装置51が実行する制御プログラムPR1を含む複数のプログラムを記憶する。
 視線検出装置53は、ユーザU1の視線を検出した後、検出結果に基づいてユーザU1の視線の方向を示す視線情報を、後述の処理装置51に対して供給する。視線検出装置53が視線を検出する方法として、どのような方法を用いてもよい。例えば、視線検出装置53は、目頭の位置と虹彩の位置に基づいて視線情報を検出してもよい。
 GPS装置54は、複数の衛星からの電波を受信し、受信した電波から第1の位置情報を生成する。位置情報は、MRグラス50の位置を示す。第1の位置情報は、位置を特定できるのであれば、どのような形式であってもよい。第1の位置情報は、例えば、MRグラス50の緯度と経度とを示す。なお、第1の位置情報は、MRグラス50の緯度と経度の他に、高度を示してもよい。一例として、第1の位置情報はGPS装置54から得られる。しかし、MRグラス50は、どのような方法によって第1の位置情報を取得してもよい。取得された第1の位置情報は、ウェアラブル装置20の位置を示す暫定位置情報として、処理装置51に対して供給される。
 動き検出装置55は、MRグラス50の動きを検出した後、当該動きを示す動き情報を処理装置51に対して供給する。動き検出装置55としては、加速度を検出する加速度センサ及び角加速度を検出するジャイロセンサなどの慣性センサが該当する。加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。ジャイロセンサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。動き検出装置55は、ジャイロセンサの出力情報に基づいて、MRグラス50の姿勢を示す姿勢情報を生成できる。動きデータは、3軸の加速度を各々示す加速度データ及び3軸の角加速度を各々示す角加速度データを含む。
 撮像装置56は、外界を撮像することによって得られた撮像画像を示す第1の撮像情報を出力する。撮像装置56は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備える。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は撮像信号を増幅した上でAD変換器に出力する。AD変換器はアナログ信号である増幅された撮像信号をデジタル信号である第1の撮像情報に変換する。変換された第1の撮像情報は、処理装置51に対して供給される。処理装置51に出力された第1の撮像情報は、通信装置57を介して、上記の端末装置40に対して供給される。端末装置40は、第1の撮像情報に基づいて、ユーザU1の各種のジェスチャーを認識した後、認識されたジェスチャーに応じて端末装置40を制御する。即ち、撮像装置56は、ポインティングデバイス及びタッチパネルのように、ユーザU1の指示を入力するための入力装置として機能する。
 通信装置57は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置57は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置57は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置57は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、及びUSBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ58は、画像を表示するデバイスである。ディスプレイ58は、処理装置51による制御のもとで各種の画像を表示する。ディスプレイ58は、上記のように、レンズ59L、左眼用の表示パネル、及び左眼用の光学部材、並びにレンズ59R、右眼用の表示パネル、及び右眼用の光学部材を含む。表示パネルとしては、例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルが好適に利用される。
 処理装置51は、例えば、記憶装置52から制御プログラムPR1を読み出して実行することによって、取得部511、及び表示制御部512として機能する。
 取得部511は、端末装置40からの制御信号を取得する。より詳細には、取得部511は、端末装置40に備わる、後述の表示制御部415によって生成される、MRグラス50での表示を制御するための制御信号を取得する。
 また、取得部511は、視線検出装置53から入力される視線情報、GPS装置54から入力される位置情報、動き検出装置55から入力される動き情報、及び撮像装置56から入力される第1の撮像情報を取得する。その上で、取得部511は、取得した視線情報、第1の位置情報、動き情報、及び撮像情報を、通信装置57に対して供給する。通信装置57は、取得部511から取得した視線情報、第1の位置情報、動き情報、及び撮像情報を、端末装置40に対して送信する。更に、取得部511は、取得した視線情報、第1の位置情報、動き情報、及び撮像情報を、記憶装置52に格納する。
 また、取得部511は、通信装置57を用いることによって、端末装置40から、ウェアラブル装置20の位置を示す自己位置情報としての第2の位置情報を取得する。更に、取得部511は、取得した第2の位置情報を記憶装置52に格納する。ここで、第2の位置情報は、第1の位置情報よりも精度が高い。具体的には、第1の位置情報は、上記のようにGPS装置54から取得されるGPS情報である。汎用的なGPS装置であれば100m程度の誤差が発生することがある。一方で、第2の位置情報は、MRグラス50が端末装置40を介して、情報処理装置10から取得する自己位置情報である。後述のように、当該自己位置情報は、撮像装置30からMRグラス50までの相対位置情報を用いて算出される。当該相対位置情報は、例としてステレオカメラとしての撮像装置30によって測定される情報であるため、撮像装置30から撮像対象までの距離が100m程度である場合に、高々1m前後の誤差しか発生しない。
 表示制御部512は、取得部511によって取得された端末装置40からの制御信号に基づいて、ディスプレイ58における表示を制御する。
1.1.3:端末装置の構成
 図8は、端末装置40の構成例を示すブロック図である。端末装置40は、処理装置41、記憶装置42、通信装置43、ディスプレイ44、入力装置45、及び慣性センサ46を備える。端末装置40が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
 処理装置41は、端末装置40の全体を制御するプロセッサであり、例えば、単数又は複数のチップを用いて構成される。処理装置41は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置11が有する機能の一部又は全部を、DSP、ASIC、PLD、及びFPGA等のハードウェアによって実現してもよい。処理装置41は、各種の処理を並列的又は逐次的に実行する。
 記憶装置42は、処理装置41が読取及び書込が可能な記録媒体であり、処理装置41が実行する制御プログラムPR2を含む複数のプログラムを記憶する。
 通信装置43は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置43は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置43は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置43は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、及びUSBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ44は、画像及び文字情報を表示するデバイスである。ディスプレイ44は、処理装置41の制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL(Electro Luminescence)表示パネル等の各種の表示パネルがディスプレイ44として好適に利用される。
 入力装置45は、MRグラス50を頭部に装着したユーザU1からの操作を受け付ける。例えば、入力装置45は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置45は、タッチパネルを含んで構成される場合、ディスプレイ44を兼ねてもよい。
 慣性センサ46は、慣性力を検出するセンサである。慣性センサ46は、例えば、加速度センサ、角速度センサ、及びジャイロセンサのうち、1以上のセンサを含む。処理装置41は、慣性センサ46の出力情報に基づいて、端末装置40の姿勢を検出する。更に、処理装置41は、端末装置40の姿勢に基づいて、天球型の仮想空間VSにおいて、仮想オブジェクトVOの選択、文字の入力、及び指示の入力を受け付ける。例えば、ユーザU1が端末装置40の中心軸を仮想空間VSの所定領域に向けた状態で、入力装置45を操作することによって、所定領域に配置される仮想オブジェクトVOが選択される。入力装置45に対するユーザU1の操作は、例えば、ダブルタップである。このようにユーザU1は端末装置40を操作することによって、端末装置40の入力装置45を見なくても仮想オブジェクトVOを選択できる。
 処理装置41は、記憶装置42から制御プログラムPR2を読み出して実行することによって、取得部411、動作認識部412、特定部413、出力部414、及び表示制御部415として機能する。
 取得部411は、MRグラス50が頭部に装着されるユーザU1の動作に応じた指示情報を取得する。ここで、ユーザU1の動作とは、例として、ユーザU1が入力装置45を用いて端末装置40へ入力することである。より詳細には、ユーザU1の動作は、端末装置40に設けられた、入力装置45としての特定部位の押下であってよい。あるいは、ユーザU1の動作は、端末装置40を携帯型のコントローラとして用いた操作であってよい。これらの場合、指示情報は、例えば、特定の仮想オブジェクトVOを指定する情報、特定の仮想オブジェクトVOの表示を変更する情報、及び、特定の仮想オブジェクトVOがアプリケーションである場合、当該アプリケーションを起動する情報である。
 又は、ユーザU1の動作は、MRグラス50に対するユーザU1の目視であってもよい。ユーザU1の動作が目視である場合、指示情報は、MRグラス50におけるユーザU1の視点である。この場合、指示情報は、MRグラス50から端末装置40へ送信される。
 あるいは、ユーザU1の動作は、ユーザU1のジェスチャーであってもよい。後述のように、動作認識部412は、ユーザU1の各種のジェスチャーを認識する。取得部411は、ユーザU1の各種ジェスチャーに応じた指示情報を取得してもよい。
 また、取得部411は、通信装置43を用いて、MRグラス50から、第1の撮像情報、及び暫定位置情報としての第1の位置情報を取得する。
 更に、取得部411は、通信装置43を用いて、情報処理装置10からウェアラブル装置20の位置を示す自己位置情報としての第2の位置情報を取得する。取得部411によって取得された自己位置情報は、端末装置40がMRグラス50に仮想オブジェクトVOを表示させる場合、仮想オブジェクトVOが表示される仮想空間と、MRグラス50を通してユーザが視認する現実空間とを精緻に位置合わせするために用いられる。
 動作認識部412は、MRグラス50から得た撮像情報に基づいて、ユーザU1の各種のジェスチャーを認識する。より詳細には、上記のように、MRグラス50に備わる撮像装置56は、外界を撮像することによって得た撮像情報を出力する。当該撮像データに、MRグラス50を頭部に装着したユーザU1の身体の一部が含まれる場合には、動作認識部412は、MRグラス50から取得した撮像データに基づいて、ユーザU1の各種のジェスチャーを認識する。
 特定部413は、取得部411によって取得された指示情報に基づいて、仮想空間VSに配置された複数の仮想オブジェクトVOのうち、1つの仮想オブジェクトVOを特定する。
 出力部414は、取得部411によって取得された指示情報が、特定部413によって特定された1つの仮想オブジェクトVOの表示を変更する情報、又は、当該1つの仮想オブジェクトVOを起動する情報である場合に、当該指示情報を情報処理装置10に対して供給する。情報処理装置10は、端末装置40から取得した当該指示情報に基づいて、特定された1つの仮想オブジェクトVOの表示を変更したり、起動したりする。
 また、出力部414は、取得部411によってMRグラス50から取得された第1の撮像情報を情報処理装置10に対して送信する。また、出力部414は、取得部411によってMRグラス50から取得された、ウェアラブル装置20の暫定位置情報としての第1の位置情報を、情報処理装置10に対して送信する。
 更に、出力部414は、取得部411によって情報処理装置10から取得された、ウェアラブル装置20の自己位置情報としての第2の位置情報を、当該ウェアラブル装置20に含まれるMRグラス50に対して供給する。より詳細には、情報処理装置10は、後述の方法により、第1の位置情報よりも精度が高い第2の位置情報を算出する。取得部411は、情報処理装置10から、当該第2の位置情報を取得する。出力部414は、当該第2の位置情報を、ウェアラブル装置20に含まれるMRグラス50に対して供給する。
 表示制御部415は、表示装置としてのMRグラス50に、仮想空間VSに配置される複数の仮想オブジェクトVOを表示させる。より具体的には、表示制御部415は、MRグラス50に表示させる画像データを生成した後、生成した画像データを、通信装置13を介してMRグラス50へ送信する。
 なお、図8には示さないが、端末装置40は、MRグラス50に備わるGPS装置54と同様のGPS装置を備えてもよい。この場合、MRグラス50は、GPS装置54を備えなくてもよい。
1.1.4:情報処理装置の構成
 図9は、情報処理装置10の構成例を示すブロック図である。情報処理装置10は、処理装置11、記憶装置12、通信装置13、ディスプレイ14、及び入力装置15を備える。情報処理装置10が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
 処理装置11は、情報処理装置10の全体を制御するプロセッサであり、例えば、単数又は複数のチップを用いて構成される。処理装置11は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置11の機能の一部又は全部を、DSP、ASIC、PLD、及びFPGA等のハードウェアによって実現してもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
 記憶装置12は、処理装置11が読取及び書込が可能な記録媒体であり、処理装置11が実行する制御プログラムPR3を含む複数のプログラム、第1学習モデルLM1、第2学習モデルLM2、第3学習モデルLM3、マップデータMD、及び撮像装置30の絶対位置を示す撮像位置情報を記憶する。
 第1学習モデルLM1は、後述の特定部112が、撮像画像から、当該撮像画像に含まれる人物画像を抽出するための学習モデルである。
 第1学習モデルLM1は、学習フェーズにおいて、教師データを学習することによって生成される。第1学習モデルLM1を生成するために用いられる教師データは、撮像画像と、当該撮像画像に含まれる人物画像との組を複数有する。
 また、第1学習モデルLM1は、情報処理装置10の外部の装置で生成される。とりわけ第1学習モデルLM1は、図示しないサーバにおいて生成されることが好適である。この場合、情報処理装置10は、通信網NETを介して図示しないサーバから第1学習モデルLM1を取得する。
 第2学習モデルLM2は、後述の算出部113が、特定部112によって特定された1人の人物の人物画像から、更にMRグラス50の画像を抽出するための学習モデルである。
 第2学習モデルLM2は、学習フェーズにおいて、教師データを学習することによって生成される。第2学習モデルLM2を生成するために用いられる教師データは、撮像画像と、当該撮像画像に含まれるMRグラス50の画像との組を複数有する。
 また、第2学習モデルLM2は、情報処理装置10の外部の装置で生成される。とりわけ第2学習モデルLM2は、図示しないサーバにおいて生成されることが好適である。この場合、情報処理装置10は、通信網NETを介して図示しないサーバから第2学習モデルLM2を取得する。
 第3学習モデルLM3は、後述の算出部113が、撮像画像から、当該撮像画像に含まれる建物画像を抽出するための学習モデルである。
 第3学習モデルLM3は、学習フェーズにおいて、教師データを学習することによって生成される。第3学習モデルLM3を生成するために用いられる教師データは、撮像画像と、当該撮像画像に含まれる建物画像との組を複数有する。
 また、第3学習モデルLM3は、情報処理装置10の外部の装置で生成される。とりわけ第3学習モデルLM3は、図示しないサーバにおいて生成されることが好適である。この場合、情報処理装置10は、通信網NETを介して図示しないサーバから第3学習モデルLM3を取得する。
 マップデータMDは、対象物を複数の異なる方向から同時に撮像可能なステレオカメラ等によって予め撮像された撮像画像、当該撮像画像に含まれる特徴点の特徴量、及び当該特徴点に関連付けられた絶対的な位置情報を含むデータである。とりわけ、当該撮像画像には、土地に固有の建物の画像が含まれる。また、特徴点に関連付けられた絶対的な位置情報は、グローバルな位置情報であると共に、世界座標系における位置情報である。
 通信装置13は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置13は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置13は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置13は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、及びUSBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ14は、画像及び文字情報を表示するデバイスである。ディスプレイ14は、処理装置11による制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルがディスプレイ14として好適に利用される。
 入力装置15は、情報処理システム1の管理者による操作を受け付ける機器である。例えば、入力装置15は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置15は、タッチパネルを含んで構成される場合、ディスプレイ14を兼ねてもよい。
 処理装置11は、例えば、記憶装置12から制御プログラムPR3を読み出して実行することによって、取得部111、特定部112、算出部113、比較部114、及び出力部115として機能する。
 取得部111は、端末装置40から、MRグラス50に備わる撮像装置56によって撮像された撮像画像を示す第1の撮像情報を取得する。より詳細には、取得部111は、端末装置40から、撮像装置56によって撮像されたMRグラス50の外界の撮像画像を示す第1の撮像情報を取得する。また、取得部111は、端末装置40から、ウェアラブル装置20の位置を示す暫定位置情報としての第1の位置情報を取得する。
 また、取得部111は、世界座標系における撮像装置30の絶対位置を示す撮像位置情報を取得する。より詳細には、取得部111は、撮像装置30から撮像位置情報を取得してもよい。あるいは、取得部111は、記憶装置12に記憶される撮像位置情報を取得してもよい。なお、撮像位置情報の精度は、暫定位置情報の精度よりも高い。
 更に、取得部111は、撮像装置30から撮像画像を示す第2の撮像情報を取得する。より詳細には、取得部111は、撮像装置30からウェアラブル装置20を装着した人物が含まれる撮像画像を示す第2の撮像情報を取得する。上記のように、撮像装置30は、例えばステレオカメラであるため、当該第2の撮像情報には、撮像装置30から撮像対象までの距離情報が含まれる。
 特定部112は、第1学習モデルLM1を用いて、第2の撮像情報によって示される撮像画像から1又は複数の人物画像を抽出する。また、特定部112は、取得部111によって取得された暫定位置情報としての第1の位置情報に基づいて、抽出された1又は複数の人物画像の示す人物から、当該暫定位置情報に対応するウェアラブル装置20を装着した1人の人物を特定する。
 より詳細には、上記のように、第2の撮像情報には、撮像装置30から撮像対象までのベクトル情報が含まれる。1又は複数の人物画像に含まれる各画素には、各々の画素に対応するベクトル情報が紐づけられる。特定部112は、暫定位置情報としての第1の位置情報に最も近接したベクトル情報を有する人物画像に含まれる人物を、当該暫定位置情報に対応するウェアラブル装置20を装着した1人の人物として特定する。
 更に、特定部112は、第2学習モデルLM2を用いて、特定された1人の人物の人物画像から、MRグラス50の画像を抽出する。
 算出部113は、取得部111によって取得された第1の撮像情報に基づいて、ウェアラブル装置20の自己位置情報としての第3の位置情報を算出する。例えば、算出部113は、第3学習モデルLM3を用いて、第1の撮像情報によって示される撮像画像内における、ウェアラブル装置20が位置する土地に固有の建物の画像を抽出する。また、算出部113は、記憶装置12に記憶されるマップデータMDを参照することにより、抽出された建物の位置を算出する。更に、算出部113は、第1の撮像情報から抽出した建物の画像に基づいて、MRグラス50から当該建物までの距離と方向を算出する。最後に、算出部113は、当該建物の位置と、MRグラス50から当該建物までの距離と方向に基づいて、ウェアラブル装置20の自己位置情報としての第3の位置情報を算出する。
 算出された第3の位置情報は、通常時において、後述の出力部115により、端末装置40に対して送信される。
 また、算出部113は、取得部111によって取得された第1の撮像情報に基づいて、自己位置精度情報を算出する。
 MRグラス50に備わる撮像装置56によって撮像される撮像画像に含まれる特徴量、例えば撮像画像に含まれるウェアラブル装置20が位置する土地に固有の建物の画像に含まれる特徴点が少なくなるほど、第1の撮像情報に基づいて算出された自己位置情報の精度は低くなる。このため、算出部113は、第1の撮像情報によって示される撮像画像に含まれる特徴量に基づいて、自己位置精度情報を算出する。あるいは、算出部113は、第1の撮像情報によって示される撮像画像に含まれる建物の画像を、マップデータMDに含まれる建物の画像とマッチングし、マッチングの度合いに応じて、自己位置精度情報を算出してもよい。あるいは、算出部113は、第1の撮像情報によって示される撮像画像に含まれる特徴点と、マップデータMDに含まれる特徴点をとマッチングし、マッチングの度合いに応じて、自己位置精度情報を算出してもよい。
 また、算出部113は、撮像位置情報を用いることによって、特定部112によって特定された1人の人物が装着するウェアラブル装置20の位置を示す自己位置情報としての第2の位置情報を算出する。より詳細には、算出部113は、第2学習モデルLM2を用いて、特定部112によって特定された1人の人物の人物画像から、当該1人の人物が身に着けているMRグラス50が占める部分の画像を抽出する。また算出部113は、抽出されたMRグラス50が占める部分の画像の各画素と紐づく複数のベクトル情報に基づいて、撮像装置30の位置を基準とする、当該1人の人物が身に着けているMRグラス50の相対位置情報を算出する。算出部113は、MRグラス50が占める部分の画像の画素と紐づく複数のベクトル情報のうち、撮像装置30から最も近距離のベクトル情報を、当該1人の人物が身に着けているウェアラブル装置20の相対位置を示す相対位置情報としてもよい。あるいは、算出部113は、MRグラス50が占める部分の画像の画素と紐づく複数のベクトル情報のうち、撮像装置30から最も遠距離のベクトル情報を、当該1人の人物が身に着けているウェアラブル装置20の相対位置を示す相対位置情報としてもよい。その上で、算出部113は、撮像装置30の絶対位置を示す撮像位置情報に、ウェアラブル装置20の相対位置情報を加算することで、ウェアラブル装置20の絶対位置を示す自己位置情報を第2の位置情報として算出する。
 比較部114は、算出部113によって算出された自己位置精度情報を、閾値と比較する。とりわけ、自己位置精度情報が閾値未満であった場合、すなわち第3の位置情報の精度が閾値よりも低い場合には、後述の出力部115は、端末装置40に対して、ウェアラブル装置20の暫定位置情報としての第1の位置情報を要求する要求信号を出力する。
 出力部115は、通常時において、通信装置13を用いて、端末装置40に対して、算出部113によって、第1の撮像情報に基づいて算出された、ウェアラブル装置20の自己位置情報としての第3の位置情報を供給する。
 また、出力部115は、取得部111によって端末装置40から暫定位置情報が取得されたことをトリガとして、通信装置13を用いて、撮像装置30に対して、撮像指示信号を送信する。撮像装置30は、情報処理装置10から撮像指示信号を取得すると、ウェアラブル装置20を装着した人物を撮像する。
 更に、出力部115は、通信装置13を用いて、端末装置40に対して、算出部113によって、撮像位置情報に基づいて算出された、ウェアラブル装置20の自己位置情報としての第2の位置情報を、端末装置40に送信する。
1.2:第1実施形態の動作
 図10は、第1実施形態に係る情報処理システム1の動作を示すフローチャートである。以下、図10を参照することにより、情報処理システム1の動作について説明する。
 ステップS101において、端末装置40に備わる処理装置41は、出力部414として機能することにより、MRグラス50から取得した第1の撮像情報を情報処理装置10に対して送信する。
 ステップS102において、情報処理装置10に備わる処理装置11は、算出部113として機能することにより、端末装置40から取得した第1の撮像情報に基づいて、自己位置精度情報を算出する。
 ステップS103において、情報処理装置10に備わる処理装置11は、比較部114として機能することにより、算出された自己位置精度情報を閾値と比較する。自己位置精度情報が閾値以上である、すなわちステップS103の判定結果が真である場合には、情報処理装置10は全ての処理を終了する。自己位置精度情報が閾値未満の場合、すなわちステップS103の判定結果が偽である場合には、情報処理装置10はステップS104の処理を実行する。
 ステップS104において、情報処理装置10に備わる処理装置11は、出力部115として機能することにより、端末装置40に対して、ウェアラブル装置20の暫定位置情報としての第1の位置情報を要求する要求信号を送信する。
 ステップS105において、端末装置40に備わる処理装置41は、出力部414として機能することにより、MRグラス50から取得したウェアラブル装置20の暫定位置情報としての第1の位置情報を、情報処理装置10に対して、送信する。
 ステップS106において、情報処理装置10に備わる処理装置11は、出力部115として機能することにより、撮像装置30に対して、撮像指示信号を送信する。
 ステップS107において、撮像装置30は、端末装置40とMRグラス50とを含むウェアラブル装置20を装着した人物を撮像する。
 ステップS108において、撮像装置30は、当該撮像装置30が撮像した撮像画像を示す第2の撮像情報を、情報処理装置10に送信する。
 ステップS109において、情報処理装置10に備わる処理装置11は、特定部112として機能することにより、第2の撮像情報によって示される撮像画像から1又は複数の人物画像を抽出する。また、処理装置11は、特定部112として機能することにより、暫定位置情報としての第1の位置情報に基づいて、抽出された1又は複数の人物画像の示す人物から、当該暫定位置情報に対応するウェアラブル装置20を装着した1人の人物を特定する。
 ステップS110において、情報処理装置10に備わる処理装置11は、算出部113として機能することにより、撮像位置情報を用いて、ステップS109において特定された1人の人物が装着するウェアラブル装置20の位置を示す自己位置情報を算出する。
 ステップS111において、情報処理装置10に備わる処理装置11は、出力部115として機能することにより、通信装置13を用いて、ステップS110において算出された自己位置情報を、端末装置40に対して送信する。その後、端末装置40に備わる処理装置41は、出力部414として機能することにより、情報処理装置10から取得した自己位置情報を、MRグラス50に対して送信する。
1.3:第1実施形態が奏する効果
 以上の説明によれば、情報処理装置10は、取得部111、特定部112、算出部113、及び出力部115を備える。取得部111は、撮像装置30によって撮像された撮像画像を示す撮像情報と、撮像装置30の位置を示す撮像位置情報と、ウェアラブル装置20の位置を示す暫定位置情報とを取得する。特定部112は、撮像情報及び暫定位置情報に基づいて、撮像画像に含まれる1又は複数の人物画像から、ウェアラブル装置20を装着した人物を特定する。算出部113は、撮像位置情報を用いて、特定部112によって特定された人物が装着するウェアラブル装置20の位置を示す自己位置情報を算出する。出力部115は、自己位置情報をウェアラブル装置20に対して供給する。ここで、撮像位置情報の精度は、暫定位置情報の精度よりも高い。
 情報処理装置10が上記の構成を用いることにより、MRグラス50は、自己位置を取得する場合に、より正確な自己位置を取得できる。とりわけ、算出部113は、MRグラス50がGPS装置54を備えていることによって取得可能な暫定位置情報よりも、精度の高い撮像位置情報を用いて自己位置情報を算出することにより、より精度の高い自己位置情報を算出できる。
 また、撮像位置情報は撮像装置30の絶対位置を示す。自己位置情報はウェアラブル装置20の絶対位置を示す。算出部113は、撮像情報に基づいて、撮像位置情報によって示される撮像装置30の位置を基準とするウェアラブル装置20の相対位置を示す相対位置情報を算出する。また、算出部113は、撮像位置情報と相対位置情報とに基づいて、自己位置情報を算出する。
 情報処理装置10が上記の構成を用いることにより、算出部113は、撮像装置30の絶対位置である撮像位置情報と、撮像装置30の位置を基準とするウェアラブル装置20の相対位置を示す相対位置情報とから、ウェアラブル装置20の絶対位置である自己位置情報を算出できる。
2:第2実施形態
 以下、図11~図15を参照することにより、本発明の第2実施形態に係る情報処理装置10Aを含む情報処理システム1Aの構成について説明する。なお、以下の説明では、説明の簡略化のため、第1実施形態と同一の構成要素に対しては、同一の符号を用いると共に、その機能の説明を省略することがある。また、以下の説明では、説明の簡略化のため、主として、第2実施形態が、第1実施形態に比較して相違する点について説明する。
2.1:第1実施形態の構成
2.1.1:全体構成
 図11は、本発明の第2実施形態に係る情報処理システム1Aの全体構成を示す図である。情報処理システム1Aは、第1実施形態に係る情報処理システム1に比較して、情報処理装置10の代わりに情報処理装置10Aを、ウェアラブル装置20の代わりにウェアラブル装置20Aを備える点で異なる。また、撮像装置30は、第1のウェアラブル装置20A-1を装着した第1の人物と、第2のウェアラブル装置20A-2を装着した第2の人物とを同時に撮像する。
 図12は、ウェアラブル装置20Aの構成例を示すブロック図である。ウェアラブル装置20Aは、第1実施形態に係るウェアラブル装置20に比較して、端末装置40の代わりに端末装置40Aを備える点で異なる。
2.1.2:情報処理装置の構成
 図13は、情報処理装置10Aの構成例を示すブロック図である。情報処理装置10Aは、第1実施形態に係る情報処理装置10に比較して、処理装置11の代わりに処理装置11Aを備える点で異なる。処理装置11Aは、第1実施形態に係る処理装置11に比較して、取得部111の代わりに取得部111Aを、特定部112の代わりに特定部112Aを、算出部113の代わりに算出部113Aを備える点で異なる。また、記憶装置12は、第1実施形態に係る制御プログラムPR3の代わりに、制御プログラムPR3Aを記憶する。
 取得部111Aは、取得部111とは異なり、暫定位置情報としての第1の位置情報の取得は必須としない。
 特定部112Aは、第2の撮像情報によって示される撮像画像から複数の人物画像を抽出した後、抽出された複数の人物画像の示す人物から、第1のウェアラブル装置20A-1を装着した第1の人物と、第2のウェアラブル装置20A-2を装着した第2の人物とを特定する。また、特定部112Aは、第1の人物の人物画像から、MRグラス50-1の画像を抽出する。更に、特定部112Aは、第2の人物の人物画像から、MRグラス50-2の画像を抽出する。
 算出部113Aは、撮像位置情報を用いて、第1のウェアラブル装置20A-1の第1位置と、第2のウェアラブル装置20A-2の第2位置とを示す自己位置情報を算出する。その結果、出力部115によって、第1のウェアラブル装置20A-1に含まれる端末装置40A-1、及び第2のウェアラブル装置20A-2に含まれる端末装置40A-2に対して送信される自己位置情報は、第1のウェアラブル装置20A-1の第1位置と、第2のウェアラブル装置20A-2の第2位置との双方を示す。
2.1.3:端末装置の構成
 図13は、端末装置40Aの構成例を示すブロック図である。端末装置40Aは、第1実施形態に係る端末装置40に比較して、処理装置41の代わりに処理装置41Aを備える点で異なる。処理装置41Aは、第1実施形態に係る処理装置41が備える構成要素に加えて、更に、選択部416を備える。また、記憶装置42は、第1実施形態に係る制御プログラムPR2の代わりに、制御プログラムPR2Aを記憶する。
 選択部416は、記憶装置42に記憶される暫定位置情報が示す位置に基づいて、情報処理装置10Aから取得された自己位置情報によって示される第1位置及び第2位置の中から一つの位置を選択する。より詳細には、選択部416は、第1位置及び第2位置のうち、暫定位置情報が示す位置により近い方の位置を示す自己位置情報を選択する。
 端末装置40Aが、端末装置40A-1である場合には、記憶装置42には、暫定位置情報として第1暫定位置情報が記憶される。また、選択部416は、第1位置及び第2位置のうち、第1暫定位置情報により近い位置として、第1位置を示す自己位置情報を選択する。
 端末装置40Aが、端末装置40A-2である場合には、記憶装置42には、暫定位置情報として第2暫定位置情報が記憶される。選択部416は、第1位置及び第2位置のうち、第2暫定位置情報により近い位置として、第2位置を示す自己位置情報を選択する。
2.2:第2実施形態の動作
 図15は、第2実施形態に係る情報処理システム1Aの動作を示すフローチャートである。以下、図15を参照することにより、情報処理システム1Aの動作について説明する。
 ステップS201において、端末装置40A-1に備わる処理装置41Aは、出力部414として機能することにより、MRグラス50-1から取得した第1の撮像情報を情報処理装置10に対して送信する。
 ステップS202において、端末装置40A-2に備わる処理装置41Aは、出力部414として機能することにより、MRグラス50-2から取得した第1の撮像情報を情報処理装置10に対して送信する。
 ステップS203において、情報処理装置10Aに備わる処理装置11Aは、算出部113Aとして機能することにより、端末装置40A-1から取得した第1の撮像情報に基づいて、自己位置精度情報を算出する。また、情報処理装置10Aに備わる処理装置11Aは、算出部113Aとして機能することにより、端末装置40A-2から取得した第1の撮像情報に基づいて、自己位置精度情報を算出する。
 ステップS204において、情報処理装置10Aに備わる処理装置11Aは、比較部114として機能することにより、算出された自己位置精度情報を閾値と比較する。ステップS203において算出された双方の自己位置精度情報が閾値以上である、すなわちステップS204の判定結果が真である場合には、端末装置40A-1は全ての処理を終了する。ステップS203において算出されたいずれかの自己位置精度情報が閾値未満の場合、すなわちステップS204の判定結果が偽である場合には、情報処理装置10AはステップS205の処理を実行する。
 ステップS205において、情報処理装置10Aに備わる処理装置11Aは、出力部115として機能することにより、撮像装置30に対して、撮像指示信号を送信する。
 ステップS206において、撮像装置30は、端末装置40A-1とMRグラス50-1とを含む第1のウェアラブル装置20A-1を装着した人物、及び端末装置40A-2とMRグラス50-2とを含む第2のウェアラブル装置20A-2を装着した人物を同時に撮像する。
 ステップS207において、撮像装置30は、自身が撮像した撮像画像を示す第2の撮像情報を、情報処理装置10Aに出力する。
 ステップS208において、情報処理装置10Aに備わる処理装置11Aは、特定部112Aとして機能することにより、第2の撮像情報によって示される撮像画像から複数の人物画像を抽出する。また、処理装置11Aは、特定部112Aとして機能することにより、抽出された複数の人物画像の示す人物から、第1のウェアラブル装置20A-1を装着した第1の人物と、第2のウェアラブル装置20A-2を装着した第2の人物とを特定する。
 ステップS209において、情報処理装置10Aに備わる処理装置11Aは、算出部113Aとして機能することにより、撮像位置情報を用いて、ステップS208において特定された第1の人物が装着する第1のウェアラブル装置20A-1の絶対位置である第1位置と、第2の人物が装着する第2のウェアラブル装置20A-2の絶対位置である第2位置を示す自己位置情報を算出する。
 ステップS210において、情報処理装置10Aに備わる処理装置11Aは、出力部115として機能することにより、通信装置13を用いて、ステップS209において算出された自己位置情報を、端末装置40A-1に対して送信する。
 ステップS211において、情報処理装置10Aに備わる処理装置11Aは、出力部115として機能することにより、通信装置13を用いて、ステップS209において算出された自己位置情報を、端末装置40A-2に対して送信する。
 ステップS212において、端末装置40A-1に備わる処理装置41Aは、選択部416として機能することにより、第1位置及び第2位置のうち、第1暫定位置情報により近い位置として、第1位置を示す自己位置情報を選択する。その後、端末装置40A-1に備わる処理装置41Aは、出力部414として機能することにより、選択部416によって選択された自己位置情報を、MRグラス50-1に対して供給する。
 ステップS213において、端末装置40A-2に備わる処理装置41Aは、選択部416として機能することにより、第1位置及び第2位置のうち、第2暫定位置情報により近い位置として、第2位置を示す自己位置情報を選択する。その後、端末装置40A-2に備わる処理装置41Aは、出力部414として機能することにより、選択部416によって選択された自己位置情報を、MRグラス50-2に対して供給する。
2.3:第2実施形態が奏する効果
 以上の説明によれば、情報処理装置10Aは、取得部111、特定部112A、算出部113A、及び出力部115を備える。取得部111は、撮像装置30によって撮像された撮像画像を示す撮像情報と、撮像装置30の位置を示す撮像位置情報とを取得する。特定部112Aは、撮像情報に基づいて、撮像画像に含まれる第1のウェアラブル装置20A-1を装着した第1の人物と、撮像画像に含まれる第2のウェアラブル装置20A-2を装着した第2の人物とを特定する。算出部113Aは、撮像位置情報を用いて、第1のウェアラブル装置20A-1の第1位置と、第2のウェアラブル装置20A-2の第2位置とを示す自己位置情報を算出する。出力部115は、自己位置情報を第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2に対して供給する。
 また、第1のウェアラブル装置20A-1は、第1位置を示す第1暫定位置情報を記憶している。第2のウェアラブル装置20A-2は、第2位置を示す第2暫定位置情報を記憶している。
 第1のウェアラブル装置20A-1は、第1暫定位置情報が示す位置に基づいて、自己位置情報が示す第1位置及び第2位置の中から一つの位置を選択することによって、第1のウェアラブル装置20A-1の位置を特定する。
 第2のウェアラブル装置20A-2は、第2暫定位置情報が示す位置に基づいて、自己位置情報が示す第1位置及び第2位置の中から一つの位置を選択することによって、第2のウェアラブル装置20A-2の位置を特定する。
 ここで、撮像位置情報の精度は、前記暫定位置情報の精度よりも高い。
 情報処理装置10Aが上記の構成を用いることにより、MRグラス50-1及びMRグラス50-2は、自己位置を取得する場合に、より正確な自己位置を取得できる。とりわけ、算出部113Aは、MRグラス50-1を含む第1のウェアラブル装置20A-1、及びMRグラス50-2を含む第2のウェアラブル装置20A-2がGPS装置54を備えていることによって取得可能な暫定位置情報よりも、精度の高い撮像位置情報を用いて自己位置情報を算出することにより、より精度の高い自己位置情報を算出できる。
 また、撮像位置情報は撮像装置30の絶対位置を示す。自己位置情報は第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2の絶対位置を示す。算出部113Aは、更に、撮像情報に基づいて、撮像位置情報の示す撮像装置30の位置を基準とする第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2の相対位置を示す相対位置情報を算出する。更に、算出部113Aは、撮像位置情報と相対位置情報とに基づいて、自己位置情報を算出する。
 情報処理装置10Aが上記の構成を用いることにより、算出部113Aは、撮像装置30の絶対位置である撮像位置情報と、撮像装置30の位置を基準とする第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2の相対位置を示す相対位置情報とから、第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2の絶対位置である自己位置情報を算出することができる。
3:変形例
 本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
3.1:変形例1
 第1実施形態に係る情報処理システム1及び第2実施形態に係る情報処理システム1Aにおいて、撮像装置30は一例としてステレオカメラであった。しかし、撮像装置30は、当該撮像装置30から撮像対象までの距離と方向を示すベクトル情報を取得できれば、ステレオカメラに限定されない。例えば、撮像装置30は、当該撮像装置30から撮像対象に対して光を投射する投射装置と、撮像対象からの反射光の位相に基づいて、撮像対象までの距離を算出する測距装置とを備える構成としてもよい。あるいは、撮像装置30は、当該撮像装置30によって撮像された撮像画像を画像処理することにより、撮像対象までの距離を示す距離情報を取得してもよい。あるいは、撮像装置30は、その他の奥行き推定機能を備えてもよい。
3.2:変形例2
 第1実施形態に係る情報処理システム1において、撮像装置30は、ウェアラブル装置20を装着した人物を撮像する。また、第2実施形態に係る情報処理システム1Aにおいて、撮像装置30は、第1のウェアラブル装置20A-1を装着した第1の人物と、第2のウェアラブル装置20A-2を装着した第2の人物とを同時に撮像する。しかし、撮像装置30以外の撮像装置が、ウェアラブル装置20を装着した人物、又は、第1のウェアラブル装置20A-1を装着した第1の人物と、第2のウェアラブル装置20A-2を装着した第2の人物を撮像してもよい。例えば、第1実施形態に係る情報処理システム1において、ウェアラブル装置20とは異なる第2のウェアラブル装置20に備わる撮像装置56が、当該ウェアラブル装置20を装着した人物を撮像してもよい。同様に、第2実施形態に係る情報処理システム1Aにおいて、第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2とは異なる第3のウェアラブル装置20A-3に備わる撮像装置56が、当該第1のウェアラブル装置20A-1を装着した第1の人物と、当該第2のウェアラブル装置20A-2を装着した第2の人物を、同時に撮像してもよい。第1実施形態に係る情報処理システム1、及び第2実施形態に係る情報処理システム1Aが上記の構成を備えることにより、ウェアラブル装置20又はウェアラブル装置20Aとは別体となった撮像装置30を設置する必要なく、ウェアラブル装置20又はウェアラブル装置20Aを装着した人物を撮像することが可能となる。
3.3:変形例3
 第1実施形態に係る情報処理システム1において、情報処理装置10に備わる算出部113は、取得部111によってMRグラス50から取得された第1の撮像情報に基づいて、ウェアラブル装置20の自己位置情報としての第3の位置情報を算出する。また、情報処理装置10に備わる比較部114は、取得部111によって情報処理装置10から取得された自己位置精度情報を、閾値と比較する。第2実施形態に係る情報処理システム1Aにおいても同様である。しかし、情報処理装置10又は情報処理装置10Aではなく、端末装置40又は端末装置40Aが、算出部113及び比較部114を備えてもよい。
3.4:変形例4
 第1実施形態に係る情報処理システム1において、情報処理装置10に備わる算出部113が、撮像装置30からウェアラブル装置20までの相対位置情報を算出する。同様に、第2実施形態に係る情報処理システム1Aにおいて、情報処理装置10に備わる算出部113Aが、撮像装置30から第1のウェアラブル装置20A-1及び第2のウェアラブル装置20A-2までの相対位置情報が算出される。しかし、情報処理装置10及び情報処理装置10Aではなく、撮像装置30がこれらの相対位置情報を算出してもよい。
3.5:変形例5
 第1実施形態に係る情報処理システム1において、端末装置40とMRグラス50とは別体として実現されている。第2実施形態に係る情報処理システム1Aにおいても同様に、端末装置40AとMRグラス50とは別体として実現されている。しかし、本発明の実施形態における、端末装置40又は端末装置40AとMRグラス50の実現方法は、これには限定されない。例えば、MRグラス50が、端末装置40又は端末装置40Aと同一の機能を備えることにより、端末装置40又は40AとMRグラス50とが単一の筐体内で実現されてもよい。
4:その他
(1)上述した実施形態では、記憶装置12、記憶装置42、及び記憶装置52は、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、及びサーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NETから送信されてもよい。
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1~図15に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、又はハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、及び機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、及び情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
(10)上述した実施形態において、情報処理装置10、情報処理装置10A、撮像装置30、端末装置40、及び端末装置40Aは、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
1、1A…情報処理システム、10、10A…情報処理装置、11、11A…処理装置、12…記憶装置、13…通信装置、14…ディスプレイ、15…入力装置、20、20A…ウェアラブル装置、30…撮像装置、40、40A…端末装置、41、41A…処理装置、42…記憶装置、43…通信装置、44…ディスプレイ、45…入力装置、46…慣性センサ、50…MRグラス、51…処理装置、52…記憶装置、53…視線検出装置、54…GPS装置、55…動き検出装置、56…撮像装置、57…通信装置、58…ディスプレイ、59L、59R…レンズ、91…テンプル、93…ブリッジ、94、95…胴部、111、111A…取得部、112、112A…特定部、113、113A…算出部、114…比較部、115…出力部、411…取得部、412…動作認識部、413…特定部、414、…出力部、415…表示制御部、416…選択部、511…取得部、512…表示制御部、LM1…学習モデル、PR1~PR3…制御プログラム、U1~U3…ユーザ、VO、VO1~VO5…仮想オブジェクト

Claims (6)

  1.  撮像装置によって撮像された撮像画像を示す撮像情報と、前記撮像装置の位置を示す撮像位置情報と、ウェアラブル装置の位置を示す暫定位置情報とを取得する取得部と、
     前記撮像情報及び前記暫定位置情報に基づいて、前記撮像画像に含まれる1又は複数の人物画像が示す人物から、前記ウェアラブル装置を装着した人物を特定する特定部と、
     前記撮像位置情報を用いることによって、前記特定部によって特定された人物が装着する前記ウェアラブル装置の位置を示す自己位置情報を算出する算出部と、
     前記自己位置情報を前記ウェアラブル装置に対して供給する出力部と、を備え、
     前記撮像位置情報の精度は、前記暫定位置情報の精度よりも高い、
     情報処理装置。
  2.  前記算出部は、更に、
     前記撮像情報に基づいて、前記撮像位置情報の示す前記撮像装置の位置を基準とする前記ウェアラブル装置の相対位置を示す相対位置情報を算出し、
     前記撮像位置情報と前記相対位置情報とに基づいて、前記自己位置情報を算出し、
     前記撮像位置情報は前記撮像装置の絶対位置を示し、前記自己位置情報は前記ウェアラブル装置の絶対位置を示す、
     請求項1に記載の情報処理装置。
  3.  前記ウェアラブル装置は、第1のウェアラブル装置であり、
     前記撮像装置は、前記第1のウェアラブル装置以外の第2のウェアラブル装置に装着される、請求項1又は請求項2に記載の情報処理装置。
  4.  撮像装置によって撮像された撮像画像を示す撮像情報と、前記撮像装置の位置を示す撮像位置情報とを取得する取得部と、
     前記撮像情報に基づいて、前記撮像画像に含まれる第1のウェアラブル装置を装着した第1の人物と、前記撮像画像に含まれる第2のウェアラブル装置を装着した第2の人物とを特定する特定部と、
     前記撮像位置情報を用いることによって、前記第1のウェアラブル装置の第1位置と、前記第2のウェアラブル装置の第2位置とを示す自己位置情報を算出する算出部と、
     前記自己位置情報を前記第1のウェアラブル装置及び前記第2のウェアラブル装置に対して供給する出力部と、を備え、
     前記第1のウェアラブル装置は、
     当該第1位置を示す第1暫定位置情報を記憶しており、
     前記第2のウェアラブル装置は、
     当該第2位置を示す第2暫定位置情報を記憶しており、
     前記第1のウェアラブル装置は、前記第1暫定位置情報が示す前記第1位置に基づいて、前記自己位置情報が示す前記第1位置及び前記第2位置の中から一つの位置を選択することによって、当該第1のウェアラブル装置の位置を特定し、
     前記第2のウェアラブル装置は、前記第2暫定位置情報が示す前記第2位置に基づいて、前記自己位置情報が示す前記第1位置及び前記第2位置の中から一つの位置を選択することによって、当該第2のウェアラブル装置の位置を特定し、
     前記撮像位置情報の精度は、前記第1暫定位置情報の精度及び前記第2暫定位置情報の精度よりも高い、
     情報処理装置。
  5.  前記算出部は、更に、
     前記撮像情報に基づいて、前記撮像位置情報の示す前記撮像装置の位置を基準とする前記第1のウェアラブル装置及び前記第2のウェアラブル装置の各相対位置を示す相対位置情報を算出し、
     前記撮像位置情報と前記相対位置情報とに基づいて、前記自己位置情報を算出し、
     前記撮像位置情報は前記撮像装置の絶対位置を示し、前記自己位置情報は前記第1のウェアラブル装置及び前記第2のウェアラブル装置の絶対位置を示す、
    請求項1に記載の情報処理装置。
  6.  前記撮像装置は、前記第1のウェアラブル装置及び前記第2のウェアラブル装置以外の第3のウェアラブル装置に装着される、請求項4又は請求項5に記載の情報処理装置。
PCT/JP2022/040396 2021-10-29 2022-10-28 情報処理装置 WO2023074852A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021177823 2021-10-29
JP2021-177823 2021-10-29

Publications (1)

Publication Number Publication Date
WO2023074852A1 true WO2023074852A1 (ja) 2023-05-04

Family

ID=86159487

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040396 WO2023074852A1 (ja) 2021-10-29 2022-10-28 情報処理装置

Country Status (1)

Country Link
WO (1) WO2023074852A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007127536A (ja) * 2005-11-04 2007-05-24 Advanced Telecommunication Research Institute International 姿勢検出システム及び発光装置
WO2020031486A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2022025283A1 (ja) * 2020-07-31 2022-02-03 松尾建設株式会社 測定処理装置、方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007127536A (ja) * 2005-11-04 2007-05-24 Advanced Telecommunication Research Institute International 姿勢検出システム及び発光装置
WO2020031486A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2022025283A1 (ja) * 2020-07-31 2022-02-03 松尾建設株式会社 測定処理装置、方法及びプログラム

Similar Documents

Publication Publication Date Title
EP2418621B1 (en) Apparatus and method for providing augmented reality information
US20200058156A1 (en) Dense three-dimensional correspondence estimation with multi-level metric learning and hierarchical matching
EP3422153A1 (en) System and method for selective scanning on a binocular augmented reality device
WO2013162235A1 (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
KR101413011B1 (ko) 위치 정보 기반 증강현실 시스템 및 제공 방법
CN115512534A (zh) 远程设备的发现和连接
CN113936085A (zh) 三维重建方法和装置
TWI750822B (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
Grimm et al. VR/AR input devices and tracking
WO2023074852A1 (ja) 情報処理装置
KR20140140442A (ko) 모바일 증강현실 기반의 정보 제공 시스템
CN113936064B (zh) 定位方法和装置
WO2022240933A1 (en) Depth-from- stereo bending correction
KR101036107B1 (ko) 고유식별 정보를 이용한 증강 현실 구현시스템
WO2023079875A1 (ja) 情報処理装置
WO2023149255A1 (ja) 表示制御装置
JP7266329B2 (ja) 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法
WO2023149498A1 (ja) 表示制御装置
WO2023149256A1 (ja) 表示制御装置
WO2023120472A1 (ja) アバター生成装置
CN110580275A (zh) 地图显示方法及装置
WO2023171341A1 (ja) 表示制御装置
WO2023199627A1 (ja) ガイド画像管理装置
WO2023162499A1 (ja) 表示制御装置
WO2023085302A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22887177

Country of ref document: EP

Kind code of ref document: A1