WO2023085302A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2023085302A1
WO2023085302A1 PCT/JP2022/041661 JP2022041661W WO2023085302A1 WO 2023085302 A1 WO2023085302 A1 WO 2023085302A1 JP 2022041661 W JP2022041661 W JP 2022041661W WO 2023085302 A1 WO2023085302 A1 WO 2023085302A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
display
information
target area
speed
Prior art date
Application number
PCT/JP2022/041661
Other languages
English (en)
French (fr)
Inventor
達哉 西▲崎▼
康夫 森永
充宏 後藤
怜央 水田
有希 中村
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023085302A1 publication Critical patent/WO2023085302A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to an information processing device.
  • AR Augmented Reality
  • the real environment perceived by the user is augmented using a computer.
  • information for navigating the user, 3D data of virtual objects, and digital content are displayed in the real world viewed through AR glasses worn on the user's head.
  • various information is added to the real world viewed by the user in the AR glasses.
  • Patent Document 1 discloses a method of operating a server. Specifically, according to Patent Document 1, based on the current position of the vehicle and the current direction of travel of the vehicle, one or more facilities stored in a server are located in front of the vehicle. It discloses a technique for selecting one or more facilities and displaying them on a map image.
  • the technology according to Patent Document 1 assumes that the user moves using a vehicle.
  • the one or more facilities when selecting one or more facilities existing in the front direction of the vehicle, the one or more facilities exist at positions having a predetermined geographical relationship with the current position. It is a facility.
  • the location of one or more facilities displayed on the map image, and the area including the location of the facility is limited by the movement speed of the user. should be changed accordingly. This is because the user's radius of action differs according to the user's moving speed, and the facility required by the user changes according to the user's radius of action.
  • the present invention provides an information processing apparatus capable of changing the display target area according to the user's moving speed when displaying information about facilities in the display target area including the user's position on the display device. intended to
  • An information processing apparatus includes an acquisition unit that acquires position information indicating a position of a user, and a moving speed of the user based on a change in the position indicated by the position information. a calculation unit; and a display control unit that causes a display device to display information about a facility in a display target area including the position indicated by the position information, wherein the display control unit controls the movement speed when the moving speed is the first speed. and when the display target area is set to a first area and the moving speed is a second speed higher than the first speed, the display target area is set to a second area wider than the first area. It is an information processing device that sets the area.
  • An information processing apparatus includes an acquisition unit that acquires position information indicating a position of a user; and a display control unit that causes a display device to display information about facilities in a display target area including the position indicated by the position information, wherein the display control unit includes the moving speed is the first speed, the distance from the position indicated by the position information to the center position of the display target area located in the moving direction of the user is set to the first distance, and the moving speed is set to the first distance In the information processing device, the distance is set to a second distance longer than the first distance when the second speed is faster than the first speed.
  • An information processing apparatus includes an acquisition unit that acquires position information indicating a position of a user; and a calculation unit for calculating a moving route, an estimating unit for estimating the means of transportation of the user based on the moving speed and the moving route of the user, and display control for displaying information about facilities within a display target area on a display device. and, when the means of transportation estimated by the estimation unit is a train running on a railroad track, the display control unit is configured to display within a predetermined distance centering on the closest station in the moving direction of the user.
  • the display target area is the display target area, or if the transportation means estimated by the estimation unit is a vehicle traveling on a highway, the center is the nearest branch point in the moving direction of the user In the information processing apparatus, a range within a predetermined distance is set as the display target area.
  • the present invention when information about facilities in a display target area including a user's position is displayed on a display device, it is possible to change the display target area according to the user's moving speed.
  • FIG. 2 is a perspective view showing the appearance of AR glasses 30 according to the first embodiment
  • FIG. 4 is a schematic diagram of a virtual space VS provided to a user U1 by using the AR glasses 30 according to the first embodiment
  • FIG. 4 is a schematic diagram of a virtual space VS provided to a user U1 by using the AR glasses 30 according to the first embodiment
  • FIG. 4 is a schematic diagram of a virtual space VS provided to a user U1 by using the AR glasses 30 according to the first embodiment
  • 2 is a block diagram showing a configuration example of AR glasses 30 according to the first embodiment
  • FIG. 2 is a block diagram showing a configuration example of a terminal device 20 according to the first embodiment;
  • FIG. 2 is a block diagram showing a configuration example of a server 10 according to the first embodiment;
  • FIG. FIG. 4 is an explanatory diagram of an operation example of a display control unit 113 according to the first embodiment;
  • FIG. 4 is an explanatory diagram of an operation example of a display control unit 113 according to the first embodiment;
  • FIG. 4 is an explanatory diagram of an operation example of a display control unit 113 according to the first embodiment;
  • FIG. 4 is an explanatory diagram of an operation example of a display control unit 113 according to the first embodiment;
  • FIG. 4 is an explanatory diagram of an operation example of a display control unit 113 according to the first embodiment;
  • 4 is an explanatory diagram of an operation example of a display control unit 113 according to the first embodiment; 4 is a flowchart showing operations of the server 10 according to the first embodiment; The block diagram which shows the structural example of 10 A of servers which concern on 2nd Embodiment. 8 is a flowchart showing the operation of the server 10A according to the second embodiment;
  • FIG. 1 First Embodiment
  • FIG. 1 First Embodiment
  • FIG. 1 the configuration of an information processing system 1 including a server 10 according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 13.
  • FIG. 1 First Embodiment
  • FIG. 1 the configuration of an information processing system 1 including a server 10 according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 13.
  • FIG. 1 First Embodiment
  • FIG. 1 is a diagram showing the overall configuration of an information processing system 1 according to the first embodiment of the present invention.
  • the information processing system 1 is a system that uses AR technology to provide a virtual space to a user U1 wearing AR glasses 30, which will be described later.
  • the information processing system 1 includes a server 10, a terminal device 20, and AR glasses 30.
  • the server 10 is an example of an information processing device.
  • the server 10 and the terminal device 20 are communicably connected to each other via a communication network NET.
  • the terminal device 20 and the AR glasses 30 are connected so as to be able to communicate with each other.
  • the terminal device 20 and the AR glasses 30 are combined as a pair of the terminal device 20-1 and the AR glasses 30-1, a pair of the terminal device 20-2 and the AR glasses 30-2, and a terminal device 20-1 and the AR glasses 30-2.
  • a total of three pairs of devices 20-3 and AR glasses 30-3 are described.
  • the number of sets is merely an example, and the information processing system 1 can include any number of sets of terminal devices 20 and AR glasses 30 .
  • the server 10 provides various data and cloud services to the terminal device 20 via the communication network NET.
  • the terminal device 20 displays virtual objects placed in the virtual space on the AR glasses 30 worn by the user on the head.
  • the virtual space is, for example, a celestial space.
  • the virtual objects are, for example, virtual objects representing data such as still images, moving images, 3DCG models, HTML files, and text files, and virtual objects representing applications. Examples of text files include memos, source codes, diaries, and recipes. Examples of applications include browsers, applications for using SNS, and applications for generating document files.
  • the terminal device 20 is preferably a mobile terminal device such as a smart phone and a tablet, for example.
  • the AR glasses 30 are see-through wearable displays worn on the user's head.
  • the AR glasses 30 are controlled by the terminal device 20 to display a virtual object on the display panel provided for each of the binocular lenses. Note that the AR glasses 30 are an example of a display device.
  • FIG. 2 is a perspective view showing the appearance of the AR glasses 30. As shown in FIG. As shown in FIG. 2, the appearance of the AR glasses 30 has temples 91 and 92, a bridge 93, trunks 94 and 95, and lenses 41L and 41R, like general spectacles.
  • An imaging device 36 is provided in the bridge 93 . The imaging device 36 images the outside world. The imaging device 36 also outputs imaging information indicating the captured image.
  • Each of the lenses 41L and 41R has a half mirror.
  • the trunk portion 94 is provided with a liquid crystal panel or an organic EL panel for the left eye and an optical member for guiding light emitted from the display panel for the left eye to the lens 41L.
  • a liquid crystal panel or an organic EL panel is hereinafter generically referred to as a display panel.
  • the half mirror provided in the lens 41L transmits external light and guides it to the left eye, and reflects the light guided by the optical member to enter the left eye.
  • the body portion 95 is provided with a right-eye display panel and an optical member that guides light emitted from the right-eye display panel to the lens 41R.
  • the half mirror provided in the lens 41R transmits external light and guides it to the right eye, and reflects the light guided by the optical member to enter the right eye.
  • the display 24, which will be described later, includes a lens 41L, a left-eye display panel, a left-eye optical member, and a lens 41R, a right-eye display panel, and a right-eye optical member.
  • the user can observe the image displayed by the display panel in a see-through state superimposed on the state of the outside world. Further, in the AR glasses 30, of the binocular images with parallax, the image for the left eye is displayed on the display panel for the left eye, and the image for the right eye is displayed on the display panel for the right eye, thereby allowing the user U1 to On the other hand, it is possible to perceive the displayed image as if it had depth and stereoscopic effect.
  • FIG. 3 to 5 are schematic diagrams of the virtual space VS provided to the user U1 by using the AR glasses 30.
  • FIG. As shown in FIG. 3, in the virtual space VS, virtual objects VO1 to VO5 representing various contents such as browsers, cloud services, images, and moving images are arranged.
  • the user U1 walks around the public space while wearing the AR glasses 30 on which the virtual objects VO1 to VO5 arranged in the virtual space VS are displayed. It becomes possible to experience the space VS.
  • the user U1 can act in the public space while receiving benefits brought about by the virtual objects VO1 to VO5 arranged in the virtual space VS.
  • FIG. 4 it is possible for a plurality of users U1 to U3 to share the virtual space VS.
  • the plurality of users U1 to U3 share one or a plurality of virtual objects VO, and through the shared virtual objects VO, the user U1 ⁇ It becomes possible to communicate between users U3.
  • a map indicating a predetermined area and information about facilities within the predetermined area are displayed in the virtual space VS.
  • a virtual object VO6 is displayed as a map indicating a predetermined area in the virtual space VS.
  • the map indicated by the virtual object VO6 is a map with the center point C being the position of the user U1.
  • indicated points P1 and P2 indicating the locations of facilities are displayed.
  • a virtual object VO7 indicating the information of the facility located at the indicated point P1 and a virtual object VO8 indicating the information of the facility located at the indicated point P2 are associated with the indicated point P1 and the indicated point P2 in the map. is displayed.
  • the information indicated by the virtual object VO7 and the virtual object VO8 includes an image indicating the facility and text as an explanation of the facility.
  • the text includes the distance from the center point C to the location of each facility.
  • the number of facilities and the number of indication points P corresponding to each facility are two, namely, indication point P1 and indication point P2.
  • the fact that the number of indication points P is two is merely an example.
  • An arbitrary number of facilities and indication points P corresponding to each facility may be indicated on the map indicated by the virtual object VO6.
  • FIG. 6 is a block diagram showing a configuration example of the AR glasses 30.
  • the AR glasses 30 include a processing device 31 , a storage device 32 , a line-of-sight detection device 33 , a GPS device 34 , a motion detection device 35 , an imaging device 36 , a communication device 37 and a display 38 .
  • Each element of the AR glasses 30 is interconnected by one or more buses for communicating information.
  • the processing device 31 is a processor that controls the AR glasses 30 as a whole.
  • the processing device 31 is configured using, for example, a single chip or multiple chips.
  • the processing device 31 is configured using, for example, a central processing unit (CPU) including an interface with peripheral devices, an arithmetic device, a register, and the like.
  • CPU central processing unit
  • Some or all of the functions of the processing device 31 are realized by hardware such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), or FPGA (Field Programmable Gate Array). You may The processing device 31 executes various processes in parallel or sequentially.
  • the storage device 32 is a recording medium that can be read and written by the processing device 31.
  • the storage device 32 also stores a plurality of programs including the control program PR1 executed by the processing device 31 .
  • the line-of-sight detection device 33 detects the line of sight of the user U1.
  • the line-of-sight detection device 33 also outputs line-of-sight information indicating the line-of-sight direction of the user U1 to the processing device 31, which will be described later, based on the detection result. Any method may be used for detection of the line of sight by the line of sight detection device 33 .
  • the line-of-sight detection device 33 may detect line-of-sight information based on, for example, the position of the inner corner of the eye and the position of the iris.
  • the GPS device 34 receives radio waves from multiple satellites. Also, the GPS device 34 generates location information from the received radio waves.
  • the positional information indicates the position of the AR glasses 30 .
  • the location information may be in any format as long as the location can be specified.
  • the position information indicates the latitude and longitude of the AR glasses 30, for example.
  • location information is obtained from GPS device 34 .
  • the AR glasses 30 may acquire position information by any method. The acquired position information is output to the processing device 31 .
  • the motion detection device 35 detects the motion of the AR glasses 30.
  • the motion detection device 35 also outputs motion information related to the motion of the AR glasses 30 to the processing device 31 .
  • the motion detection device 35 corresponds to an inertial sensor such as an acceleration sensor that detects acceleration and a gyro sensor that detects angular acceleration.
  • the acceleration sensor detects acceleration in orthogonal X-, Y-, and Z-axes.
  • the gyro sensor detects angular acceleration around the X-, Y-, and Z-axes.
  • the motion detection device 35 can generate orientation information indicating the orientation of the AR glasses 30 based on the output information of the gyro sensor.
  • the motion information includes acceleration data indicating three-axis acceleration and angular acceleration data indicating three-axis angular acceleration.
  • the imaging device 36 outputs imaging information obtained by imaging the outside world.
  • the imaging device 36 includes, for example, a lens, an imaging element, an amplifier, and an AD converter.
  • the light condensed through the lens is converted into an image pickup signal, which is an analog signal, by the image pickup device.
  • the amplifier amplifies the imaging signal and supplies it to the AD converter.
  • the AD converter converts the amplified imaging signal, which is an analog signal, into imaging information, which is a digital signal.
  • the converted imaging information is supplied to the processing device 31 .
  • the imaging information supplied to the processing device 31 is transmitted to the terminal device 20 via the communication device 37 .
  • the terminal device 20 recognizes various gestures of the user U1 based on the imaging information. Also, the terminal device 20 controls the terminal device 20 according to the recognized gesture. That is, the imaging device 36 functions as an input device for inputting instructions from the user U1, like a pointing device and a touch panel.
  • the communication device 37 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 37 is also called a network device, a network controller, a network card, or a communication module, for example.
  • the communication device 37 may include a connector for wired connection and an interface circuit corresponding to the connector.
  • the communication device 37 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 38 is a device that displays images.
  • a display 38 displays various images under the control of the processing device 31 .
  • the display 38 includes the lens 41L, the left-eye display panel, the left-eye optical member, and the lens 41R, the right-eye display panel, and the right-eye optical member, as described above.
  • Various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display panel.
  • the processing device 31 functions as an acquisition unit 311 and a display control unit 312, for example, by reading the control program PR1 from the storage device 32 and executing it.
  • the acquisition unit 311 acquires image information indicating an image displayed on the AR glasses 30 from the terminal device 20 . More specifically, the acquisition unit 311 acquires image information transferred by a display control unit 214 provided in the terminal device 20 and described later, for example.
  • the acquisition unit 311 acquires line-of-sight information input from the line-of-sight detection device 33, position information input from the GPS device 34, motion information input from the motion detection device 35, and imaging information input from the imaging device 36. get. After that, the acquisition unit 311 supplies the acquired line-of-sight information, position information, motion information, and imaging information to the communication device 37 .
  • the display control unit 312 causes the display 38 to display an image indicated by the image information based on the image information from the terminal device 20 acquired by the acquisition unit 311 .
  • FIG. 7 is a block diagram showing a configuration example of the terminal device 20.
  • the terminal device 20 includes a processing device 21 , a storage device 22 , a communication device 23 , a display 24 , an input device 25 and an inertial sensor 26 .
  • Each element of the terminal device 20 is interconnected by one or more buses for communicating information.
  • the term "apparatus" in this specification may be replaced with another term such as a circuit, a device, or a unit.
  • the processing device 21 is a processor that controls the terminal device 20 as a whole. Also, the processing device 21 is configured using, for example, a single chip or a plurality of chips. The processing unit 21 is configured using, for example, a central processing unit (CPU) including interfaces with peripheral devices, arithmetic units, registers, and the like. A part or all of the functions of the processing device 21 may be realized by hardware such as DSP, ASIC, PLD, or FPGA. The processing device 21 executes various processes in parallel or sequentially.
  • CPU central processing unit
  • the storage device 22 is a recording medium readable and writable by the processing device 21 .
  • the storage device 22 also stores a plurality of programs including the control program PR2 executed by the processing device 21 .
  • the communication device 23 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 23 is also called a network device, a network controller, a network card, or a communication module, for example.
  • the communication device 23 may include a connector for wired connection and an interface circuit corresponding to the connector. Further, the communication device 23 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 24 is a device that displays images and character information.
  • the display 24 displays various images under the control of the processing device 21 .
  • various display panels such as a liquid crystal display panel and an organic EL (Electro Luminescence) display panel are preferably used as the display 24 .
  • the input device 25 accepts an operation from the user U1 who wears the AR glasses 30 on his head.
  • the input device 25 includes a pointing device such as a keyboard, touch pad, touch panel, or mouse.
  • the input device 25 may also serve as the display 24 .
  • the inertial sensor 26 is a sensor that detects inertial force.
  • the inertial sensor 26 includes, for example, one or more sensors among an acceleration sensor, an angular velocity sensor, and a gyro sensor.
  • the processing device 21 detects the attitude of the terminal device 20 based on the output information from the inertial sensor 26 . Further, the processing device 21 receives selection of the virtual object VO, input of characters, and input of instructions in the celestial sphere virtual space VS based on the orientation of the terminal device 20 .
  • the user U1 directs the central axis of the terminal device 20 toward a predetermined area of the virtual space VS, and operates the input device 25 to select the virtual object VO arranged in the predetermined area.
  • the user U1's operation on the input device 25 is, for example, a double tap. By operating the terminal device 20 in this way, the user U1 can select the virtual object VO without looking at the input device 25 of the terminal device 20 .
  • the processing device 21 functions as an acquisition unit 211, an action recognition unit 212, an identification unit 213, and a display control unit 214 by reading out the control program PR2 from the storage device 22 and executing it.
  • the acquisition unit 211 acquires instruction information according to the motion of the user U1 who wears the AR glasses 30 on his head.
  • the operation of the user U1 is, for example, inputting to the terminal device 20 using the input device 25 by the user U1. More specifically, the action of the user U1 may be pressing of a specific part as the input device 25 provided in the terminal device 20 . Alternatively, the user U1's action may be an operation using the terminal device 20 as a portable controller.
  • the indication information is information specifying a specific virtual object VO.
  • the action of the user U1 may be visual observation of the AR glasses 30 by the user U1.
  • the instruction information is the viewpoint of the user U1 on the AR glasses 30 .
  • the instruction information is transmitted from the AR glasses 30 to the terminal device 20 .
  • the action of user U1 may be a gesture of user U1.
  • the action recognition unit 212 recognizes various gestures of the user U1.
  • the acquisition unit 211 may acquire instruction information according to various gestures of the user U1.
  • the acquisition unit 211 acquires line-of-sight information, position information, motion information, and imaging information from the AR glasses 30 via the communication device 23 .
  • the acquisition unit 211 acquires image information from the server 10 via the communication device 23 .
  • the acquired image information is supplied to the display control unit 214 .
  • the action recognition unit 212 recognizes various gestures of the user U1 based on the imaging information obtained from the AR glasses 30. More specifically, as described above, the imaging device 36 provided in the AR glasses 30 outputs imaging information obtained by imaging the outside world. When the imaging information includes a part of the body of the user U1 wearing the AR glasses 30 on the head, the motion recognition unit 212 performs various actions of the user U1 based on the imaging information acquired from the AR glasses 30. gestures.
  • the specifying unit 213 specifies one virtual object VO among the plurality of virtual objects VO arranged in the virtual space VS.
  • the display control unit 214 transfers the image information acquired from the acquisition unit 211 to the AR glasses 30 as a display device.
  • the terminal device 20 may be provided with a GPS device similar to the GPS device 34 provided in the AR glasses 30.
  • the AR glasses 30 may not have the GPS device 34 .
  • FIG. 8 is a block diagram showing a configuration example of the server 10. As shown in FIG.
  • the server 10 comprises a processing device 11 , a storage device 12 , a communication device 13 , a display 14 and an input device 15 .
  • Each element of server 10 is interconnected by one or more buses for communicating information.
  • the processing device 11 is a processor that controls the server 10 as a whole. Also, the processing device 11 is configured using, for example, a single chip or a plurality of chips. The processing unit 11 is configured using, for example, a central processing unit (CPU) including interfaces with peripheral devices, arithmetic units, registers, and the like. A part or all of the functions of the processing device 11 may be realized by hardware such as DSP, ASIC, PLD, or FPGA. The processing device 11 executes various processes in parallel or sequentially.
  • CPU central processing unit
  • the storage device 12 is a recording medium readable and writable by the processing device 11 .
  • the storage device 12 also stores a plurality of programs including the control program PR3 executed by the processing device 11, map information IF1, and facility information IF2.
  • the map information IF1 is map information of the range within which the user U1 can move.
  • a virtual object VO6 as a map illustrated in FIG. 5 is generated based on the map information IF1.
  • the facility information IF2 is information relating to facilities included in the map indicated by the map information IF1.
  • a virtual object VO7 and a virtual object VO8 as facility information illustrated in FIG. 5 are generated based on the facility information IF2.
  • the communication device 13 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 13 is also called, for example, a network device, a network controller, a network card, or a communication module.
  • the communication device 13 may include a connector for wired connection and an interface circuit corresponding to the connector. Further, the communication device 13 may have a wireless communication interface. Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection. Also, as a wireless communication interface, there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 14 is a device that displays images and character information.
  • the display 14 displays various images under the control of the processing device 11 .
  • various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display 14 .
  • the input device 15 is a device that accepts operations by an administrator of the information processing system 1 .
  • the input device 15 includes a pointing device such as a keyboard, touch pad, touch panel, or mouse.
  • the input device 15 may also serve as the display 14 .
  • the administrator of the information processing system 1 can use the input device 15 to input and edit the map information IF1 and the facility information IF2.
  • the processing device 11 functions as an acquisition unit 111, a calculation unit 112, and a display control unit 113, for example, by reading the control program PR3 from the storage device 12 and executing it.
  • the acquisition unit 111 acquires various data from the terminal device 20 via the communication device 13 .
  • the data includes, for example, data indicating the operation content for the virtual object VO, which is input to the terminal device 20 by the user U1 wearing the AR glasses 30 on the head.
  • the acquisition unit 111 also acquires position information indicating the position of the user U1. Specifically, the acquisition unit 111 acquires the position information generated by the GPS device 34 provided in the AR glasses 30 from the terminal device 20 via the communication device 13 . This location information indicates the location of the user. The AR glasses 30 and the terminal device 20 are carried by the user. Therefore, when the terminal device 20 has a GPS device, the acquisition unit 111 acquires the position information generated by the GPS device provided in the terminal device 20 instead of the position information generated by the GPS device 34 provided in the AR glasses 30. You may
  • the calculation unit 112 calculates the moving speed of the user U1 and the moving direction of the user U1 based on the change in the position indicated by the positional information acquired by the acquisition unit 111 . Specifically, the calculation unit 112 calculates the positional information of the user U1 from the first point of time to the second point of time based on the difference between the positional information of the user U1 at the first point of time and the positional information of the user U2 at the second point of time. Calculate the moving distance of Further, the calculation unit 112 calculates the moving speed of the user U1 by dividing the calculated moving distance by the time from the first time point to the second time point.
  • the calculation unit 112 determines the direction of the position indicated by the position information of the user U1 at the second time point, as viewed from the position indicated by the position information of the user U1 at the first time point, as follows: It is calculated as the moving direction of the user U1.
  • the display control unit 113 generates image information indicating an image displayed on the AR glasses 30 .
  • This image information is transmitted to the terminal device 20 via the communication device 13 .
  • the terminal device 20 transfers the image information received via the communication device 23 to the AR glasses 30 .
  • the display control unit 113 causes the AR glasses 30 to display an image.
  • This image contains information about the facilities within the predetermined area.
  • Facilities include, for example, stores, parks, museums, movie theaters, and landmarks.
  • the information about the facility includes the name of the facility, the content of the service provided by the facility, the usage fee of the facility, and the like.
  • Information about facilities is part of the facility information IF2 stored in the storage device 12 .
  • the display control unit 113 refers to the map information IF1 stored in the storage device 12 to display a map of a predetermined area with the position of the user U1 as the center point C, as illustrated in FIG. Image information including the virtual object VO6 is generated. Further, the display control unit 113 refers to the facility information IF2 stored in the storage device 12 to include the virtual object VO7 and the virtual object VO8 as information on the facility within the display target area illustrated in FIG. Generate image information. The AR glasses 30 receive these pieces of image information via the terminal device 20, so that the AR glasses 30 display the virtual object VO6, the virtual object VO7, and the virtual object VO8.
  • the display control unit 113 may change the display target area according to the moving speed of the user U1.
  • modes for changing the display target area include modes 1 to 4 below.
  • 9 to 12 are explanatory diagrams of operation examples of the display control unit 113, corresponding to modes 1 to 4, respectively.
  • the display control unit 113 may widen the area S of the display target area according to the moving speed of the user U1.
  • the display target area is generalized, it is described as a display target area A, and when the display target area A is distinguished under some condition, the display target areas A0, A1, or A subscript such as A3 is added for explanation.
  • the display target area A is a circle centered on the current position of user U1. Therefore, regardless of the moving speed V of the user U1, the center point C of the display target area A coincides with the current position of the user U1.
  • the display control unit 113 calculates the radius R of the display target area A according to the moving speed V of the user U1 using the following Equation 1.
  • R0 is the radius of the circle when the moving speed V is zero.
  • is a constant.
  • the moving speed V is a scalar quantity.
  • the display control unit 113 identifies the display target area A based on the position information of the user U1 and the radius R calculated using Equation (1).
  • the display control unit 113 generates image information based on the specified display target area A.
  • the display target area A0 is a circle with the current position of the user U1 as the center point C1 and the radius R0.
  • the display target area A1 when the moving speed V is V1 is a circle with the current position of the user U1 as the center point C1 and the radius R1.
  • R1 R0+ ⁇ V1.
  • the display target area A0 includes the pointing point P1 and the pointing point P2 shown in FIG. 5, but the display target area A1 further includes the pointing point P3.
  • the display control unit 113 sets the display target region A to the first area S1, and sets the moving speed V of the user U1 to the first speed.
  • the display target area A is set to a second area S2 larger than the first area S1.
  • the shape of the display target area A0 when the user U1 is in the stopped state is a circle with the radius R0 and the current position of the user U1 as the center point C1.
  • the shape of the display target area A1 after the change is a circle with a radius R1, with the current position of the user U1 as the center point C1. Since the display target area A0 and the display target area A1 are circular, the user U1 can obtain information about facilities evenly in the direction of movement from the current position. Further, the area S1 of the display target area A1 increases as the moving speed V of the user U1 increases. This is because the greater the movement speed V of the user U1, the greater the amount of movement of the user U1 per unit time, and the more facilities the user U1 needs.
  • the display control unit 113 may shift the center point of the display target area A in the moving direction of the user U1.
  • the display target area is a circle centered on the current position of user U1.
  • the display target area A2 is a circle with the current position of the user U1 as the center point C2 and the radius R0. be.
  • the display control unit 113 shifts the center point of the display target area A from the center point when the moving speed V is zero according to the moving speed V of the user U1.
  • the display target area A2 includes the indication point P4 and the indication point P5, but the display target area A3 when the moving speed V is v includes the indication point P5 and the indication point P6.
  • the faster the moving speed V of the user U1 the longer the distance from the current position of the user U1 indicated by the position information to the center position of the display target area A located in the moving direction.
  • the display control unit 113 controls the position of the center of the display target area A located in the movement direction from the position indicated by the position information.
  • the moving speed V of the user U1 is a second speed V2 faster than the first speed V1
  • the above distance is a second distance longer than the first distance L1. Let it be L2.
  • the display control unit 113 moves the center point of the display target area A from the center point C2, which is the current position of the user U1, to the center in the moving direction of the user U1. Shift to point C3. Also, the distance L between the center point C2 and the center point C3 is determined according to the moving speed V of the user U1. This is because the display control unit 113 currently displays information about facilities that the user U1 will need in the future according to the moving speed V and moving direction of the user U1.
  • the display control unit 113 widens the area S of the display target region A according to the moving speed V of the user U1, as in the first mode, and increases the area S of the display target region as in the second mode.
  • the center point of A may be shifted from the center point when the moving speed V is zero.
  • the display target area A is a circle centered on the current position of user U1.
  • the display target area A4 is a circle with the current position of the user U1 as the center point and the radius R0.
  • the display target area A5 when the moving speed is V1 is a circle with the above radius R1.
  • the display control unit 113 shifts the center point of the display target area A from the center point when the moving speed V is zero, according to the moving speed V of the user U1.
  • C4 be the center point when the moving speed V is zero
  • C5 be the center point when the moving speed V is V1
  • L be the distance from the center point C4 to the center point C5.
  • the distance L is calculated by Equation 4 below.
  • L R1-n (4)
  • the display control unit 113 changes the display target area A4 to the display target area A5, the current position of the user U1 is included in the display target area A5. This is because the display control unit 113 also displays a predetermined amount of information about facilities around the user U1 at the current time.
  • the display target area A4 includes the indication point P7 and the indication point P8, but the display target area A5 includes the indication point P8 and the indication point P9.
  • the distance L may be calculated by Equation 5 below.
  • m is 0.5 or less, the display target area A5 ends up including the display target area A4. Therefore, m must exceed 0.5.
  • the area S5 of the display target area A5 increases as the moving speed V of the user U1 increases. This is because, as the moving speed V of the user U1 increases, the amount of movement of the user U1 per unit time increases, and the amount of information related to facilities required by the user U1 increases. Further, the display control unit 113 shifts the center point of the display target area A from the center point C4, which is the current position of the user U1, to the center point C5 in the moving direction of the user U1. Also, the distance L between the center point C4 and the center point C5 is determined according to the moving speed V of the user U1. This is because the display control unit 113 aims to display information about facilities that the user U1 will need in the future at the present time according to the moving speed V and moving direction of the user U1.
  • the display control unit 113 may change the shape of the display target area A according to the moving speed V and moving direction of the user U1.
  • the display target area A before change is a circle centered on the current position of user U1.
  • the display target area A6 is a circle with the current position of the user U1 as the center point C6 and the radius R0.
  • the display target area A after the change is an ellipse whose major axis is the moving direction of the user U1. That is, the display target area A7 when the moving speed is V1 is an ellipse with the major axis being the moving direction of the user U1, the major axis radius being R2, and the minor axis radius being R3.
  • R3 ⁇ R0.
  • the major axis radius R2 of the display target area A7 increases as the moving speed V of the user U1 increases.
  • the minor axis radius R3 of the display target area A7 may become shorter as the moving speed V of the user U1 increases. That is, as the moving speed V increases, the display target area A7 becomes an ellipse longer in the moving direction of the user U1. Furthermore, the area of the display target area A7 may increase as the moving speed V of the user U1 increases.
  • the display target area A6 includes the indication point P11 and the indication point P12, but the display target area A7 includes the indication point P11 and the indication point P13.
  • the display target area A7 is an ellipse with the current position of the user U1 as the center point C6.
  • the position of the display target area A7 is not limited to an ellipse with the current position of the user U1 as the center point C6.
  • the display target area A6 may be an ellipse whose focal point is the current position of the user U1.
  • the display target area A7 may be located at a position shifted in the moving direction of the user U1 compared to the display target area A6.
  • the shape of the display target area changes according to the moving speed V and moving direction of the user U1. This is because the location of the facility necessary for the user U1 changes according to the directionality of movement of the user U1.
  • the display control unit 113 makes the display target area A7 an ellipse elongated in the moving direction of the user U1 according to the moving speed V and moving direction of the user U1 as described above.
  • the display control unit 113 can provide the user U1 with more information about facilities in directions in which the user U1 is likely to move by making the display target area A7 an ellipse.
  • FIG. 13 is a flow chart showing the operation of the server 10 according to the first embodiment. The operation of the server 10 will be described below with reference to FIG.
  • step S11 the processing device 11 functions as the acquisition unit 111 to acquire position information indicating the position of the user U1.
  • step S12 the processing device 11 functions as the calculation unit 112 to calculate the moving speed of the user U1 based on the change in position indicated by the position information acquired in step S11.
  • step S13 the processing device 11 functions as the calculation unit 112 to calculate the movement direction of the user U1 based on the change in position indicated by the position information acquired in step S11.
  • step S14 the processing device 11 functions as the display control unit 113 to set the area of the display target region.
  • the processing device 11 functions as the display control unit 113 to set the area of the display target area so that the area of the display target area increases as the moving speed of the user U1 increases.
  • step S15 the processing device 11 functions as the display control unit 113 to set the position of the center of the display target area.
  • the processing device 11 functions as the display control unit 113 so that the faster the moving speed of the user U1 is, the more the distance from the position indicated by the position information to the center position of the display target area located in the moving direction of the user U1 is displayed. Set the position of the center of the display target area so that the distance between
  • step S16 the processing device 11 functions as the display control unit 113 to display information about facilities within the display target area on the AR glasses 30 as a display device.
  • the server 10 includes the acquisition unit 111, the calculation unit 112, and the display control unit 113.
  • FIG. Acquisition unit 111 acquires position information indicating the position of user U1.
  • the calculation unit 112 calculates the movement speed of the user U1 based on the change in position indicated by the position information.
  • the display control unit 113 causes the AR glasses 30 as a display device to display information about facilities in the display target area including the position indicated by the position information. Further, when the moving speed is the first speed V1, the display control unit 113 sets the display target region to the first area S1, and sets the moving speed to the first area faster than the first speed V1. In the case of the speed V2 of 2, the display target area is set to a second area S2 larger than the first area S1.
  • the server 10 can display information about facilities in the display target area including the position of the user U1 on the AR glasses 30 as a display device according to the moving speed of the user U1. You can change the target area. Specifically, the server 10 calculates the moving speed of the user U1 based on the position information indicating the position of the user U1. In addition, the server 10 changes the area of the display target area including the position of the user U1 in accordance with the calculated moving speed, and then displays the information of the facilities in the display target area to the user U1's head. can be displayed on the AR glasses 30 that
  • the calculation unit 112 calculates the moving speed and the moving direction of the user U1 based on the change in the position indicated by the position information.
  • the display control unit 113 sets the distance L from the position indicated by the position information to the center position of the display target region located in the movement direction as the first speed. If the distance is L1 and the moving speed is a second speed V2 that is faster than the first speed V1, the distance L is a second distance L2 that is longer than the first distance L1. .
  • the server 10 can display information about facilities in the display target area including the position of the user U1 on the AR glasses 30 as a display device according to the moving speed of the user U1. You can change the target area. Specifically, the server 10 calculates the moving speed and moving direction of the user U1 based on the position information indicating the position of the user U1. In addition, the server 10 changes the distance from the position of the user U1 to the center position of the display target area according to the calculated moving speed and moving direction, and then changes the information of the facility within the display target area. can be displayed on the AR glasses 30 worn on the head by the user U1.
  • the display control unit 113 changes the shape of the display target area according to the moving speed and moving direction of the user U1.
  • the server 10 can change the facility information provided to the user U1 according to the direction of movement of the user U1.
  • FIG. 2 Second Embodiment
  • the configuration of an information processing system 1A including a server 10A according to a second embodiment of the present invention will be described with reference to FIGS. 14 and 15.
  • FIG. 14 and 15 the same symbols are used for the same components as in the first embodiment, and the description of their functions may be omitted. Also, in the following description, for the sake of simplification of description, mainly the differences between the second embodiment and the first embodiment will be described.
  • An information processing system 1 according to the second embodiment is the same as the information processing system 1 according to the first embodiment except that a server 10A is provided instead of the server 10.
  • FIG. 10A is provided instead of the server 10.
  • FIG. 14 is a block diagram showing an example configuration of the server 10A.
  • the server 10A differs from the server 10 according to the first embodiment in that it includes a processing device 11A instead of the processing device 11 and a storage device 12A instead of the storage device 12 .
  • the storage device 12A differs in that it stores a control program PR3A instead of the control program PR3 stored in the storage device 12 according to the first embodiment, and in that it further stores path information IF3.
  • the route information IF3 is information related to roads including railroad tracks and expressways included in the map information IF1. More specifically, the route information IF3 includes position information of the railroad and road. This position information indicates the latitude and longitude of each point that constitutes the railroad and road. In addition, the route information IF3 includes location information of stations located on the railroad tracks and interchanges serving as branch points located on the expressway. This position information indicates the latitude and longitude of the station and interchange.
  • the processing device 11A functions as an acquisition unit 111, a calculation unit 112A, a display control unit 113A, and an estimation unit 114 by reading and executing the control program PR3A from the storage device 12A.
  • the acquisition unit 111 is the same as the acquisition unit 111 as a function of the processing device 11 according to the first embodiment, and thus description thereof is omitted.
  • the calculator 112A has the same function as the calculator 112 according to the first embodiment. Further, the calculating unit 112 ⁇ /b>A identifies the moving route of the user U ⁇ b>1 based on the change in the position indicated by the positional information acquired by the acquiring unit 111 . More specifically, calculation unit 112A identifies the history of the location of user U1 based on the change in the location indicated by the location information of user U1. The moving route indicates the history of the location of user U1.
  • the estimation unit 114 estimates the means of transportation of the user U1 based on the movement speed and movement route of the user U1. More specifically, estimation unit 114 determines the type of road traveled by user U1 by comparing the travel route with route information IF3. Road types include railroads, highways, and general roads. Also, the estimation unit 114 estimates the means of transportation of the user U1 based on the type of road and the movement speed. Specifically, when the type of road is a general road, the estimation unit 114 estimates that the means of transportation is one of walking, jogging, bicycle, and vehicle, according to the moving speed. Also, the estimation unit 114 estimates that the means of transportation is a vehicle when the type of road is an expressway and when the moving speed is equal to or higher than a predetermined speed. The estimation unit 114 estimates that the means of transportation is a train when the road type is a railroad track and when the moving speed is equal to or higher than a predetermined speed.
  • the display control unit 113A has the same functions as the display control unit 113 according to the first embodiment. Further, when the means of transportation estimated by the estimation unit 114 is a train running on a railroad track or a vehicle running on an expressway, the display control unit 113A further controls the nearest station or branch point in the moving direction of the user U1. A range within a predetermined distance from the interchange as the center is set as the display target area. Specifically, when the means of transportation estimated by the estimation unit 114 is a train running on a railroad track or a vehicle running on a highway, the display control unit 113A changes the route information IF3 stored in the storage device 12A. , the current location of the user U1 on the route included in the route information IF3 is determined.
  • the display control unit 113A also refers to the route information IF3 stored in the storage device 12A to determine in which direction the user U1 is moving on the route included in the route information IF3. Furthermore, the display control unit 113 determines the next station or interchange serving as a branch point, that is, the closest station or interchange serving as a branch point on the route in the moving direction of the user U1. Finally, the display control unit 113A sets a range within a predetermined distance around the nearest station or interchange as a branch point as a display target area.
  • the display control unit 113A except when the means of transportation estimated by the estimation unit 114 is a train running on a railroad track or a vehicle running on a highway, is the display control unit according to the first embodiment. It performs the same operation as 113.
  • FIG. 15 is a flow chart showing the operation of the server 10A according to the second embodiment. The operation of the server 10A will be described below with reference to FIG.
  • step S21 the processing device 11A functions as the acquisition unit 111 to acquire position information indicating the position of the user U1.
  • step S22 the processing device 11A functions as the calculation unit 112A to calculate the movement speed of the user U1 based on the change in position indicated by the position information acquired in step S21.
  • step S23 the processing device 11A functions as the calculation unit 112A to calculate the movement direction of the user U1 based on the change in position indicated by the position information acquired in step S21.
  • step S24 the processing device 11A functions as the calculation unit 112A to calculate the moving route of the user U1 based on the change in position indicated by the position information acquired in step S21.
  • step S25 the processing device 11A functions as the estimation unit 114 to estimate the means of transportation of the user U1 based on the movement speed and movement route of the user U1. If the estimation result is the first means of transportation, that is, a train running on a railroad track or a vehicle running on a highway, the processing device 11 performs the operation of step S26. On the other hand, if the estimation result is other than the second mode of transportation, that is, a train running on a railroad track or a vehicle running on a highway, the processing device 11 performs the operation of step S29.
  • step S26 the processing device 11A determines the current location of the user U1 on the route by functioning as the display control unit 113A.
  • step S27 the processing device 11A determines in which direction on the route the user U1 is moving by functioning as the display control unit 113A. Further, the processing device 11 functions as the display control unit 113A to select the next station or interchange as a branch point, that is, the nearest station or interchange as a branch point on the route in the moving direction of the user U1. judge.
  • step S28 the processing device 11A functions as the display control unit 113A to display the information of facilities around the interchange as the next station or junction on the AR glasses 30 as the display device. More specifically, the processing device 11A, by functioning as the display control unit 113A, sets a range within a predetermined distance centering on the nearest station or interchange as a branch point determined in step S27 as a display target region. . Further, the processing device 11A functions as the display control unit 113A to display the information about the facility in the display target area on the AR glasses 30 as a display device.
  • step S29 the processing device 11A sets the area of the display target region by functioning as the display control unit 113A.
  • the processing device 11A by functioning as the display control unit 113A, sets the area of the display target area such that the area of the display target area increases as the movement speed increases.
  • step S30 the processing device 11A sets the position of the center of the display target area by functioning as the display control unit 113A.
  • the processing device 11A functions as the display control unit 113A, so that the faster the moving speed, the greater the distance from the position indicated by the position information to the center position of the display target area located in the moving direction of the user U1. Set the position of the center of the display target area so that it is longer.
  • step S31 the processing device 11A functions as the display control unit 113A to display information about facilities within the display target area on the AR glasses 30 as a display device.
  • the server 10A includes the acquisition unit 111, the calculation unit 112, the estimation unit 114, and the display control unit 113A.
  • Acquisition unit 111 acquires position information indicating the position of user U1.
  • the calculation unit 112 calculates the movement speed of the user U1 based on the change in position indicated by the position information.
  • the estimation unit 114 estimates the means of transportation of the user U1 based on the moving speed and the moving route of the user U1.
  • the display control unit 113A causes the AR glasses 30 as a display device to display information about facilities within the display target area.
  • the display control unit 113A displays a range within a predetermined distance centering on the nearest station in the moving direction of the user U1. is the display target area.
  • the display control unit 113A displays a range within a predetermined distance centering on the nearest branch point in the moving direction of the user U1. is the above display target area.
  • the server 10A displays information about facilities in the display target area including the position of the user U1 on the AR glasses 30 as a display device according to the means of transportation of the user U1. You can change the target area. Specifically, server 10A determines a display target area including the position of user U1 according to the means of transportation of user U1 estimated by estimation unit 114, and then displays information on facilities in the display target area. , can be displayed on the AR glasses 30 worn on the head by the user U1.
  • the terminal device 20 and the AR glasses 30 are implemented separately.
  • the implementation method of the terminal device 20 and the AR glasses 30 in the embodiment of the present invention is not limited to this.
  • the terminal device 20 and the AR glasses 30 may be realized within a single housing by providing the AR glasses 30 with the same functions as the terminal device 20 .
  • the display control unit 113A determines the movement direction of the user U1 when the means of transportation estimated by the estimation unit 114 is a train running on a railroad track or a vehicle running on a highway. , a range within a predetermined distance centered on the nearest station or an interchange as a branch point is set as the display target area. After that, the display control unit 113A causes the AR glasses 30 as a display device to display information about facilities within the display target area. However, the display control unit 113A may further filter the facilities whose information is displayed on the AR glasses 30 from the facilities within the display target area based on a predetermined condition. For example, the display control unit 113A narrows down the facilities within the display target area to facilities whose popularity among the users U is equal to or higher than a predetermined value, and displays information about the facilities on the AR glasses 30. You may let
  • the server 10 includes a calculator 112 and a display controller 113 .
  • the calculation unit 112 calculates the moving speed of the user U1 based on the change in position indicated by the position information.
  • the display control unit 113 causes the AR glasses 30 as a display device to display information about facilities in the display target area including the position indicated by the position information.
  • the server 10A according to the second embodiment includes a calculator 112A and a display controller 113A. Then, the calculation unit 112A calculates the moving speed, moving direction, and moving route of the user U1 based on the change in the position indicated by the position information.
  • the display control unit 113A causes the AR glasses 30 as a display device to display information about facilities within the display target area.
  • the calculation of the movement speed of the user U1 and the display of the information about the facility within the display target area on the AR glasses 30 may be performed by a device other than the server 10 or the server 10A.
  • the terminal device 20 includes the same components as the calculation unit 112 and the display control unit 113, or the calculation unit 112A and the display control unit 113A, so that the terminal device 20 calculates the moving speed of the user U1, Information about facilities within the display target area may be displayed on the AR glasses 30 .
  • the terminal device 20 is an example of an information processing device.
  • the estimation unit 114 determines the type of road traveled by the user U1 by comparing the movement route and the route information IF3. Also, the estimation unit 114 estimates the means of transportation of the user U1 based on the type of road and the speed of movement.
  • the method of estimating the means of transportation of user U1 is not limited to the method of referring to route information IF3.
  • the storage device 12A may store a learning model that has already learned the relationship between the movement speed, the movement route, and the means of transportation. In this case, the estimation unit 114 uses the learning model to estimate the means of transportation of the user U1. That is, the learning model is a learning model for estimating the means of transportation of the user U1 based on the moving speed and moving route of the user U1 calculated by the calculation unit 112A.
  • the above learning model is generated by learning teacher data in the learning phase.
  • the teacher data used to generate the above learning model has a plurality of sets of moving speeds and moving routes, and a plurality of sets of means of transportation.
  • the above learning model is generated outside the server 10A.
  • the above learning model is preferably generated in a server (not shown).
  • the server 10A acquires the learning model from the server via the communication network NET.
  • the information processing system 1 according to the first embodiment and the information processing system 1A according to the second embodiment include AR glasses 30 .
  • AR glasses 30 instead of the AR glasses 30, an HMD (Head Mounted Display) employing AR technology, MR glasses employing MR (Mixed Reality) technology, and MR technology Any one of the employed HMDs may be provided.
  • the information processing system 1 and the information processing system 1A may include, instead of the AR glasses 30, any one of a normal smartphone and tablet equipped with an imaging device. These HMDs, MR glasses, smartphones, and tablets are examples of display devices.
  • the storage device 12, the storage device 12A, the storage device 22, and the storage device 32 are ROM, RAM, etc., but flexible disks, magneto-optical disks (for example, compact disks) , Digital Versatile Discs, Blu-ray Discs), Smart Cards, Flash Memory Devices (e.g. Cards, Sticks, Key Drives), CD-ROMs (Compact Disc-ROMs), Registers, Removable Discs, Hard Disks, Floppy disk, magnetic strip, database, server or other suitable storage medium.
  • the program may be transmitted from a network via an electric communication line.
  • the program may be transmitted from the communication network NET via an electric communication line.
  • the information, signals, etc. described may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
  • input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
  • the determination may be made by a value (0 or 1) represented using 1 bit, or by a true/false value (Boolean: true or false). Alternatively, it may be performed by numerical comparison (for example, comparison with a predetermined value).
  • each function illustrated in FIGS. 1 to 15 is realized by any combination of at least one of hardware and software.
  • the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices.
  • a functional block may be implemented by combining software in the one device or the plurality of devices.
  • software, instructions, information, etc. may be transmitted and received via a transmission medium.
  • a transmission medium For example, if the software uses at least one of wired technology (coaxial cable, optical fiber cable, twisted pair, digital subscriber line (DSL: Digital Subscriber Line), etc.) and wireless technology (infrared, microwave, etc.), the website, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.
  • wired technology coaxial cable, optical fiber cable, twisted pair, digital subscriber line (DSL: Digital Subscriber Line), etc.
  • wireless technology infrared, microwave, etc.
  • system and “network” are used interchangeably.
  • the information, parameters, etc. described in this disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using corresponding other information. may be represented as
  • the server 10, the server 10A, and the terminal device 20 may be mobile stations (MS).
  • a mobile station is defined by those skilled in the art as subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be called a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term. Also, in the present disclosure, terms such as “mobile station”, “user terminal”, “user equipment (UE)”, “terminal”, etc. may be used interchangeably.
  • connection refers to any direct or indirect connection between two or more elements. Any connection or coupling is meant, and can include the presence of one or more intermediate elements between two elements that are “connected” or “coupled” to each other. Couplings or connections between elements may be physical couplings or connections, logical couplings or connections, or a combination thereof. For example, “connection” may be replaced with "access.”
  • two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
  • the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • determining and “determining” as used in this disclosure may encompass a wide variety of actions.
  • “Judgement” and “determination” are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure), ascertaining as “judged” or “determined”, and the like.
  • "judgment” and “determination” are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that "judgment” or “decision” has been made.
  • judgment and “decision” shall be regarded as “judgment” and “decision” by resolving, selecting, choosing, establishing, comparing, etc. can contain.
  • judgment and “decision” may include considering that some action is “judgment” and “decision”.
  • judgment (decision) may be replaced by "assuming", “expecting”, “considering”, and the like.
  • the term "A and B are different” may mean “A and B are different from each other.” The term may also mean that "A and B are different from C”. Terms such as “separate,” “coupled,” etc. may also be interpreted in the same manner as “different.”
  • notification of predetermined information is not limited to explicit notification, but is performed implicitly (for example, not notification of the predetermined information). good too.
  • Reference Signs List 1 1A Information processing system 10, 10A Server 11, 11A Processing device 12, 12A Storage device 13 Communication device 14 Display 15 Input device 20 Terminal device 21 Processing Device 22 Storage device 23 Communication device 24 Display 25 Input device 26 Inertial sensor 30 AR glass 31 Processing device 32 Storage device 33 Line of sight detection device 34 GPS Apparatus 35 Motion detection device 36 Imaging device 37 Communication device 38 Display 41L, 41R Lens 91, 92 Temple 93 Bridge 94, 95 Body 111 Acquisition unit 112, 112A... Calculation unit 113, 113A... Display control unit 114... Estimation unit 211... Acquisition unit 212... Action recognition unit 213... Specification unit 214... Display control unit 311... Acquisition unit 312... Display Control unit, A1, A2... display target area, C1 to C6...

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Environmental & Geological Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

情報処理装置は、ユーザの位置を示す位置情報を取得する取得部と、位置情報の示す位置の変化に基づいて、ユーザの移動速度を算出する算出部と、位置情報の示す位置を含む表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部とを備え、表示制御部は、移動速度が第1の速度の場合、表示対象領域を第1の面積に設定し、移動速度が第1の速度よりも速い第2の速度の場合、表示対象領域を、第1の面積よりも広い第2の面積に設定する。

Description

情報処理装置
 本発明は、情報処理装置に関する。
 AR(Augmented Reality)技術において、ユーザが知覚する現実の環境はコンピュータを用いて拡張される。この技術に基づいて、例えば、ユーザが頭部に装着するARグラスを通じて視認する現実世界に、例として、ユーザをナビゲーションするための情報、仮想オブジェクトの3Dデータ、及びデジタルコンテンツ等が表示される。その結果、ARグラス内において、ユーザが視認する現実世界に種々の情報が付加される。この技術を用いることにより、ユーザに対して種々の情報を提供することが可能となる。
 ユーザに種々の情報を提供する方法として、例えば特許文献1は、サーバの運用方法を開示している。具体的には、特許文献1は、車両の現在位置と、当該車両の現在の走行の向きとに基づいて、サーバに記憶される単数又は複数の施設の中から、車両の前方向に存在する単数又は複数の施設を選択し、地図の映像上に表示する技術を開示している。
特開2018-018472号公報
 特許文献1に係る技術においては、ユーザが車両を用いて移動することを前提としている。また、特許文献1に係る技術において、車両の前方向に存在する単数又は複数の施設を選択する場合、当該単数又は複数の施設は、現在地の位置に所定の地理的関係を有する位置に存在する施設である。しかし、ユーザが車両以外の移動手段を用いて移動する場合、地図の映像上に表示される単数又は複数の施設が存在する位置、延いては当該施設の位置を含む領域は、ユーザの移動速度に応じて変更する必要がある。なぜなら、ユーザの移動速度に応じてユーザの行動半径が異なり、ユーザの行動半径に応じてユーザに必要となる施設が変わってくるためである。しかし、特許文献1に係る技術において、ユーザ又は車両の移動速度に応じて、上記の領域を変更することは想定されていない。
 そこで、本発明は、ユーザの位置を含む表示対象領域内の施設に関する情報を表示装置に表示する場合、ユーザの移動速度に応じて当該表示対象領域を変更することが可能な情報処理装置を提供することを目的とする。
 本発明の第1の好適な態様に係る情報処理装置は、ユーザの位置を示す位置情報を取得する取得部と、前記位置情報の示す位置の変化に基づいて、前記ユーザの移動速度を算出する算出部と、前記位置情報の示す位置を含む表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部と、を備え、前記表示制御部は、前記移動速度が第1の速度の場合、前記表示対象領域を第1の面積に設定し、前記移動速度が前記第1の速度よりも速い第2の速度の場合、前記表示対象領域を、前記第1の面積よりも広い第2の面積に設定する、情報処理装置である。
 本発明の第2の好適な態様に係る情報処理装置は、ユーザの位置を示す位置情報を取得する取得部と、前記位置情報の示す位置の変化に基づいて、前記ユーザの移動速度と前記ユーザの移動方向とを算出する算出部と、前記位置情報の示す位置を含む表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部と、を備え、前記表示制御部は、前記移動速度が第1の速度の場合、前記位置情報の示す位置から、前記ユーザの前記移動方向に位置する前記表示対象領域の中心の位置までの距離を第1の距離に設定し、前記移動速度が前記第1の速度よりも速い第2の速度の場合、前記距離を前記第1の距離よりも長い第2の距離とする、情報処理装置である。
 本発明の第3の好適な態様に係る情報処理装置は、ユーザの位置を示す位置情報を取得する取得部と、前記位置情報の示す位置の変化に基づいて、前記ユーザの移動速度、移動方向及び移動経路を算出する算出部と、前記ユーザの移動速度及び移動経路に基づいて、前記ユーザの移動手段を推定する推定部と、表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部と、を備え、前記表示制御部は、前記推定部によって推定された移動手段が、線路を走行する電車であった場合に、前記ユーザの移動方向において直近の駅を中心とする所定距離以内の範囲を前記表示対象領域とするか、又は、前記推定部によって推定された移動手段が、高速道路を走行する車両であった場合に、前記ユーザの移動方向において直近の分岐点を中心とする所定距離以内の範囲を前記表示対象領域とする、情報処理装置である。
 本発明によれば、ユーザの位置を含む表示対象領域内の施設に関する情報を表示装置で表示する場合、ユーザの移動速度に応じて当該表示対象領域を変更することが可能となる。
第1実施形態に係る情報処理システム1の全体構成を示す図。 第1実施形態に係るARグラス30の外観を示す斜視図。 第1実施形態に係るARグラス30を用いることによりユーザU1に提供される仮想空間VSの模式図。 第1実施形態に係るARグラス30を用いることによりユーザU1に提供される仮想空間VSの模式図。 第1実施形態に係るARグラス30を用いることによりユーザU1に提供される仮想空間VSの模式図。 第1実施形態に係るARグラス30の構成例を示すブロック図。 第1実施形態に係る端末装置20の構成例を示すブロック図。 第1実施形態に係るサーバ10の構成例を示すブロック図。 第1実施形態に係る表示制御部113の動作例についての説明図。 第1実施形態に係る表示制御部113の動作例についての説明図。 第1実施形態に係る表示制御部113の動作例についての説明図。 第1実施形態に係る表示制御部113の動作例についての説明図。 第1実施形態に係るサーバ10の動作を示すフローチャート。 第2実施形態に係るサーバ10Aの構成例を示すブロック図。 第2実施形態に係るサーバ10Aの動作を示すフローチャート。
1:第1実施形態
 以下、図1~図13を参照することにより、本発明の第1実施形態に係るサーバ10を含む情報処理システム1の構成について説明する。
1-1:第1実施形態の構成
1-1-1:全体構成
 図1は、本発明の第1実施形態に係る情報処理システム1の全体構成を示す図である。情報処理システム1は、後述のARグラス30を装着したユーザU1に対して、AR技術を用いて、仮想空間を提供するシステムである。
 情報処理システム1は、サーバ10、端末装置20、及びARグラス30を備える。サーバ10は、情報処理装置の一例である。情報処理システム1において、サーバ10と端末装置20とは、通信網NETを介して互いに通信可能に接続される。また、端末装置20とARグラス30とは互いに通信可能に接続される。なお、図1において、端末装置20とARグラス30との組として、端末装置20-1とARグラス30-1との組、端末装置20-2とARグラス30-2との組、及び端末装置20-3とARグラス30-3との組の合計3組が記載される。しかし、当該組数はあくまで一例であって、情報処理システム1は、任意の数の端末装置20とARグラス30との組を備えることが可能である。
 サーバ10は、通信網NETを介して、端末装置20に対して各種データ及びクラウドサービスを提供する。
 端末装置20は、ユーザが頭部に装着するARグラス30に対して、仮想空間に配置される仮想オブジェクトを表示させる。当該仮想空間は、一例として、天球型の空間である。また、仮想オブジェクトは、例として、静止画像、動画、3DCGモデル、HTMLファイル、及びテキストファイル等のデータを示す仮想オブジェクト、及びアプリケーションを示す仮想オブジェクトである。ここで、テキストファイルとしては、例として、メモ、ソースコード、日記、及びレシピが挙げられる。また、アプリケーションとしては、例として、ブラウザ、SNSを用いるためのアプリケーション、及びドキュメントファイルを生成するためのアプリケーションが挙げられる。なお、端末装置20は、例として、スマートフォン、及びタブレット等の携帯端末装置であることが好適である。
 ARグラス30は、ユーザの頭部に装着するシースルー型のウェアラブルディスプレイである。ARグラス30は、端末装置20が制御することによって、両眼用のレンズの各々に設けられた表示パネルに仮想オブジェクトを表示させる。なお、ARグラス30は、表示装置の一例である。
1-1-2:ARグラスの構成
 図2は、ARグラス30の外観を示す斜視図である。図2に示されるようにARグラス30の外観は、一般的な眼鏡と同様にテンプル91及び92、ブリッジ93、胴部94及び95、並びにレンズ41L及び41Rを有する。ブリッジ93には撮像装置36が設けられる。撮像装置36は外界を撮像する。また、撮像装置36は、撮像した画像を示す撮像情報を出力する。
 レンズ41L及び41Rの各々は、ハーフミラーを備えている。胴部94には、左眼用の液晶パネル又は有機ELパネルと、左眼用の表示パネルから射出された光をレンズ41Lに導光する光学部材が設けられる。液晶パネル又は有機ELパネルは、以下、表示パネルと総称する。レンズ41Lに設けられるハーフミラーは、外界の光を透過させて左眼に導くと共に、光学部材によって導光された光を反射して、左眼に入射させる。胴部95には、右眼用の表示パネルと、右眼用の表示パネルから射出された光をレンズ41Rに導光する光学部材が設けられる。レンズ41Rに設けられるハーフミラーは、外界の光を透過させて右眼に導くと共に、光学部材によって導光された光を反射して、右眼に入射させる。
 後述するディスプレイ24は、レンズ41L、左眼用の表示パネル、及び左眼用の光学部材、並びにレンズ41R、右眼用の表示パネル、及び右眼用の光学部材を含む。
 以上の構成において、ユーザは表示パネルが表示する画像を、外界の様子と重ね合わせたシースルーの状態で観察できる。また、ARグラス30において、視差を伴う両眼画像のうち、左眼用画像を左眼用の表示パネルに表示させ、右眼用画像を右眼用の表示パネルに表示させることによって、ユーザU1に対し、表示された画像があたかも奥行き、及び立体感を持つかのように知覚させることが可能となる。
 図3~図5は、ARグラス30を用いることによりユーザU1に提供される仮想空間VSの模式図である。図3に示されるように、当該仮想空間VSには、例えばブラウザ、クラウドサービス、画像、及び動画等の各種コンテンツを示す仮想オブジェクトVO1~VO5が配置される。ユーザU1は、当該仮想空間VSに配置される仮想オブジェクトVO1~VO5が表示されたARグラス30を装着した状態で公共の空間を行き来することにより、公共の空間において、プライベートな空間としての当該仮想空間VSを体験することが可能となる。延いては、当該ユーザU1が、当該仮想空間VSに配置された仮想オブジェクトVO1~VO5のもたらす便益を受けながら、公共の空間において行動することが可能となる。
 また、図4に示されるように、複数のユーザU1~ユーザU3で仮想空間VSを共有することも可能である。複数のユーザU1~ユーザU3で仮想空間VSを共有することにより、当該複数のユーザU1~ユーザU3で、1又は複数の仮想オブジェクトVOを共用すると共に、共用した仮想オブジェクトVOを介して、ユーザU1~ユーザU3間でコミュニケーションを行うことが可能となる。
 また、図5に示されるように、とりわけ本実施形態においては、仮想空間VS内において、所定領域を示す地図と、当該所定領域内の施設に関する情報とが示される。具体的には、仮想空間VS内において、所定領域を示す地図としての仮想オブジェクトVO6が表示される。仮想オブジェクトVO6によって示される地図は、ユーザU1の位置を中心点Cとする地図である。当該地図上には、例として、施設の場所を示す指示点P1及び指示点P2が表示される。また地図内の指示点P1及び指示点P2の各々と紐づけられる形で、指示点P1に位置する施設の情報を示す仮想オブジェクトVO7と、指示点P2に位置する施設の情報を示す仮想オブジェクトVO8とが表示される。仮想オブジェクトVO7及び仮想オブジェクトVO8によって示される情報は、施設を示す画像と、当該施設の説明文としてのテキストを含む。当該テキストは、中心点Cから各施設の位置までの距離を含む。なお、図5に示される例においては、施設の数、及び各施設に対応する指示点Pの数が、指示点P1と指示点P2の2つである。しかし、指示点Pの数が2つであることは、あくまで一例である。仮想オブジェクトVO6によって示される地図には、任意の数の施設と、各施設に対応する指示点Pとが示されてよい。
 図6は、ARグラス30の構成例を示すブロック図である。ARグラス30は、処理装置31、記憶装置32、視線検出装置33、GPS装置34、動き検出装置35、撮像装置36、通信装置37、及びディスプレイ38を備える。ARグラス30が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
 処理装置31は、ARグラス30の全体を制御するプロセッサである。処理装置31は、例えば、単数又は複数のチップを用いて構成される。また、処理装置31は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)を用いて構成される。なお、処理装置31の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、又はFPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置31は、各種の処理を並列的又は逐次的に実行する。
 記憶装置32は、処理装置31による読取及び書込が可能な記録媒体である。また、記憶装置32は、処理装置31が実行する制御プログラムPR1を含む複数のプログラムを記憶する。
 視線検出装置33は、ユーザU1の視線を検出する。また、視線検出装置33は、検出結果に基づいてユーザU1の視線の方向を示す視線情報を、後述の処理装置31に出力する。視線検出装置33による視線の検出は、どのような方法を用いてもよい。視線検出装置33は、例えば、目頭の位置と虹彩の位置に基づいて視線情報を検出してもよい。
 GPS装置34は、複数の衛星からの電波を受信する。また、GPS装置34は、受信した電波から位置情報を生成する。位置情報は、ARグラス30の位置を示す。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。位置情報は、例えば、ARグラス30の緯度と経度とを示す。一例として、位置情報はGPS装置34から得られる。しかし、ARグラス30は、どのような方法によって位置情報を取得してもよい。取得された位置情報は、処理装置31に出力される。
 動き検出装置35は、ARグラス30の動きを検出する。また、動き検出装置35は、ARグラス30の動きに係る動き情報を処理装置31に出力する。動き検出装置35としては、加速度を検出する加速度センサ及び角加速度を検出するジャイロセンサ等の慣性センサが該当する。加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。ジャイロセンサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。動き検出装置35は、ジャイロセンサの出力情報に基づいて、ARグラス30の姿勢を示す姿勢情報を生成できる。動き情報は、3軸の加速度を各々示す加速度データ及び3軸の角加速度を各々示す角加速度データを含む。
 撮像装置36は、外界を撮像して得られた撮像情報を出力する。また、撮像装置36は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備える。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は撮像信号を増幅した上でAD変換器に対して供給する。AD変換器はアナログ信号である増幅された撮像信号をデジタル信号である撮像情報に変換する。変換された撮像情報は、処理装置31に対して供給される。処理装置31に供給された撮像情報は、通信装置37を介して、上記の端末装置20に送信される。端末装置20は、撮像情報に基づいて、ユーザU1の各種のジェスチャーを認識する。また、端末装置20は、認識されたジェスチャーに応じて端末装置20を制御する。即ち、撮像装置36は、ポインティングデバイス及びタッチパネルのように、ユーザU1の指示を入力するための入力装置として機能する。
 通信装置37は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。また、通信装置37は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、又は通信モジュール等とも呼ばれる。通信装置37は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置37は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ38は、画像を表示するデバイスである。ディスプレイ38は、処理装置31による制御のもとで各種の画像を表示する。ディスプレイ38は、上記のように、レンズ41L、左眼用の表示パネル、及び左眼用の光学部材、並びにレンズ41R、右眼用の表示パネル、及び右眼用の光学部材を含む。表示パネルとしては、例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルが好適に利用される。
 処理装置31は、例えば、記憶装置32から制御プログラムPR1を読み出して実行することによって、取得部311、及び表示制御部312として機能する。
 取得部311は、端末装置20からARグラス30に表示される画像を示す画像情報を取得する。より詳細には、取得部311は、例えば、端末装置20に備わる後述の表示制御部214によって転送される画像情報を取得する。
 また、取得部311は、視線検出装置33から入力される視線情報、GPS装置34から入力される位置情報、動き検出装置35から入力される動き情報、及び撮像装置36から入力される撮像情報を取得する。その上で、取得部311は、取得した視線情報、位置情報、動き情報、及び撮像情報を、通信装置37に対して供給する。
 表示制御部312は、取得部311によって取得された端末装置20からの画像情報に基づいて、ディスプレイ38に対して、画像情報によって示される画像を表示させる。
1-1-3:端末装置の構成
 図7は、端末装置20の構成例を示すブロック図である。端末装置20は、処理装置21、記憶装置22、通信装置23、ディスプレイ24、入力装置25、及び慣性センサ26を備える。端末装置20が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。
 処理装置21は、端末装置20の全体を制御するプロセッサである。また、処理装置21は、例えば、単数又は複数のチップを用いて構成される。処理装置21は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置21が有する機能の一部又は全部を、DSP、ASIC、PLD、又はFPGA等のハードウェアによって実現してもよい。処理装置21は、各種の処理を並列的又は逐次的に実行する。
 記憶装置22は、処理装置21が読取及び書込が可能な記録媒体である。また、記憶装置22は、処理装置21が実行する制御プログラムPR2を含む複数のプログラムを記憶する。
 通信装置23は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置23は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、又は通信モジュール等とも呼ばれる。通信装置23は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置23は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、及びUSBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ24は、画像及び文字情報を表示するデバイスである。ディスプレイ24は、処理装置21の制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL(Electro Luminescence)表示パネル等の各種の表示パネルがディスプレイ24として好適に利用される。
 入力装置25は、ARグラス30を頭部に装着したユーザU1からの操作を受け付ける。例えば、入力装置25は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置25は、タッチパネルを含んで構成される場合、ディスプレイ24を兼ねてもよい。
 慣性センサ26は、慣性力を検出するセンサである。慣性センサ26は、例えば、加速度センサ、角速度センサ、及びジャイロセンサのうち、1以上のセンサを含む。処理装置21は、慣性センサ26の出力情報に基づいて、端末装置20の姿勢を検出する。更に、処理装置21は、端末装置20の姿勢に基づいて、天球型の仮想空間VSにおいて、仮想オブジェクトVOの選択、文字の入力、及び指示の入力を受け付ける。例えば、ユーザU1が端末装置20の中心軸を仮想空間VSの所定領域に向けた状態で、入力装置25を操作することによって、所定領域に配置される仮想オブジェクトVOが選択される。入力装置25に対するユーザU1の操作は、例えば、ダブルタップである。このようにユーザU1は端末装置20を操作することによって、端末装置20の入力装置25を見なくても仮想オブジェクトVOを選択できる。
 処理装置21は、記憶装置22から制御プログラムPR2を読み出して実行することによって、取得部211、動作認識部212、特定部213、及び表示制御部214として機能する。
 取得部211は、ARグラス30が頭部に装着されるユーザU1の動作に応じた指示情報を取得する。ここで、ユーザU1の動作とは、例として、ユーザU1が入力装置25を用いて端末装置20へ入力することである。より詳細には、ユーザU1の動作は、端末装置20に設けられた、入力装置25としての特定部位の押下であってよい。あるいは、ユーザU1の動作は、端末装置20を携帯型のコントローラとして用いた操作であってよい。これらの場合、指示情報は、特定の仮想オブジェクトVOを指定する情報である。
 又は、ユーザU1の動作は、ARグラス30に対するユーザU1の目視であってもよい。ユーザU1の動作が目視である場合、指示情報は、ARグラス30におけるユーザU1の視点である。この場合、指示情報は、ARグラス30から端末装置20へ送信される。
 あるいは、ユーザU1の動作は、ユーザU1のジェスチャーであってもよい。後述のように、動作認識部212は、ユーザU1の各種のジェスチャーを認識する。取得部211は、ユーザU1の各種ジェスチャーに応じた指示情報を取得してもよい。
 また、取得部211は、通信装置23を介して、ARグラス30から、視線情報、位置情報、動き情報、及び撮像情報を取得する。
 更に、取得部211は、通信装置23を介して、サーバ10から画像情報を取得する。取得された画像情報は、表示制御部214に対して供給される。
 動作認識部212は、ARグラス30から得た撮像情報に基づいて、ユーザU1の各種のジェスチャーを認識する。より詳細には、上記のように、ARグラス30に備わる撮像装置36は、外界を撮像して得た撮像情報を出力する。当該撮像情報に、ARグラス30を頭部に装着したユーザU1の身体の一部が含まれる場合には、動作認識部212は、ARグラス30から取得した撮像情報に基づいて、ユーザU1の各種のジェスチャーを認識する。
 特定部213は、取得部211によって取得された指示情報に基づいて、仮想空間VSに配置された複数の仮想オブジェクトVOのうち、1つの仮想オブジェクトVOを特定する。
 表示制御部214は、取得部211から取得した画像情報を、表示装置としてのARグラス30に転送する。
 なお、図7には示さないが、端末装置20は、ARグラス30に備わるGPS装置34と同様のGPS装置を備えてもよい。この場合、ARグラス30は、GPS装置34を備えなくてもよい。
1-1-4:サーバの構成
 図8は、サーバ10の構成例を示すブロック図である。サーバ10は、処理装置11、記憶装置12、通信装置13、ディスプレイ14、及び入力装置15を備える。サーバ10が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
 処理装置11は、サーバ10の全体を制御するプロセッサである。また、処理装置11は、例えば、単数又は複数のチップを用いて構成される。処理装置11は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置11の機能の一部又は全部を、DSP、ASIC、PLD、又はFPGA等のハードウェアによって実現してもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
 記憶装置12は、処理装置11が読取及び書込が可能な記録媒体である。また、記憶装置12は、処理装置11が実行する制御プログラムPR3を含む複数のプログラム、地図情報IF1、及び施設情報IF2を記憶する。
 地図情報IF1は、ユーザU1が移動可能な範囲の地図の情報である。図5に例示される地図としての仮想オブジェクトVO6は、地図情報IF1に基づいて生成される。また、施設情報IF2は、地図情報IF1によって示される地図内に含まれる施設に係る情報である。図5に例示される施設の情報としての仮想オブジェクトVO7及び仮想オブジェクトVO8は、施設情報IF2に基づいて生成される。
 通信装置13は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置13は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、又は通信モジュール等とも呼ばれる。通信装置13は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置13は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ14は、画像及び文字情報を表示するデバイスである。ディスプレイ14は、処理装置11による制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルがディスプレイ14として好適に利用される。
 入力装置15は、情報処理システム1の管理者による操作を受け付ける機器である。例えば、入力装置15は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置15は、タッチパネルを含んで構成される場合、ディスプレイ14を兼ねてもよい。とりわけ、情報処理システム1の管理者は、入力装置15を用いて、地図情報IF1、及び施設情報IF2を入力したり、編集したりできる。
 処理装置11は、例えば、記憶装置12から制御プログラムPR3を読み出して実行することによって、取得部111、算出部112、及び表示制御部113として機能する。
 取得部111は、通信装置13を介して、端末装置20から各種のデータを取得する。当該データには、例として、ARグラス30を頭部に装着したユーザU1によって端末装置20に入力される、仮想オブジェクトVOに対する操作内容を示すデータが含まれる。
 また、取得部111は、ユーザU1の位置を示す位置情報を取得する。具体的には、取得部111は、通信装置13を介して、端末装置20から、ARグラス30に備わるGPS装置34によって生成された位置情報を取得する。この位置情報は、ユーザの位置を示す。ARグラス30と端末装置20とはユーザに所持される。従って、端末装置20がGPS装置を備える場合、取得部111は、ARグラス30に備わるGPS装置34によって生成された位置情報の替わりに、端末装置20に備わるGPS装置によって生成された位置情報を取得してもよい。
 算出部112は、取得部111によって取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動速度とユーザU1の移動方向とを算出する。具体的には、算出部112は、第1の時点におけるユーザU1の位置情報と、第2の時点におけるユーザU2の位置情報との差分から、第1の時点から第2の時点までのユーザU1の移動距離を算出する。また、算出部112は、算出された移動距離を、第1の時点から第2の時点までの時間によって除算することにより、ユーザU1の移動速度を算出する。更に、算出部112は、上記の差分に基づいて、第1の時点におけるユーザU1の位置情報によって示される位置から見た、第2の時点におけるユーザU1の位置情報によって示される位置の方向を、ユーザU1の移動方向として算出する。
 表示制御部113は、ARグラス30に表示される画像を示す画像情報を生成する。この画像情報は、通信装置13を介して端末装置20に送信される。端末装置20は、通信装置23を介して受信した画像情報をARグラス30に転送する。このように、表示制御部113は、ARグラス30に画像を表示させる。この画像には、所定領域内の施設に関する情報が含まれる。施設とは、例えば、店舗、公園、美術館、映画館、及びランドマークが含まれる。また、施設に関する情報とは、施設の名称、施設で提供されるサービスの内容、及び施設の利用料金等が含まれる。施設に関する情報は、記憶装置12に記憶される施設情報IF2の一部である。
 より詳細には、表示制御部113は、記憶装置12に記憶される地図情報IF1を参照することにより、図5に例示される、ユーザU1の位置を中心点Cとする所定領域の地図としての仮想オブジェクトVO6を含む画像情報を生成する。また、表示制御部113は、記憶装置12に記憶される施設情報IF2を参照することにより、図5に例示される、表示対象領域内の施設に関する情報としての仮想オブジェクトVO7及び仮想オブジェクトVO8を含む画像情報を生成する。これらの画像情報が端末装置20を介してARグラス30で受信されることによって、ARグラス30には、仮想オブジェクトVO6、仮想オブジェクトVO7及び仮想オブジェクトVO8が表示される。
 また、表示制御部113は、ユーザU1の移動速度に応じて、表示対象領域を変更してもよい。例えば、表示対象領域を変更する態様には、以下に示す態様1から態様4が含まれる。図9から図12は、各々が態様1から態様4に対応する、表示制御部113の動作例についての説明図である。
1-1-4-1:態様1
 図9に示されるように、表示制御部113は、ユーザU1の移動速度に応じて表示対象領域の面積Sを広くしてもよい。以下の説明では、表示対象領域を一般化して説明する場合には、表示対象領域Aと記載し、何らかの条件の下に表示対象領域Aを区別する場合には、表示対象領域A0、A1、又はA3といったように添え字を付加して説明する。
 図9に示される例において、表示対象領域Aは、ユーザU1の現在位置を中心とする円である。従って、ユーザU1の移動速度Vと無関係に、表示対象領域Aの中心点CはユーザU1の現在位置と一致する。表示制御部113は、ユーザU1の移動速度Vに応じて、表示対象領域Aの半径Rを、以下の式1によって算出する。
 R=R0+β×V (1)
 ここで、R0は移動速度Vがゼロの場合の円の半径である。βは定数である。また、移動速度Vはスカラー量である。
 表示制御部113は、ユーザU1の位置情報と式1を用いて算出された半径Rに基づいて、表示対象領域Aを特定する。表示制御部113は、特定された表示対象領域Aに基づいて、画像情報を生成する。
 具体的には、ユーザU1が停止状態にある場合、すなわち移動速度Vがゼロである場合の表示対象領域A0は、ユーザU1の現在位置を中心点C1とすると共に、半径がR0の円となる。また、移動速度VがV1である場合の表示対象領域A1は、ユーザU1の現在位置を中心点C1とすると共に、半径がR1の円となる。但し、R1=R0+β×V1である。
 その結果、表示対象領域A1の面積S1=π×R1は、表示対象領域A0の面積S0=π×R0よりも大きくなる。また、表示対象領域A0は、図5に示される指示点P1及び指示点P2を含んでいたが、表示対象領域A1は、更に指示点P3を含む。
 すなわち、表示制御部113は、ユーザU1の移動速度Vが第1の速度V1の場合、上記の表示対象領域Aを第1の面積S1に設定し、ユーザU1の移動速度Vが第1の速度V1より大きい第2の速度V2の場合、上記の表示対象領域Aは第1の面積S1より広い第2の面積S2に設定する。
 なお、上記のように、図9に示される例において、ユーザU1が停止状態にある場合の表示対象領域A0の形状は、ユーザU1の現在位置を中心点C1とする、半径R0の円である。また、変更後の表示対象領域A1の形状は、ユーザU1の現在位置を中心点C1とする、半径R1の円である。表示対象領域A0及び表示対象領域A1の形状が円であることによって、ユーザU1は、現在位置からの移動方向に関して均等に、施設に関する情報を得られる。また、ユーザU1の移動速度Vが大きいほど、表示対象領域A1の面積S1が大きくなる。これは、ユーザU1の移動速度Vが大きくなるほど、単位時間当たりのユーザU1の移動量が大きくなり、ユーザU1にとって必要となる施設が増加するためである。
1-1-4-2:態様2
 図10に示されるように、表示制御部113は、表示対象領域Aの中心点を、ユーザU1の移動方向にずらしてもよい。
 図10に示される例において、表示対象領域は、ユーザU1の現在位置を中心とする円である。具体的には、ユーザU1が停止状態にある場合、すなわち、移動速度Vがゼロである場合の表示対象領域A2は、ユーザU1の現在位置を中心点C2とすると共に、半径がR0の円である。表示制御部113は、ユーザU1の移動速度Vに応じて、表示対象領域Aの中心点を、移動速度Vがゼロの場合の中心点からずらす。
 ここで、移動速度Vがゼロの場合の中心点を中心点C2、移動速度Vがvの場合の中心点を中心点C3、中心点C2から中心点C3までの距離をLとする。距離Lは、以下の式2及び式3によって算出される。
 L=R0 (v≧vkの場合) (2)
 L=v×α (0<v<vkの場合) (3)
 ここで、vkは定数である。また、α=R0/vkである。更に、移動速度vはスカラー量であるとする。
 その結果、表示対象領域A2は、指示点P4及び指示点P5を含んでいたが、移動速度Vがvの場合の表示対象領域A3は、指示点P5及び指示点P6を含む。
 すなわち、ユーザU1の移動速度Vが速いほど、位置情報の示すユーザU1の現在位置から、上記の移動方向に位置する表示対象領域Aの中心の位置までの距離が長くなる。具体的には、表示制御部113は、ユーザU1の移動速度Vが第1の速度V1の場合、上記の位置情報の示す位置から、上記の移動方向に位置する表示対象領域Aの中心の位置までの距離を第1の距離L1とし、ユーザU1の移動速度Vが第1の速度V1よりも速い第2の速度V2の場合、上記の距離を第1の距離L1よりも長い第2の距離L2とする。
 なお、上記のように、図10に示される例において、表示制御部113は、表示対象領域Aの中心点を、ユーザU1の現在位置である中心点C2から、ユーザU1の移動方向にある中心点C3にずらす。また、中心点C2と中心点C3との間の距離Lは、ユーザU1の移動速度Vに応じて定まる。これは、表示制御部113が、ユーザU1の移動速度V及び移動方向に応じて、ユーザU1にとって未来に必要となる施設に関する情報を現時点において表示するためである。
1-1-4-3:態様3
 図11に示されるように、表示制御部113は、態様1と同様に、ユーザU1の移動速度Vに応じて表示対象領域Aの面積Sを広くすると共に、態様2と同様に、表示対象領域Aの中心点を、移動速度Vがゼロの場合の中心点からずらしてもよい。
 図11に示される例において、表示対象領域Aは、ユーザU1の現在位置を中心とする円である。具体的には、ユーザU1が停止状態にある場合、すなわち移動速度Vがゼロである場合の表示対象領域A4は、ユーザU1の現在位置を中心点とすると共に、半径がR0の円となる。また、移動速度がV1である場合の表示対象領域A5は、半径が上記のR1の円となる。
 また、表示制御部113は、ユーザU1の移動速度Vに応じて、表示対象領域Aの中心点を、移動速度Vがゼロの場合の中心点からずらす。ここで、移動速度Vがゼロの場合の中心点を中心点C4、移動速度VがV1の場合の中心点を中心点C5、中心点C4から中心点C5までの距離をLとする。距離Lは、以下の式4によって算出される。
 L=R1―n (4)
 ここで、0≦n≦R1である。例えば、n=50mであり、R1=500mである。このnは、表示対象領域A4の中心点C4から、ユーザU1の移動方向と反対の方向における表示対象領域A5の外縁までの距離である。なお、n=0の場合、ユーザU1の現在位置は、表示対象領域A5の外縁に位置することとなる。
 すなわち、表示制御部113が、表示対象領域A4を表示対象領域A5に変更した後も、当該表示対象領域A5にユーザU1の現在位置が含まれる。これは、表示制御部113が、現時点におけるユーザU1の周辺の施設に関する情報も、所定量表示するためである。
 その結果、表示対象領域A4は、指示点P7及び指示点P8を含んでいたが、表示対象領域A5は、指示点P8及び指示点P9を含む。
 あるいは、距離Lは、以下の式5によって算出されてもよい。
 L=R1×m (5)
 ここで、mは0.5を超える定数である。例えばm=0.9である。mが0.5以下の場合、表示対象領域A5は、表示対象領域A4を包含することとなってしまう。そのため、mは0.5を超えることが必須となる。
 なお、上記のように、図11に示される例において、ユーザU1の移動速度Vが大きいほど、表示対象領域A5の面積S5が大きくなる。これは、ユーザU1の移動速度Vが大きくなるほど、単位時間当たりのユーザU1の移動量が大きくなり、ユーザU1にとって必要となる施設に関する情報が増加するためである。また、表示制御部113は、表示対象領域Aの中心点を、ユーザU1の現在位置である中心点C4から、ユーザU1の移動方向にある中心点C5にずらす。また、中心点C4と中心点C5との間の距離Lは、ユーザU1の移動速度Vに応じて定まる。これは、表示制御部113が、ユーザU1の移動速度V及び移動方向に応じて、ユーザU1にとって未来に必要となる施設に関する情報を現時点において表示することを目的とするためである。
1-1-4-4:態様4
 図12に示されるように、表示制御部113は、ユーザU1の移動速度V及び移動方向に応じて表示対象領域Aの形状を変化させてもよい。
 図12に示される例においては、変化前の表示対象領域Aは、ユーザU1の現在位置を中心とする円である。具体的には、ユーザU1が停止状態にある場合、すなわち移動速度Vがゼロである場合の表示対象領域A6は、ユーザU1の現在位置を中心点C6とすると共に、半径がR0の円となる。変化後の表示対象領域Aは、ユーザU1の移動方向を長軸とする楕円である。すなわち移動速度がV1である場合の表示対象領域A7は、ユーザU1の移動方向を長軸とすると共に、長軸半径がR2、短軸半径がR3の楕円となる。但し、R2>R0である。また、R3≦R0である。
 また、表示対象領域A7の長軸半径R2は、ユーザU1の移動速度Vが大きくなるほど長くなる。これに加えて、表示対象領域A7の短軸半径R3は、ユーザU1の移動速度Vが大きくなるほど短くなってもよい。すなわち、移動速度Vが大きくなるほど、表示対象領域A7はユーザU1の移動方向に長い楕円となる。更に、ユーザU1の移動速度Vが大きくなるほど、表示対象領域A7の面積が大きくなってもよい。
 その結果、表示対象領域A6は、指示点P11及び指示点P12を含んでいたが、表示対象領域A7は、指示点P11及び指示点P13を含む。
 更に、図12に示される例において、表示対象領域A7は、ユーザU1の現在位置を中心点C6とする楕円である。しかし、表示対象領域A7の位置は、ユーザU1の現在位置を中心点C6とする楕円に限定されない。例えば、表示対象領域A6は、ユーザU1の現在位置を焦点とするような楕円であってもよい。一例として、表示対象領域A7は、表示対象領域A6に比較して、ユーザU1の移動方向にずれた位置にあってもよい。
 なお、上記のように、図12に示される例において、ユーザU1の移動速度V及び移動方向に応じて表示対象領域の形状は変化する。これは、ユーザU1の移動の方向性に応じて、ユーザU1にとって必要となる施設の位置が変わってくるためである。例えば、表示制御部113は、上記のように、ユーザU1の移動速度V及び移動方向に応じて、表示対象領域A7をユーザU1の移動方向に長い楕円とする。表示制御部113は、表示対象領域A7を楕円とすることにより、ユーザU1が移動する可能性の高い方向の施設に関する情報を、より多くユーザU1に提供できる。
1-2:第1実施形態の動作
 図13は、第1実施形態に係るサーバ10の動作を示すフローチャートである。以下、図10を参照することにより、サーバ10の動作について説明する。
 ステップS11において、処理装置11は、取得部111として機能することにより、ユーザU1の位置を示す位置情報を取得する。
 ステップS12において、処理装置11は、算出部112として機能することにより、ステップS11において取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動速度を算出する。
 ステップS13において、処理装置11は、算出部112として機能することにより、ステップS11において取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動方向を算出する。
 ステップS14において、処理装置11は、表示制御部113として機能することにより、表示対象領域の面積を設定する。一例として、処理装置11は、表示制御部113として機能することにより、ユーザU1の移動速度が速いほど、表示対象領域の面積が広くなるように、当該表示対象領域の面積を設定する。
 ステップS15において、処理装置11は、表示制御部113として機能することにより、表示対象領域の中心の位置を設定する。一例として、処理装置11は、表示制御部113として機能することにより、ユーザU1の移動速度が速いほど、位置情報の示す位置から、ユーザU1の移動方向に位置する表示対象領域の中心の位置までの距離が長くなるように、表示対象領域の中心の位置を設定する。
 ステップS16において、処理装置11は、表示制御部113として機能することにより、表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示させる。
1-3:第1実施形態が奏する効果
 以上の説明によれば、サーバ10は、取得部111、算出部112、及び表示制御部113を備える。取得部111は、ユーザU1の位置を示す位置情報を取得する。算出部112は、上記の位置情報の示す位置の変化に基づいて、ユーザU1の移動速度を算出する。表示制御部113は、上記の位置情報の示す位置を含む表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示させる。また、表示制御部113は、上記の移動速度が第1の速度V1の場合、上記の表示対象領域を第1の面積S1とし、上記の移動速度が上記の第1の速度V1よりも速い第2の速度V2の場合、上記の表示対象領域を、上記の第1の面積S1よりも広い第2の面積S2とする。
 サーバ10は、上記の構成を用いることにより、ユーザU1の位置を含む表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示する場合、ユーザU1の移動速度に応じて当該表示対象領域を変更できる。具体的には、サーバ10は、ユーザU1の位置を示す位置情報に基づいて、ユーザU1の移動速度を算出する。また、サーバ10は、算出した移動速度に応じて、ユーザU1の位置を含む表示対象領域の面積を変化させた上で、当該表示対象領域内の施設の情報を、ユーザU1が頭部に装着するARグラス30に表示できる。
 また以上の説明によれば、算出部112は、位置情報の示す位置の変化に基づいて、ユーザU1の移動速度とユーザU1の移動方向とを算出する。表示制御部113は、上記の移動速度が第1の速度V1の場合、上記の位置情報の示す位置から、上記の移動方向に位置する表示対象領域の中心の位置までの距離Lを第1の距離L1とし、上記の移動速度が上記の第1の速度V1よりも速い第2の速度V2の場合、上記の距離Lを、上記の第1の距離L1よりも長い第2の距離L2とする。
 サーバ10は、上記の構成を用いることにより、ユーザU1の位置を含む表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示する場合、ユーザU1の移動速度に応じて当該表示対象領域を変更できる。具体的には、サーバ10は、ユーザU1の位置を示す位置情報に基づいて、ユーザU1の移動速度と移動方向とを算出する。また、サーバ10は、算出した移動速度と移動方向とに応じて、ユーザU1の位置から、表示対象領域の中心の位置までの距離を変化させた上で、当該表示対象領域内の施設の情報を、ユーザU1が頭部に装着するARグラス30に表示できる。
 また以上の説明によれば、表示制御部113は、ユーザU1の移動速度及び移動方向に応じて、上記の表示対象領域の形状を変化させる。
 サーバ10は、上記の構成を用いることにより、ユーザU1の移動の方向性に応じて、ユーザU1に提供する施設に関する情報を変更できる。
2:第2実施形態
 以下、図14~図15を参照することにより、本発明の第2実施形態に係るサーバ10Aを含む情報処理システム1Aの構成について説明する。なお、以下の説明では、説明の簡略化のため、第1実施形態と同一の構成要素に対しては、同一の符号を用いると共に、その機能の説明を省略することがある。また、以下の説明では、説明の簡略化のため、主として、第2実施形態が、第1実施形態に比較して相違する点について説明する。
2-1:第2実施形態の構成
2-1-1:全体構成
 第2実施形態に係る情報処理システム1は、サーバ10の代わりにサーバ10Aを備える点を除いて、第1実施形態に係る情報処理システム1と同一である。
2-1-2:端末装置の構成
 図14は、サーバ10Aの構成例を示すブロック図である。サーバ10Aは、第1実施形態に係るサーバ10に比較して、処理装置11の代わりに処理装置11Aを、記憶装置12の代わりに記憶装置12Aを備える点で異なる。
 記憶装置12Aは、第1実施形態に係る記憶装置12が記憶する制御プログラムPR3の代わりに制御プログラムPR3Aを記憶する点、及び、経路情報IF3を更に記憶する点で異なる。
 経路情報IF3は、地図情報IF1に含まれる線路及び高速道路を含む道路に係る情報である。より詳細には、経路情報IF3は、当該線路及び道路の位置情報を含む。この位置情報は、当該線路及び道路を構成する各地点の緯度と経度を示す。また、経路情報IF3は、線路上に位置する駅、及び高速道路上に位置する分岐点としてのインターチェンジの位置情報を含む。この位置情報は、当該駅及び当該インターチェンジの緯度と経度を示す。
 処理装置11Aは、記憶装置12Aから制御プログラムPR3Aを読み出して実行することによって、取得部111、算出部112A、表示制御部113A、及び推定部114として機能する。なお、取得部111は、第1実施形態に係る処理装置11が有する機能としての取得部111と同一であるため、その説明を省略する。
 算出部112Aは、第1実施形態に係る算出部112と同一の機能を有する。また、算出部112Aは更に、取得部111によって取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動経路を特定する。より詳細には、算出部112Aは、ユーザU1の位置情報の示す位置の変化に基づいて、ユーザU1の位置の履歴を特定する。移動経路は、ユーザU1の位置の履歴を示す。
 推定部114は、ユーザU1の移動速度及び移動経路に基づいて、ユーザU1の移動手段を推定する。より詳細には、推定部114は、移動経路と経路情報IF3とを比較することによって、ユーザU1が移動する道の種別を判定する。道の種別には、線路、高速道路及び一般道が含まれる。また、推定部114は、道の種別と移動速度とに基づいて、ユーザU1の移動手段を推定する。具体的には、推定部114は、道の種別が一般道である場合、移動速度に応じて、移動手段が、徒歩、ジョギング、自転車、及び車両のいずれかであることを推定する。また、推定部114は、道の種別が高速道路である場合、且つ、移動速度が所定速度以上である場合に、移動手段が車両であると推定する。推定部114は、道の種別が線路である場合、且つ、移動速度が所定速度以上である場合に、移動手段が電車であると推定する。
 表示制御部113Aは、第1実施形態に係る表示制御部113と同様の機能を有する。また、表示制御部113Aは更に、推定部114によって推定された移動手段が、線路を走行する電車又は高速道路を走行する車両であった場合に、ユーザU1の移動方向において直近の駅又は分岐点としてのインターチェンジを中心とする所定距離以内の範囲を、上記の表示対象領域とする。具体的には、表示制御部113Aは、推定部114によって推定された移動手段が、線路を走行する電車又は高速道路を走行する車両であった場合に、記憶装置12Aに記憶される経路情報IF3を参照することにより、経路情報IF3に含まれる経路上におけるユーザU1の現在地を判定する。また、表示制御部113Aは、記憶装置12Aに記憶される経路情報IF3を参照することにより、ユーザU1が、経路情報IF3に含まれる経路において、どの方向に移動しているかを判定する。更に、表示制御部113は、次の駅又は分岐点としてのインターチェンジ、すなわちユーザU1の移動方向において、上記の経路上の直近の駅又は分岐点としてのインターチェンジを判定する。最後に、表示制御部113Aは、当該直近の駅又は分岐点としてのインターチェンジを中心とする所定距離以内の範囲を表示対象領域とする。
 なお、表示制御部113Aは、推定部114によって推定された移動手段が、線路を走行する電車又は高速道路を走行する車両であった場合以外の場合には、第1実施形態に係る表示制御部113と同一の動作をする。
2-2:第2実施形態の動作
 図15は、第2実施形態に係るサーバ10Aの動作を示すフローチャートである。以下、図15を参照することにより、サーバ10Aの動作について説明する。
 ステップS21において、処理装置11Aは、取得部111として機能することにより、ユーザU1の位置を示す位置情報を取得する。
 ステップS22において、処理装置11Aは、算出部112Aとして機能することにより、ステップS21において取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動速度を算出する。
 ステップS23において、処理装置11Aは、算出部112Aとして機能することにより、ステップS21において取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動方向を算出する。
 ステップS24において、処理装置11Aは、算出部112Aとして機能することにより、ステップS21において取得された位置情報の示す位置の変化に基づいて、ユーザU1の移動経路を算出する。
 ステップS25において、処理装置11Aは、推定部114として機能することにより、ユーザU1の移動速度及び移動経路に基づいて、ユーザU1の移動手段を推定する。推定結果が第1の移動手段、すなわち線路を走行する電車又は高速道路を走行する車両であった場合には、処理装置11は、ステップS26の動作を実行する。一方で、推定結果が第2の移動手段、すなわち線路を走行する電車又は高速道路を走行する車両以外であった場合には、処理装置11は、ステップS29の動作を実行する。
 ステップS26において、処理装置11Aは、表示制御部113Aとして機能することにより、経路上におけるユーザU1の現在地を判定する。
 ステップS27において、処理装置11Aは、表示制御部113Aとして機能することにより、ユーザU1が経路上のどの方向に移動しているかを判定する。更に、処理装置11は、表示制御部113Aとして機能することにより、次の駅又は分岐点としてのインターチェンジ、すなわちユーザU1の移動方向において、上記の経路上の直近の駅又は分岐点としてのインターチェンジを判定する。
 ステップS28において、処理装置11Aは、表示制御部113Aとして機能することにより、次の駅又は分岐点としてのインターチェンジ周辺の施設の情報を、表示装置としてのARグラス30に表示する。より詳細には、処理装置11Aは、表示制御部113Aとして機能することにより、ステップS27において判定された直近の駅又は分岐点としてのインターチェンジを中心とする所定距離以内の範囲を表示対象領域とする。その上で、処理装置11Aは、表示制御部113Aとして機能することにより、上記の表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示させる。
 ステップS29において、処理装置11Aは、表示制御部113Aとして機能することにより、表示対象領域の面積を設定する。一例として、処理装置11Aは、表示制御部113Aとして機能することにより、移動速度が速いほど、表示対象領域の面積が広くなるように、表示対象領域の面積を設定する。
 ステップS30において、処理装置11Aは、表示制御部113Aとして機能することにより、表示対象領域の中心の位置を設定する。一例として、処理装置11Aは、表示制御部113Aとして機能することにより、移動速度が速いほど、位置情報の示す位置から、ユーザU1の移動方向に位置する表示対象領域の中心の位置までの距離が長くなるように、表示対象領域の中心の位置を設定する。
 ステップS31において、処理装置11Aは、表示制御部113Aとして機能することにより、表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示させる。
2-3:第2実施形態が奏する効果
 以上の説明によれば、サーバ10Aは、取得部111、算出部112、推定部114、及び表示制御部113Aを備える。取得部111は、ユーザU1の位置を示す位置情報を取得する。算出部112は、上記の位置情報の示す位置の変化に基づいて、ユーザU1の移動速度を算出する。推定部114は、ユーザU1の移動速度及び移動経路に基づいて、ユーザU1の移動手段を推定する。表示制御部113Aは、表示対象領域内の施設に関する情報を表示装置としての、ARグラス30に表示させる。また、表示制御部113Aは、推定部114によって推定された移動手段が、線路を走行する電車であった場合に、ユーザU1の移動方向において直近の駅を中心とする所定距離以内の範囲を上記の表示対象領域とする。また、表示制御部113Aは、推定部114によって推定された移動手段が、高速道路を走行する車両であった場合に、ユーザU1の移動方向において直近の分岐点を中心とする所定距離以内の範囲を上記の表示対象領域とする。
 サーバ10Aは、上記の構成を用いることにより、ユーザU1の位置を含む表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示する場合、ユーザU1の移動手段に応じて当該表示対象領域を変更できる。具体的には、サーバ10Aは、推定部114によって推定されたユーザU1の移動手段に応じて、ユーザU1の位置を含む表示対象領域を定めた上で、当該表示対象領域内の施設の情報を、ユーザU1が頭部に装着するARグラス30に表示できる。
3:変形例
 本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
3-1:変形例1
 第1実施形態に係る情報処理システム1、及び第2実施形態に係る情報処理システム1Aにおいて、端末装置20とARグラス30とは別体として実現されている。しかし、本発明の実施形態における、端末装置20とARグラス30の実現方法は、これには限定されない。例えば、ARグラス30が、端末装置20と同一の機能を備えることにより、端末装置20とARグラス30とが単一の筐体内において実現されてもよい。
3-2:変形例2
 第2実施形態に係るサーバ10Aにおいて、表示制御部113Aは、推定部114によって推定された移動手段が、線路を走行する電車又は高速道路を走行する車両であった場合に、ユーザU1の移動方向において直近の駅又は分岐点としてのインターチェンジを中心とする所定距離以内の範囲を、上記の表示対象領域とする。その上で、表示制御部113Aは、当該表示対象領域内の施設に関する情報を、表示装置としてのARグラス30に表示させる。しかし、表示制御部113Aは、更に、所定の条件に基づいて、当該表示対象領域内の施設から、ARグラス30に情報が表示される施設をフィルタリングしてもよい。例えば、表示制御部113Aは、当該表示対象領域内の施設から、複数のユーザUからの人気の高さが所定値以上の施設に絞った上で、当該施設に関する情報を、ARグラス30に表示させてもよい。
3-3:変形例3
 第1実施形態に係るサーバ10は、算出部112及び表示制御部113を備えていた。その上で、算出部112が、位置情報の示す位置の変化に基づいて、ユーザU1の移動速度を算出していた。また、表示制御部113が、位置情報の示す位置を含む表示対象領域内の施設に関する情報を表示装置としてのARグラス30に表示させていた。同様に、第2実施形態に係るサーバ10Aは、算出部112A及び表示制御部113Aを備えていた。その上で、算出部112Aが、位置情報の示す位置の変化に基づいて、ユーザU1の移動速度、移動方向及び移動経路を算出していた。また、表示制御部113Aが、表示対象領域内の施設に関する情報を表示装置としてのARグラス30に表示させていた。しかし、ユーザU1の移動速度を算出すること、及び、表示対象領域内の施設に関する情報をARグラス30に表示させることは、サーバ10又はサーバ10A以外の装置で実行されてもよい。例えば、端末装置20が、算出部112及び表示制御部113、又は、算出部112A及び表示制御部113Aと同様の構成要素を備えることにより、端末装置20が、ユーザU1の移動速度を算出し、表示対象領域内の施設に関する情報をARグラス30に表示させてもよい。この場合、端末装置20は情報処理装置の一例である。
3-4:変形例4
 第2実施形態に係るサーバ10Aにおいて、推定部114は、移動経路と経路情報IF3とを比較することによって、ユーザU1が移動する道の種別を判定していた。また、推定部114は、道の種別と移動速度とに基づいて、ユーザU1の移動手段を推定していた。しかし、ユーザU1の移動手段の推定方法は、経路情報IF3を参照する方法に限定されない。例えば、記憶装置12Aに、移動速度及び移動経路と、移動手段との関係を学習済みの学習モデルが記憶されてもよい。この場合、推定部114は、ユーザU1の移動手段を推定するために、当該学習モデルを用いる。すなわち当該学習モデルは、算出部112Aによって算出されるユーザU1の移動速度と移動経路に基づいて、ユーザU1の移動手段を推定するための学習モデルである。
 上記の学習モデルは、学習フェーズにおいて、教師データを学習することによって生成される。上記の学習モデルを生成するために用いられる教師データは、移動速度及び移動経路のセットと、移動手段との組を複数有する。
 また、上記の学習モデルは、サーバ10Aの外部で生成される。とりわけ上記の学習モデルは、図示しないサーバにおいて生成されることが好適である。この場合、サーバ10Aは、通信網NETを介して当該サーバから上記の学習モデルを取得する。
3-5:変形例5
 第1実施形態に係る情報処理システム1及び第2実施形態に係る情報処理システム1Aは、ARグラス30を備える。しかし、情報処理システム1及び情報処理システム1Aは、ARグラス30の代わりに、AR技術が採用されたHMD(Head Mounted Display)、MR(Mixed Reality)技術が採用されたMRグラス、及びMR技術が採用されたHMDのうちいずれか1つを備えてもよい。あるいは、情報処理システム1及び情報処理システム1Aは、ARグラス30の代わりに、撮像装置を備えた通常のスマートフォン及びタブレットのうちいずれか1つを備えてもよい。これらのHMD、MRグラス、スマートフォン、及びタブレットは、表示装置の例である。
4:その他
(1)上述した実施形態では、記憶装置12、記憶装置12A、記憶装置22、及び記憶装置32は、ROM及びRAM等を例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NETから送信されてもよい。
(2)上述した実施形態において、説明した情報、信号等は、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップ等は、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャート等は、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1~図15に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線等を用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能等を意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報等は、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)等)及び無線技術(赤外線、マイクロ波等)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータ等は、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
(10)上述した実施形態において、サーバ10、サーバ10A、及び端末装置20は、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語によって呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギー等を用いて、互いに「接続」又は「結合」されると考えることができる。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事等を含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事等を含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)等した事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」等によって読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
1、1A…情報処理システム、10、10A…サーバ、11、11A…処理装置、12、12A…記憶装置、13…通信装置、14…ディスプレイ、15…入力装置、20…端末装置、21…処理装置、22…記憶装置、23…通信装置、24…ディスプレイ、25…入力装置、26…慣性センサ、30…ARグラス、31…処理装置、32…記憶装置、33…視線検出装置、34…GPS装置、35…動き検出装置、36…撮像装置、37…通信装置、38…ディスプレイ、41L、41R…レンズ、91、92…テンプル、93…ブリッジ、94、95…胴部、111…取得部、112、112A…算出部、113、113A…表示制御部、114…推定部、211…取得部、212…動作認識部、213…特定部、214…表示制御部、311…取得部、312…表示制御部、A1、A2…表示対象領域、C1~C6…中心点、IF1…地図情報、IF2…施設情報、IF3…経路情報、P1~P13…指示点、PR1、PR2、PR3、PR3A…制御プログラム、R0~R3…半径、U、U1~U3…ユーザ、VO…仮想オブジェクト

Claims (5)

  1.  ユーザの位置を示す位置情報を取得する取得部と、
     前記位置情報の示す位置の変化に基づいて、前記ユーザの移動速度を算出する算出部と、
     前記位置情報の示す位置を含む表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部と、を備え、
     前記表示制御部は、前記移動速度が第1の速度の場合、前記表示対象領域を第1の面積に設定し、前記移動速度が前記第1の速度よりも速い第2の速度の場合、前記表示対象領域を、前記第1の面積よりも広い第2の面積に設定する、
     情報処理装置。
  2.  ユーザの位置を示す位置情報を取得する取得部と、
     前記位置情報の示す位置の変化に基づいて、前記ユーザの移動速度と前記ユーザの移動方向とを算出する算出部と、
     前記位置情報の示す位置を含む表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部と、を備え、
     前記表示制御部は、前記移動速度が第1の速度の場合、前記位置情報の示す位置から、前記ユーザの前記移動方向に位置する前記表示対象領域の中心の位置までの距離を第1の距離に設定し、前記移動速度が前記第1の速度よりも速い第2の速度の場合、前記距離を前記第1の距離よりも長い第2の距離とする、
     情報処理装置。
  3.  前記表示制御部は、前記移動速度が前記第1の速度の場合、更に、前記表示対象領域を第1の面積に設定し、前記移動速度が前記第1の速度よりも速い前記第2の速度の場合、更に、前記表示対象領域を、前記第1の面積よりも広い第2の面積に設定する、請求項2に記載の情報処理装置。
  4.  前記表示制御部は、前記移動速度及び前記移動方向に応じて前記表示対象領域の形状を変化させる、請求項2又は請求項3に記載の情報処理装置。
  5.  ユーザの位置を示す位置情報を取得する取得部と、
     前記位置情報の示す位置の変化に基づいて、前記ユーザの移動速度、移動方向及び移動経路を算出する算出部と、
     前記ユーザの移動速度及び移動経路に基づいて、前記ユーザの移動手段を推定する推定部と、
     表示対象領域内の施設に関する情報を表示装置に表示させる表示制御部と、を備え、
     前記表示制御部は、
     前記推定部によって推定された移動手段が、線路を走行する電車であった場合に、前記ユーザの移動方向において直近の駅を中心とする所定距離以内の範囲を前記表示対象領域とするか、又は、
     前記推定部によって推定された移動手段が、高速道路を走行する車両であった場合に、前記ユーザの移動方向において直近の分岐点を中心とする所定距離以内の範囲を前記表示対象領域とする、
    情報処理装置。
PCT/JP2022/041661 2021-11-15 2022-11-09 情報処理装置 WO2023085302A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-185526 2021-11-15
JP2021185526 2021-11-15

Publications (1)

Publication Number Publication Date
WO2023085302A1 true WO2023085302A1 (ja) 2023-05-19

Family

ID=86335765

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/041661 WO2023085302A1 (ja) 2021-11-15 2022-11-09 情報処理装置

Country Status (1)

Country Link
WO (1) WO2023085302A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012017983A (ja) * 2008-11-07 2012-01-26 Mitsubishi Electric Corp 地図表示装置
JP2015069362A (ja) * 2013-09-27 2015-04-13 株式会社トヨタマップマスター ヘッドマウントディスプレイ及びその制御方法、並びにヘッドマウントディスプレイを制御するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体
JP2016184294A (ja) * 2015-03-26 2016-10-20 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012017983A (ja) * 2008-11-07 2012-01-26 Mitsubishi Electric Corp 地図表示装置
JP2015069362A (ja) * 2013-09-27 2015-04-13 株式会社トヨタマップマスター ヘッドマウントディスプレイ及びその制御方法、並びにヘッドマウントディスプレイを制御するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体
JP2016184294A (ja) * 2015-03-26 2016-10-20 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置

Similar Documents

Publication Publication Date Title
Kuriakose et al. Tools and technologies for blind and visually impaired navigation support: a review
EP2933707B1 (en) Head mounted display presentation adjustment
US8098894B2 (en) Mobile imaging device as navigator
CN104919398B (zh) 可佩戴的基于行为的视觉系统
US8615257B2 (en) Data synchronization for devices supporting direction-based services
US9235933B2 (en) Wearable display system that displays previous runners as virtual objects on a current runner's path
JP2021530030A (ja) マルチレベルメトリック学習及び階層マッチングによる高密度3次元対応推定
KR102222250B1 (ko) 참조 지점을 이용한 경로 안내 제공 방법 및 그 장치
CN103091844A (zh) 将头戴式显示连接到外部显示和其他通信网络
EP1692863B1 (en) Device, system, method and computer software product for displaying additional information in association with the image of an object
US20210350628A1 (en) Program, information processing method, and information processing terminal
KR20160090198A (ko) 전시 안내 장치, 전시 디스플레이 장치 및 단말 장치와 전시 안내 방법
Hersh Mobility technologies for blind, partially sighted and deafblind people: Design issues
KR101568741B1 (ko) 모바일 증강현실 기반의 정보 제공 시스템
WO2023085302A1 (ja) 情報処理装置
CN113822263A (zh) 图像标注方法、装置、计算机设备及存储介质
Ranasinghe et al. Pedestrian navigation and GPS deteriorations: User behavior and adaptation strategies
Mountain et al. Mixed reality (MR) interfaces for mobile information systems
JP7316354B2 (ja) 処理装置
WO2023074852A1 (ja) 情報処理装置
Prandi et al. On augmenting the experience of people with mobility impairments while exploring the city: A case study with wearable devices
WO2023112838A1 (ja) 情報処理装置
WO2023171341A1 (ja) 表示制御装置
WO2023149256A1 (ja) 表示制御装置
WO2023149498A1 (ja) 表示制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892800

Country of ref document: EP

Kind code of ref document: A1