WO2014136700A1 - 拡張現実提供システム、記録媒体および拡張現実提供方法 - Google Patents

拡張現実提供システム、記録媒体および拡張現実提供方法 Download PDF

Info

Publication number
WO2014136700A1
WO2014136700A1 PCT/JP2014/055222 JP2014055222W WO2014136700A1 WO 2014136700 A1 WO2014136700 A1 WO 2014136700A1 JP 2014055222 W JP2014055222 W JP 2014055222W WO 2014136700 A1 WO2014136700 A1 WO 2014136700A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
augmented reality
sensor
terminal device
reference position
Prior art date
Application number
PCT/JP2014/055222
Other languages
English (en)
French (fr)
Inventor
裕介 佐々木
Original Assignee
株式会社メガチップス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メガチップス filed Critical 株式会社メガチップス
Priority to CN201480010466.8A priority Critical patent/CN105074783A/zh
Publication of WO2014136700A1 publication Critical patent/WO2014136700A1/ja
Priority to US14/846,004 priority patent/US20150379777A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • the present invention relates to a technology for realizing augmented reality by extending a real environment.
  • AR augmented reality
  • Augmented reality is generally given visually. Therefore, in order to realize augmented reality with a computer, it is necessary for the computer to know the field of view of the user who experiences augmented reality, and it is important to accurately grasp the position of the user.
  • Patent Document 1 determines the contents of a virtual object to be displayed and the display position in a real environment based on the user's position information acquired by GPS, and provides real visual information and a virtual object. Is a technique for combining and displaying.
  • the surrounding feature information is acquired from a user's position information acquired by GPS from a database, and a virtual object is drawn on a transmissive display, thereby realizing synthesis of the real environment and the virtual object.
  • augmented reality technology using captured images is also known.
  • an augmented reality technique using a captured image an image (marker) having dedicated identification information is installed in the real space, and if a marker exists in the captured image, a predetermined virtual object is placed on the marker. There is a way to draw. Further, there is a method of recognizing a specific figure (such as a human body) in an image and drawing a virtual object.
  • Patent Document 2 describes a technique that enables a virtual object to be superimposed and displayed using a marker that exists in a real environment.
  • Japanese Patent Application Laid-Open No. 2004-228561 describes a technique that enables display of a virtual object by identifying a known real space arrangement without requiring a marker as a real object in the real environment.
  • the technique described in Patent Document 1 has a problem that the display position of the virtual object is shifted due to a decrease in positioning accuracy by GPS in an environment where the GPS signal is weak.
  • the technique described in Patent Document 1 has a problem that even in an environment where a GPS signal cannot be received, even a virtual object cannot be displayed.
  • augmented reality is usually provided indoors, and indoors have a characteristic that GPS signals tend to be weak. Therefore, there is a situation where augmented reality and GPS are not compatible. Augmented reality is realized by a portable output device.
  • the GPS signal when using a GPS signal, the GPS signal must always be received and processed, which is consumed by a portable output device that is forced to be driven by a battery. There is also a problem of increasing the power.
  • Patent Documents 2 and 3 have a problem that recognition may fail depending on the state of the marker or the arrangement.
  • it is necessary to install a specific marker or arrangement in the real space and there is a problem that the landscape is damaged.
  • the versatility is deteriorated because it is necessary to move the marker or the arrangement object in the real environment.
  • an image recognition process is always required for a captured image while augmented reality is being executed, there is a problem that the amount of calculation is large, and the load on the computer and the power consumption are large.
  • the invention of claim 1 is an augmented reality providing system, a sensor for measuring information relating to movement, a first storage element for storing a reference position of the sensor, and the sensor comprising the sensor A determination element for determining whether or not the sensor exists at a reference position, and the reference position stored in the first storage element after the determination element determines that the sensor is present at the reference position And a position specifying element for specifying the current position of the sensor based on the information on the movement measured by the sensor, and output information according to the current position of the sensor specified by the position specifying element. And an output element that represents augmented reality.
  • the invention of claim 2 is the augmented reality providing system according to the invention of claim 1, wherein the first storage element stores an attitude of the sensor at the reference position, and the determination element determines the After determining that the sensor is present at the reference position, based on the attitude of the sensor at the reference position stored in the first storage element and the information regarding the movement measured by the sensor.
  • the sensor further includes a posture specifying element that specifies the current posture of the sensor, and the output element outputs output information according to the current posture of the sensor specified by the posture specifying element.
  • the invention of claim 3 is an augmented reality providing system according to the invention of claim 1, comprising a mobile terminal device whose position is variable and an index element whose absolute position is known, The sensor and an acquisition element that acquires individual information of the index element, and the determination element is configured such that the sensor exists at the reference position when the individual information of the index element is acquired by the acquisition element. It is determined that
  • the invention of claim 4 is an augmented reality providing system according to claim 3 of the invention, wherein the index element is a stationary device fixed at the absolute position, and the acquisition element is the sensor Includes a first wireless communication element that performs close proximity wireless communication with the stationary device when the device is at the reference position.
  • the invention according to claim 5 is the augmented reality providing system according to claim 4, wherein the installation type device performs close proximity wireless communication between the portable terminal device and the installation type device.
  • the reference position is transmitted to the portable terminal device.
  • the invention of claim 6 is an augmented reality providing system according to the invention of claim 4, wherein the installation type device performs close proximity wireless communication between the portable terminal device and the installation type device. If it is, the candidate information that is a candidate for the output information is transmitted to the mobile terminal device.
  • the invention of claim 7 is an augmented reality providing system according to the invention of claim 3, comprising a plurality of the portable terminal devices, and the portable terminal device is another portable terminal existing in the augmented reality space.
  • a second communication element that performs wireless data communication with the device; and the output element, wherein the second communication element receives a current position of the sensor included in the other mobile terminal device by wireless data communication.
  • the said output element outputs output information according to the present position of the said sensor with which the said other portable terminal device received by the said 2nd communication element.
  • An eighth aspect of the invention is an augmented reality providing system according to the third aspect of the invention, in which the mobile terminal device performs wireless data communication with a terminal device existing in the augmented reality space.
  • the terminal that has received the unique information related to the terminal device by wireless data communication, and the output element has been received by the third communication element.
  • Output information is output according to information specific to the device.
  • the invention of claim 9 is the augmented reality providing system according to the invention of claim 1, further comprising a second storage element for storing information relating to the object accompanied by the sensor, wherein the output element is Output information corresponding to the information on the object stored in the second storage element is output.
  • the invention according to claim 10 is the augmented reality providing system according to claim 1, further comprising a biological sensor for measuring biological information related to a living body, wherein the output element is a living body measured by the biological sensor. Outputs output information according to the information.
  • the invention of claim 11 is a recording medium for recording a computer-readable program, wherein the program is executed by a computer, whereby the computer measures information about movement by a sensor; Storing the reference position of the sensor in a first storage element; determining whether the sensor is present at the reference position; and determining that the sensor is present at the reference position. Later, the step of identifying the current position of the sensor based on the reference position stored in the first storage element and the information on the movement measured by the sensor, and the current position of the identified sensor An augmented reality providing method including a step of expressing augmented reality by outputting output information according to a position is executed.
  • the invention of claim 12 is an augmented reality providing method, the step of measuring information relating to movement by a sensor, the step of storing the reference position of the sensor in a first storage element, and the sensor is the reference position And after the determination that the sensor is present at the reference position, the reference position stored in the first storage element and the sensor is measured by the sensor. And a step of specifying the current position of the sensor based on the information on the movement, and a step of expressing augmented reality by outputting output information according to the specified current position of the sensor.
  • information relating to movement is measured by a sensor, a reference position of the sensor is stored, it is determined whether or not the sensor is present at the reference position, and the sensor is present at the reference position. After the determination is made, the current position of the sensor is specified based on the stored reference position and the information related to the movement measured by the sensor. And augmented reality is expressed by outputting output information according to the present position of the specified sensor. Thereby, even in an environment where GPS signals cannot be received, augmented reality can be realized without installing a marker or the like.
  • FIG. 1 It is a figure which shows the functional block with which the portable terminal device in other preferable embodiment is provided with the flow of data. It is a figure which shows the example of the augmented reality implement
  • FIG. 1 is a diagram showing an augmented reality providing system 1 in a preferred embodiment.
  • the augmented reality space 9 shown in FIG. 1 conceptually illustrates an area where augmented reality is provided by the augmented reality providing system 1.
  • the augmented reality providing system 1 includes a mobile terminal device 2, a reference position providing device 10 configured as an installation type device whose absolute position is known and the position is fixed to the absolute position, and a database server 11. Yes.
  • the numbers of the mobile terminal device 2, the reference position providing device 10, and the database server 11 are not limited to the numbers shown in FIG.
  • the reference position providing device 10 and the database server 11 are assumed to be devices provided and installed by the system operator.
  • the portable terminal device 2 is assumed to be a device owned by a user who visits an area where the system operator wants to provide augmented reality, such as a personally owned mobile phone, smartphone, or PDA terminal. Is applicable.
  • FIG. 2 is a block diagram of the mobile terminal device 2, the reference position providing device 10, and the database server 11 in the preferred embodiment.
  • the mobile terminal device 2 includes a CPU 20, a storage device 21, an operation unit 22, a display unit 23, a sensor group 24, an imaging unit 25, a non-contact IC card unit 26 and a communication unit 27.
  • the portable terminal device 2 is configured as a device that moves with the user as a target object (device with a variable presence position) by being carried by the user.
  • the sensor group 24 is also attached to the user as the object.
  • the CPU 20 reads and executes the program 210 stored in the storage device 21, and performs various data calculations, control signal generation, and the like. Thereby, CPU20 has a function which calculates and produces various data while controlling each structure with which the portable terminal device 2 is provided. That is, the mobile terminal device 2 is configured as a general computer.
  • the storage device 21 provides a function of storing various data in the mobile terminal device 2.
  • the storage device 21 is used to store a program 210, reference information 103, candidate information 112, measurement information 212, position information 214, output information 215, captured image information 213, and owner information 211.
  • a RAM or buffer used as a temporary working area of the CPU 20 a read-only ROM, a non-volatile memory (such as a NAND memory), a hard disk for storing a relatively large amount of data, a dedicated memory
  • a portable storage medium (a CD-ROM, a PC card, an SD card, a USB memory, or the like) mounted on the reading device is applicable.
  • the storage device 21 is illustrated as if it were one structure.
  • the storage device 21 is usually composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 21 is a generic term for a group of devices having a function of storing data (the same applies to storage devices 101 and 110 described later).
  • the actual CPU 20 is an electronic circuit having a RAM that can be accessed at high speed.
  • the storage device included in the CPU 20 is also included in the storage device 21 for convenience of explanation. That is, in the preferred embodiment, the description will be made assuming that the storage device 21 also stores data temporarily stored in the CPU 20 itself.
  • the operation unit 22 is hardware that is operated by the user to input an instruction to the mobile terminal device 2 (augmented reality providing system 1). Examples of the operation unit 22 include various keys and buttons, a touch panel, and a pointing device.
  • the display unit 23 is hardware having a function of outputting various data by displaying them.
  • Examples of the display unit 23 include a lamp, an LED, a liquid crystal display, a liquid crystal panel, and the like.
  • the display unit 23 in a preferred embodiment includes a liquid crystal display that displays an image on a screen, and has a function of expressing augmented reality by outputting output information 215.
  • the sensor group 24 includes a plurality of sensors that measure information related to movement.
  • the sensors included in the sensor group 24 include detection devices for executing relative positioning, such as acceleration sensors, gyro sensors, and geomagnetic sensors.
  • An output (measured value) from the sensor group 24 is transferred to the storage device 21 and stored as measurement information 212.
  • the CPU 20 calculates a movement path by “movement” based on the measurement information 212.
  • the movement path calculated based on the measurement information 212 measured by the sensor group 24 is strictly the movement path of the sensor group 24.
  • the sensor group 24 when the user carries the mobile terminal device 2, the sensor group 24 is attached to the user as the object. Thereby, the sensor group 24 measures information reflecting the movement of the user. Therefore, the augmented reality providing system 1 regards the movement path of the sensor group 24 as the movement path of the user associated with the sensor group 24.
  • the movement route of the sensor group 24 and the movement route of the object (user) are not distinguished and are simply referred to as “movement route”.
  • the user's movement route while the measurement information 212 representing the user's walking state is obtained is not calculated using the measurement information 212 but information such as an average step length and walking speed of the user (for example, , Information included in the owner information 211) may be employed for calculation.
  • the sensors included in the sensor group 24 are not limited to the examples shown above.
  • the imaging unit 25 includes an optical element such as a lens and a photoelectric conversion element such as a CCD, and has a function of imaging a subject within the imaging range and acquiring captured image information 213 that represents the actual appearance of the subject. Have. That is, the imaging unit 25 has a configuration and a function as a general digital camera.
  • the display unit 23 includes captured image information 213 that represents the actual appearance of a subject that actually exists in the surroundings, and things (including characters and the like) that do not exist in the surroundings.
  • the augmented reality is expressed on the screen by combining and displaying the output information 215 selected from the expressed candidate information 112.
  • the captured image information 213 is a color moving image composed of a plurality of frame images.
  • the non-contact IC card unit 26 has the configuration and functions of a general non-contact IC card. Thereby, the portable terminal device 2 can perform close proximity wireless communication with the non-contact IC card reader unit 100 of the reference position providing device 10. It should be noted that conventional techniques (such as various standards) can be appropriately employed as the circuit configuration and functions of the non-contact IC card unit 26. Therefore, a detailed description of the circuit configuration and functions of the non-contact IC card unit 26 is omitted.
  • the portable terminal device 2 includes the non-contact IC card unit 26. Therefore, the user holds the portable terminal device 2 close to the non-contact IC card reader unit 100 of the reference position providing device 10, so that necessary information is transferred from the reference position providing device 10 to the non-contact IC card unit 26 side. Can be acquired.
  • the mobile terminal device 2 in the preferred embodiment acquires the reference information 103 and the candidate information 112 from the reference position providing device 10.
  • communication enabling operation a series of operations in which the user holds the mobile terminal device 2 close to the non-contact IC card reader unit 100 is referred to as “communication enabling operation”.
  • the communication unit 27 provides a function for the mobile terminal device 2 to perform wireless communication with an external device.
  • the communication provided by the communication unit 27 is not limited to data communication, and may be a call.
  • the reference position providing device 10 is a device installed in the vicinity of an area that provides augmented reality.
  • the reference position providing device 10 has a known absolute position and is configured as an installation type device that is fixed to the absolute position.
  • the reference position providing device 10 includes a non-contact IC card reader unit 100 and a storage device 101.
  • the detailed configuration of the reference position providing device 10 is not shown, but the reference position providing device 10 includes a CPU, an operation unit, a display unit, a communication unit, and the like. It is configured as a computer.
  • the non-contact IC card reader unit 100 performs proximity wireless communication with a general non-contact IC card and can read various information stored in the non-contact IC card. It is also possible to transmit various information to the contact IC card. As such a non-contact IC card reader unit 100, since a conventional technique can be applied, detailed description is omitted.
  • the contactless IC card reader unit 100 in the preferred embodiment performs close proximity wireless communication with the contactless IC card unit 26 provided in the mobile terminal device 2.
  • the housing constituting the outer surface of the reference position providing device 10 has an appearance suitable for the user to perform the communication enabling operation as shown in FIG.
  • the appearance is such that the position and orientation of the mobile terminal device 2 (sensor group 24) when the user performs the communication enabling operation are clearly defined.
  • the outer surface of the housing has a planar shape inclined with respect to the horizontal plane, and the color of the outer surface is different from the other parts. It has been designed. As a result, the user can accurately execute the communication enabling operation without being confused.
  • the position and posture of the mobile terminal device 2 when the user is performing the communication enabling operation are defined by the casing of the reference position providing device 10 as described above. Further, since the absolute position of the reference position providing device 10 is known and the reference position providing device 10 is an installation type device, the absolute position does not easily change. Therefore, when the non-contact IC card reader unit 100 of the reference position providing device 10 and the non-contact IC card unit 26 of the mobile terminal device 2 perform data communication with each other, the mobile terminal device 2 (sensor group 24). The position and orientation of can be regarded as known.
  • the augmented reality providing system 1 is portable when the non-contact IC card reader unit 100 of the reference position providing device 10 and the non-contact IC card unit 26 of the portable terminal device 2 perform data communication with each other.
  • the position of the terminal device 2 (sensor group 24) is set as a “reference position”, and the posture (orientation) of the sensor group 24 at the reference position is set as “posture at the reference position”.
  • Both the reference position and the attitude at the reference position can be measured in advance for each reference position providing device 10 when the reference position providing device 10 is installed, and stored as reference information 103. That is, the reference information 103 corresponds to individual information of the reference position providing device 10, and the position of the sensor group 24 when the non-contact IC card reader unit 100 and the non-contact IC card unit 26 perform data communication with each other. This is information indicating a posture (orientation).
  • the reference position providing device 10 has a function of providing the reference information 103 to the mobile terminal device 2 by transmitting the reference information 103 to the mobile terminal device 2.
  • the storage device 101 is a generic name for devices having a function of storing information in the reference position providing device 10.
  • the storage device 101 includes a program 102 executed by a CPU (not shown) of the reference position providing device 10, reference information 103 as individual information of the reference position providing device 10, and candidates acquired from the database server 11.
  • Information 112 is stored.
  • the database server 11 includes a storage device 110 as shown in FIG. In FIG. 2, the detailed configuration of the database server 11 is not shown, but the database server 11 includes a CPU, an operation unit, a display unit, a communication unit, and the like, and is configured as a general computer. ing.
  • the database server 11 is an apparatus that can be installed in various places without being limited to the vicinity of an area that provides augmented reality, unlike the reference position providing apparatus 10. As the installation location of the database server 11, for example, the center or backyard of the system operator is assumed.
  • the database server 11 is connected to the reference position providing apparatus 10 via a network such as a LAN, the Internet, or a public network, and transmits candidate information 112 to the reference position providing apparatus 10 as necessary.
  • the storage device 110 is a generic name for devices having a function of storing information in the database server 11.
  • the storage device 110 stores a program 111 executed by a CPU (not shown) of the database server 11 and candidate information 112.
  • Candidate information 112 is information relating to materials (contents) used when providing augmented reality.
  • Candidate information 112 is created by an operator, designer, programmer, or the like of database server 11 and stored in storage device 110.
  • the candidate information 112 is, for example, graphic information of a virtual object displayed in augmented reality, information about a position, information about time, or map information (layout data) in the augmented reality space 9.
  • each information included in the candidate information 112 has a tag (classification, description, etc.) that is referred to when selecting it as the output information 215.
  • the candidate information 112 is generally different information for each augmented reality provided around the reference position providing device 10.
  • the candidate information 112 is transmitted from the database server 11 for each reference position providing device 10. Further, when changing the contents of the augmented reality being provided, the candidate information 112 is updated in the database server 11 and uploaded to the corresponding reference position providing apparatus 10.
  • FIG. 3 is a diagram illustrating functional blocks included in the mobile terminal device 2 according to a preferred embodiment together with a data flow.
  • the card control unit 200, the position / orientation specifying unit 201, and the augmented reality configuration unit 202 illustrated in FIG. 3 are functional blocks realized by the CPU 20 operating according to the program 210.
  • the card control unit 200 has a function of controlling the proximity wireless communication with the reference position providing device 10 by controlling the non-contact IC card unit 26. That is, the card control unit 200 constitutes an interface with the non-contact IC card unit 26, transfers the reference information 103 and the candidate information 112 received by the non-contact IC card unit 26 to the storage device 21, and stores them. Let In FIG. 3, it is not illustrated that some information is read from the storage device 21 and transmitted from the non-contact IC card unit 26, but such information may exist. That is, the non-contact IC card unit 26 may not be dedicated to writing.
  • the mobile terminal device 2 when the proximity wireless communication is started between the non-contact IC card unit 26 and the non-contact IC card reader unit 100 of the reference position providing device 10, the mobile terminal device 2. It is determined that (sensor group 24) exists at the reference position. That is, the time when the card control unit 200 determines that the non-contact IC card unit 26 has received the reference information 103 is the time when it is determined that the mobile terminal device 2 (sensor group 24) exists at the reference position.
  • the card control unit 200 in the preferred embodiment has a function corresponding to the determination element according to the present invention.
  • the position / orientation specifying unit 201 calculates a movement path as a result of relative positioning based on the measurement information 212 measured by the sensor group 24. Note that “information relating to movement” observed by the sensor group 24 includes information relating to rotational movement. Therefore, the movement path calculated by the position / orientation specifying unit 201 includes not only the position change history (movement locus) but also information related to the attitude change.
  • the position / orientation specifying unit 201 converts the position of the end point of the movement route to the absolute position based on the absolute position of the start point of the movement route obtained by the calculation, thereby allowing the mobile terminal device 2 (sensor group 24) to While specifying a present position, the present attitude
  • the absolute position of the starting point of the movement route is a reference position included in the reference information 103.
  • the position / orientation specifying unit 201 specifies the current position of the mobile terminal device 2 based on the reference information 103 stored in the storage device 21 and the measurement information 212 after receiving the reference information 103, It has a function of specifying the current attitude of the terminal device 2.
  • the time after receiving the reference information 103 is after the card control unit 200 determines that the sensor group 24 exists at the reference position.
  • the measurement information 212 is information related to the movement measured by the sensor group 24. That is, the position / orientation specifying unit 201 in the preferred embodiment has a function corresponding to the position specifying element and the attitude specifying element according to the present invention.
  • the current position and current posture of the mobile terminal device 2 identified by the position / orientation identifying unit 201 are stored in the storage device 21 as position information 214.
  • the augmented reality configuration unit 202 refers to the position information 214 obtained by the position / orientation specifying unit 201 and the owner information 211 and extracts the output information 215 from the candidate information 112 that is a material for expressing augmented reality. It has a function.
  • the owner information 211 is information related to the user that is input by the user when the operation unit 22 is operated, and more specifically is information related to the characteristics of the target object. Specifically, the age, gender, occupation, address, hobbies, preferences, behavior (purchasing) history, medical history (such as allergy) of the user who owns the mobile terminal device 2, marital status, family composition, property (car) Personal information such as home. These pieces of information are not limited to information directly input from the operation unit 22, and may be automatically collected by other applications.
  • the output information 215 is information displayed on the screen of the liquid crystal display on the display unit 23, and corresponds to information for extending reality in the augmented reality provided.
  • the display unit 23 displays the augmented reality on the screen by displaying the output information 215 superimposed (synthesized) or added to the captured image information 213.
  • the output information 215 may be processed by the augmented reality configuration unit 202 when extracted from the candidate information 112. That is, information regarding such a processing procedure may also be included in the candidate information 112.
  • FIG. 4 is a flowchart showing an augmented reality providing method in a preferred embodiment.
  • augmented reality is used to realize store guidance at a collective store such as a department store or a shopping mall. That is, an application that guides the user to a target store with the inside of the collective store as an augmented reality space 9 will be described as an example. Therefore, the candidate information 112 in the preferred embodiment includes a floor plan of the collective store, location information of each store arranged in the floor plan, advertisement information, coupon information, and the like.
  • the portable terminal device 2 is activated, a predetermined initial setting is completed, and the owner information 211 is stored in the storage device 21 before each process shown in FIG. 4 is started. Further, it is assumed that the reference information 103 and the candidate information 112 are already stored in the storage device 101 of the reference position providing device 10. 4 shows each process for one user for convenience of explanation, the augmented reality providing system 1 provides augmented reality to a plurality of users (a plurality of portable terminal devices 2) at the same time. It is possible.
  • step S1 When the user arrives at the collective store (augmented reality space 9) (step S1), the user performs communication enabling operation with respect to the reference position providing device 10 installed at the entrance using the portable terminal device 2 that he / she brought. (Step S2).
  • the augmented reality providing system 1 it is difficult for the augmented reality providing system 1 to provide augmented reality to the user unless the user performs the communication enabling operation. Therefore, it is preferable to provide a mechanism for allowing the user to reliably perform the communication enabling operation when visiting the store.
  • a store visit point is added to the mobile terminal device 2 by a communication enabling operation. If comprised in this way, the communication enabling operation
  • movement of the user who wants to accumulate a store visit point can be promoted more.
  • a poster that prompts the customer (user) to enable communication may be posted near the entrance.
  • the mobile terminal device 2 acquires the reference information 103 and the candidate information 112 from the reference position providing device 10 (step S4). As a result, the reference information 103 and the candidate information 112 are stored in the storage device 21.
  • step S5 the imaging unit 25 starts imaging of the surroundings (in the augmented reality space 9) (step S5). Thereby, thereafter, the captured image information 213 is obtained according to the imaging cycle.
  • the process of step S5 is automatically started by the communication enabling operation, but may be configured to start by a user instruction (user operation on the operation unit 22).
  • the sensor group 24 starts measuring information related to movement (step S6). Thereby, thereafter, the measurement information 212 is updated according to the measurement cycle of the sensor group 24. That is, information regarding the movement of the user (mobile terminal device 2) in the augmented reality space 9 is continuously collected as the measurement information 212 by the sensor group 24.
  • Steps S4 to S6 are executed, the position / orientation specifying unit 201, based on the reference information 103 (information on the start point of the movement route) and the measurement information 212 (information for obtaining the movement route), the mobile terminal device 2 is identified (step S7), and position information 214 is created.
  • the augmented reality composing unit 202 determines the absolute position and orientation in the augmented reality space 9 according to the position information 214, and determines the viewpoint and line-of-sight direction in the augmented reality. Further, the augmented reality configuration unit 202 extracts the output information 215 from the candidate information 112 according to the determined viewpoint and line-of-sight direction (step S8).
  • the field of view in the augmented reality space 9 can be determined.
  • an object virtual object
  • the augmented reality configuration unit 202 can select appropriate output information 215 from the candidate information 112. It should be noted that the conventional technique can be appropriately applied to the principle of selecting the output information 215 based on the position information 214 after the position information 214 is created.
  • the output information 215 and the imaging are increased as the “viewpoint and line-of-sight direction” determined by the augmented reality configuration unit 202 matches the “imaging point (center point of imaging range) and imaging direction” by the imaging unit 25.
  • the position / orientation specifying unit 201 creates the position information 214 in consideration of this point (the position and orientation of the imaging unit 25 in the mobile terminal device 2).
  • the augmented reality configuration unit 202 extracts the output information 215 with reference to the owner information 211 as well as the position information 214.
  • the augmented reality configuration unit 202 determines a store intended by the user from a plurality of stores in the collective store according to the owner information 211.
  • a user's hobby for example, a user's hobby, purchase history, store visit history, store search history, store name input as a destination, and the like included in the owner information 211 can be used.
  • information recorded as the owner information 211 is indefinite. Therefore, the augmented reality configuration unit 202 performs weighted (prioritized) in advance on highly probable information existing in the owner information 211, and performs evaluation by adding the weight of each information actually stored at the time of reference. Then, the user's target store is determined.
  • the owner information 211 that is the user's personal information. This is because a user who is concerned about leakage of personal information is reluctant to provide his / her personal information to another person's device.
  • the mobile terminal device 2 in the preferred embodiment is owned by the user, it is predicted that the user's resistance to inputting personal information is small. Therefore, it is possible to collect the owner information 211 in advance accurately and in detail. It is also possible to prompt the user to input necessary information depending on the situation. Thereby, the augmented reality configuration unit 202 in the preferred embodiment can accurately predict the store desired by the user.
  • the augmented reality configuration unit 202 outputs appropriate output information 215 from the candidate information 112 according to the field of view in the augmented reality space 9 determined based on the position information 214 and the predicted store name. Can be identified.
  • the augmented reality configuration unit 202 may determine a user's target store using public information such as time. For example, a method of preferentially selecting a restaurant at noon is also conceivable.
  • step S8 When step S8 is executed and the output information 215 is created, the display unit 23 synthesizes and displays the output information 215 and the captured image information 213 on the screen of the liquid crystal display (step S9). Thereby, the display unit 23 expresses the augmented reality on the screen of the liquid crystal display, and provides the augmented reality to the user.
  • step S10 the processing of steps S7 to S10 is repeated until an instruction to end is given.
  • FIGS. 5 and 6 are diagrams showing display examples of the landscape of the augmented reality space 9 provided to the user in the preferred embodiment. That is, FIGS. 5 and 6 are examples of the augmented reality display screen displayed on the display unit 23.
  • FIG. 5 shows a state in which an in-store image 213a, a route 215a that is a virtual object, and advertisements 215b, 215c, and 215d are displayed on the screen of the liquid crystal display.
  • the in-store image 213a is captured image information 213 captured by the imaging unit 25, and is an image representing a real part in the augmented reality space 9.
  • the route 215a, the advertisements 215b, 215c, and 215d are output information 215 selected from the candidate information 112, and are images representing the augmented part (virtual part) in the augmented reality space 9.
  • the mobile terminal device 2 extends a landscape (route 215 a, advertisements 215 b, 215 c, and 215 d) composed of virtual objects over a real environment landscape (store image 213 a).
  • a reality display screen can be created and provided.
  • the user can know that he / she is being guided toward the store D, and the route and distance to the store D can be easily compared with the case where the route is indicated on a map or the like. In addition, it is possible to know intuitively. Further, when the user is watching a map or the like, there is a risk of colliding with a passerby. However, in the augmented reality provided by the augmented reality providing system 1, since the passerby is also displayed as the in-store image 213a, the user can easily perceive and avoid the danger of collision even when watching the screen. .
  • the user can visually check the advertisements 215b, 215c, and 215d when confirming the route, and can also obtain fresh information about stores around the route.
  • the advertisements 215b, 215c, and 215d can be easily adjusted to a position, angle, and size that are easy to see for the user facing the screen as compared to a pop advertisement or the like installed in front of an actual store, and have animation effects and the like. Since it can be easily provided, it is possible to effectively transmit information to the advertiser's store. In other words, it exhibits an excellent effect as an advertising medium for the store.
  • the augmented reality configuration unit 202 can also prohibit the display of the advertisements 215b, 215c, and 215d of stores other than the store D by determining information related to stores that the user does not want from the owner information 211.
  • an expression method of making a store portion other than the target store D invisible for example, displaying a white wall image at an actual position of another store. Thereby, user confusion due to unnecessary information being displayed can be suppressed, and an easy-to-use application suitable for the user can be provided.
  • FIG. 6 shows a state in which an in-store image 215e, a route 215f that is a virtual object, a star 215g, and coupons 215h and 215i are displayed on the screen of the liquid crystal display.
  • the in-store image 215e is not a captured image information 213 captured by the imaging unit 25 but a map image that deforms the actual interior of the store, and is an image that represents a real part in the augmented reality space 9.
  • the augmented reality configuration unit 202 can also create the in-store image 215e according to the layout and map of the augmented reality space 9 included in the candidate information 112. That is, the output information 215 is not necessarily limited to information representing only a virtual object.
  • the route 215f is output information 215 (schematic diagram) selected from the candidate information 112 based on the information calculated by the augmented reality configuration unit 202 based on the position information 214, the owner information 211, and the candidate information 112 (map information). It is information expressed in.
  • the path 215f is an image representing an augmented part (virtual part) in the augmented reality space 9.
  • the star 215g and the coupons 215h and 215i are output information 215 selected from the candidate information 112, and are images representing an augmented part (virtual part) in the augmented reality space 9.
  • the mobile terminal device 2 superimposes the landscape (route 215f, star 215g, coupons 215h, 215i) of the extended environment configured with virtual objects on the landscape of the real environment (in-store image 215e).
  • the augmented reality display screen can be created and provided.
  • the user can confirm the entire process up to the store D by viewing the route 215f. Further, by visually recognizing the star 215g, the current position in the collective store can also be confirmed.
  • the user can know that the coupon is issued at the stores C and D by visually checking the coupons 215h and 215i while confirming the route.
  • a coupon is included in the candidate information 112, and is selected as output information 215 when facing a cash register of the corresponding store, and specific contents are displayed on the screen as a virtual object. That is, there is no need to present to the store clerk after the user operates and displays each one at the time of payment.
  • the mobile terminal device 2 can switch between the screen shown in FIG. 5 and the screen shown in FIG. 6 in accordance with a user instruction.
  • the screen shown in FIG. 5 and the screen shown in FIG. 6 may be displayed side by side simultaneously.
  • the mobile terminal device 2 may determine the next destination store and start guidance for the store.
  • the start of guidance for the next destination store may be started when the user leaves the first store.
  • the augmented reality providing system 1 includes the sensor group 24 that measures the measurement information 212, the storage device 21 (storage devices 101 and 110) that stores the reference position of the sensor group 24, and the sensor.
  • the card controller 200 that determines whether or not the group 24 is present at the reference position, and after the card controller 200 determines that the sensor group 24 is present at the reference position, the card 24 is stored in the storage device 21.
  • the position / orientation specifying unit 201 for specifying the current position of the sensor group 24 based on the reference position and the measurement information 212 measured by the sensor group 24, and the current of the sensor group 24 specified by the position / orientation specifying unit 201.
  • a display unit 23 that expresses augmented reality by outputting output information 215 according to the position.
  • the storage device 21 stores the posture of the sensor at the reference position, and after the position / posture specifying unit 201 determines that the sensor group 24 exists at the reference position by the card control unit 200, the storage device 21 stores the posture. Based on the posture of the sensor group 24 at the reference position stored in the device 21 and the measurement information 212 measured by the sensor group 24, the current posture of the sensor group 24 is specified, and the display unit 23 specifies the position and posture. Output information 215 is output according to the current posture of the sensor group 24 specified by the unit 201. That is, unlike the GPS, the augmented reality providing system 1 can determine not only the absolute position of the user but also the posture and orientation of the user. And according to such information, an effective virtual object (output information 215) can be displayed at the tip of the user's line of sight. Therefore, this makes it possible to express more realistic augmented reality.
  • the mobile terminal device 2 includes a reference position providing device 10 as an installation type device fixed at an absolute position, and the mobile terminal device 2 is in close proximity to the reference position providing device 10 when the sensor group 24 exists at the reference position.
  • a non-contact IC card unit 26 that performs communication is provided.
  • the reference position providing device 10 transmits the reference information 103 to the portable terminal device 2 when the close proximity wireless communication is performed between the portable terminal device 2 and the reference position providing device 10. This eliminates the need for the mobile terminal device 2 to acquire the reference information 103 in advance.
  • the reference position providing device 10 transmits candidate information 112 that is a candidate for the output information 215 to the portable terminal device 2 when close proximity wireless communication is performed between the portable terminal device 2 and the reference position providing device 10. . Thereby, it is not necessary for the mobile terminal device 2 to acquire the candidate information 112 in advance. Moreover, since the candidate information 112 is acquired immediately before use, the candidate information 112 in a relatively new state can be acquired.
  • the augmented reality providing system 1 stores owner information 211 as information related to the object associated with the sensor group 24, and the display unit 23 outputs output information 215 corresponding to the stored owner information 211.
  • the augmented reality according to the target object can be provided.
  • augmented reality suitable for the individual can be provided for each individual.
  • reference information 103 in the preferred embodiment has been described as being created in the reference position providing device 10 and stored in the storage device 101.
  • information corresponding to the reference information 103 may be created in the database server 11 and transmitted to each reference position providing device 10 together with the candidate information 112.
  • reference position providing device 10 and the database server 11 may be configured by a single computer.
  • the candidate information 112 may be downloaded to the mobile terminal device 2 in advance by data communication between the communication unit 27 of the mobile terminal device 2 and the database server 11. That is, the candidate information 112 does not necessarily have to be acquired from the reference position providing device 10.
  • data communication by proximity wireless communication between the non-contact IC card unit 26 and the non-contact IC card reader unit 100 is not suitable for transmitting and receiving a huge amount of data. Therefore, it is preferable to transmit / receive candidate information 112 having a relatively large amount of data by data communication via a general network (such as the Internet).
  • the user Before the user receives provision of augmented reality around the reference position providing device 10, the user accesses the database server 11 by operating the mobile terminal device 2 that he / she owns, and is provided around the reference position providing device 10.
  • the actual candidate information 112 may be downloaded in advance. In this case, it is preferable to transmit the reference information 103 together with the candidate information 112 from the database server 11 to the mobile terminal device 2.
  • the augmented reality configuration unit 202 in order for the augmented reality configuration unit 202 to predict the purchase behavior of the user and extract appropriate output information 215, information such as temperature and humidity indicating the surrounding environment may be effective. Therefore, environment sensors such as a temperature sensor and a humidity sensor may be provided in the mobile terminal device 2 so that the augmented reality configuration unit 202 refers to information collected by these sensors.
  • the portable terminal device 2 in the preferred embodiment does not perform data communication for providing augmented reality in the augmented reality space 9.
  • the present invention is not limited to such a form.
  • FIG. 7 is a diagram showing an augmented reality providing system 1a according to another preferred embodiment.
  • the number of the portable terminal device 2a and the terminal device 12 is not limited to the number shown by FIG.
  • a communication partner of the mobile terminal device 2a in the augmented reality space 9 it is only necessary that at least one of the other mobile terminal device 2a and the terminal device 12 exists.
  • the augmented reality providing system 1a has a configuration in which the mobile terminal device 2a is provided in place of the mobile terminal device 2 and a stationary terminal device 12 is included in the augmented reality in the preferred embodiment.
  • the configuration of the providing system 1 is different.
  • the same reference numerals are given to the same configurations as those of the augmented reality providing system 1 according to the preferred embodiment, and description thereof will be omitted as appropriate.
  • FIG. 8 is a diagram illustrating functional blocks included in the mobile terminal device 2a according to another preferred embodiment together with a data flow.
  • the mobile terminal device 2a is a device having substantially the same configuration as the mobile terminal device 2, and moves in the augmented reality space 9 while being carried by the user.
  • the communication unit 27 of the mobile terminal device 2a periodically searches for surrounding communication devices, and performs data by proximity wireless communication between the other mobile terminal device 2a and the terminal device 12 existing in the augmented reality space 9.
  • Communicate As the wireless communication method adopted here, for example, a proximity wireless communication method such as Bluetooth (registered trademark) is suitable. However, it is not limited to Bluetooth (registered trademark).
  • the communication unit 27 of the mobile terminal device 2a has the owner information 211 stored in its own storage device 21 and the other mobile terminal device 2a and the terminal device 12 detected as communication devices in the augmented reality space 9 and The position information 214 is transmitted.
  • the owner information 211 transmitted to the outside by the communication unit 27 is limited to information permitted by the user in order to prevent leakage of personal information.
  • the communication unit 27 of the mobile terminal device 2a stores the information received from the other mobile terminal device 2a and the terminal device 12 as the candidate information 112 in the storage device 21 of the own device. That is, in another preferred embodiment, the candidate information 112 is not limited to the information acquired from the reference position providing device 10, but information collected from other mobile terminal devices 2a and terminal devices 12 is used. included.
  • the terminal device 12 is a general stationary computer and is a device whose absolute position is fixed in the augmented reality space 9.
  • the candidate information 112 in another preferred embodiment includes the identification information of the terminal device 12 and information on the absolute position (installation position). Further, the terminal device 12 has a function of performing data communication by proximity wireless communication with the communication unit 27 of the mobile terminal device 2a, and information (details will be described later) unique to the own device is stored in the mobile terminal device 2a. Send to.
  • an augmented reality providing system 1a will be described with an example of an application in which an augmented reality space 9 is a game center where a large number of game machines (terminal devices 12) are installed.
  • an example of augmented reality realized by the mobile terminal device 2a performing wireless communication with another mobile terminal device 2a, and the mobile terminal device 2a performing wireless communication with the terminal device 12 are described.
  • a description will be given separately from an example of augmented reality realized by doing.
  • FIG. 9 is a diagram illustrating an example of augmented reality realized by wireless communication between the mobile terminal devices 2a.
  • an in-game center image 213b, an avatar image 215j, and a message 215k are displayed on the display unit 23 of the mobile terminal device 2a.
  • the game center image 213b is a video (captured image information 213) in the game center (augmented reality space 9) imaged by the imaging unit 25 of the mobile terminal device 2a. That is, the in-game center image 213b is an image representing a real part in augmented reality. Here, three terminal apparatuses 12 are imaged.
  • the avatar image 215j and the message 215k are images in which the output information 215 selected from the candidate information 112 by the augmented reality configuration unit 202 is displayed. That is, the avatar image 215j and the message 215k are images that represent virtual things that do not exist in reality, and are images that represent an extended portion in augmented reality.
  • the avatar image 215j and the message 215k are both information selected from the candidate information 112, but are not information acquired from the reference position providing device 10. These are information created based on the owner information 211 and the position information 214 received from the other mobile terminal device 2a.
  • the user obtains the reference information 103 and the candidate information 112 from the reference position providing device 10 at the entrance of the augmented reality space 9 and enters the game center as in the preferred embodiment.
  • the user edits the owner information 211 at an arbitrary timing (that is, inside and outside the game center), and is provided by the user's avatar and various messages and a game (terminal device 12) installed in the game center. ) Play history or self profile.
  • the communication unit 27 searches for a nearby communication device (another portable terminal device 2a) and starts communication with the detected other portable terminal device 2a.
  • the portable terminal device 2a exchanges the owner information 211 and the position information 214 with each other with the other portable terminal device 2a.
  • candidate information 112 is created based on the received owner information 211 and position information 214 of the other portable terminal device 2a, and stored in the storage device 21 of the own device.
  • the augmented reality configuration unit 202 selects the output information 215 from the candidate information 112 when the field of view in the augmented reality space 9 is obtained as in the preferred embodiment. At this time, if another mobile terminal device 2a exists in the field of view, the output information 215 is selected from the candidate information 112 created based on the owner information 211 received from the other mobile terminal device 2a. Note that the current position of the other mobile terminal device 2a can be determined from the position information 214 received from the other mobile terminal device 2a (more specifically, the candidate information 112 derived from the position information 214).
  • the mobile terminal device 2a converts the avatar (avatar image 215j) set in the owner information 211 by the user of the other mobile terminal device 2a into the current position of the user and the actual image of the user. Overwrite and display.
  • a message (message 215k) set in the owner information 211 received from the other mobile terminal device 2a can be displayed.
  • the augmented reality providing system 1a exchanges owner information 211 and position information 214 with each other between a plurality of portable terminal devices 2a.
  • users visiting the game center can send messages, pictograms, characters (avatars) between each user, introductions of each user using the game play history (fighting game masters, music game beginners, etc.), etc. Can interact and display and enjoy.
  • FIG. 10 is a diagram illustrating an example of augmented reality realized by wireless communication between the mobile terminal device 2 a and the terminal device 12.
  • an in-game center image 213c, character images 215m and 215n, and a message 215p are displayed on the display unit 23 of the mobile terminal device 2a.
  • the game center image 213c is a video (captured image information 213) in the game center (augmented reality space 9) imaged by the imaging unit 25 of the mobile terminal device 2a. That is, the in-game center image 213c is an image that represents a real part in augmented reality.
  • four terminal apparatuses 12 are imaged. In the example illustrated in FIG. 10, in order to distinguish each terminal device 12, alphabets are added to the respective symbols to form terminal devices 12 a, 12 b, 12 c, and 12 d.
  • Character images 215m and 215n and message 215p are images that display output information 215 selected from candidate information 112 by augmented reality composing unit 202. That is, the character images 215m and 215n and the message 215p are images that represent virtual things that do not exist in reality, and are images that represent an extended portion in augmented reality.
  • the character images 215m and 215n and the message 215p are all information selected from the candidate information 112, but are not information acquired from the reference position providing device 10. These are information created based on information unique to each terminal device 12a, 12b, 12c received by the mobile terminal device 2a.
  • the communication unit 27 searches for nearby communication devices. At this time, when the terminal device 12 is detected, the communication unit 27 starts communication with the detected terminal device 12. The mobile terminal device 2a receives information unique to the terminal device 12 from the terminal device 12 that has started communication. Then, candidate information 112 is created based on the received unique information and stored in the storage device 21 of the own device.
  • the position of the terminal device 12 is included in the candidate information 112 acquired from the reference position providing device 10. Therefore, the mobile terminal device 2a does not receive unique information from all the terminal devices 12 for which close proximity wireless communication is established, but is present in the user's field of view based on the position of the terminal device 12 acquired in advance.
  • the unique information may be received only from the determined terminal device 12. Thereby, the information amount transmitted / received in data communication can be suppressed.
  • the mobile terminal device 2a can also determine the user's field of view in the augmented reality space 9 by determining the user's viewpoint and line-of-sight direction. Therefore, the augmented reality configuration unit 202 includes candidate information 112 (candidate information 112 created based on unique information received from the terminal device 12) derived from the terminal device 12 existing in the user's field of view. Output information 215 can be selected.
  • the mobile terminal device 2a displays the unique information of each terminal device 12 at a position corresponding to the position of each terminal device 12.
  • a character image 215m corresponding to the play status of the terminal device 12a, a character image 215n corresponding to the play status of the terminal device 12b, and a message 215p indicating the reception status of the terminal device 12c are displayed. Yes.
  • the augmented reality providing system 1a collects unique information of the terminal device 12 existing in the augmented reality space 9 in the mobile terminal device 2a.
  • the user who visited the game center can receive information such as play information, demo information, and how to play provided games from the nearby terminal device 12 and display them as virtual objects.
  • the visual field of the user in the augmented reality space 9 it is possible to determine the visual field of the user in the augmented reality space 9 and display the virtual object at the end of the user's line of sight. Therefore, real augmented reality can be expressed, and augmented reality can be expressed based on more real-time information as compared to the preferred embodiment.
  • the play situation as augmented reality, the play scenery (character images 215m, 215n) is displayed, and the game can be enjoyed as a spectator.
  • the output information 215 is not limited to information received from the other portable terminal device 2a or the terminal device 12.
  • the only information collected regarding the object is the owner information 211 and the position information 214.
  • information collected about the object is not limited to such information.
  • the example in which the real part is also displayed as image information on the display unit 23 in the provided augmented reality has been described.
  • the real part in augmented reality does not necessarily have to be displayed as image information.
  • FIG. 11 is a diagram showing an augmented reality providing system 1b according to still another preferred embodiment.
  • the augmented reality providing system 1b includes a mobile terminal device 2b instead of the mobile terminal device 2, and does not include a configuration corresponding to the reference position providing device 10 and the database server 11. This is different from the augmented reality providing system 1 in FIG.
  • the same components as those in the augmented reality providing system 1 in the preferred embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the mobile terminal device 2b is configured as an HMD (Head-Mounted Display) type device, and moves along with the user when the user wears the head.
  • HMD Head-Mounted Display
  • the handheld portable terminal device 2 when the handheld portable terminal device 2 is adopted, the relative positional relationship between the user and the portable terminal device 2 changes depending on the state of the user's handheld, which is a sensor. This causes an error between the viewpoint in augmented reality obtained from the position of the group 24 (position information 214) and the imaging point of the imaging unit 25.
  • the augmented reality providing system 1b adopts the wearable portable terminal device 2b, so that the real part and the augmented part are compared with the case where the handheld portable terminal device 2 is employed. The accuracy of visual matching with is improved. Therefore, the reality of the provided augmented reality is improved.
  • FIG. 12 is a block diagram of a portable terminal device 2b according to still another preferred embodiment.
  • the mobile terminal device 2b is usually a dedicated device owned by the system operator. Therefore, as shown in FIG. 12, the storage device 21 does not store information corresponding to the owner information 211 regarding the user.
  • the mobile terminal device 2b includes a display unit 23a having a transmissive display. Real things arranged in the augmented reality space 9 are perceived and perceived by the user's vision based on the light transmitted through the display. Therefore, in the augmented reality providing system 1b according to still another preferred embodiment, the image information of the real part is not displayed when providing the augmented reality. On the other hand, the display unit 23a displays the output information 215 at a predetermined position on the display, thereby appropriately superimposing the virtual object (extended portion) on the real part.
  • the portable terminal device 2b does not include the imaging unit 25 and does not have a function of imaging the surroundings. Therefore, in yet another preferred embodiment, information corresponding to the captured image information 213 is not created. This is because, as already described, in the mobile terminal device 2b, it is not necessary to display the real part on the screen.
  • the mobile terminal device 2b does not have a configuration corresponding to the non-contact IC card unit 26 and the communication unit 27, and is configured as a stand-alone device.
  • the reference information 103 and the candidate information 112 are stored together with the program 210 in advance.
  • the portable terminal device 2b includes not only the sensor group 24 but also a biological sensor 28.
  • the biological sensor 28 is a device having a function of measuring biological information 216 related to a living body.
  • a heart rate sensor that measures the heart rate of the user
  • a respiration sensor that measures information related to respiration such as the user's respiration rate
  • a microphone that measures the sound generated by the user, and the like are assumed.
  • the biological sensor 28 is not limited to such a device, and may be any device having a function of collecting information that can be used to determine the current physiological state of the user.
  • the mobile terminal device 2b includes a speaker 29 that reproduces sound based on information related to sound.
  • the speaker 29 is used as an output element that outputs information related to sound included in the output information 215 as sound.
  • FIG. 13 is a diagram showing the functional blocks provided in the portable terminal device 2b according to still another preferred embodiment together with the data flow.
  • the mobile terminal device 2b does not include the card control unit 200, but includes a position / orientation specifying unit 201a and an augmented reality configuring unit 202a instead of the position / orientation specifying unit 201 and the augmented reality configuring unit 202. Different from the device 2.
  • the position / orientation specifying unit 201a determines that the mobile terminal device 2b (sensor group 24) is present at the reference position and the current posture is the posture at the reference position in accordance with the input information from the operation unit 22. To do.
  • the current position and current posture of the mobile terminal device 2 b when the reset button of the operation unit 22 is operated are reset by the reference information 103. That is, in still another preferred embodiment, the position / orientation specifying unit 201a has a function corresponding to the determination element according to the present invention.
  • the augmented reality configuration unit 202a extracts the output information 215 from the candidate information 112 according to the position information 214, as in the preferred embodiment.
  • the augmented reality configuration unit 202 a since there is no information corresponding to the owner information 211, the augmented reality configuration unit 202 a does not refer to the owner information 211 when extracting the output information 215. Instead, the augmented reality configuration unit 202 extracts the output information 215 according to the biological information 216.
  • the augmented reality providing system 1b (the display unit 23a and the speaker 29) in still another preferred embodiment outputs output information 215 corresponding to the biological information 216 measured by the biological sensor 28.
  • an augmented reality providing system 1b according to still another preferred embodiment will be described using an example of an application in which a haunted house is an augmented reality space 9.
  • FIG. 14 is a flowchart showing an augmented reality providing method according to still another preferred embodiment.
  • the person in charge of the haunted house stops the portable terminal device 2b at a predetermined position in a predetermined posture. Then, in such a state of being stationary, the reset button (operation unit 22) is operated (step S11), and the portable terminal device 2b is brought into a state (hereinafter referred to as “standby state”). .
  • the predetermined position is a position that matches the reference position stored in the reference information 103.
  • the predetermined posture is a posture stored in the reference information 103 (a posture defined as a posture at the reference position). That is, in still another preferred embodiment, the person in charge of the window executes an operation corresponding to the communication enabling operation in the preferred embodiment.
  • the sensor group 24 starts measuring the measurement information 212 (step S12), and the position / orientation specifying unit 201a starts creating the position information 214 based on the reference information 103 and the measurement information 212. (Step S13).
  • the creation of the position information 214 may be configured to start when the mobile terminal device 2b in the standby state is moved to be handed over to the user. This is because the mobile terminal device 2b in the standby state is in a stationary state, so that the position and posture during that period do not change. That is, an operation for shifting to the standby state and an operation for starting the calculation of the position information 214 may be distinguished.
  • step S14 when the user arrives at the entrance of the haunted house, the person in charge of the counter hands over the portable terminal device 2b in the standby state to the user. Then, the user wears the received mobile terminal device 2b (step S14). Accordingly, the display unit 23a is disposed in front of the user's eyes, the speaker 29 is disposed in the vicinity of the user's ear, and the biosensor 28 is attached to the user's body.
  • the user enters the haunted house (augmented reality space 9) while wearing the mobile terminal device 2b (step S15).
  • the augmented reality configuration unit 202a determines whether or not the user (mobile terminal device 2b) exists in the augmented reality space 9 according to the position information 214 (step S16). It is determined whether or not it is ON (step S17).
  • the flag is information indicating whether or not the user has entered the augmented reality space 9, and is set to “ON” when the user has entered, and “OFF” when the user has not entered.
  • step S17 it indicates that the user has not yet entered the augmented reality space 9, so that the user's entry action has not yet been completed, and the process returns to step S16.
  • step S16 when the user exists in the augmented reality space 9 (Yes in step S16), the CPU 20 sets the flag to ON (step S18). Then, the augmented reality configuration unit 202a creates output information 215 based on the position information 214 and the biological information 216 (step S19).
  • step S19 When step S19 is executed, the display unit 23a and the speaker 29 output the output information 215 (step S20), thereby expressing augmented reality.
  • steps S16 to S20 are continued until it is determined that the user does not exist in the augmented reality space 9 (exited from the exit).
  • step S17 If it is determined Yes in step S17, it is assumed that the user who has entered the augmented reality space 9 has left the augmented reality space 9, and the CPU 20 sets the flag to OFF (step S21), and the portable terminal device 2b. The provision of augmented reality by will end. Thereafter, the contact person collects the portable terminal device 2b from the user.
  • FIG. 15 is a diagram showing an example of augmented reality realized by the augmented reality providing system 1b according to still another preferred embodiment.
  • the willow image 215q and the ghost image 215r shown in FIG. 15 are both output information 215.
  • things other than the willow image 215q and the ghost image 215r exist in reality that are perceived by the light transmitted through the transmissive display.
  • FIG. 16 is a diagram illustrating the display position of the ghost image 215r in the augmented reality space 9.
  • eight places for displaying the ghost image 215 r in the augmented reality space 9 are set.
  • ghost images 215r to be displayed at eight locations are prepared in advance.
  • a circle 90 shown in FIG. 16 indicates a determination position (described later). Further, the shaded portions shown in FIG. 16 indicate actual walls and pillars.
  • FIGS. 17 to 19 are diagrams showing display examples of the ghost image 215r.
  • arrows indicated by bold lines indicate the user's route in the augmented reality space 9.
  • the augmented reality providing system 1b changes the position at which the ghost image 215r is actually displayed according to the physiological state of the user when the user reaches the determination position (circle 90). That is, based on the biological information 216 at the determination position, the ghost image 215r is displayed only at the position shown in FIG. 17 when the heart rate is larger than 120 [bpm], and when the heart rate is 90 to 120 [bpm] in FIG. The ghost image 215r is displayed only at the position shown. When the heart rate is less than 90 [bpm], the ghost image 215r is displayed only at the position shown in FIG.
  • the ghost image 215r is displayed so as to be a relatively short distance and a simple movement route (FIG. 17). Further, the number of ghosts (ghost images 215r) encountered is the smallest.
  • the ghost image 215r is displayed so as to be a relatively long-distance and complicated movement route (FIGS. 18 and 19) for the user who is determined not to be surprised very much. Also, the number of ghosts encountered (ghost images 215r) is set to increase.
  • the augmented reality providing system 1b outputs the output information 215 corresponding to the biological information 216 measured by the biological sensor 28, so that the augmented reality corresponding to the physiological state of the living body is output. Reality can be provided.
  • the extent to which the user is surprised can also be determined by counting the number of times the acceleration has greatly changed using, for example, an acceleration sensor.
  • the display pattern of FIG. 17 is applied to a user who has been surprised twice or more between the time of entry and the determination position, the display pattern of FIG. A method of applying the display pattern of FIG. 19 is conceivable.
  • FIG. 20 is a diagram showing a modification in the case where the display of the ghost image 215r is changed in still another preferred embodiment.
  • a broken-line arrow in FIG. 20 indicates a locus when the display position of the ghost image 215r is sequentially changed.
  • the user's route is changed by changing the display of the “ghost” as the virtual object, but the method of changing the route is not limited to this. For example, by displaying a wall as a virtual thing between the walls that are real things, it is possible to change the route so that the walls are connected so that they cannot pass.
  • the augmented reality providing system 1b in still another preferred embodiment similarly to the augmented reality providing system 1 in the preferred embodiment, devices corresponding to the reference position providing device 10 and the database server 11 are provided, and a portable terminal You may provide the non-contact IC card part 26 and the communication part 27 in the apparatus 2b.
  • the augmented reality providing system 1b according to still another preferred embodiment can easily cope with the update of the reference information 103 and the candidate information 112.
  • the reference information 103 and the candidate information 112 need to be updated.
  • the updated reference information 103 and candidate information 112 can be stored in a portable recording medium such as an SD card and supplied to the portable terminal device 2b. is there.
  • FIG. 21 and FIG. 22 are display examples of augmented reality of the search application provided by the augmented reality providing system 1c according to still another preferred embodiment.
  • the search application is for the user to search for an object (virtual object) such as a treasure box installed in the augmented reality space 9 using the mobile terminal device 2.
  • the augmented reality providing system 1c according to another preferred embodiment can be realized by the same hardware configuration as that of the augmented reality providing system 1 according to the preferred embodiment, for example.
  • the display unit 23 combines the captured image information 213d of the real part, the treasure box image 215s as the target object, the message 215t indicating the information for searching and the compass image 215u. Is displayed.
  • the treasure box image 215 s, the message 215 t, and the compass image 215 u are output information 215 selected from the candidate information 112.
  • the user searches for a virtual object (treasure chest) by relying on the message 215t and the compass image 215u output to the mobile terminal device 2.
  • the target object is found. That is, on the condition that the position information 214 falls within a predetermined range, the augmented reality configuration unit 202 selects the treasure box image 215s as the output information 215, and a screen as shown in FIG. 22 is displayed.
  • a treasure chest image 215 s and a message 215 v indicating that a treasure chest has been found are displayed along with a captured image 213 e that represents a real part.
  • the target object can be an animal expressed as a virtual object.
  • the cry of the animal is adjusted according to the position information 214 of the user and output from the configuration corresponding to the speaker 29 as information for clues.
  • the sound adjustment such as squeal is not only the volume adjustment according to the distance between the animal as the target object and the user, but also the sound source direction that the user knows by mutually adjusting the volume reaching the left and right ears of the user It is also effective to adjust.
  • it can also be adjusted according to the presence or absence of a shield between the user and the animal (regardless of whether it is a real shield or a virtual object).
  • the steps shown in the preferred embodiment are merely examples, and are not limited to the order and contents shown above. That is, as long as the same effect can be obtained, the order and contents may be changed as appropriate.
  • the step (step S5) in which the imaging unit 25 starts imaging and the step (step S6) in which the sensor group 24 starts measurement may be interchanged.
  • the functional blocks (the card control unit 200, the position / orientation specifying unit 201, the augmented reality configuration unit 202, and the like) shown in the above-described preferred embodiment are realized by software as the CPU 20 operates according to the program 210. explained. However, some or all of these functional blocks may be configured by a dedicated logic circuit and realized in hardware.
  • the index element may be a bar code representing information on the reference position and the posture at the reference position.
  • a barcode that is read in a specific posture at the reference position may be provided in the vicinity of the augmented reality space 9, and this may be configured to be imaged and read by the imaging unit 25.
  • the example in which the sensor group 24 and the output elements are provided in the same device has been described. However, they may be present in another device.
  • a pet target object
  • Augmented reality may be provided.
  • a ball (object) containing the sensor group 24 is thrown by the user in the augmented reality space 9, and the trajectory of the ball is calculated according to the position and acceleration at the moment of being thrown, and a virtual corresponding to the ball is calculated.
  • An application that displays the trajectory of an object for example, a fireball by a spear or magic
  • the state of an enemy who is a target on a device (output element) at hand of the user is also assumed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 拡張現実提供システムに、動きに関する情報を測定するセンサ群と、センサ群の基準位置を記憶する記憶装置と、センサ群が基準位置に存在しているか否かを判定するカード制御部と、カード制御部によりセンサ群が基準位置に存在していると判定された後において、記憶装置に記憶された基準位置と、センサ群により測定された動きに関する情報とに基づいて、センサ群の現在位置を特定する位置姿勢特定部と、位置姿勢特定部により特定されたセンサ群の現在位置に応じて出力情報を出力することにより拡張現実を表現する表示部とを設ける。

Description

拡張現実提供システム、記録媒体および拡張現実提供方法
 本発明は、現実環境を拡張した拡張現実を実現する技術に関する。
 従来より、現実の環境における情報に、コンピュータ等で作成した情報を付与することで、現実環境を拡張する拡張現実(AR:Augmented Reality)を実現する技術が知られている。拡張現実は視覚的に与えられるのが一般的である。したがって、コンピュータにより拡張現実を実現するためには、拡張現実を体感するユーザの視野を当該コンピュータが知得する必要があり、ユーザの位置を正確に把握することが重要となる。
 そこで、ユーザの位置を把握する技術として、GPS(Global Positioning System)を採用し、拡張現実を実現する技術が提案されている。例えば、特許文献1に記載されている技術は、GPSにより取得したユーザの位置情報を基にして、表示する仮想物体の内容や、現実環境における表示位置を決定し、現実の視覚情報と仮想物体とを合成表示する技術である。特許文献1では、GPSにより取得したユーザの位置情報から周囲の地物情報をデータベースより取得し、透過型ディスプレイに仮想物体を描画することで現実環境と仮想物体との合成を実現している。
 また、例えば、撮影画像を利用した拡張現実技術も知られている。撮影画像を利用した拡張現実技術としては、現実空間に専用の識別情報を有する画像(マーカ)を設置し、撮影画像内にマーカが存在すれば、当該マーカ上に、予め決められた仮想物体を描画する方法がある。また、画像内の特定の図形(人体など)を認識して、仮想物体を描画する方法などがある。例えば、特許文献2には、現実環境に存在するマーカを利用して仮想物体の重畳表示を可能とする技術が記載されている。また、特許文献3には、現実環境に実物体としてのマーカを必要とせず、既知である現実空間の配置物を識別して仮想物体の表示を可能とする技術が記載されている。
特開2012-068481号公報 特開2012-141779号公報 特開2003-256876号公報
 ところが、特許文献1に記載された技術では、GPS信号が微弱な環境下ではGPSによる測位精度の低下により、仮想物体の表示位置がずれるという問題があった。そもそも特許文献1に記載された技術では、GPS信号を受信できない環境下においては、仮想物体を表示することすらできないという問題があった。特に、拡張現実は屋内で提供されることが普通であり、屋内はGPS信号が微弱になりやすいという特性がある。したがって、拡張現実とGPSとは相性が悪いという事情がある。また、拡張現実は可搬性の出力装置により実現されるが、GPS信号を利用する場合、常に、GPS信号を受信しつつ処理せねばならず、バッテリ駆動を余儀なくされる可搬性の出力装置にとって消費電力の増大を招くという問題もある。
 また、特許文献2,3に記載された技術では、マーカや配置物の状態によっては、認識に失敗する可能性があるという問題がある。また、現実空間に特定のマーカや配置物の設置が必要となり、景観を損ねるという問題もある。また、仮想物体の表示内容を変更するときには、現実環境におけるマーカや配置物の移動が必要となり汎用性が低下するという問題もある。さらには、拡張現実を実行している間、常に撮影画像に対する画像認識処理を必要とするため、演算量が多く、コンピュータに対する負荷および消費電力が大きいという問題もある。
 上記の課題を解決するため、請求項1の発明は、拡張現実提供システムであって、動きに関する情報を測定するセンサと、前記センサの基準位置を記憶する第1記憶要素と、前記センサが前記基準位置に存在しているか否かを判定する判定要素と、前記判定要素により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する位置特定要素と、前記位置特定要素により特定された前記センサの現在位置に応じて出力情報を出力することにより拡張現実を表現する出力要素とを備える。
 また、請求項2の発明は、請求項1の発明に係る拡張現実提供システムであって、前記第1記憶要素は、前記基準位置における前記センサの姿勢を記憶しており、前記判定要素により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する姿勢特定要素をさらに備え、前記出力要素は、前記姿勢特定要素により特定された前記センサの現在の姿勢に応じて出力情報を出力する。
 また、請求項3の発明は、請求項1の発明に係る拡張現実提供システムであって、位置が可変の携帯端末装置と、絶対位置が既知の指標要素とを備え、前記携帯端末装置は、前記センサと、前記指標要素の個別情報を取得する取得要素とを備え、前記判定要素は、前記取得要素により前記指標要素の個別情報が取得されたときに前記センサが前記基準位置に存在していると判定する。
 また、請求項4の発明は、請求項3の発明に係る拡張現実提供システムであって、前記指標要素は、前記絶対位置に固定される設置型の装置であり、前記取得要素は、前記センサが前記基準位置に存在するときに前記設置型の装置との間で近接無線通信を行う第1無線通信要素を備える。
 また、請求項5の発明は、請求項4の発明に係る拡張現実提供システムであって、前記設置型の装置は、前記携帯端末装置と前記設置型の装置との間で近接無線通信が行われているときに、前記基準位置を前記携帯端末装置に送信する。
 また、請求項6の発明は、請求項4の発明に係る拡張現実提供システムであって、前記設置型の装置は、前記携帯端末装置と前記設置型の装置との間で近接無線通信が行われているときに、前記出力情報の候補となる候補情報を前記携帯端末装置に送信する。
 また、請求項7の発明は、請求項3の発明に係る拡張現実提供システムであって、複数の前記携帯端末装置を備え、前記携帯端末装置は、拡張現実空間内に存在する他の携帯端末装置との間で無線によるデータ通信を行う第2通信要素と、前記出力要素とを備え、第2通信要素は、前記他の携帯端末装置が備える前記センサの現在位置を無線によるデータ通信により受信し、前記出力要素は、前記第2通信要素により受信した前記他の携帯端末装置が備える前記センサの現在位置に応じて出力情報を出力する。
 また、請求項8の発明は、請求項3の発明に係る拡張現実提供システムであって、前記携帯端末装置は、拡張現実空間内に存在する端末装置との間で無線によるデータ通信を行う第3通信要素と、前記出力要素とを備え、前記第3通信要素は、前記端末装置に関する固有の情報を無線によるデータ通信により受信し、前記出力要素は、前記第3通信要素により受信した前記端末装置に関する固有の情報に応じて出力情報を出力する。
 また、請求項9の発明は、請求項1の発明に係る拡張現実提供システムであって、前記センサが付随する対象物に関する情報を記憶する第2記憶要素をさらに備え、前記出力要素は、前記第2記憶要素に記憶された前記対象物に関する情報に応じた出力情報を出力する。
 また、請求項10の発明は、請求項1の発明に係る拡張現実提供システムであって、生体に関する生体情報を測定する生体センサをさらに備え、前記出力要素は、前記生体センサにより測定された生体情報に応じた出力情報を出力する。
 また、請求項11の発明は、コンピュータ読み取り可能なプログラムを記録する記録媒体であって、前記プログラムは、コンピュータにより実行されることにより、前記コンピュータに、動きに関する情報をセンサによって測定する工程と、前記センサの基準位置を第1記憶要素に記憶させる工程と、前記センサが前記基準位置に存在しているか否かを判定する工程と、前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、特定された前記センサの現在位置に応じて出力情報を出力することにより拡張現実を表現する工程とを有する拡張現実提供方法を実行させる。
 また、請求項12の発明は、拡張現実提供方法であって、動きに関する情報をセンサによって測定する工程と、前記センサの基準位置を第1記憶要素に記憶させる工程と、前記センサが前記基準位置に存在しているか否かを判定する工程と、前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、特定された前記センサの現在位置に応じて出力情報を出力することにより拡張現実を表現する工程とを有する。
 請求項1ないし12に記載の発明は、動きに関する情報をセンサにより測定し、センサの基準位置を記憶して、センサが基準位置に存在しているか否かを判定し、センサが基準位置に存在していると判定された後において、記憶された基準位置と、センサにより測定された動きに関する情報とに基づいて、センサの現在位置を特定する。そして、特定されたセンサの現在位置に応じて出力情報を出力することにより拡張現実を表現する。これにより、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。
好ましい実施の形態における拡張現実提供システムを示す図である。 好ましい実施の形態における携帯端末装置、基準位置提供装置およびデータベースサーバのブロック図である。 好ましい実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 好ましい実施の形態における拡張現実提供方法を示す流れ図である。 好ましい実施の形態においてユーザに対して提供される拡張現実空間の景観の表示例を示す図である。 好ましい実施の形態においてユーザに対して提供される拡張現実空間の景観の表示例を示す図である。 他の好ましい実施の形態における拡張現実提供システムを示す図である。 他の好ましい実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 携帯端末装置間の無線通信により実現される拡張現実の例を示す図である。 携帯端末装置と端末装置との間の無線通信により実現される拡張現実の例を示す図である。 さらに他の好ましい実施の形態における拡張現実提供システムを示す図である。 さらに他の好ましい実施の形態における携帯端末装置のブロック図である。 さらに他の好ましい実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 さらに他の好ましい実施の形態における拡張現実提供方法を示す流れ図である。 さらに他の好ましい実施の形態における拡張現実提供システムにより実現される拡張現実の例を示す図である。 拡張現実空間内の幽霊画像の表示位置を例示する図である。 幽霊画像の表示例を示す図である。 幽霊画像の表示例を示す図である。 幽霊画像の表示例を示す図である。 さらに他の好ましい実施の形態において、幽霊画像の表示を変更する場合における変形例を示す図である。 さらに他の好ましい実施の形態における拡張現実提供システムによって提供される探索アプリケーションの拡張現実の表示例である。 さらに他の好ましい実施の形態における拡張現実提供システムによって提供される探索アプリケーションの拡張現実の表示例である。
 1,1a,1b,1c 拡張現実提供システム
 10 基準位置提供装置
 100 非接触ICカードリーダ部
 21,101,110 記憶装置
 102,111,210 プログラム
 103 基準情報
 11 データベースサーバ
 112 候補情報
 12,12a,12b,12c,12d 端末装置
 2,2a,2b 携帯端末装置
 20 CPU
 200 カード制御部
 201,201a 位置姿勢特定部
 202,202a 拡張現実構成部
 211 オーナー情報
 212 測定情報
 213,213d 撮像画像情報
 213a 店舗内画像
 213b,213c ゲームセンター内画像
 214 位置情報
 215 出力情報
 215a 経路
 215b,215c,215d 広告
 215e 店舗内画像
 215f 経路
 215g 星印
 215h,215i クーポン
 215j アバター画像
 215k,215p,215t,215v メッセージ
 215m,215n キャラクター画像
 215q 柳画像
 215r 幽霊画像
 215s 宝箱画像
 215u 羅針盤画像
 216 生体情報
 22 操作部
 23,23a 表示部
 24 センサ群
 25 撮像部
 26 非接触ICカード部
 27 通信部
 28 生体センサ
 29 スピーカ
 9 拡張現実空間
 90 円
 以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。
 また、本出願では、2013年3月6日に日本国に出願された特許出願番号2013-043838の利益を主張し、当該出願の内容は引用することによりここに組み込まれているものとする。
 図1は、好ましい実施の形態における拡張現実提供システム1を示す図である。図1に示す拡張現実空間9は、拡張現実提供システム1による拡張現実が提供されるエリアを概念的に図示したものである。
 拡張現実提供システム1は、携帯端末装置2と、絶対位置が既知であり位置が当該絶対位置に固定される設置型の装置として構成される基準位置提供装置10と、データベースサーバ11とを備えている。なお、携帯端末装置2、基準位置提供装置10およびデータベースサーバ11の数は、図1に示す数に限定されるものではない。
 拡張現実提供システム1において、基準位置提供装置10およびデータベースサーバ11は、システム運営者によって提供され設置される装置を想定している。一方で、携帯端末装置2としては、システム運営者が拡張現実を提供しようとするエリアを訪れたユーザによって所有される装置を想定しており、個人所有の携帯電話、スマートフォン、あるいは、PDA端末などが該当する。
 図2は、好ましい実施の形態における携帯端末装置2、基準位置提供装置10およびデータベースサーバ11のブロック図である。
 携帯端末装置2は、CPU20、記憶装置21、操作部22、表示部23、センサ群24、撮像部25、非接触ICカード部26および通信部27を備えている。携帯端末装置2は、ユーザに携帯されることにより、対象物としてのユーザに付随して移動する装置(存在位置が可変の装置)として構成されている。また、携帯端末装置2がセンサ群24を備えていることにより、当該センサ群24も対象物としてのユーザに付随した状態となっている。
 CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、携帯端末装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置2は、一般的なコンピュータとして構成されている。
 記憶装置21は、携帯端末装置2において各種データを記憶する機能を提供する。特に、記憶装置21は、プログラム210、基準情報103、候補情報112、測定情報212、位置情報214、出力情報215、撮像画像情報213およびオーナー情報211を記憶するために使用される。
 記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD-ROM、PCカード、SDカード、USBメモリなど)等が該当する。図1においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である(後述する記憶装置101,110についても同様である。)。
 また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、好ましい実施の形態においては、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。
 操作部22は、ユーザが携帯端末装置2(拡張現実提供システム1)に対して指示を入力するために操作されるハードウエアである。操作部22としては、例えば、各種キーやボタン類、タッチパネル、ポインティングデバイスなどが該当する。
 表示部23は、各種データを表示することにより出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、液晶ディスプレイや液晶パネルなどが該当する。特に、好ましい実施の形態における表示部23は、画像を画面に表示する液晶ディスプレイを備えており、出力情報215を出力することにより拡張現実を表現する機能を有している。
 センサ群24は、動きに関する情報を測定する複数のセンサで構成されている。センサ群24に含まれるセンサとしては、加速度センサ、ジャイロセンサ、地磁気センサなど、相対的な測位を実行するための検出装置が該当する。センサ群24からの出力(測定値)は、記憶装置21に転送され、測定情報212として記憶される。詳細は後述するが、CPU20は、測定情報212に基づいて、「動き」による移動経路を演算する。
 センサ群24によって測定された測定情報212に基づいて演算される移動経路は、厳密にはセンサ群24の移動経路である。しかし、すでに説明したように、好ましい実施の形態における拡張現実提供システム1においては、ユーザが携帯端末装置2を携帯することにより、センサ群24が対象物としてのユーザに付随した状態となる。これにより、センサ群24は、ユーザの動きを反映した情報を測定することになる。したがって、拡張現実提供システム1は、センサ群24の移動経路を、当該センサ群24が付随しているユーザの移動経路とみなす。以下の説明では、特に断らない限り、センサ群24の移動経路と対象物(ユーザ)の移動経路とを区別せずに、単に「移動経路」と称する。
 なお、従来の技術を採用して、センサ群24の移動経路を適宜補正、修正し、より精度の高い対象物の移動経路としてもよい。例えば、ユーザの歩行状態を表す測定情報212が得られている間のユーザの移動経路については、測定情報212を用いて演算するのではなく、ユーザの平均的な歩幅や歩行速度といった情報(例えば、オーナー情報211に含まれる情報)を採用して演算してもよい。また、センサ群24に含まれるセンサは、上記に示した例に限定されるものではない。
 撮像部25は、レンズなどの光学素子と、CCDなどの光電変換素子を備え、撮像範囲内にある被写体を撮像して、当該被写体の現実の外観を表現した撮像画像情報213を取得する機能を有している。すなわち、撮像部25は、一般的なデジタルカメラとしての構成および機能を有している。
 詳細は後述するが、好ましい実施の形態において、表示部23は、周囲に現実に存在する被写体の現実の外観を表現した撮像画像情報213と、周囲に存在しない事物(文字などを含む。)を表現した候補情報112から選択される出力情報215とを合成して表示することにより、画面に拡張現実を表現する。また、以下の説明では、特に断らない限り、撮像画像情報213は、複数のフレーム画像から構成されるカラーの動画像である。
 非接触ICカード部26は、一般的な非接触ICカードの構成および機能を有している。これにより、携帯端末装置2は、基準位置提供装置10の非接触ICカードリーダ部100との間で、近接無線通信を行うことが可能とされている。なお、非接触ICカード部26の回路構成および機能等は、従来技術(各種標準規格等)を適宜採用可能である。したがって、非接触ICカード部26の回路構成および機能についての詳細な説明は、省略する。
 このように、携帯端末装置2が非接触ICカード部26を備えている。したがって、ユーザは、携帯端末装置2を基準位置提供装置10の非接触ICカードリーダ部100に近接させてかざすことにより、基準位置提供装置10から必要な情報を、非接触ICカード部26側に取得することができる。特に、好ましい実施の形態における携帯端末装置2は、基準情報103および候補情報112を、基準位置提供装置10から取得する。なお、以下の説明では、ユーザが、携帯端末装置2を非接触ICカードリーダ部100に近接させてかざす一連の動作を「通信可能化動作」と称する。
 通信部27は、携帯端末装置2が外部の装置との間で無線による通信を行う機能を提供する。通信部27が提供する通信は、データ通信に限定されるものではなく、通話であってもよい。
 基準位置提供装置10は、拡張現実を提供するエリアの近傍に設置される装置である。基準位置提供装置10は、絶対位置が既知であり、当該絶対位置に固定される設置型の装置として構成されている。図2に示すように、基準位置提供装置10は、非接触ICカードリーダ部100および記憶装置101を備えている。なお、図2では、基準位置提供装置10の詳細な構成の図示を省略しているが、基準位置提供装置10は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。
 非接触ICカードリーダ部100は、一般的な非接触ICカードとの間で近接無線通信を行い、当該非接触ICカードに記憶されている様々な情報を読み取ることが可能であるとともに、当該非接触ICカードに様々な情報を送信することも可能である。このような非接触ICカードリーダ部100としては、従来の技術を適用できるため、詳細な説明は省略する。好ましい実施の形態における非接触ICカードリーダ部100は、携帯端末装置2が備える非接触ICカード部26との間で近接無線通信を行う。
 基準位置提供装置10の外表面を構成する筐体は、図1に示すように、ユーザが通信可能化動作を行うために適した外観となっている。すなわち、ユーザが通信可能化動作を実行するときの携帯端末装置2(センサ群24)の位置および姿勢とが明確に規定される外観となっている。具体的には、非接触ICカードリーダ部100の位置において、筐体の外表面が水平面に対して傾斜した平面形状となっており、かつ、当該外表面の色彩が他の部分と異なるように図案化されている。これにより、ユーザは、混乱することなく、かつ、正確に通信可能化動作を実行することができる。
 ユーザが通信可能化動作を実行しているときの携帯端末装置2の位置および姿勢は、先述のように、基準位置提供装置10の筐体によって規定される。また、基準位置提供装置10の絶対位置は既知であり、かつ、基準位置提供装置10が設置型の装置であることから当該絶対位置は容易に変化することはない。したがって、基準位置提供装置10の非接触ICカードリーダ部100と、携帯端末装置2の非接触ICカード部26とが、互いにデータ通信を行っているときにおいて、携帯端末装置2(センサ群24)の位置および姿勢は既知とみなせる。
 好ましい実施の形態における拡張現実提供システム1は、基準位置提供装置10の非接触ICカードリーダ部100と、携帯端末装置2の非接触ICカード部26とが互いにデータ通信を行っているときの携帯端末装置2(センサ群24)の位置を「基準位置」とし、当該基準位置におけるセンサ群24の姿勢(向き)を「基準位置における姿勢」とする。
 基準位置および基準位置における姿勢は、いずれも基準位置提供装置10を設置する際に各基準位置提供装置10ごとに予め測定し、基準情報103として記憶しておくことができる。すなわち、基準情報103は、基準位置提供装置10の個別情報に相当し、非接触ICカードリーダ部100と非接触ICカード部26とが互いにデータ通信を行っているときのセンサ群24の位置および姿勢(向き)を示す情報である。そして、基準位置提供装置10は、基準情報103を携帯端末装置2に向けて送信することにより、当該携帯端末装置2に対して当該基準情報103を提供する機能を有している。
 記憶装置101は、基準位置提供装置10において情報を記憶する機能を有する装置の総称である。特に、記憶装置101は、基準位置提供装置10のCPU(図示せず)によって実行されるプログラム102、基準位置提供装置10の個別情報としての基準情報103、および、データベースサーバ11から取得される候補情報112を記憶する。
 データベースサーバ11は、図2に示すように、記憶装置110を備えている。なお、図2では、データベースサーバ11の詳細な構成の図示を省略しているが、データベースサーバ11は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。
 データベースサーバ11は、基準位置提供装置10と異なり、拡張現実を提供するエリアの近傍に限定されることなく、様々な場所に設置することが可能な装置である。データベースサーバ11の設置場所としては、例えばシステム運営者のセンタやバックヤードなどが想定される。データベースサーバ11は、LANやインターネット、公衆網などのネットワークを介して基準位置提供装置10と接続されており、必要に応じて候補情報112を基準位置提供装置10に送信する。
 記憶装置110は、データベースサーバ11において情報を記憶する機能を有する装置の総称である。特に、記憶装置110は、データベースサーバ11のCPU(図示せず)によって実行されるプログラム111、および、候補情報112を記憶する。
 候補情報112は、拡張現実を提供するときに使用される素材(コンテンツ)に関する情報である。候補情報112は、データベースサーバ11のオペレータやデザイナ、プログラマ等により作成され、記憶装置110に格納される。具体的には、候補情報112は、拡張現実において表示される仮想物体のグラフィック情報、位置に関する情報、時間に関する情報、あるいは、拡張現実空間9における地図情報(レイアウトデータ)などである。なお、候補情報112に含まれる各情報には、出力情報215として選択する際に参照されるタグ(分類、説明など)が付加されている。
 候補情報112は、一般には、基準位置提供装置10の周辺で提供される拡張現実ごとに異なる情報である。また、候補情報112は、それぞれの基準位置提供装置10ごとにデータベースサーバ11から送信される。また、提供中の拡張現実の内容を変更するときには、データベースサーバ11において候補情報112が更新され、該当する基準位置提供装置10に向けてアップロードされる。
 図3は、好ましい実施の形態における携帯端末装置2が備える機能ブロックをデータの流れとともに示す図である。図3に示すカード制御部200、位置姿勢特定部201および拡張現実構成部202は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。
 カード制御部200は、非接触ICカード部26を制御することにより、基準位置提供装置10との間の近接無線通信を制御する機能を有している。すなわち、カード制御部200は、非接触ICカード部26との間のインタフェースを構成しており、非接触ICカード部26が受信した基準情報103および候補情報112を記憶装置21に転送し、記憶させる。なお、図3では、記憶装置21から何らかの情報が読み出されて非接触ICカード部26から送信されることについては図示していないが、そのような情報が存在していてもよい。すなわち、非接触ICカード部26は書き込み専用でなくてもよい。
 先述のように、好ましい実施の形態では、非接触ICカード部26と、基準位置提供装置10の非接触ICカードリーダ部100との間で近接無線通信が開始されたときに、携帯端末装置2(センサ群24)が基準位置に存在すると判定する。すなわち、非接触ICカード部26が基準情報103を受信したとカード制御部200が判定したときが、携帯端末装置2(センサ群24)が基準位置に存在すると判定されるときである。このように、好ましい実施の形態におけるカード制御部200は、本発明に係る判定要素に相当する機能を有している。
 位置姿勢特定部201は、センサ群24により測定された測定情報212に基づいて、相対的な測位の結果としての移動経路を演算する。なお、センサ群24によって観測される「移動に関する情報」には回転移動に関する情報も含まれる。したがって、位置姿勢特定部201によって演算される移動経路には、位置の変化履歴(移動軌跡)のみならず、姿勢の変化に関する情報も含まれる。
 また、位置姿勢特定部201は、演算により求めた移動経路の始点の絶対位置に基づいて、当該移動経路の終点の位置を絶対位置に変換することにより、携帯端末装置2(センサ群24)の現在位置を特定するとともに、携帯端末装置2(センサ群24)の現在の姿勢を特定する。なお、移動経路の始点の絶対位置とは、基準情報103に含まれる基準位置である。
 すなわち、位置姿勢特定部201は、基準情報103の受信後において、記憶装置21に記憶された基準情報103と、測定情報212とに基づいて、携帯端末装置2の現在位置を特定するとともに、携帯端末装置2の現在の姿勢を特定する機能を有している。好ましい実施の形態において、基準情報103の受信後とは、カード制御部200によりセンサ群24が基準位置に存在していると判定された後である。また、測定情報212は、センサ群24により測定された動きに関する情報である。すなわち、好ましい実施の形態における位置姿勢特定部201は、本発明に係る位置特定要素および姿勢特定要素に相当する機能を有している。
 位置姿勢特定部201によって特定された携帯端末装置2の現在位置および現在の姿勢は、位置情報214として記憶装置21に記憶される。
 拡張現実構成部202は、位置姿勢特定部201により求められた位置情報214と、オーナー情報211とを参照して、拡張現実を表現するための素材である候補情報112から出力情報215を抽出する機能を有している。
 なお、オーナー情報211とは、操作部22が操作されることによりユーザによって入力される当該ユーザに関する情報であって、より詳細には対象物の特性に関する情報である。具体的には、携帯端末装置2を所有するユーザの年齢、性別、職業、住所、趣味、趣向、行動(購買)履歴、病歴(アレルギーの有無など)、婚姻状況、家族構成、所有物(車、家など)といった個人情報である。これらの情報は、操作部22から直接入力される情報に限定されるものではなく、他のアプリケーションによって自動的に収集されてもよい。
 また、出力情報215は、好ましい実施の形態では、表示部23において、液晶ディスプレイの画面に表示される情報であり、提供される拡張現実において現実を拡張するための情報に相当する。表示部23は、出力情報215を撮像画像情報213に重ねて(合成して)あるいは追加して表示することにより、当該画面に拡張現実を表現する。なお、出力情報215は、候補情報112から抽出されるときに、拡張現実構成部202によって加工されてもよい。すなわち、そのような加工手順に関する情報も、候補情報112に含まれていてもよい。
 以上が好ましい実施の形態における拡張現実提供システム1の構成および機能の説明である。次に、拡張現実提供システム1を用いて、ユーザに対して、拡張現実を提供する方法について具体的に説明する。
 図4は、好ましい実施の形態における拡張現実提供方法を示す流れ図である。好ましい実施の形態においては、拡張現実を用いて、百貨店やショッピングモールなどの集合店舗における店舗案内を実現する例について説明する。すなわち、集合店舗内を拡張現実空間9として、ユーザを目的の店舗に案内するアプリケーションを例に説明する。したがって、好ましい実施の形態における候補情報112には、集合店舗の見取り図、見取り図内に配置される各店舗の位置情報、広告情報、クーポン情報などが含まれている。
 なお、図4に示す各工程が開始されるまでに、携帯端末装置2が起動され、所定の初期設定が完了し、記憶装置21にオーナー情報211が記憶されているものとする。また、基準位置提供装置10の記憶装置101に、基準情報103および候補情報112がすでに記憶されているものとする。また、図4では、説明の都合上、1人のユーザに対する各工程を示しているが、拡張現実提供システム1は同時に複数のユーザ(複数の携帯端末装置2)に対して拡張現実を提供することが可能である。
 ユーザは、集合店舗(拡張現実空間9)に到着する(ステップS1)と、持参した携帯端末装置2を用いて、入り口に設置されている基準位置提供装置10に対して通信可能化動作を行う(ステップS2)。
 好ましい実施の形態では、ユーザが通信可能化動作を行わなければ、拡張現実提供システム1は、当該ユーザに対して拡張現実を提供することは困難である。したがって、来店時等において、ユーザに通信可能化動作を確実に実行させる仕組みを設けておくことが好ましい。
 このような仕組みとして、例えば、通信可能化動作により、携帯端末装置2に来店ポイントが付加されるように構成することが考えられる。このように構成すれば、来店ポイントを貯めたいユーザの通信可能化動作をより促進することができる。もちろん、入り口付近に、顧客(ユーザ)に対して通信可能化動作を促すポスターを掲示するなどしてもよい。
 ユーザにより通信可能化動作(ステップS2)が実行されることで、携帯端末装置2の非接触ICカード部26と、基準位置提供装置10の非接触ICカードリーダ部100との間で近接無線通信が開始される。これにより、携帯端末装置2のCPU20(カード制御部200)は、ステップS3においてYesと判定する。すなわち、カード制御部200は、ステップS3においてYesと判定した時点で、携帯端末装置2(センサ群24)が基準位置に存在すると判定する。
 無線通信が開始されると、携帯端末装置2は、基準位置提供装置10から基準情報103および候補情報112を取得する(ステップS4)。これにより、記憶装置21に基準情報103および候補情報112が格納される。
 ステップS4の処理と並行して、撮像部25は、周囲(拡張現実空間9内)の撮像を開始する(ステップS5)。これにより、以後、撮像周期に応じて撮像画像情報213が取得される状態となる。なお、好ましい実施の形態ではステップS5の処理は、通信可能化動作により自動的に開始されるが、もちろん、ユーザの指示(操作部22に対するユーザ操作)により開始するように構成してもよい。
 ステップS5の処理と並行して、センサ群24は、移動に関する情報の測定を開始する(ステップS6)。これにより、以後、センサ群24の測定周期に応じて測定情報212が更新される状態となる。すなわち、拡張現実空間9内におけるユーザ(携帯端末装置2)の移動に関する情報がセンサ群24によって測定情報212として収集され続ける状態となる。
 ステップS4ないしS6が実行されると、位置姿勢特定部201は、基準情報103(移動経路の始点に関する情報)、および、測定情報212(移動経路を求めるための情報)に基づいて、携帯端末装置2の現在位置および現在の姿勢を特定し(ステップS7)、位置情報214を作成する。
 次に、拡張現実構成部202が、位置情報214に応じて、拡張現実空間9における絶対位置と姿勢とを決定し、当該拡張現実における視点および視線方向を決定する。さらに、拡張現実構成部202は、決定した視点および視線方向に応じて、候補情報112から出力情報215を抽出する(ステップS8)。
 視点および視線方向が決まれば、拡張現実空間9における視野を決定することができる。そして、拡張現実空間9における視野が決まれば、当該視野に対応して仮想的に表示させるべき事物(仮想物体)および当該事物の形状などが決まる。このようにして拡張現実構成部202は、候補情報112から適切な出力情報215を選択することができる。なお、位置情報214が作成された後に、当該位置情報214に基づいて出力情報215を選択する原理は、従来の技術を適宜適用することも可能である。
 好ましい実施の形態では、拡張現実構成部202が決定する「視点および視線方向」が、撮像部25による「撮像点(撮像範囲の中心点)および撮像方向」と一致するほど、出力情報215と撮像画像情報213とを合成表示したときのユーザの違和感が抑制される。したがって、位置姿勢特定部201は、この点(携帯端末装置2における撮像部25の位置や向き)を考慮して、位置情報214を作成することが好ましい。
 集合店舗における店舗案内においては、ユーザの現在位置(位置情報214)が同じであっても、ユーザの目的地が異なれば、表示する仮想物体(案内経路など)を変更する必要がある。すなわち、目的地など、位置情報214とは異なる情報に応じて、出力情報215を選択しなければならない。したがって、好ましい実施の形態における拡張現実構成部202は、位置情報214のみならず、オーナー情報211を参照して出力情報215を抽出する。
 まず、拡張現実構成部202は、オーナー情報211に応じて、集合店舗内の複数の店舗の中から、ユーザが目的とする店舗を決定する。このような決定を行うための情報としては、例えば、オーナー情報211に含まれるユーザの趣味、購買履歴、来店履歴、店舗検索履歴、目的地として入力された店舗名などを利用することができる。一般にオーナー情報211として記録されている情報は不定である。したがって、拡張現実構成部202は、オーナー情報211に存在する蓋然性の高い情報に予め重み付け(優先順位付け)を行っておき、参照時に実際に格納されていた各情報の重みを加算した評価を実行して、ユーザの目的の店舗を決定する。
 システム運営者によって提供される装置であれば、ユーザの個人情報であるオーナー情報211を網羅的に収集することには困難を伴う。個人情報の流出を危惧するユーザが他人の装置に自分の個人情報を提供することに消極的となるためである。しかし、好ましい実施の形態における携帯端末装置2は、ユーザ所有であるため、個人情報を入力することに対してユーザの抵抗感は少ないと予測される。したがって、予めオーナー情報211を正確かつ詳細に収集しておくことが可能である。また、状況に応じてアプリケーションから必要な情報の入力を促すことも可能である。これにより、好ましい実施の形態における拡張現実構成部202は、ユーザの望む店舗を正確に予測することができる。
 ユーザの望む店舗が予測できれば、拡張現実構成部202は、位置情報214に基づいて決定した拡張現実空間9における視野と、予測した店舗名とに応じて、候補情報112から適切な出力情報215を特定することができる。なお、拡張現実構成部202は、時間などの公共的な情報を用いてユーザの目的の店舗を決定してもよい。例えば、お昼時であれば、レストランを優先的に選択するといった手法も考えられる。
 ステップS8が実行されて、出力情報215が作成されると、表示部23は、出力情報215と撮像画像情報213とを液晶ディスプレイの画面に合成表示する(ステップS9)。これにより、表示部23が、拡張現実を液晶ディスプレイの画面に表現し、ユーザに対して拡張現実を提供する。
 以後、拡張現実の提供を終了させるか否かを判定しつつ(ステップS10)、終了させる指示があるまでステップS7ないしS10の処理を繰り返す。
 図5および図6は、好ましい実施の形態においてユーザに対して提供される拡張現実空間9の景観の表示例を示す図である。すなわち、図5および図6は、表示部23に表示される拡張現実表示画面の例である。
 図5は、液晶ディスプレイの画面に、店舗内画像213aと、仮想物体である経路215a、広告215b,215c,215dとが表示されている様子を示している。
 店舗内画像213aは、撮像部25によって撮像された撮像画像情報213であり、拡張現実空間9における現実部分を表現した画像である。
 また、経路215a、広告215b,215c,215dは、候補情報112から選択された出力情報215であり、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。
 携帯端末装置2は、図5に示すように、現実環境の景観(店舗内画像213a)に、仮想物体で構成された拡張環境の景観(経路215a、広告215b,215c,215d)を重ねて拡張現実表示画面を作成し提供することができる。
 ユーザは、経路215aを視認することにより、店舗Dに向かって案内されていることを知得することができるとともに、店舗Dまでの経路および距離等を、地図などで示される場合に比べて、容易に、かつ、直感的に知得することができる。また、ユーザが地図などを注視している場合、通行人等に衝突する危険がある。しかし、拡張現実提供システム1が提供する拡張現実では、通行人も店舗内画像213aとして表示されるので、画面を注視していても、ユーザは衝突する危険を容易に察知し回避することができる。
 また、ユーザは、経路を確認するついでに、広告215b,215c,215dを視認することになり、経路周辺の店舗の新鮮な情報を得ることも可能である。広告215b,215c,215dは、現実の店舗前に設置されるポップ広告等に比べて、画面に正対するユーザにとって見やすい位置、角度、大きさに容易に調整することができるとともに、アニメーション効果などを持たせることも容易であるため、広告主の店舗にとっても効果的な情報発信が可能となる。すなわち、店舗にとっての広告媒体としても優れた効果を発揮する。
 一方で、拡張現実構成部202は、ユーザが望まない店舗に関する情報を、オーナー情報211により判断し、店舗D以外の店舗の広告215b,215c,215dの表示を禁止することも可能である。あるいは、それに加えて、目的の店舗D以外の店舗部分を視認不能にする(例えば、他の店舗の現実の位置に白壁画像を表示する。)といった表現方法も可能である。これによって、不要な情報が表示されることによるユーザの混乱を抑制することができ、ユーザに適した使いやすいアプリケーションを提供できる。
 図6は、液晶ディスプレイの画面に、店舗内画像215eと、仮想物体である経路215f、星印215g、クーポン215h,215iとが表示されている様子を示している。
 店舗内画像215eは、撮像部25によって撮像された撮像画像情報213ではなく、現実の店舗内をデフォルメした地図画像であり、拡張現実空間9における現実部分を表現した画像である。すなわち、拡張現実構成部202は、候補情報112に含まれる拡張現実空間9のレイアウトや地図に応じて、店舗内画像215eを作成することも可能である。すなわち、出力情報215は必ずしも仮想物体のみを表現した情報に限定されるものでない。
 また、経路215fは、位置情報214、オーナー情報211および候補情報112(地図情報)に基づいて拡張現実構成部202により計算された情報を、候補情報112から選択された出力情報215(線図案)で表現した情報である。経路215fは、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。
 さらに、星印215gおよびクーポン215h,215iは、候補情報112から選択された出力情報215であり、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。
 携帯端末装置2は、図6に示すように、現実環境の景観(店舗内画像215e)に、仮想物体で構成された拡張環境の景観(経路215f、星印215g、クーポン215h,215i)を重ねて拡張現実表示画面を作成し提供することができる。
 ユーザは、経路215fを視認することにより、店舗Dまでの全行程を確認することができる。また、星印215gを視認することにより、集合店舗内における現在位置も確認することができる。
 さらに、ユーザは、経路を確認するついでに、クーポン215h,215iを視認することにより、店舗C,Dにおいてクーポンが発行されていることを知得することができる。このようなクーポンは、候補情報112に含まれており、該当する店舗のレジなどに正対したときに、出力情報215として選択され、仮想物体として具体的内容が画面に表示される。すなわち、支払い時にユーザが逐一操作して表示させてから、店員に提示する必要はない。
 なお、携帯端末装置2は、図5に示す画面と図6に示す画面とをユーザの指示に応じて切り替えることができる。ただし、図5に示す画面と図6に示す画面とを並べて同時に表示してもよい。また、携帯端末装置2は、ユーザが目的の店舗に到着したことを位置情報214により検出したときは、次の目的地となる店舗を決定して、当該店舗に対する案内を開始してもよい。また、次の目的地となる店舗に対する案内の開始は、最初の店舗からユーザが退出したタイミングで開始してもよい。
 以上のように、好ましい実施の形態における拡張現実提供システム1は、測定情報212を測定するセンサ群24と、センサ群24の基準位置を記憶する記憶装置21(記憶装置101,110)と、センサ群24が基準位置に存在しているか否かを判定するカード制御部200と、カード制御部200によりセンサ群24が基準位置に存在していると判定された後において、記憶装置21に記憶された基準位置と、センサ群24により測定された測定情報212とに基づいて、センサ群24の現在位置を特定する位置姿勢特定部201と、位置姿勢特定部201により特定されたセンサ群24の現在位置に応じて出力情報215を出力することにより拡張現実を表現する表示部23とを備える。これにより、拡張現実提供システム1は、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。
 また、記憶装置21は、基準位置におけるセンサの姿勢を記憶しており、位置姿勢特定部201が、カード制御部200によりセンサ群24が基準位置に存在していると判定された後において、記憶装置21に記憶された基準位置におけるセンサ群24の姿勢と、センサ群24により測定された測定情報212とに基づいて、センサ群24の現在の姿勢を特定し、表示部23は、位置姿勢特定部201により特定されたセンサ群24の現在の姿勢に応じて出力情報215を出力する。すなわち、GPSと異なり、拡張現実提供システム1は、ユーザの絶対位置だけでなく、ユーザの姿勢や向きを決定することが可能である。そして、これらの情報に応じて、ユーザの視線の先に効果的な仮想物体(出力情報215)を表示することができる。したがって、これにより、さらに現実味のある拡張現実を表現することができる。
 また、絶対位置に固定される設置型の装置としての基準位置提供装置10を備えるとともに、携帯端末装置2はセンサ群24が基準位置に存在するときに基準位置提供装置10との間で近接無線通信を行う非接触ICカード部26を備える。これにより、拡張現実の提供を開始する直前に利用可能な位置に基準位置提供装置10を設置しておけば、拡張現実を提供する直前にセンサ群24をリセットできる。したがって、時間経過によるセンサ群24の誤差累積を抑制することができる。
 また、基準位置提供装置10は、携帯端末装置2と基準位置提供装置10との間で近接無線通信が行われているときに、基準情報103を携帯端末装置2に送信する。これにより、携帯端末装置2が予め基準情報103を取得しておく必要がない。
 基準位置提供装置10は、携帯端末装置2と基準位置提供装置10との間で近接無線通信が行われているときに、出力情報215の候補となる候補情報112を携帯端末装置2に送信する。これにより、携帯端末装置2が予め候補情報112を取得しておく必要がない。また、利用する直前に候補情報112を取得することになるので、比較的新しい状態の候補情報112を取得することができる。
 また、拡張現実提供システム1は、センサ群24が付随する対象物に関する情報としてオーナー情報211を記憶し、表示部23は、記憶されたオーナー情報211に応じた出力情報215を出力する。これにより、対象物に応じた拡張現実を提供することができる。例えば、対象物が個人である場合、個人ごとに当該個人に適した拡張現実を提供することができる。
 なお、好ましい実施の形態における基準情報103は、基準位置提供装置10において作成され、記憶装置101に記憶されると説明した。しかし、例えば、データベースサーバ11において基準情報103に相当する情報を作成し、候補情報112とともに各基準位置提供装置10に向けて送信するように構成してもよい。
 また、基準位置提供装置10とデータベースサーバ11とを、1台のコンピュータで構成してもよい。
 また、候補情報112は、携帯端末装置2の通信部27とデータベースサーバ11との間のデータ通信により、予め携帯端末装置2にダウンロードされていてもよい。すなわち、候補情報112は、必ずしも基準位置提供装置10から取得されなくてもよい。一般に、非接触ICカード部26と非接触ICカードリーダ部100との間の近接無線通信によるデータ通信は、膨大な量のデータを送受信するには不向きである。したがって、比較的データ量の多い候補情報112に関しては、一般的なネットワーク(インターネットなど)を介したデータ通信により送受信することが好ましい。ユーザは、基準位置提供装置10の周囲において拡張現実の提供を受ける前に、所有する携帯端末装置2を操作してデータベースサーバ11にアクセスし、当該基準位置提供装置10の周囲で提供される拡張現実用の候補情報112を予めダウンロードしておけばよい。なお、この場合、基準情報103も候補情報112とともにデータベースサーバ11から携帯端末装置2に向けて送信することが好ましい。
 また、拡張現実構成部202がユーザの購買行動を予測して適切な出力情報215を抽出するためには、周囲の環境を示す温度や湿度といった情報が有効な場合もある。したがって、温度センサや湿度センサなどの環境センサを携帯端末装置2に設けて、拡張現実構成部202がこれらのセンサによって収集された情報を参照するように構成してもよい。
 好ましい実施の形態における携帯端末装置2は、拡張現実空間9内において、拡張現実を提供するためのデータ通信を行っていなかった。しかし、本発明はこのような形態に限定されるものではない。
 図7は、他の好ましい実施の形態における拡張現実提供システム1aを示す図である。なお、携帯端末装置2aおよび端末装置12の数は、図7に示される数に限定されるものではない。また、拡張現実空間9内における携帯端末装置2aの通信相手としては、他の携帯端末装置2aまたは端末装置12の少なくともいずれかが存在していればよい。
 拡張現実提供システム1aは、その構成として、携帯端末装置2の代わりに携帯端末装置2aを備えている点と、据え置き型の端末装置12を備えている点とが、好ましい実施の形態における拡張現実提供システム1の構成と異なっている。以下、他の好ましい実施の形態における拡張現実提供システム1aについては、好ましい実施の形態における拡張現実提供システム1と同様の構成については同符号を付し、適宜説明を省略する。
 図8は、他の好ましい実施の形態における携帯端末装置2aが備える機能ブロックをデータの流れとともに示す図である。
 携帯端末装置2aは、携帯端末装置2とほぼ同様の構成を有する装置であり、拡張現実空間9内を、ユーザに携帯されつつ移動する。ただし、携帯端末装置2aの通信部27は、定期的に周囲の通信デバイスを探索し、拡張現実空間9内に存在する他の携帯端末装置2aおよび端末装置12との間で近接無線通信によるデータ通信を行う。ここで採用する無線通信方式としては、例えば、Bluetooth(登録商標)のような近接無線通信方式が適している。ただし、Bluetooth(登録商標)に限定されるものではない。
 携帯端末装置2aの通信部27は、拡張現実空間9内の通信デバイスとして検出した他の携帯端末装置2aおよび端末装置12に向けて、自機の記憶装置21に記憶されているオーナー情報211および位置情報214を送信する。なお、通信部27により外部に送信されるオーナー情報211は、個人情報の漏洩を防止するため、ユーザにより許可された情報に限定される。
 また、携帯端末装置2aの通信部27は、他の携帯端末装置2aや端末装置12から受信した情報については、候補情報112として自機の記憶装置21に格納する。すなわち、他の好ましい実施の形態においては、候補情報112は、基準位置提供装置10から取得された情報に限定されるのではなく、他の携帯端末装置2aや端末装置12から収集された情報が含まれる。
 端末装置12は、一般的な据え置き型のコンピュータであり、拡張現実空間9内において、その絶対位置が固定される装置である。他の好ましい実施の形態における候補情報112は、端末装置12の識別情報と絶対位置(設置位置)に関する情報とを含んでいる。また、端末装置12は、携帯端末装置2aの通信部27との間で近接無線通信によるデータ通信を行う機能を有しており、自機に固有の情報(詳細後述)を携帯端末装置2aに向けて送信する。
 以下、他の好ましい実施の形態における拡張現実提供システム1aについて、多数のゲーム機(端末装置12)が設置されたゲームセンターを拡張現実空間9とするアプリケーションの例で説明する。ただし、説明を理解しやすくするために、携帯端末装置2aが他の携帯端末装置2aと無線通信を行うことにより実現される拡張現実の例と、携帯端末装置2aが端末装置12と無線通信を行うことにより実現される拡張現実の例とを分けて説明する。
 まず、拡張現実提供システム1aにおいて、携帯端末装置2aが他の携帯端末装置2aと無線通信を行うことにより実現される拡張現実の例について説明する。
 図9は、携帯端末装置2a間の無線通信により実現される拡張現実の例を示す図である。図9に示す例では、携帯端末装置2aの表示部23に、ゲームセンター内画像213b、アバター画像215jおよびメッセージ215kが表示されている。
 ゲームセンター内画像213bは、携帯端末装置2aの撮像部25によって撮像されたゲームセンター(拡張現実空間9)内の映像(撮像画像情報213)である。すなわち、ゲームセンター内画像213bは、拡張現実において、現実部分を表現した画像である。ここでは、3台の端末装置12が撮像されている。
 アバター画像215jおよびメッセージ215kは、拡張現実構成部202によって候補情報112から選択された出力情報215を表示した画像である。すなわち、アバター画像215jおよびメッセージ215kは、現実には存在しない仮想的な事物を表現した画像であり、拡張現実において、拡張部分を表現した画像である。
 アバター画像215jおよびメッセージ215kは、いずれも候補情報112から選択された情報ではあるが、いずれも基準位置提供装置10から取得した情報ではない。これらは、他の携帯端末装置2aから受信したオーナー情報211および位置情報214に基づいて作成された情報である。
 他の好ましい実施の形態において、ユーザは、好ましい実施の形態と同様に、拡張現実空間9の入り口で、基準位置提供装置10から基準情報103および候補情報112を取得し、ゲームセンター内に入場する。また、ユーザは、任意のタイミングで(すなわち、ゲームセンターの内外)、オーナー情報211を編集し、自分のアバターや各種メッセージ、ゲームセンター内に設置されているゲーム(端末装置12により提供される。)のプレイ履歴、あるいは、自己プロフィールなどを設定する。
 ゲームセンター内では、通信部27が付近の通信デバイス(他の携帯端末装置2a)を探索して、検出した他の携帯端末装置2aとの間で通信を開始する。携帯端末装置2aは、他の携帯端末装置2aとの間でオーナー情報211および位置情報214を互いに交換する。そして、受信した他の携帯端末装置2aのオーナー情報211および位置情報214に基づいて候補情報112を作成し、自機の記憶装置21に格納する。
 拡張現実構成部202は、好ましい実施の形態と同様に、拡張現実空間9内における視野が求まると、候補情報112から出力情報215を選択する。このとき、当該視野内に他の携帯端末装置2aが存在する場合、当該他の携帯端末装置2aから受信したオーナー情報211に基づいて作成された候補情報112から出力情報215が選択される。なお、他の携帯端末装置2aの現在位置は、当該他の携帯端末装置2aから受信する位置情報214(より詳しくは、当該位置情報214に由来する候補情報112)により判定できる。
 このようにして、携帯端末装置2aは、他の携帯端末装置2aのユーザがオーナー情報211に設定しておいたアバター(アバター画像215j)を、当該ユーザの現在位置に、当該ユーザの実画像に上書きして表示する。また、当該他の携帯端末装置2aから受信したオーナー情報211に設定されているメッセージ(メッセージ215k)を表示することもできる。
 このように、他の好ましい実施の形態における拡張現実提供システム1aは、複数の携帯端末装置2a間において、互いにオーナー情報211および位置情報214を交換させる。これにより、ゲームセンターを訪れたユーザは、ユーザ間でメッセージや絵文字、キャラクター(アバター)、ゲームのプレイ履歴を利用した各ユーザの紹介文(格闘ゲームの達人、音楽ゲーム初心者など)などを仮想物体としてやり取りして表示し楽しむことができる。
 次に、拡張現実提供システム1aにおいて、携帯端末装置2aが端末装置12と無線通信を行うことにより実現される拡張現実の例について説明する。
 図10は、携帯端末装置2aと端末装置12との間の無線通信により実現される拡張現実の例を示す図である。図10に示す例では、携帯端末装置2aの表示部23に、ゲームセンター内画像213c、キャラクター画像215m,215n、および、メッセージ215pが表示されている。
 ゲームセンター内画像213cは、携帯端末装置2aの撮像部25によって撮像されたゲームセンター(拡張現実空間9)内の映像(撮像画像情報213)である。すなわち、ゲームセンター内画像213cは、拡張現実において、現実部分を表現した画像である。ここでは、4台の端末装置12が撮像されている。なお、図10に示す例では、各端末装置12を区別するために、それぞれの符号にアルファベットを付加し、端末装置12a,12b,12c,12dとする。
 キャラクター画像215m,215n、および、メッセージ215pは、拡張現実構成部202によって候補情報112から選択された出力情報215を表示した画像である。すなわち、キャラクター画像215m,215n、および、メッセージ215pは、現実には存在しない仮想的な事物を表現した画像であり、拡張現実において、拡張部分を表現した画像である。
 キャラクター画像215m,215n、および、メッセージ215pは、いずれも候補情報112から選択された情報ではあるが、いずれも基準位置提供装置10から取得した情報ではない。これらは、携帯端末装置2aが受信した各端末装置12a,12b,12cに固有の情報に基づいて作成された情報である。
 すでに説明したように、他の好ましい実施の形態において、ゲームセンター内では、通信部27が付近の通信デバイスを探索する。このとき、端末装置12が検出されると、通信部27は、検出した端末装置12との間で通信を開始する。携帯端末装置2aは、通信が開始された端末装置12から当該端末装置12に固有の情報を受信する。そして、受信した固有の情報に基づいて候補情報112を作成し、自機の記憶装置21に格納する。
 なお、端末装置12の位置は、基準位置提供装置10から取得した候補情報112に含まれている。したがって、携帯端末装置2aは、近接無線通信が成立した全ての端末装置12から固有の情報を受信するのではなく、予め取得されている端末装置12の位置に基づいてユーザの視野内に存在すると判定された端末装置12からのみ固有の情報を受信するようにしてもよい。これにより、データ通信において送受信される情報量を抑制することができる。
 好ましい実施の形態における携帯端末装置2と同様に、携帯端末装置2aもユーザの視点や視線方向を決めることにより、拡張現実空間9内におけるユーザの視野を決定することができる。したがって、拡張現実構成部202は、ユーザの視野内に存在する端末装置12に由来する候補情報112(当該端末装置12から受信した固有の情報に基づいて作成された候補情報112)の中から、出力情報215を選択することができる。
 このようにして、携帯端末装置2aは、各端末装置12の固有の情報を、各端末装置12の位置に応じた位置に表示する。図10に示す例では、端末装置12aのプレイ状況に応じたキャラクター画像215mと、端末装置12bのプレイ状況に応じたキャラクター画像215nと、端末装置12cの受付状況を示すメッセージ215pとが表示されている。
 このように、他の好ましい実施の形態における拡張現実提供システム1aは、携帯端末装置2aにおいて、拡張現実空間9内に存在する端末装置12の固有の情報を収集する。これにより、ゲームセンターを訪れたユーザは、近くに存在する端末装置12から、提供されているゲームのプレイ情報やデモ情報、遊び方などの情報を受信して、仮想物体として表示することができる。また、単に近いだけではなく、拡張現実空間9内のユーザの視野を決定して、ユーザの視線の先に仮想物体を表示することができる。したがって、リアルな拡張現実を表現できるとともに、好ましい実施の形態に比べて、よりリアルタイムな情報に基づいて拡張現実を表現できる。また、プレイ状況を拡張現実として表現することにより、プレイ風景(キャラクター画像215m,215n)が表示され、観客としてもゲームを楽しむことができる。
 なお、デモ情報や遊び方など、頻繁に変更されることのない情報については、基準位置提供装置10から候補情報112として受信するように構成してもよい。すなわち、出力情報215は、他の携帯端末装置2aや端末装置12から受信した情報に限定されるものではない。
 ここまでの説明では、対象物に関して収集される情報は、オーナー情報211および位置情報214のみであった。しかし、対象物に関して収集される情報は、このような情報に限定されるものではない。また、好ましい実施の形態および他の好ましい実施の形態では、提供される拡張現実において、現実部分も画像情報として表示部23に表示される例について説明した。しかし、拡張現実における現実部分は必ずしも画像情報として表示されなければならないものではない。
 図11は、さらに他の好ましい実施の形態における拡張現実提供システム1bを示す図である。拡張現実提供システム1bは、携帯端末装置2の代わりに携帯端末装置2bを備えている点と、基準位置提供装置10およびデータベースサーバ11に相当する構成を備えていない点とが、好ましい実施の形態における拡張現実提供システム1と異なっている。以下、さらに他の好ましい実施の形態における拡張現実提供システム1bについては、好ましい実施の形態における拡張現実提供システム1と同様の構成については同符号を付し、適宜説明を省略する。
 図11に示すように、携帯端末装置2bは、HMD(Head Mounted Display)型の装置として構成されており、ユーザが頭部に装着することにより、当該ユーザに付随して移動する。好ましい実施の形態に示したように、手持ち式の携帯端末装置2を採用する場合、ユーザの手持ちの状態によって、ユーザと携帯端末装置2との間の相対的な位置関係が変化し、これがセンサ群24の位置(位置情報214)から求められる拡張現実における視点と撮像部25の撮像点との間の誤差の原因となる。しかし、さらに他の好ましい実施の形態における拡張現実提供システム1bは、装着型の携帯端末装置2bを採用することにより、手持ち式の携帯端末装置2を採用する場合に比べて、現実部分と拡張部分との視覚上の一致精度が向上する。したがって、提供される拡張現実の真実味(リアリティ)が向上する。
 図12は、さらに他の好ましい実施の形態における携帯端末装置2bのブロック図である。
 携帯端末装置2bは、通常は、システム運営者が所有する専用の装置である。したがって、図12に示すように、記憶装置21には、ユーザに関するオーナー情報211に相当する情報は格納されていない。
 また、携帯端末装置2bは、透過型のディスプレイを有する表示部23aを備えている。拡張現実空間9に配置されている現実の事物は、当該ディスプレイを透過した光に基づいて、ユーザの視覚に捉えられ知覚されることになる。したがって、さらに他の好ましい実施の形態における拡張現実提供システム1bにおいては、拡張現実を提供するにあたって、現実部分の画像情報を表示することはない。一方で、表示部23aは、出力情報215を当該ディスプレイの所定の位置に表示させることにより、仮想物体(拡張部分)を、現実部分に適宜重畳させる。
 また、携帯端末装置2bは、撮像部25を備えておらず、周囲を撮像する機能は有していない。したがって、さらに他の好ましい実施の形態においては、撮像画像情報213に相当する情報は作成されない。これは、すでに説明したように、携帯端末装置2bにおいては、現実部分を画面に表示する必要がないからである。
 さらに、携帯端末装置2bは、非接触ICカード部26および通信部27に相当する構成を備えておらず、スタンドアロン型の装置として構成されている。携帯端末装置2bの記憶装置21には、プログラム210とともに、予め基準情報103および候補情報112が格納されている。
 携帯端末装置2bは、センサ群24のみならず、さらに生体センサ28を備えている。生体センサ28は、生体に関する生体情報216を測定する機能を備えた装置である。生体センサ28としては、例えば、ユーザの心拍数を測定する心拍数センサや、ユーザの呼吸数など呼吸に関する情報を計測する呼吸センサ、ユーザの発生音を計測するマイクなどが想定される。ただし、生体センサ28は、このような装置に限定されるものではなく、ユーザの現在の生理状況を判定するために利用可能な情報を収集する機能を有する装置であればよい。
 また、携帯端末装置2bは、音声に関する情報に基づいて音声を再生するスピーカ29を備えている。特に、スピーカ29は、出力情報215に含まれる音声に関する情報を音声として出力する出力要素として用いられる。
 図13は、さらに他の好ましい実施の形態における携帯端末装置2bが備える機能ブロックをデータの流れとともに示す図である。携帯端末装置2bは、カード制御部200を備えておらず、位置姿勢特定部201および拡張現実構成部202の代わりに位置姿勢特定部201aおよび拡張現実構成部202aを備えている点が、携帯端末装置2と異なっている。
 位置姿勢特定部201aは、操作部22からの入力情報に応じて、携帯端末装置2b(センサ群24)が基準位置に存在し、かつ、現在の姿勢が基準位置における姿勢となっていると判定する。さらに他の好ましい実施の形態では、操作部22のリセットボタンが操作されたときの携帯端末装置2bの現在位置および現在姿勢が、基準情報103によってリセットされる。すなわち、さらに他の好ましい実施の形態においては、位置姿勢特定部201aが本発明に係る判定要素に相当する機能を有している。
 拡張現実構成部202aは、好ましい実施の形態と同様に、位置情報214に応じて、候補情報112から出力情報215を抽出する。ただし、さらに他の好ましい実施の形態においては、オーナー情報211に相当する情報が存在しないので、拡張現実構成部202aは、出力情報215を抽出する際に、オーナー情報211を参照することはない。代わりに、拡張現実構成部202は、生体情報216に応じて出力情報215を抽出する。これにより、さらに他の好ましい実施の形態における拡張現実提供システム1b(表示部23aおよびスピーカ29)は、生体センサ28により測定された生体情報216に応じた出力情報215を出力する。
 以下、さらに他の好ましい実施の形態における拡張現実提供システム1bについて、お化け屋敷を拡張現実空間9とするアプリケーションの例で説明する。
 図14は、さらに他の好ましい実施の形態における拡張現実提供方法を示す流れ図である。
 まず、お化け屋敷の窓口担当者は、携帯端末装置2bを、所定の位置に所定の姿勢で静止させる。そして、このように静止させた状態で、リセットボタン(操作部22)を操作(ステップS11)し、当該携帯端末装置2bをユーザに渡せる状態(以下、「スタンバイ状態」と称する。)にしておく。
 なお、所定の位置とは、基準情報103に格納されている基準位置に一致する位置である。また、所定の姿勢とは、基準情報103に格納されている姿勢(基準位置における姿勢として規定されている姿勢)である。すなわち、さらに他の好ましい実施の形態では、好ましい実施の形態における通信可能化動作に相当する動作を窓口担当者が実行することになる。
 ステップS11が実行されることにより、センサ群24は測定情報212の測定を開始し(ステップS12)、位置姿勢特定部201aは基準情報103および測定情報212に基づいて位置情報214の作成を開始する(ステップS13)。ただし、位置情報214の作成は、スタンドバイ状態の携帯端末装置2bを、ユーザに手渡すために、移動させるときに開始するように構成してもよい。スタンドバイ状態の携帯端末装置2bは、静止状態であるため、その期間の位置や姿勢は変化しないからである。すなわち、スタンドバイ状態に移行させるための操作と、位置情報214の演算を開始させるための操作とが、区別されていてもよい。
 次に、お化け屋敷の入り口にユーザが到着すると、窓口担当者はスタンバイ状態の携帯端末装置2bを当該ユーザに手渡す。そして、当該ユーザは、受け取った携帯端末装置2bを装着する(ステップS14)。これにより、表示部23aはユーザの目の前方に配置され、スピーカ29はユーザの耳の近傍に配置され、生体センサ28はユーザの体に装着される。
 ユーザは、携帯端末装置2bを装着した状態で、お化け屋敷(拡張現実空間9)に入場する(ステップS15)。
 拡張現実構成部202aは、位置情報214に応じてユーザ(携帯端末装置2b)が拡張現実空間9内に存在しているか否かを判定し(ステップS16)、存在していない場合はさらにフラグがONか否かを判定する(ステップS17)。フラグとは、ユーザが拡張現実空間9内に入場したことがあるか否かを示す情報であり、入場したことがある場合に「ON」にセットされ、入場したことがない場合に「OFF」にセットされる。
 ステップS17においてNoの場合は、ユーザが未だ拡張現実空間9に入場したことがないことを示しているので、ユーザの入場行動が未だ完了していないとみなして、ステップS16の処理に戻る。
 一方、ユーザが拡張現実空間9内に存在している場合(ステップS16においてYes。)、CPU20はフラグをONにセットする(ステップS18)。そして、拡張現実構成部202aは、位置情報214および生体情報216に基づいて、出力情報215を作成する(ステップS19)。
 ステップS19が実行されると、表示部23aおよびスピーカ29が当該出力情報215を出力する(ステップS20)ことにより、拡張現実を表現する。ステップS16ないしS20の処理は、ユーザが拡張現実空間9内に存在しない(出口から出た)と判定されるまで継続される。
 ステップS17においてYesと判定されると、一旦、拡張現実空間9内に入場したユーザが当該拡張現実空間9から出たとみなして、CPU20はフラグをOFFにセットし(ステップS21)、携帯端末装置2bによる拡張現実の提供を終了する。その後、窓口担当者は、ユーザから携帯端末装置2bを回収する。
 次に、さらに他の好ましい実施の形態において、生体情報216がどのように出力情報215の選択に利用されるかを説明する。
 図15は、さらに他の好ましい実施の形態における拡張現実提供システム1bにより実現される拡張現実の例を示す図である。図15に示す柳画像215qおよび幽霊画像215rは、いずれも出力情報215である。逆に、柳画像215qおよび幽霊画像215r以外の事物は、透過型のディスプレイを透過した光により知覚される現実に存在している事物である。
 図16は、拡張現実空間9内の幽霊画像215rの表示位置を例示する図である。図16に示す例では、拡張現実空間9内に幽霊画像215rを表示させる箇所が8箇所設定されている。言い換えれば、候補情報112には、予め、8箇所において表示する幽霊画像215rが準備されている。また、図16に示す円90は、判定位置(後述)を示す。さらに、図16に示す網掛けを施した部分は現実の壁や柱を示している。
 図17ないし図19は、幽霊画像215rの表示例を示す図である。図17ないし図19において太線で示す矢印は、拡張現実空間9内におけるユーザの経路を示す。
 さらに他の好ましい実施の形態における拡張現実提供システム1bは、ユーザが判定位置(円90)に到達したときの当該ユーザの生理状況に応じて、幽霊画像215rを実際に表示する位置を変更する。すなわち、判定位置における生体情報216により、心拍数が120[bpm]より大きいときは図17に示す位置にのみ幽霊画像215rを表示し、心拍数が90~120[bpm]のときは図18に示す位置にのみ幽霊画像215rを表示し、心拍数が90[bpm]未満のときは図19に示す位置にのみ幽霊画像215rを表示する。
 このように、生体情報216を解析することにより大きく驚いていると判定されたユーザについては、比較的短距離かつ単純な移動経路(図17)となるように幽霊画像215rを表示する。また、遭遇する幽霊(幽霊画像215r)も最も少ないようになっている。
 一方、あまり驚いていないと判定されたユーザについては、比較的長距離かつ複雑な移動経路(図18,図19)となるように幽霊画像215rを表示する。また、遭遇する幽霊(幽霊画像215r)も増えるように設定する。
 このように、さらに他の好ましい実施の形態における拡張現実提供システム1bは、生体センサ28により測定された生体情報216に応じた出力情報215を出力することにより、生体の生理的状況に応じた拡張現実を提供することができる。
 なお、ユーザが驚いている程度は、例えば、加速度センサを使用して、加速度が大きく変化した回数を数えることによっても判定できる。例えば、入場してから判定位置までの間に、2回以上驚いたユーザについては図17の表示パターンを適用し、1回のユーザについては図18の表示パターンを適用し、0回のユーザについては図19の表示パターンを適用するといった方法が考えられる。
 図20は、さらに他の好ましい実施の形態において、幽霊画像215rの表示を変更する場合における変形例を示す図である。図20における破線矢印は、幽霊画像215rの表示位置を順次変更した場合の軌跡を示す。
 図17ないし図19では、生体情報216に基づいて各幽霊画像215rを表示するか否かを判定した。しかし、ほとんど驚いていないとみなせるユーザについては、例えば、図20に示すように、幽霊画像215rがユーザを追跡してくるかのように、特定の幽霊画像215rの表示位置を順次変更させてもよい。
 なお、さらに他の好ましい実施の形態では、仮想物体としての「幽霊」の表示を変更することによりユーザの経路を変化させたが、経路を変更する手法はこれに限定されるものではない。例えば、現実の事物である壁と壁との間に、仮想の事物としての壁を表示することにより、あたかも壁が連なっており、通行できないように見せて経路を変更させてもよい。
 また、さらに他の好ましい実施の形態における拡張現実提供システム1bにおいても、好ましい実施の形態における拡張現実提供システム1と同様に、基準位置提供装置10およびデータベースサーバ11に相当する装置を設け、携帯端末装置2bに非接触ICカード部26および通信部27を設けてもよい。このように構成することにより、さらに他の好ましい実施の形態における拡張現実提供システム1bにおいても、基準情報103および候補情報112の更新に容易に対応可能となる。
 特に、さらに他の好ましい実施の形態に示した「お化け屋敷」を模したアプリケーションでは、リピータを呼び込むために、現実のレイアウトや仮想物体の表示形態等を比較的短いサイクルで変更することが好ましい。その場合には、基準情報103や候補情報112の更新が必要になる場合も想定される。ただし、このような場合においても、SDカードなどの可搬性の記録媒体に更新された基準情報103および候補情報112を格納して、携帯端末装置2bに供給するようにして対応することも可能である。
 本発明が適用されるアプリケーションは、これまでに説明した実施の形態に示したものに限定されるものではなく、さらに多くのバリエーションが考えられる。
 図21および図22は、さらに他の好ましい実施の形態における拡張現実提供システム1cによって提供される探索アプリケーションの拡張現実の表示例である。探索アプリケーションとは、ユーザが携帯端末装置2を用いて拡張現実空間9内に設置された宝箱などの目的物(仮想物体)を探索するものである。さらに他の好ましい実施の形態における拡張現実提供システム1cは、例えば、好ましい実施の形態における拡張現実提供システム1と同様のハードウェア構成で実現できる。
 図21に示すように、表示部23には、現実部分の撮像画像情報213dと、目的物である宝箱画像215sと、探索の手がかりとなる情報を示すメッセージ215tおよび羅針盤画像215uとが合成されて表示される。ここで、宝箱画像215s、メッセージ215tおよび羅針盤画像215uは、候補情報112から選択される出力情報215である。
 探索アプリケーションが提供する拡張現実空間9では、ユーザは携帯端末装置2に出力されるメッセージ215tや羅針盤画像215uを頼りに、仮想物体(宝箱)の探索を行う。
 そして、ユーザの現在位置と現在姿勢とが所定の範囲内に収まると、目的物の発見となる。すなわち、位置情報214が所定の範囲内に収まることを条件に拡張現実構成部202が宝箱画像215sを出力情報215として選択し、図22に示されるような画面が表示される。図22に示す例では、現実部分を表現する撮像画像213eとともに、宝箱画像215sと、宝箱が発見されたことを示すメッセージ215vとが表示されている。
 なお、さらに他の好ましい実施の形態では、宝箱を目的物として探索する例について説明したが、目的物はこれに限定されるものではない。例えば、目的物を仮想物体として表現される動物とすることも可能である。その場合は、当該動物の鳴き声を、ユーザの位置情報214に応じて調整して、探索の手がかりとなる情報としてスピーカ29に相当する構成から出力することが好ましい。鳴き声などの音声の調整とは、目的物としての動物とユーザとの距離に応じた音量調整だけでなく、ユーザの左右の耳に到達する音量を相互に調整することによってユーザが知得する音源方向を調整することも有効である。さらには、ユーザと動物との間の遮蔽物(現実の遮蔽物か仮想物体としての遮蔽物かを問わない。)の有無によって調整することもできる。
 以上、本発明の様々な好ましい実施の形態について説明してきたが、本発明は上記した好ましい実施の形態に限定されるものではなく、さらに様々な変形が可能である。
 例えば、上記好ましい実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。例えば、撮像部25が撮像を開始する工程(ステップS5)と、センサ群24が測定を開始する工程(ステップS6)とを入れ替えてもよい。
 また、上記好ましい実施の形態に示した機能ブロック(カード制御部200や位置姿勢特定部201、拡張現実構成部202など)は、CPU20がプログラム210に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。
 また、指標要素は、基準位置や基準位置における姿勢に関する情報を表現したバーコードでもよい。例えば、基準位置において特定の姿勢で読み取るバーコードを拡張現実空間9の近傍に設け、これを撮像部25で撮像し読み取るように構成してもよい。
 また、上記好ましい実施の形態では、センサ群24と出力要素(表示部23,23aおよびスピーカ29)とが同一の装置に設けられている例について説明した。しかし、これらは別の装置に存在してもよい。例えば、ペット(対象物)にセンサ群24を取り付けて、拡張現実空間9内に放し、当該ペットの動きに応じて、ユーザが携帯する装置に設けられた出力要素に仮想物体を出力することにより拡張現実を提供してもよい。あるいは、センサ群24を内蔵したボール(対象物)を拡張現実空間9内でユーザが投げ、投げられた瞬間の位置および加速度に応じて、当該ボールの軌道を計算し、当該ボールに対応した仮想物体(例えば、槍や魔法による火の玉など)の軌道や標的となった敵の様子をユーザの手元の装置(出力要素)に表示するといったアプリケーションも想定される。

Claims (12)

  1.  動きに関する情報を測定するセンサと、
     前記センサの基準位置を記憶する第1記憶要素と、
     前記センサが前記基準位置に存在しているか否かを判定する判定要素と、
     前記判定要素により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する位置特定要素と、
     前記位置特定要素により特定された前記センサの現在位置に応じて出力情報を出力することにより拡張現実を表現する出力要素と、
    を備える拡張現実提供システム。
  2.  請求項1に記載の拡張現実提供システムであって、
     前記第1記憶要素は、前記基準位置における前記センサの姿勢を記憶しており、
     前記判定要素により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する姿勢特定要素をさらに備え、
     前記出力要素は、前記姿勢特定要素により特定された前記センサの現在の姿勢に応じて出力情報を出力する拡張現実提供システム。
  3.  請求項1に記載の拡張現実提供システムであって、
     位置が可変の携帯端末装置と、
     絶対位置が既知の指標要素と、
    を備え、
     前記携帯端末装置は、
     前記センサと、
     前記指標要素の個別情報を取得する取得要素と、
    を備え、
     前記判定要素は、前記取得要素により前記指標要素の個別情報が取得されたときに前記センサが前記基準位置に存在していると判定する拡張現実提供システム。
  4.  請求項3に記載の拡張現実提供システムであって、
     前記指標要素は、前記絶対位置に固定される設置型の装置であり、
     前記取得要素は、前記センサが前記基準位置に存在するときに前記設置型の装置との間で近接無線通信を行う第1無線通信要素を備える拡張現実提供システム。
  5.  請求項4に記載の拡張現実提供システムであって、
     前記設置型の装置は、前記携帯端末装置と前記設置型の装置との間で近接無線通信が行われているときに、前記基準位置を前記携帯端末装置に送信する拡張現実提供システム。
  6.  請求項4に記載の拡張現実提供システムであって、
     前記設置型の装置は、前記携帯端末装置と前記設置型の装置との間で近接無線通信が行われているときに、前記出力情報の候補となる候補情報を前記携帯端末装置に送信する拡張現実提供システム。
  7.  請求項3に記載の拡張現実提供システムであって、
     複数の前記携帯端末装置を備え、
     前記携帯端末装置は、
     拡張現実空間内に存在する他の携帯端末装置との間で無線によるデータ通信を行う第2通信要素と、
     前記出力要素と、
    を備え、
     前記第2通信要素は、前記他の携帯端末装置が備える前記センサの現在位置を無線によるデータ通信により受信し、
     前記出力要素は、前記第2通信要素により受信した前記他の携帯端末装置が備える前記センサの現在位置に応じて出力情報を出力する拡張現実提供システム。
  8.  請求項3に記載の拡張現実提供システムであって、
     前記携帯端末装置は、
     拡張現実空間内に存在する端末装置との間で無線によるデータ通信を行う第3通信要素と、
     前記出力要素と、
    を備え、
     前記第3通信要素は、前記端末装置に関する固有の情報を無線によるデータ通信により受信し、
     前記出力要素は、前記第3通信要素により受信した前記端末装置に関する固有の情報に応じて出力情報を出力する拡張現実提供システム。
  9.  請求項1に記載の拡張現実提供システムであって、
     前記センサが付随する対象物に関する情報を記憶する第2記憶要素をさらに備え、
     前記出力要素は、前記第2記憶要素に記憶された前記対象物に関する情報に応じた出力情報を出力する拡張現実提供システム。
  10.  請求項1に記載の拡張現実提供システムであって、
     生体に関する生体情報を測定する生体センサをさらに備え、
     前記出力要素は、前記生体センサにより測定された生体情報に応じた出力情報を出力する拡張現実提供システム。
  11.  コンピュータ読み取り可能なプログラムを記録する記録媒体であって、
     前記プログラムは、コンピュータにより実行されることにより、前記コンピュータに、
     動きに関する情報をセンサによって測定する工程と、
     前記センサの基準位置を第1記憶要素に記憶させる工程と、
     前記センサが前記基準位置に存在しているか否かを判定する工程と、
     前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、
     特定された前記センサの現在位置に応じて出力情報を出力することにより拡張現実を表現する工程と、
    を有する拡張現実提供方法を実行させる。
  12.  動きに関する情報をセンサによって測定する工程と、
     前記センサの基準位置を第1記憶要素に記憶させる工程と、
     前記センサが前記基準位置に存在しているか否かを判定する工程と、
     前記センサが前記基準位置に存在していると判定された後において、前記第1記憶要素に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、
     特定された前記センサの現在位置に応じて出力情報を出力することにより拡張現実を表現する工程と、
    を有する拡張現実提供方法。
PCT/JP2014/055222 2013-03-06 2014-03-03 拡張現実提供システム、記録媒体および拡張現実提供方法 WO2014136700A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480010466.8A CN105074783A (zh) 2013-03-06 2014-03-03 增强现实提供系统、记录介质及增强现实提供方法
US14/846,004 US20150379777A1 (en) 2013-03-06 2015-09-04 Augmented reality providing system, recording medium, and augmented reality providing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-043838 2013-03-06
JP2013043838A JP2014174589A (ja) 2013-03-06 2013-03-06 拡張現実システム、プログラムおよび拡張現実提供方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/846,004 Continuation US20150379777A1 (en) 2013-03-06 2015-09-04 Augmented reality providing system, recording medium, and augmented reality providing method

Publications (1)

Publication Number Publication Date
WO2014136700A1 true WO2014136700A1 (ja) 2014-09-12

Family

ID=51491218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/055222 WO2014136700A1 (ja) 2013-03-06 2014-03-03 拡張現実提供システム、記録媒体および拡張現実提供方法

Country Status (4)

Country Link
US (1) US20150379777A1 (ja)
JP (1) JP2014174589A (ja)
CN (1) CN105074783A (ja)
WO (1) WO2014136700A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431667A (zh) * 2015-12-28 2018-08-21 索尼公司 信息处理装置、信息处理方法和程序
JPWO2021140631A1 (ja) * 2020-01-09 2021-07-15
US11727625B2 (en) 2017-07-20 2023-08-15 Qualcomm Incorporated Content positioning in extended reality systems
US11765318B2 (en) 2019-09-16 2023-09-19 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101989893B1 (ko) * 2012-10-29 2019-09-30 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 오디오 신호 출력 방법
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US9691182B1 (en) * 2014-10-01 2017-06-27 Sprint Communications Company L.P. System and method for adaptive display restriction in a headset computer
WO2016111067A1 (ja) * 2015-01-05 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR101613278B1 (ko) * 2015-08-18 2016-04-19 김영덕 증강 현실 기반 쇼핑 정보 제공 시스템 및 그의 제어 방법
KR101800109B1 (ko) 2016-02-16 2017-11-22 엔에이치엔엔터테인먼트 주식회사 Iot 기기를 이용해서 증강 현실을 구현한 전장 온라인 게임
US20190129593A1 (en) * 2016-03-11 2019-05-02 Parcell Llc Method and system for managing a parcel in a virtual environment
WO2017169907A1 (ja) * 2016-03-29 2017-10-05 日本電気株式会社 作業支援装置、作業支援方法および記録媒体
US10539797B2 (en) * 2016-05-06 2020-01-21 Colopl, Inc. Method of providing virtual space, program therefor, and recording medium
US10289261B2 (en) * 2016-06-29 2019-05-14 Paypal, Inc. Visualization of spending data in an altered reality
JP6774260B2 (ja) * 2016-08-12 2020-10-21 株式会社バンダイナムコアミューズメント シミュレーションシステム
JP6871501B2 (ja) * 2016-10-13 2021-05-12 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6810342B2 (ja) * 2016-10-13 2021-01-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018097437A (ja) * 2016-12-08 2018-06-21 株式会社テレパシージャパン ウェアラブル情報表示端末及びこれを備えるシステム
US10380544B2 (en) * 2016-12-24 2019-08-13 Motorola Solutions, Inc. Method and apparatus for avoiding evidence contamination at an incident scene
US20180190033A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
CN110419075A (zh) * 2017-02-15 2019-11-05 夏普株式会社 显示控制装置、显示控制装置的控制方法以及控制程序
JP6275310B1 (ja) * 2017-05-26 2018-02-07 株式会社テクテック 拡張現実表示システム、プログラム及び方法
JP6538760B2 (ja) * 2017-06-22 2019-07-03 ファナック株式会社 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
CN109085925B (zh) * 2018-08-21 2021-07-27 福建天晴在线互动科技有限公司 一种实现mr混合现实交互的方法、存储介质
DE102018215186A1 (de) * 2018-09-06 2020-03-12 Volkswagen Aktiengesellschaft Konzept zum Überwachen und Planen einer Bewegung eines Fortbewegungsmittels
CN111352239A (zh) * 2018-12-22 2020-06-30 杭州融梦智能科技有限公司 增强现实显示设备及应用增强现实显示设备的交互方法
JP6717994B2 (ja) * 2019-02-28 2020-07-08 合同会社ユー・エス・ジェイ 仮想現実装置
JP2022505002A (ja) * 2019-10-15 2022-01-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム
WO2022085478A1 (ja) * 2020-10-19 2022-04-28 テイ・エス テック株式会社 シートシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079313A (ja) * 2004-09-09 2006-03-23 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置
JP2009289035A (ja) * 2008-05-29 2009-12-10 Jiro Makino 画像表示システム、携帯型表示装置、サーバコンピュータ、および遺跡観光システム
WO2012070595A1 (ja) * 2010-11-23 2012-05-31 日本電気株式会社 位置情報提供装置、位置情報提供システム、位置情報提供方法、プログラム及び記録媒体
WO2012144389A1 (ja) * 2011-04-20 2012-10-26 Necカシオモバイルコミュニケーションズ株式会社 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008170309A (ja) * 2007-01-12 2008-07-24 Seiko Epson Corp 携帯ナビゲーションシステム、携帯ナビゲーション方法、携帯ナビゲーション用プログラム及び携帯端末
US8423431B1 (en) * 2007-12-20 2013-04-16 Amazon Technologies, Inc. Light emission guidance
CN104270547B (zh) * 2009-11-30 2018-02-02 松下电器(美国)知识产权公司 通信方法、通信装置及位置检测方法
US20110151955A1 (en) * 2009-12-23 2011-06-23 Exent Technologies, Ltd. Multi-player augmented reality combat
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8326281B2 (en) * 2011-02-16 2012-12-04 Research In Motion Limited Mobile wireless communications device providing object reference data based upon near field communication (NFC) and related methods
CN102256108B (zh) * 2011-05-30 2013-04-03 四川省电力公司 智能变电站工作人员多路视频自动跟踪定位系统
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US20140071163A1 (en) * 2012-09-11 2014-03-13 Peter Tobias Kinnebrew Augmented reality information detail
KR102019124B1 (ko) * 2013-01-04 2019-09-06 엘지전자 주식회사 헤드 마운트 디스플레이 및 그 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079313A (ja) * 2004-09-09 2006-03-23 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置
JP2009289035A (ja) * 2008-05-29 2009-12-10 Jiro Makino 画像表示システム、携帯型表示装置、サーバコンピュータ、および遺跡観光システム
WO2012070595A1 (ja) * 2010-11-23 2012-05-31 日本電気株式会社 位置情報提供装置、位置情報提供システム、位置情報提供方法、プログラム及び記録媒体
WO2012144389A1 (ja) * 2011-04-20 2012-10-26 Necカシオモバイルコミュニケーションズ株式会社 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431667A (zh) * 2015-12-28 2018-08-21 索尼公司 信息处理装置、信息处理方法和程序
US11727625B2 (en) 2017-07-20 2023-08-15 Qualcomm Incorporated Content positioning in extended reality systems
US11765318B2 (en) 2019-09-16 2023-09-19 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
JPWO2021140631A1 (ja) * 2020-01-09 2021-07-15
WO2021140631A1 (ja) * 2020-01-09 2021-07-15 マクセル株式会社 空間認識システム、空間認識方法、および情報端末

Also Published As

Publication number Publication date
JP2014174589A (ja) 2014-09-22
US20150379777A1 (en) 2015-12-31
CN105074783A (zh) 2015-11-18

Similar Documents

Publication Publication Date Title
WO2014136700A1 (ja) 拡張現実提供システム、記録媒体および拡張現実提供方法
JP6979475B2 (ja) ヘッドマウントディスプレイ追跡
KR101894021B1 (ko) Vr 공간에서 컨텐트를 제공하는 방법, 디바이스 및 기록매체
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US10169923B2 (en) Wearable display system that displays a workout guide
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN108293171B (zh) 信息处理设备、信息处理方法以及存储介质
US10022626B2 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method, for performing augmented reality
CN108604119A (zh) 在增强和/或虚拟现实环境中的虚拟项的共享
CN108283802B (zh) 利用物理对象的仿真体验
WO2018142756A1 (ja) 情報処理装置及び情報処理方法
KR102388939B1 (ko) 사용자의 움직임 보정을 위한 피드백 서비스 제공 방법
KR20200100046A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6342024B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US20190333261A1 (en) Program, and information processing apparatus and method
KR20130137968A (ko) 사용자 단말에서 증강 현실을 통한 이벤트 제공 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체
US20150254511A1 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method
WO2015119092A1 (ja) 拡張現実提供システム、記録媒体および拡張現実提供方法
KR101213022B1 (ko) 이동 통신 단말을 이용한 가상 보물찾기 시스템 및 방법
KR20190091623A (ko) 운동부하장치를 이용한 가상화폐 채굴형 운동관리장치
JP6475776B2 (ja) 拡張現実システムおよび拡張現実提供方法
JP5802019B2 (ja) 情報処理装置、情報処理プログラム、情報処理方法、情報処理システム
KR102578119B1 (ko) 모바일 디바이스와 연동하는 스마트 안경 작동 방법
KR101770188B1 (ko) 혼합 현실 체험 공간 제공 방법 및 시스템
US20230162433A1 (en) Information processing system, information processing method, and information processing program

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480010466.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14760247

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14760247

Country of ref document: EP

Kind code of ref document: A1