WO2016017254A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2016017254A1
WO2016017254A1 PCT/JP2015/064895 JP2015064895W WO2016017254A1 WO 2016017254 A1 WO2016017254 A1 WO 2016017254A1 JP 2015064895 W JP2015064895 W JP 2015064895W WO 2016017254 A1 WO2016017254 A1 WO 2016017254A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
display
processing apparatus
information processing
registration information
Prior art date
Application number
PCT/JP2015/064895
Other languages
English (en)
French (fr)
Inventor
五十嵐 卓也
典史 吉川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201580040888.4A priority Critical patent/CN106575299A/zh
Priority to EP15826720.3A priority patent/EP3176755A4/en
Priority to JP2016538185A priority patent/JP6683127B2/ja
Priority to US15/326,550 priority patent/US10225506B2/en
Publication of WO2016017254A1 publication Critical patent/WO2016017254A1/ja
Priority to US16/259,466 priority patent/US10499002B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T3/14
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program. More specifically, the present invention relates to an information processing apparatus, an information processing method, and a program that display information about a real object that exists in the vicinity of the information processing apparatus on a display unit (display) based on the position and direction of the information apparatus.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2011-028763 discloses a document that discloses a configuration in which information related to such a captured image is displayed superimposed on the captured image.
  • the information processing device program sets the positional relationship between the Geo position information of the information device and the Geo position information of the registration information, and the position of the object recognized from the image captured by the camera on the captured image.
  • a method of superimposing and displaying related information on the captured video is adopted. Therefore, it is possible to change the size and color of the superimposed characters according to the registration information metadata, but the user information, the context (situation) of the information terminal, and the registration information displayed using the change as a trigger It has been difficult to control the processing to be changed and the display method (size, position, animation, etc.).
  • a sports drink vending machine is in the vicinity of the information terminal even if it is not reflected in the camera image. In such a case, it is difficult to perform flexible processing such as displaying registration information related to the display on the display unit and recommending the user to take water with a sports drink.
  • the present disclosure has been made in view of the above-described problems, for example, information on registered real world points (POI: Point of Interest), the positional relationship between a user terminal such as a smartphone and the point position, and It is possible to display registration information using an event according to a context (situation) determined from various information obtained from a user terminal as a trigger. For example, when the position or tilt of the user terminal is changed in accordance with the user's movement or the like, in addition to the amount of change, the information displayed and the user's action status (walking, running, train, etc.)
  • An object of the present invention is to provide an information processing apparatus, an information processing method, and a program that enable various displays such as changing the display method (size and display position of characters).
  • the first aspect of the present disclosure is: An imaging unit; A display unit for displaying a captured image of the imaging unit; A data processing unit for displaying a virtual object including registration information of registration information setting points in the real world included in the captured image on the display unit;
  • the data processing unit An anchor that is a reference image obtained by photographing a real object in the real world, and virtual object display control data that records the position information of the anchor and the position information of the registered information setting point in a virtual three-dimensional spatial coordinate system are input, Execute the event detection according to the change of the context defined in advance as a trigger for the display process of the registration information described in the display control data, or the display update process, In addition to the display of the registration information, the information processing apparatus displays a virtual object indicating the registration information setting point.
  • the second aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
  • the information processing apparatus includes: an imaging unit; a display unit that displays a captured image of the imaging unit; and data that displays a virtual object including registration information of registration information setting points in the real world included in the captured image on the display unit Having a processing unit
  • the data processing unit is An anchor that is a reference image obtained by photographing a real object in the real world, and virtual object display control data that records the position information of the anchor and the position information of the registered information setting point in a virtual three-dimensional spatial coordinate system are input, Execute the event detection according to the change of the context defined in advance as a trigger for the display process of the registration information described in the display control data, or the display update process,
  • an information processing method for displaying a virtual object indicating the registration information setting point In addition to displaying the registration information, there is an information processing method for displaying a virtual object indicating the registration information setting point.
  • the third aspect of the present disclosure is: A program for executing information processing in an information processing apparatus;
  • the information processing apparatus includes: an imaging unit; a display unit that displays a captured image of the imaging unit; and data that displays a virtual object including registration information of registration information setting points in the real world included in the captured image on the display unit Having a processing unit,
  • the program is stored in the data processing unit.
  • An anchor that is a reference image obtained by photographing a real object in the real world, and virtual object display control data that records the position information of the anchor and the position information of the registered information setting point in a virtual three-dimensional spatial coordinate system are input,
  • a program for executing a process of displaying a virtual object indicating the registration information setting point Along with the display of the registration information, there is a program for executing a process of displaying a virtual object indicating the registration information setting point.
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for executing display of registered information related to registered information setting points in the real world and display update processing using event detection according to a change in context as a trigger are realized. Specifically, display control of a virtual object including registration information of registration information setting points in the real world is performed. The data processing unit executes the display of the registration information described in the control data and the display update process according to a predetermined change in context. Further, a virtual object indicating a registration information setting point is displayed together with the registration information display. Based on the position and direction of the reference image (anchor) detected from the captured image in the virtual three-dimensional space, the positional relationship between the information processing apparatus and the registered information setting point is calculated.
  • a virtual object indicating a registration information setting point is displayed.
  • an apparatus and a method for executing display of display information related to registration information setting points in the real world and display update processing using event detection according to a change in context as a trigger are realized. Note that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • the display control program JavaScript (registered trademark)
  • FIG. 25 is a diagram for describing a configuration example of an information processing device.
  • FIG. 25 is a diagram for describing a configuration example of an information processing device. It is a figure explaining the structural example of a server.
  • FIG. 1 is a diagram illustrating a configuration example of a communication system including the information processing apparatus of the present disclosure.
  • the information processing apparatus (user terminal) 10 is a communication terminal that can be carried by the user, such as a smart phone or a glass (glasses) type terminal.
  • the information processing apparatus (user terminal) 10 includes a communication unit, a camera (imaging unit), and a display unit, displays a camera captured image on the display unit, and superimposes and displays information received via the communication unit on the captured image. This is a device having a function of displaying on the screen.
  • the information processing apparatus 10 displays the captured image of the camera on the display unit.
  • the display image on the display unit is a real-time captured image currently captured by the camera. Note that the processing of the present disclosure can also be applied to the case where an image captured in the past and stored in the memory is read out and displayed on the display unit, but in the embodiment described below, the current captured image is displayed. A processing example in the case of being displayed on the screen will be described. Note that whether or not to record the captured image in a storage unit such as a medium is arbitrary.
  • the camera (imaging unit) and the display unit of the information processing apparatus 10 may be configured by different devices and perform an integrated operation through communication.
  • a configuration that performs an integrated operation through communication for example, a configuration in which a moving image captured by a camera (imaging unit) mounted on the head and position / orientation information is transmitted to a smartphone (display unit) via Wi-Fi. Will be possible.
  • the processing of the present disclosure can be applied even when the information processing apparatus 10 is physically configured as a single apparatus, or is configured with a plurality of apparatuses via communication.
  • the information processing apparatus 10 receives a beacon output from a beacon transmission apparatus 20 configured by an access point (AP) such as a wireless LAN or Bluetooth while displaying a captured image on a display unit.
  • the beacon is a packet that stores an identifier (ID) of the beacon transmission device 20 and the like.
  • the information processing apparatus 10 transfers the beacon received from the beacon transmission apparatus 20 to the search server 40 via the network 30 such as the Internet.
  • the search server 40 When the search server 40 receives the beacon transferred from the information processing device 10, the search server 40 acquires the access information (URL) registered corresponding to the identifier based on the beacon transmitting device identifier (ID) included in the received beacon. Then, the information is transmitted to the information processing apparatus 10.
  • URL access information
  • ID beacon transmitting device identifier
  • the access information (URL) is access information for acquiring data including location information of information registration points in the vicinity of the beacon transmission device 20 and registration information.
  • registration information setting points POI: Point of Interest
  • POI Point of Interest
  • the access information (URL) is access information for acquiring display control data including, for example, position information and registration information related to the registration information setting point (POI).
  • the information processing apparatus 10 acquires display control data from the information providing server 50 using this access information (URL), registration information corresponding to a registration information setting point (POI) included in the acquired display control data, and the like. Is superimposed on the captured image displayed on the display unit. That is, the position information and registration information related to the POI acquired from the information providing server 50 are superimposed and displayed as a virtual object on the real object photographed by the camera (imaging unit) and displayed on the display unit.
  • URL access information
  • POI registration information setting point
  • the information providing server 50 provides POI display control data such as position information of various facilities at various positions in each region and facility guide information.
  • the information providing server 50 includes a database in which registration information is registered, and generates display control data based on the database information.
  • the information providing server 50 returns corresponding display control data according to the URL included in the request from the information terminal 10.
  • the information processing apparatus 10 acquires POI display control data from the information providing server 50 using the access information (URL) selected by the search server 40.
  • the information processing apparatus 10 uses the POI display control data to display the POI position and registration information of various facilities in the vicinity of the installation location of the beacon transmission apparatus 20 on the camera-captured image displayed on the display unit. Superimposed display.
  • FIG. 2 shows a display example on the display unit of the camera-captured image by the information processing apparatus (user terminal) 10.
  • a smartphone is used as an example of the information processing apparatus (user terminal) 10
  • various user terminals other than the smartphone such as a tablet terminal, The same can be applied to a PC, a glass (glasses) type terminal or the like.
  • FIG. 2A shows a scenery in the real world.
  • the scenery includes a castle in a tourist spot. It is assumed that the user carrying the information processing apparatus (user terminal) 10 is visiting the castle in this sightseeing spot and is looking at the scenery shown in FIG.
  • the user uses the camera function of the information processing apparatus (user terminal) 10 to (a) capture a real-world image and display the captured image on the display unit.
  • the captured image displayed on the display unit is the display image shown in FIG.
  • the information processing apparatus 10 transfers the identification information (ID) of the beacon received from the beacon transmission apparatus 20 such as an access point (AP) in the vicinity of the real world shown in FIG. .
  • the search server 40 transmits access information (URL) for acquiring data including registration information in the vicinity of the beacon transmission device 20 to the information processing device 10 based on the identification information.
  • the information processing apparatus 10 applies the access information (URL) received from the search server 40 and acquires the location information of the facility near the beacon transmission apparatus 20 and the display control data of the registration information from the information providing server 50. To do. (S04) The information processing apparatus 10 uses the location information of the facility in the vicinity of the beacon transmission device 20 acquired from the information providing server 50 and the display control data of the registration information, and displays the facility information on the captured image being displayed on the display unit. A mark indicating the position and registration information are superimposed and displayed as a virtual object. A series of these processes is executed.
  • FIGS. FIG. 3 (a) is a scene with a real world as in FIG. 2 described above
  • FIG. 3 (b) shows information processing after executing the above-described series of processing (S01 to S04).
  • 3 is a display image displayed on the display unit of the device 10.
  • step S03 the data acquired from the information providing server 50, that is, the location information of the facility in the vicinity of the beacon transmission device 20 and the display control data of the registration information, the following 2 shown in FIG. Suppose that information about one point is included.
  • Registration information setting point A (POI-A) 101 position information and registration information This is a display image selected and displayed.
  • the display image in FIG. 3B is an image obtained by superimposing the virtual object described in the display control data acquired from the information providing server 50 on the real object that is the captured image.
  • the displayed virtual object is the following data. (1) Point A (POI-A) position identification mark 111, (2) Point A (POI-A) correspondence registration information 112, These data are displayed as virtual objects.
  • the display image shown in FIG. 3B is an image obtained by superimposing the virtual object generated based on the display control data acquired from the information providing server 50 on the real object that is a captured image, so-called. It is an augmented reality (AR: Augmented Reality) image.
  • AR Augmented Reality
  • Point A is a ticket center, and a point A (POI-A) position identification mark 111 as a virtual object is displayed superimposed on the ticket center position of the captured image that is a real object.
  • POI-A point A
  • the information processing apparatus 10 determines the display position by applying data acquired from the information providing server. Note that the image displayed on the information processing apparatus 10 is a real-time captured image of the camera and fluctuates according to the user's movement. The display position of the point A (POI-A) position identification mark 111 also needs to be updated according to the movement of the displayed captured image (real object). This display position control is also executed in the information processing apparatus 10.
  • the display position of the point A (POI-A) position identification mark 111 that is a virtual object is controlled so as to be accurately positioned on the ticket center image of the captured image that is a real object. Is done. Specific processing of this display control will be described later.
  • point A (POI-A) correspondence registration information 112 which is another virtual object, is also superimposed on the captured image that is a real object.
  • the point A (POI-A) correspondence registration information 112 includes various information related to the ticket center corresponding to the registration information setting point A. As shown in the figure, information such as the opening time of the ticket center and the fee is displayed. These pieces of information are information recorded in the database of the information providing server 50 and are included in the display control data acquired according to the URL provided by the search server 40 or are acquired information based on the display control data. .
  • FIG. 4 shows another point B information: (2) Location information and registration information of registration information setting point B (POI-B) 102
  • FIG. 10 is a diagram showing an example of a display image to which this information is applied.
  • FIG. 4A is a view of the real world
  • FIG. 4B is a display image displayed on the display unit of the information processing apparatus 10 after executing the above series of processing (S01 to S04). It is.
  • the display image shown in FIG. 4B is an image obtained by superimposing a virtual object that is display data acquired from the information providing server 50 on a real object that is a captured image.
  • the displayed virtual object is the following data.
  • the display image shown in FIG. 4B is an image obtained by superimposing the virtual object generated based on the data acquired from the information providing server 50 on the real object that is the captured image, so-called augmented reality. It is an (AR: Augmented Reality) image.
  • the point B is an entrance (entrance) of the castle, and a point B (POI-B) position identification mark 121 as a virtual object is superimposed and displayed on the entrance position of the captured image that is a real object.
  • POI-B point B
  • the display position of the point B (POI-B) position identification mark 121 needs to be set on the entrance image of the castle of the photographed image that is a real object.
  • the information processing apparatus 10 determines and controls the display position by applying data acquired from the information providing server. That is, the display position of the point B (POI-B) position identification mark 121 is also updated according to the movement of the captured image (real object) displayed on the display unit.
  • the display position of the point B (POI-B) position identification mark 121 that is a virtual object is always set on the entrance image of the captured image that is a real object. Specific processing of this display control will be described later.
  • point B (POI-B) correspondence registration information 122 which is another virtual object, is also superimposed on the captured image that is a real object.
  • the point B (POI-B) correspondence registration information 122 includes various information regarding the entrance of the castle corresponding to the registration information setting point B. As shown in the figure, information such as the opening time of the entrance, rental information of the guide terminal, toilet position information, and the like are displayed. These pieces of information are information recorded in the database of the information providing server 50 and are acquired according to the URL provided by the search server 40.
  • FIG. 5 illustrates a communication sequence executed between the devices shown in FIG. 1 and an augmented reality image (superimposed image of a real object and a virtual object) executed in the information processing apparatus (user terminal) 10.
  • FIG. 5 illustrates a communication sequence executed between the devices shown in FIG. 1 and an augmented reality image (superimposed image of a real object and a virtual object) executed in the information processing apparatus (user terminal) 10.
  • FIG. 5 illustrates a communication sequence executed between the devices shown in FIG. 1 and an augmented reality image (superimposed image of a real object and a virtual object) executed in the information processing apparatus (user terminal) 10.
  • FIG. 5 shows the beacon transmission device 20, the information processing device (user terminal) 10, the search server 40, and the information providing server 50 from the left.
  • the processing of each step will be described sequentially.
  • Step S101 First, in step S101, the beacon transmission device 20 outputs a beacon, and the information processing device 10 receives the beacon.
  • a beacon is a packet that stores an identifier (ID) of the beacon transmission device 20 and the like.
  • Step S102 The information processing apparatus 10 transfers the beacon received from the beacon transmission apparatus 20 to the search server 40.
  • the search server 40 receives the beacon transferred from the information processing device 10, performs a database search based on the identifier (ID) of the beacon transmission device 20 included in the beacon, and registers registration information in the vicinity of the beacon transmission device 20. Access information (URL) for acquiring the included data is extracted.
  • ID the identifier
  • URL Access information
  • the search server 40 stores, for example, data as shown in FIG. 6 in a database (storage unit).
  • the data shown in FIG. Beacon transmitter identifier (ID), URL for acquiring beacon transmission device nearby facility information It is constituted by a correspondence list of these two data.
  • the search server 40 receives the beacon transferred from the information processing apparatus 10, and searches, for example, a list having the data configuration illustrated in FIG. 6 based on the identifier (ID) of the beacon transmission apparatus 20 included in the beacon. By this list search, the access information (URL) associated with the identifier (ID) of the beacon transmission device 20 included in the beacon transferred from the information processing device 10 is acquired. This access information (URL) is access information (URL) for acquiring data including registration information in the vicinity of the beacon transmission device 20.
  • Step S104 Next, in step S ⁇ b> 104, the search server 40 transmits the access information (URL) acquired by the search process in step S ⁇ b> 103 to the information processing apparatus 10.
  • Step S105 The information processing apparatus 10 applies the access information (URL) received from the search server 40 and receives data (virtual object display control data) from the information providing server 50 from the location information and registration information of the facility in the vicinity of the beacon transmission apparatus 20. ) To get.
  • Data transmitted from the information providing server 50 to the information processing apparatus 10 includes actual data of a virtual object to be superimposed on a camera-captured image that is a real object displayed on the display unit of the information processing apparatus 10 and display control thereof. Data that contains information. This data is called virtual object display control data.
  • the virtual object display control data is specifically composed of the following data and the like.
  • HTML Hyper Text Markup Language
  • CSS CSS
  • JavaScript registered trademark
  • HTML is data indicating the basic structure of a virtual object displayed on the display unit of the information processing apparatus 10.
  • HTML5 can be used.
  • CSS is a style sheet that defines the display format, color, shape, and the like of virtual object configuration data defined by HTML, and is data that defines the style of a virtual object displayed on the display unit of the information processing apparatus 10.
  • JavaScript registered trademark
  • JavaScript is a display control program that defines display processing, display update processing, or movement and update processing of a virtual object. For example, for display information such as changing the display mode of a virtual object triggered by an event detected according to various contexts (situations) such as a touch or click on a display object by a user or a lapse of a predetermined time. It is a display control program that executes display control such as various actions.
  • the information providing server 50 (1) HTML (Hyper Text Markup Language), (2) CSS (Cascading Style Sheet), (3) JavaScript (registered trademark) Virtual object display control data having these data is provided to the information processing apparatus 10.
  • HTML Hyper Text Markup Language
  • CSS CSS (Cascading Style Sheet)
  • JavaScript registered trademark
  • This virtual object display control data is data acquired by one URL, and the access information (URL) selected by the search server 40 based on the beacon transmission device identifier (ID) included in the beacon of the beacon transmission device 20.
  • URL access information
  • ID beacon transmission device identifier
  • the virtual object display control data including HTML, CSS, and JavaScript (registered trademark) as component elements includes position information and guidance information regarding various facilities in the real world three-dimensional space near one specific beacon transmission device 20.
  • 3 is data for performing display control and display control of virtual objects such as point (POI) position identification marks and point correspondence registration information described with reference to FIGS. 3 and 4. Details of this data will be described later.
  • step S106 the information processing apparatus 10 applies the position information of the registered information setting point recorded in the data (virtual object display control data) acquired from the information providing server 50 and the camera-captured image based on the URL.
  • the display position of the point position identification mark on the display screen is calculated.
  • the point position identification mark that is a virtual object is used as a real object such as a ticket center or an entrance that is a registered information setting point on a captured image that is a real object.
  • a display position determination process is performed to display the display position in accordance with the display position.
  • a position in a virtual three-dimensional space with an anchor or a registered information setting point that is a pre-captured reference image recorded in data (virtual object display control data) acquired from the information providing server 50 Apply information and camera images. Specific processing of this display position determination processing will be described later.
  • step S107 the information processing apparatus 10 displays a point position identification mark at the display position calculated in step S106, and further displays facility point correspondence registration information.
  • This display result is the display image (b) described with reference to FIGS. 3 and 4, for example.
  • the search server 40 has been described as providing access information (URL) for acquiring information in the vicinity of the beacon device 20 based on the beacon transferred from the information processing device 10.
  • URL access information
  • thumbnails or image feature amount data that are reduced images of captured images taken by the information processing apparatus 10 are transmitted to the search server 40, and the search server 40 specifies a position corresponding to the thumbnail or image feature amount data, and It is good also as a structure which provides the access information (URL) for acquiring the display control data of the vicinity information of a specific position.
  • the search server 40 has a configuration in which a correspondence list of captured images at various locations and access information is stored in the storage unit.
  • the captured video is not limited to a location, but may be a book or a poster.
  • the search server 40 selects a captured image including an image matching the data based on the data received from the information processing apparatus 10 from the correspondence list of the storage unit, and sets the POI display control corresponding to the image.
  • Data access information URL is provided to the information processing apparatus 10.
  • the information processing apparatus 10 reads markers and QR codes (registered trademark) recorded in facilities at various locations, transmits the read data to the search server 40, and the search server 40 executes a database search based on the received data. And it is good also as a structure which provides the access information (URL) for acquiring the information of the vicinity of the position where the received marker and QR code (trademark) were recorded.
  • the search server 40 stores a correspondence list of markers and QR codes (registered trademark) and access information recorded in various locations in the storage unit, and receives markers and QR codes (registered trademarks) received from the information processing apparatus 10. ) Is performed, and access information (URL) recorded corresponding to the marker or QR code (registered trademark) is provided to the information processing apparatus 10.
  • the information processing apparatus 10 acquires the virtual object display control data from the information providing server 50 based on the access information (URL) notified from the search server. Further, the display position of the point position identification mark on the display screen is calculated by applying the virtual object display control data and the camera captured image.
  • FIG. 7 is a diagram illustrating a part of HTML data included in data (virtual object display control data) acquired from the information providing server 50 based on the access information (URL) notified from the search server.
  • the HTML data shown in FIG. 7 includes data applied to the point position identification mark display position determination process executed by the information processing apparatus 10.
  • the data shown in FIG. 7 is an example of HTML data used to determine the display position of the following point position identification mark described above with reference to FIGS. Point A (POI-A) position identification mark 111, Point B (POI-B) position identification mark 121,
  • the reference real object is a real object that exists in the real world and is a real object near each registered information setting point.
  • the reference real object is an object that becomes a reference position for calculating the position of the registered information setting point, and is called an anchor or an anchor object.
  • An image obtained by photographing the reference object is called an anchor image. Since the anchor image is only used as a position calculation criterion, it does not have to be related to the POI, but the anchor image may include the POI.
  • FIG. 8 shows real objects such as castles existing in the real world.
  • the coordinate axes (XYZ) shown in the figure are coordinate axes of virtual three-dimensional space coordinates that define the positional relationship of real objects in the real world at three-dimensional positions. It is not an absolute position coordinate such as GPS, but the position of the origin of the virtual three-dimensional space coordinate is an arbitrary local coordinate.
  • the first reference real object 201 is a real object composed of the upper layer area of the castle.
  • the second reference real object 202 is a real object composed of an area including the entrance of the castle.
  • the reference real object information includes the following information.
  • Reference image image obtained by photographing a reference real object (anchor image) (anchor.png)
  • Reference real object position information included in the reference image position: three-dimensional coordinate data (X, Y, Z) indicating the position of the reference real object in the three-dimensional real space)
  • Direction information rotation: information indicating the orientation of the reference real object included in the reference image, and the direction can be generally expressed by Euler angles, but here it is represented by 3D graphics.
  • Quaternion (quaternion) (x, y, z; w) data often used is used.
  • Reference image area dimension
  • Conversion in the real space 3D coordinate unit unit: meter or kilometer
  • Reference images images (anchor.png) obtained by shooting reference real objects are images 201p and 202p shown in FIG. 8B, for example.
  • the coordinates used for the position information of the reference real object included in the reference image are, for example, in the world coordinate system
  • the coordinates indicating the position of the reference real object and the coordinates indicating the position of the point correspondence information are coordinates using the same coordinate space.
  • the direction information of each of the reference real object and the point correspondence information is the direction information from the same reference point.
  • reference actual object information regarding the first reference actual object 201 is the following data.
  • ⁇ Span typeof 'anchor'>
  • (X, Y, Z) (152, 44, 37). This corresponds to, for example, the coordinates of the center position of the reference real object.
  • the HTML data shown in FIG. 7 further records the following data as reference real object information (second anchor information) related to the second reference real object 202.
  • second anchor information reference real object information
  • ⁇ Span typeof 'anchor'>
  • each data is the same as that described in the reference real object information (first anchor information) regarding the first reference real object 201.
  • the setting has two reference actual object information (anchor information).
  • anchor information any number of reference actual object information (anchor information) is recorded in the HTML data. Is possible.
  • the HTML data shown in FIG. 7 includes information on registration information setting points, that is, the following registration information setting points shown in FIG. (A) Registration information setting point A (POI-A) 211, (B) Registration information setting point B (POI-B) 212, Information regarding these registered information setting points is recorded.
  • Registration information associated with registration information setting point (2) Position information of registration information setting point (3D coordinate data (X, Y, Z) indicating position of registration information setting point in 3D real space) ) (3) Direction information of registration information setting point (information indicating a direction of a registration information setting point from a specific reference point, for example, a camera that has captured the reference image)
  • the registration information associated with the registration information setting point is information such as the point correspondence registration information 112 and 122 described above with reference to FIGS.
  • the point correspondence information related to the registration information setting point A (POI-A) 211 is the following data.
  • the HTML data shown in FIG. 7 further records the following data as point correspondence information related to the registration information setting point B (POI-B) 212.
  • each data is the same as that described in the point correspondence information regarding the registered information setting point A (POI-A) 211.
  • the setting includes two pieces of registration information setting point (POI) correspondence information.
  • PI registration information setting point
  • HTML data has any number of registration information setting point (POI) correspondence information. Can be recorded.
  • the HTML data (virtual object display control data) acquired from the information providing server 50 based on the access information (URL) notified from the search server is included in the reference image that has been captured in advance and the reference image.
  • the position information of the anchor object and the registered information setting point in the virtual three-dimensional space is recorded.
  • anchor object information and registration setting point information are recorded in HTML.
  • an HTML virtual object and registration setting point information may be associated with each other and recorded in JavaScript (registered trademark). Or it is good also as a setting acquired from the information provision server 50 by JavaScript (trademark) as another data. Therefore, it is not essential to record anchor object information and registration point information in HTML.
  • the processing executed by the data processing unit of the information processing apparatus (user terminal) 10 is, for example, the following processing procedure.
  • the data processing unit of the information processing apparatus (user terminal) 10 is a virtual 3D of HTML data (virtual object display control data), that is, a reference image that has been captured in advance, a real object included in the reference image, and a registered information setting point HTML data in which position information in spatial coordinates is recorded is input from the information providing server 50.
  • the same real object (anchor) as the real object included in the reference image is detected from the photographed image displayed on the display unit.
  • the position information of the user terminal is specified by applying the three-dimensional position information of the detected real object (anchor) and the relative position information recorded in the virtual object display control data.
  • the position of the user terminal is specified from the captured image and the reference image by using a three-dimensional position / orientation information analysis process, which will be described later. Further, the three-dimensional position of each registered information setting point in the coordinate system with the user terminal as the origin is calculated. Based on the calculated position information, a registered information setting point display position on the captured image displayed on the display unit is calculated, and a point position identification mark, which is a virtual object, is superimposed on the calculated display position. In superimposing and displaying a virtual object, it is also possible to display three-dimensionally by using the CSS three-dimensional TRANSFORM function. According to such a procedure, the point position identification mark is displayed in accordance with the registered information setting point on the photographed image. Note that these processing procedures are recorded in JavaScript (registered trademark) acquired by the information processing apparatus 10 from the information providing server 50.
  • JavaScript registered trademark
  • JavaScript registered trademark
  • FIG. 9 shows a part of JavaScript (registered trademark) data acquired from the information providing server 50 based on the access information (URL) notified from the search server.
  • JavaScript (registered trademark) shown in FIG. 9 corresponds to a processing program that records a processing procedure for determining the display position of the point position identification mark in the information processing apparatus 10.
  • the processing executed by the data processing unit of the information processing apparatus 10 based on JavaScript (registered trademark) shown in FIG. 9 will be sequentially described according to the processing steps (S201 to S209) shown in FIG.
  • Step S201 First, the data processing unit of the information processing apparatus 10 inputs a captured image input stream captured by the camera of the information processing apparatus.
  • This captured image is image data that is currently input via the camera unit.
  • This captured image is continuously displayed on the display unit.
  • the captured image described here means an image captured by the camera function, and the recording process for the storage unit may or may not be executed.
  • step S202 the data processing unit of the information processing apparatus 10 inputs the first reference real object information (first anchor information).
  • the first reference real object information (first anchor information) is the first reference real object information (first anchor information) recorded in the HTML data described above with reference to FIG.
  • the first reference real object (first anchor).
  • Reference image image obtained by shooting a reference real object (anchor1.png)
  • Position information of the reference real object included in the reference image (three-dimensional coordinate data (X, Y, Z) indicating the position of the reference real object in the three-dimensional real space)
  • Quartanion (x, y, z: w) representing the direction information of the reference real object included in the reference image.
  • Reference image area dimension
  • the data processing unit of the information processing apparatus 10 reads the first reference real object information (first anchor information) from the HTML data.
  • Step S203 the data processing unit of the information processing apparatus 10 inputs the second reference real object information (second anchor information) in step S203.
  • the second reference real object information (second anchor information) is also the second reference real object information (second anchor information) recorded in the HTML data described above with reference to FIG.
  • the setting is made so that two pieces of reference real object information (anchor information) are read.
  • anchor information all the reference real object information (anchor information) recorded in the HTML data is read. It is set to perform.
  • Step S204 the data processing unit of the information processing apparatus 10 inputs registration information setting point A (POI-A) correspondence information.
  • This registered information setting point A (POI-A) correspondence information is the point A correspondence information recorded in the HTML data described above with reference to FIG.
  • the registration information setting point A (POI-A).
  • Registration information associated with registration information setting point (2) Position information of registration information setting point (3D coordinate data (X, Y, Z) indicating position of registration information setting point in 3D real space) ) (3) Quaternion (x, y, z: w) indicating the direction information of the registered information setting point.
  • the data processing unit of the information processing apparatus 10 reads the point A (POI-A) correspondence information from the HTML data.
  • Step S205 the data processing unit of the information processing apparatus 10 inputs registration information setting point B (POI-B) correspondence information in step S205.
  • This registered information setting point B (POI-B) correspondence information is the point B correspondence information recorded in the HTML data described above with reference to FIG.
  • Step S206 the data processing unit of the information processing apparatus 10 calculates the result of the calculation of the camera position of the user terminal from the reference image (three-dimensional position analysis process) using a function (event) of JavaScript (registered trademark). Processing function).
  • the positioning process performed before step S206 is executed is the following information acquired in steps S202 to S205, that is, (1) Reference image data obtained by photographing a reference real object, and three-dimensional position and orientation information including information such as the position and direction of the reference real object included in the reference image data; (2) 3D position and orientation information including information such as the position and direction of registered information setting points; With this information, Input in step S201, (3) Captured image This is executed using these data.
  • the positioning process (three-dimensional position and orientation information analysis process) is performed as a process to which, for example, SLAM (simultaneous localization and mapping) is applied.
  • SLAM is a process of selecting a feature point from various real objects included in a captured image of a camera and detecting the position of the selected feature point and the position and orientation of the camera together.
  • SLAM is described in Japanese Patent No. 5380789, which is a prior patent application by the present applicant.
  • the data processing unit of the information processing apparatus 10 sets necessary parameters such as the position (position), the direction (rotation), and the region (dimension) of the display unit (display) of the information processing apparatus and each camera in processing using SLAM. Enter and use.
  • the outline of the three-dimensional position / orientation analysis process to which SLAM is applied is as follows. First, a real object that matches the reference real object is detected from the camera photographed image. This is executed by a feature point comparison process (feature point matching) between the reference image data obtained by capturing the reference real object acquired from the HTML data and the captured image.
  • feature point matching feature point matching
  • the three-dimensional position and orientation of the captured object detected from the camera captured image is analyzed.
  • the position of the camera that captured the reference image does not match the current image capturing position (the information processing device (camera position of the user terminal)), and the direction and the object included in the reference image and the object included in the camera captured image The size will be different.
  • These differences are analyzed, and the three-dimensional position and orientation of the camera in the real space are analyzed with reference to the shooting object corresponding to the reference object detected from the camera shot image.
  • camera setting information such as lens magnification, position and direction information, and angle information of the camera of the information processing apparatus is used.
  • information such as the position, direction, and size of the reference real object recorded in the HTML data, the three-dimensional position and orientation information of the camera in the real space, and the virtual of the registration information setting point (POI) included in the captured image The position and direction of the camera in the three-dimensional space are calculated.
  • the camera position calculated by the above processing is, for example, the coordinates (Xw, Yw, Zw) of the three-dimensional position camaraPosition in the world coordinate system.
  • the camera rotation indicating the camera direction and the camera view angle indicating the angle of view of the camera are indicated by a quaternion.
  • step S207 the data processing unit of the information processing apparatus 10 converts the three-dimensional position coordinates of the registration information setting point A (POI-A) and the registration information setting point B (POI-B) into camera coordinates.
  • the camera coordinates are a coordinate system in which XYZ coordinate axes are set according to the direction of the camera with the camera viewpoint (imaging unit) as the camera position and the camera rotation as the origin.
  • step S207 the registration information setting point A (POI-A) and the registration information setting point B (POI-) recorded in the HTML data are determined from the position and orientation of the camera in the world coordinate system obtained by the three-dimensional positioning in S206.
  • step S208 the data processing unit of the information processing apparatus 10 displays the camera coordinates of the registration information setting point A (POI-A) and the registration information setting point B (POI-B) as display unit (display) coordinates. Convert to
  • the display unit coordinates are a coordinate system in which, for example, the upper left corner of the display unit is set as the origin, the X axis is set to the right, and the Y axis is set to the lower left. In this process, the registered set point that is out of the field of view of the camera is not used in the display process below display.
  • the registration information setting point A (POI-A) calculated in step S207 and the coordinates (Xc, Yc, Zc) of the camera coordinate system of each of the registration information setting point B (POI-B) are displayed as display unit coordinates ( Xd, Yd).
  • the display part coordinate with respect to each of the display part for left eyes and the display part for right eyes is calculated. That is, the display unit coordinates (Xdl, Ydl) corresponding to the display unit for the left eye and the display unit coordinates (Xdr, Ydr) for the display unit for the right eye.
  • the display unit coordinates (Xdl, Ydl) corresponding to the display unit for the left eye and the display unit coordinates (Xdr, Ydr) for the display unit for the right eye it is necessary to set an image having parallax in the left-eye image and the right-eye image according to the value of the Z-axis (distance) in the camera coordinate system. For example, a difference corresponding to the parallax is set for the coordinate values of Xdl and Xdr.
  • step S209 the data processing unit of the information processing apparatus 10 displays the point A (POI-A) position identification mark at the display unit (display) coordinate position of the registration information setting point A (POI-A).
  • the point B (POI-B) position identification mark is displayed at the display unit (display) coordinate position of the registered information setting point B (POI-B).
  • point (POI) position identification marks are point (POI) position identification marks displayed on the display image described above with reference to FIGS.
  • the information processing apparatus 10 uses the HTML data acquired from the information providing server 50 based on the access information (URL) notified from the search server and the JavaScript (registered trademark) data to perform the three-dimensional positioning process.
  • the position and direction of the camera is specified by the above, and the coordinate position on the display unit (display) of the registration information setting point (POI) included in the photographed image is calculated based on the result, and the point (POI) position at the coordinate position Display the identification mark.
  • registration information related to the registered information setting point displaying the point (POI) position identification mark is displayed in the vicinity of the display position of the point (POI) position identification mark.
  • the display position of the registration information and the display mode of the registration information and the point (POI) position identification mark, such as color, character, angle, etc., are style sheets received together with HTML and JavaScript (registered trademark) from the information providing server 50. It can be determined according to the CSS specification.
  • Step S301 First, in step S301, the information processing apparatus performs beacon detection as to whether or not a beacon from a beacon transmission apparatus has been received. If a beacon is detected, the process proceeds to step S302.
  • Step S302 When the beacon is detected, in step S302, the information processing apparatus requests the search server for an acquisition address (URL) for the virtual object display control data associated with the beacon transmission apparatus. In this request processing, the information processing apparatus transmits the beacon ID included in the beacon and the identification information (ID) of the three-dimensional positioning method (localization method) supported by the terminal to the search server.
  • URL acquisition address
  • ID identification information
  • Step S303 the information processing apparatus receives a virtual object display control data acquisition address (URL) corresponding to the beacon transmission apparatus from the search server.
  • URL virtual object display control data acquisition address
  • Step S304 the information processing apparatus displays the virtual object display control data acquisition address (URL) corresponding to the beacon transmission apparatus received from the search server on the display unit.
  • the search server may transmit attribute information such as a title representing display control data in addition to the URL, and the information processing apparatus may display information that is easy for the user to understand, such as a title, instead of the URL.
  • step S305 the information processing apparatus determines whether or not a user display instruction for attribute display has been given to the virtual object display control data acquisition address (URL) and title displayed on the display unit. If detected, the process proceeds to step S306. If not detected, the process returns to step S301.
  • URL virtual object display control data acquisition address
  • Step S306 the information processing apparatus activates the Web browser and acquires virtual object display control data accessed by the user according to the specified URL from the information providing server.
  • the virtual object display control data acquired from the information providing server is specifically composed of the following data and the like.
  • HTML Hyper Text Markup Language
  • CSS CSS
  • JavaScript registered trademark
  • HTML for example, HTML5, which is data indicating the basic structure of a virtual object displayed on the display unit of the information processing apparatus, is applied.
  • CSS is a style sheet that defines the display format, color, shape, and the like of virtual object configuration data defined by HTML, and is data that defines the style of a virtual object displayed on the display unit of the information processing apparatus.
  • JavaScript registered trademark
  • JavaScript is a display control program that defines display processing, display update processing, or movement and update processing of a virtual object. For example, an event such as a touch or a click on a display object by a user, or a predetermined time.
  • the control of various actions such as changing the display mode of the virtual object is executed by using various events such as the passage of time as a trigger.
  • This virtual object display control data is data acquired by one URL, and acquired by the access information (URL) selected by the search server based on the beacon transmission device identifier (ID) included in the beacon of the beacon transmission device. It becomes possible. That is, the virtual object display control data including HTML, CSS, and JavaScript (registered trademark) as constituent elements includes position information and guidance information regarding various facilities in the vicinity of one specific beacon transmission device. This is data for performing display control and display of virtual objects such as point (POI) position identification marks and point correspondence registration information described with reference to FIG.
  • POI point
  • Step S307 the information processing apparatus uses the virtual object display control data acquired from the information providing server to determine the display position and display mode of the virtual object and display them on the display unit.
  • a Web rendering program and a Web page display control program are used.
  • the virtual object displayed on the display unit is, for example, registered in association with the registration information setting point (POI) position identification mark or registration information setting point (POI) described above with reference to FIGS. Information.
  • Basic information of these virtual objects is recorded in HTML data included in the virtual object display control data acquired from the information providing server.
  • the display mode of these virtual objects can be similarly set according to CSS included in the virtual object display control data acquired from the information providing server.
  • step S308 the information processing apparatus determines whether or not an event serving as a trigger for performing display update of the virtual object displayed on the display unit is detected.
  • events that trigger the display update of the virtual object include various types of events such as touch processing of the display unit by the user, elapse of a predetermined time from the start of display of the virtual object, or movement of the display screen. is there.
  • the event update based on the detection of the event is described in JavaScript (registered trademark) provided by the information providing server, and executed according to this description.
  • step S308 when an event serving as a trigger for updating the display of the virtual object displayed on the display unit is detected, the process proceeds to step S309.
  • step S309 the information processing apparatus executes update of display data (virtual object) as event-corresponding processing based on a Web rendering program and a Web page display control program (such as JavaScript (registered trademark)). .
  • a Web rendering program such as JavaScript (registered trademark)
  • JavaScript registered trademark
  • FIG. 12 is processing by a JavaScript (registered trademark) program, and is executed, for example, in steps S201 to S206 of the JavaScript (registered trademark) program shown in FIG.
  • the object in FIG. 12 refers to an object processed by JavaScript (registered trademark).
  • JavaScript registered trademark
  • Step S401 the information processing apparatus acquires an anchor object including a reference image described in HTML data received from the information providing server.
  • HTML data can be acquired from a JavaScript (registered trademark) program as a DOM (document object model) object.
  • the anchor information object described in the HTML data includes the following data.
  • Reference image reference image serving as an anchor (anchor1.png)
  • Position information of the anchor included in the reference image (3D coordinate data (X, Y, Z) indicating the anchor position in the virtual 3D real space)
  • Anchor direction information included in the reference image (a quaternion (x, y, z: w) indicating an orientation in the virtual three-dimensional space)
  • Reference image area (dimension) information horizontal length and vertical length
  • Step S402 the information processing apparatus acquires a moving image stream object from a video capture object shot using the camera function of the information processing apparatus.
  • step S403 the information processing apparatus acquires a three-dimensional position measurement process (Space localization) object.
  • Step S404 the information processing apparatus sets the moving image stream object acquired in step S402 as a three-dimensional position calculation process (Space localization) object.
  • the information processing apparatus can process the moving image stream of the video captured by the camera by the three-dimensional position measurement processing.
  • step S405 the information processing apparatus sets the anchor object acquired in step S401 to the shooting object for three-dimensional position measurement processing (space localization) set in step S404, sets the anchor ID, and registers (stores) To store).
  • the anchor information described as HTML data is input to the three-dimensional position calculation process.
  • step S406 the information processing apparatus determines whether or not the process of associating all the anchors with the spatial position measurement processing object has been completed. If not completed, the process returns to step S405 to set an anchor object for unprocessed data. If it is determined that the process of associating the anchor object with the space position calculation processing object is completed, the process proceeds to step S407.
  • step S407 the information processing apparatus registers an event (three-dimensional position specialty event) processing function in the object for three-dimensional position positioning processing (Spacelocation).
  • This event processing function includes a processing start trigger as a result of calculating the position and orientation of the camera in the virtual three-dimensional space by the three-dimensional position measurement from the reference image included in the anchor information and the moving image stream captured by the camera. Event.
  • the movement of the image taken by the photographing unit of the information processing apparatus exceeds a predetermined amount (predetermined preset value) due to the movement of the user or the photographing direction of the camera and the like in the virtual three-dimensional space.
  • a predetermined amount predetermined preset value
  • the accuracy of how much a predetermined amount of movement occurs is recorded in JavaScript (registered trademark) received from the information providing server, and is set when the event processing function is registered. It is input to the dimension position measurement processing unit.
  • Step S501 the information processing apparatus determines whether an event of an object for three-dimensional position measurement processing (Spacelocation) has occurred. This corresponds to whether or not a call to the event processing function registered in S407 of FIG. 12 has occurred.
  • Spacelocation three-dimensional position measurement processing
  • step S501 If it is determined in step S501 that the event of the three-dimensional position calculation process has occurred, the process proceeds to step S502.
  • Step S502 If it is determined in step S501 that a virtual object display / update event has occurred, the information processing apparatus, in step S502, the position, direction, region (dimension), camera position, direction, and angle of the terminal display unit (display). To get. This step corresponds to passing these pieces of information as arguments of the event processing function registered in FIG.
  • step S503 the information processing apparatus acquires registration information setting point (POI) correspondence information (three-dimensional position and orientation information such as coordinates and directions) described in the HTML data.
  • registration information setting point (POI) information recorded in the HTML data is acquired by the JavaScript (registered trademark) program as a DOM object, as in the case of acquiring the anchor information recorded in the HTML data. can do.
  • step S504 the information processing apparatus displays three-dimensional position and orientation information such as coordinates and directions of registered information setting points (POI) acquired from the HTML data received from the information providing server in step S503, on the display unit of the terminal.
  • Display Convert to coordinates of coordinate system and save in POI list.
  • This conversion process includes a process of converting the POI coordinates into the user terminal coordinate system with the position and orientation of the registered information setting point (POI) as the origin and the user terminal (camera) as the origin, and the POI of the converted terminal coordinate system. Two-stage conversion is performed to convert from the coordinates to the coordinate system of the display device.
  • the camera position and orientation in the virtual three-dimensional space and the position and orientation of the terminal display unit (display) are required, and the information acquired in S502 is used.
  • the information acquired in S502 is used.
  • the POI display position in the display coordinate system in consideration of the difference between the orientations.
  • step S505 the information processing apparatus determines whether coordinate conversion and list registration of all POIs have been completed. If not completed, the process returns to step S503, and the processes of steps S503 to S504 are executed for the unprocessed POI. If it is determined that all POI coordinate conversion and list registration processing have been completed, the process advances to step S506.
  • Step S506 If it is determined that the coordinate conversion and list registration processing for all POIs have been completed, the information processing apparatus sequentially selects POIs from the generated POI list in step S506.
  • step S507 the information processing apparatus determines whether the coordinates of the selected POI selected from the list (the coordinates of the display unit coordinate system) are within the display range of the display unit. Whether or not it is within the display range is determined from information on the camera position and orientation in the virtual three-dimensional space and the position and orientation of the terminal display unit (display). In the case of displaying a video from the POI, it is possible to superimpose the POI on the position of the real object moved to the captured video by calculating the display position of the POI in accordance with the display position of the captured video.
  • step S507 If the POI coordinates are not within the display range of the display unit, the POI processing is stopped, the process returns to step S506, and the next POI is selected from the POI list. If it is determined in step S507 that the coordinates of the selected POI selected from the list (coordinates in the display unit coordinate system) are within the display range of the display unit, the process proceeds to step S508.
  • Step S508 When it is determined that the coordinates of the selected POI selected from the list (the coordinates of the display unit coordinate system) are within the display range of the display unit, the information processing apparatus registers the point position identification mark of the selected POI and the registration in step S508. Display information. Note that the display mode of these virtual objects is set using, for example, CSS.
  • step S509 the information processing apparatus determines whether or not all POI processes have been completed. If there is an unprocessed POI, the process returns to step S506, the next unprocessed POI is selected from the POI list, and the processes from step S507 are executed. If it is determined in step S509 that all POI processes have been completed, the process ends.
  • Step S601 First, in step S601, the data processing unit of the information processing apparatus acquires the resolution of the camera captured image and the lens magnification of the camera. These are executed by acquiring camera setting information recorded in the memory of the camera control unit of the information processing apparatus.
  • Step S602 the information processing apparatus initializes a motion sensor attached to the information processing apparatus. That is, initialization processing is executed to reset data measured in the past and set the current position and inclination (direction) to initial values.
  • the motion sensor is used to specify the position and orientation of an information processing apparatus such as a gyroscope or an acceleration sensor.
  • step S603 the information processing apparatus determines the reference real object information (anchor information) described in the HTML data (see FIG. 7) acquired from the information providing server, that is, the three-dimensional position in step S405 in FIG. Feature points are extracted from the reference image included in (anchor information) set in the positioning process.
  • step S604 the information processing apparatus completes the feature point extraction process from the reference image corresponding to all the reference real object information (anchor information) set in the three-dimensional position measurement process in step S405 of FIG. Determine whether or not. If there is an unprocessed reference image, the process returns to step S603 to perform feature point extraction from the unprocessed reference image. If it is determined that the feature point extraction processing from the reference images corresponding to all the reference real object information (anchor information) described in the HTML data (see FIG. 7) acquired from the information providing server is completed, the process proceeds to step S605. .
  • Step S605 When feature point extraction processing from reference images corresponding to all reference real object information (anchor information) described in HTML data (see FIG. 7) acquired from the information providing server is completed, the data processing unit of the information processing device In step S605, camera image input starts.
  • step S606 the data processing unit of the information processing apparatus extracts feature points from each frame of the camera-captured image.
  • Step S607 the data processing unit of the information processing apparatus acquires the observation value of the motion sensor in step S607.
  • step S608 the data processing unit of the information processing device includes the position and direction of the camera in the real space by matching processing between the feature points of the reference image (anchor image) and the feature points of the camera-captured image. Dimensional position and orientation information is calculated. This process is executed by applying, for example, the SLAM technique described above.
  • step S609 the information processing apparatus determines whether or not the camera three-dimensional position / orientation information calculation process by the matching process between the feature points of all the reference images (anchor images) and the feature points of the camera photographed image is completed. Determine whether. If there is an unprocessed reference image, the process returns to step S608 to execute processing on the unprocessed reference image. If it is determined that all the reference images have been processed, the process proceeds to step S610.
  • step S610 the information processing apparatus calculates final three-dimensional position / orientation information of the position and direction of the camera in the real space based on the feature point matching result between the entire reference image and the camera photographed image.
  • step S608 the three-dimensional position / orientation information of the camera corresponding to each reference image is calculated for each reference image (anchor image), and the three-dimensional position / orientation information of a different camera is calculated for each of the plurality of reference images.
  • processing such as averaging these plural values is executed to calculate three-dimensional position and orientation information including the final position and direction of the camera in real space.
  • step S611 the information processing apparatus detects the amount of change between the three-dimensional position and orientation of the camera specified in the previous frame and the dimension position and orientation calculated from the current frame. Compensation such as blurring of the frame image due to the movement of the camera itself detected by the motion sensor is also used for this detection, but it is passed to the event processing function including the camera posture information and the correction information of the blurring of the frame image. Display deviation when superimposed on a camera-captured video can be corrected by control according to (registered trademark).
  • Step S612 the information processing apparatus determines whether the amount of change detected in step S611 has changed by a predetermined threshold value or more.
  • the threshold value is a value set in advance from the JavaScript (registered trademark) program of the display control data in step S407 in FIG. 12, and is a value stored in the recording unit.
  • Step S613 If it is determined that the three-dimensional position / posture of the camera has changed by a predetermined threshold value or more, the information processing apparatus, as a result of the three-dimensional positioning posture, in step S613, the position, direction, region (dimension) of the display unit, the position of the camera, Set the direction and angle information, and start the event processing function processing.
  • the data processing unit of the information processing apparatus executes the virtual object display / update process by executing the process according to the flow described above with reference to FIG. 13 with the start of the virtual object display update process. Will do.
  • the POI position is aligned with the actual object that is transferred to the video captured by the camera.
  • the display is not limited to being superimposed, and various display processes and display triggers can be realized by JavaScript (registered trademark) using a JavaScript (registered trademark) program.
  • JavaScript registered trademark
  • the information provider can present various display methods as well as simply displaying the POI in characters.
  • the data processing unit of the information processing apparatus (user terminal) 10 responds to changes in various contexts (situations) that predefine registration information display processing or display update processing regarding registration information setting points in the vicinity of the information processing apparatus.
  • Execute event detection as a trigger. Specifically, for example, a process of starting or updating the display of the virtual object may be performed using event detection based on the following information as a trigger.
  • a display control program such as JavaScript (registered trademark)
  • a display control program such as JavaScript (registered trademark)
  • a program for executing these series of processes is defined.
  • the information providing server provides registration information corresponding to registration information setting points including a restaurant menu and the like as a virtual object to the information processing apparatus.
  • a display control program such as JavaScript (registered trademark)
  • a program for executing these series of processes is defined.
  • the information providing server provides route information, famous place guide information, toilet location information, and the like as virtual objects to the information processing apparatus.
  • the set position of the plan plan, schedule information, and the like are displayed as virtual objects on the information processing apparatus (user terminal).
  • a display control program such as JavaScript (registered trademark)
  • a program for executing these series of processes is defined.
  • the information providing server provides the information processing apparatus with the set position of the plan, schedule information, and the like as virtual objects.
  • the data processing unit of the information processing apparatus held by the user prompts for information on the user's heartbeat or pulse state, for example, information that encourages deep breathing or rest.
  • Information or guidance information such as nearby rest areas is displayed as a virtual object.
  • a display control program such as JavaScript (registered trademark)
  • A) User physical information acquisition process from the sensor (B) Event detection processing according to the input physical information, A program for executing these series of processes is defined.
  • the information providing server sends information corresponding to the user's heart rate and pulse state, for example, information for prompting deep breaths, information for prompting rest, or guidance information for nearby rest places, etc. to the information processing apparatus as virtual objects. provide.
  • FIG. 6 A specific example of virtual object display start and display update processing triggered by event detection based on store sales information will be described.
  • this processing for example, there is the following processing. For example, when the user holding the information processing device (user terminal) is in the neighborhood of the store at 10:00 am which is the sale start time of the store, the location of the store, The sale contents etc. are displayed as virtual objects.
  • a display control program such as JavaScript (registered trademark)
  • POI registered information setting point
  • a program for executing these series of processes is defined.
  • the information providing server provides registration information corresponding to registered information setting points including store sales details as virtual objects to the information processing apparatus.
  • the setting information of the information processing apparatus is, for example, settings for display language settings, presence / absence of audio output, and the like.
  • the setting information of the information processing apparatus is, for example, settings for display language settings, presence / absence of audio output, and the like.
  • the display language is Japanese
  • registration information consisting of Japanese information is provided as a virtual object
  • registration information consisting of English information is provided.
  • the audio output is set to ON, registration information having an audio output may be output.
  • a display control program such as JavaScript (registered trademark) includes a registration information setting point (POI) detection process according to the above-described embodiment
  • a program for executing setting information acquisition processing of the information processing apparatus (user terminal) is defined.
  • the information providing server provides the information processing apparatus with language, display data, or audio data according to the setting information of the information processing apparatus (user terminal).
  • the information processing apparatus displays a virtual object including optimal provision information according to the registered user attribute.
  • a display control program such as JavaScript (registered trademark) includes a registration information setting point (POI) detection process according to the above-described embodiment, (A) A program for executing a process for acquiring registered user attribute information is defined. Further, the information providing server provides the information processing apparatus with a virtual object including optimal provision information according to the setting information of the information processing apparatus (user terminal).
  • FIG. 16 is a virtual object display example in the case where user attribute information indicating that he is a middle-aged man in his 30s to 50s and likes alcohol is registered.
  • user attribute information indicating that he is a middle-aged man in his 30s to 50s and likes alcohol
  • FIG. 16 is displayed on each information processing apparatus. That is, a point (POI) position identification mark 301 indicating the position of an alcohol-providing store such as a tavern and point (POI) correspondence registration information 302 are displayed one after another.
  • POI point
  • POI point
  • FIG. 17 is a virtual object display example in the case where user attribute information indicating that a woman in her 20s to 30s likes shopping is registered.
  • a virtual object as shown in FIG. 17 is displayed on the information processing apparatus. That is, a point (POI) position identification mark 321 indicating the position of a store selling items preferred by women in their 20s and 30s, and point (POI) correspondence registration information 322 are displayed one after another.
  • a point (POI) position identification mark 321 indicating the position of a store selling items preferred by women in their 20s and 30s
  • point (POI) correspondence registration information 322 are displayed one after another.
  • FIG. 9 A specific example of virtual object display start and display update processing triggered by event detection based on the line of sight of the user holding the information processing apparatus (user terminal) will be described.
  • this processing for example, there is the following processing.
  • the information processing apparatus inputs detection information of a sensor that measures the user's line of sight.
  • the sensor detects the user's line-of-sight direction and outputs detection information to the information processing apparatus.
  • the data processing unit of the information processing apparatus executes processing for preferentially displaying registration information related to a registration information setting point (POI) in the user's line-of-sight direction.
  • POI registration information setting point
  • a display control program such as JavaScript (registered trademark) includes a registration information setting point (POI) detection process according to the above-described embodiment, (A) A program for determining a display object by inputting a user's line-of-sight direction detection result is defined.
  • various events can be set as events that trigger the display process or the display update process of the virtual object.
  • FIG. 18 is a block diagram illustrating a configuration example of the information processing apparatus (user terminal) 10.
  • the information processing apparatus 10 includes a beacon detection unit 501, a data processing unit (control unit) 502, a motion sensor 503, a storage unit 504, a camera (imaging unit) 505, an input unit 506, and an output unit (display).
  • Unit 507, a communication unit 508, various sensors 509, and a timer 510.
  • the beacon detection unit 501 detects a beacon transmitted by the beacon transmission device 20.
  • the data processing unit (control unit) 502 executes various types of data processing executed by the information processing apparatus 10. Specifically, the process according to the flowchart described above is executed.
  • the data processing unit (control unit) 502 includes a CPU having a program execution function, and executes processing according to a program stored in the storage unit 504, for example.
  • the motion sensor 503 is a sensor that detects the motion of the information processing apparatus. It consists of various sensors that detect the direction of movement, inclination, acceleration, and the like.
  • the storage unit 504 includes, for example, a RAM, a ROM, an HDD, and other media, stores programs executed by the data processing unit 5602, various parameters, and the like, and further serves as a work area for data processing executed by the data processing unit. Used.
  • a camera (imaging unit) 505 executes image shooting.
  • the configuration for capturing a three-dimensional image has a configuration in which two imaging units are provided at separated positions. In the case of a configuration for capturing a two-dimensional image, one imaging unit is provided.
  • the input unit 506 is a user operation unit, and various instruction inputs by the user are executed.
  • the display unit is configured as a touch panel, the display unit also functions as an input unit.
  • the output unit 507 includes a display unit, an audio output unit, and the like.
  • the display unit displays a real object that is a photographed image of the camera according to the above-described processing, and a point (POI) position identification mark as a virtual object acquired from the information providing server and point (POI) correspondence registration information are superimposed. Is displayed.
  • the communication unit 508 is a communication unit that performs communication processing with an information providing server, a search server, and other external devices.
  • the various sensors 509 are sensors that measure various user situations such as a line-of-sight sensor and a heart rate sensor.
  • the data processing unit 502 can update the display of the virtual object according to the sensor detection information.
  • the timer 510 performs detection of the current time, measurement of elapsed time from a predetermined timing, and the like.
  • FIG. 19 is a hierarchy diagram illustrating the layer configuration of a data processing program executed in the data processing unit 502 that executes various processes.
  • the data processing unit 502 executes various applications on an OS (Operating System) layer.
  • OS Operating System
  • the communication processing application shown in the figure is an application for instructing a web page to a display processing device based on beacon detection, URL acquisition, and URL.
  • the processing from S301 to S306 in FIG. 10 is executed.
  • the display processing application executes display processing of an image taken by the camera, display processing of a virtual object provided from the information providing server, and the like.
  • the display processing application executes display update processing of the virtual object using display of display control data and various events as triggers. Note that display information output or update processing by the display processing application is executed with processing of the 3D spatial positioning library, the display control library, and the Web page display library shown in the lower part of the display processing application in FIG.
  • the 3D spatial positioning library executes a three-dimensional positioning process that calculates the three-dimensional position, direction (tilt), and the like of the information processing apparatus itself based on an object photographed via the camera and a reference image. Specifically, as described above, three-dimensional positioning processing using SLAM technology or the like is executed.
  • the display control library is an execution unit of WebKit and JavaScript (registered trademark), and executes display update processing using a display of a virtual object on the display unit and an event such as a user operation as a trigger.
  • the Web page display application is configured by WebKit WebCore or the like, and executes Web page display processing.
  • the OS layer controls the overall processing executed by each application, and between various processing units set in the hardware (HW) layer and the application layer. Input / output control of commands and parameters.
  • HW hardware
  • FIG. 20 shows a hardware configuration example of a communication apparatus applicable as an information providing server or a search server.
  • CPU 701 functions as a data processing unit that executes various processes according to a program stored in ROM (Read Only Memory) 702 or storage unit 708. For example, processing according to the sequence described in the above-described embodiment is executed.
  • a RAM (Random Access Memory) 703 stores programs executed by the CPU 701, data, and the like.
  • the CPU 701, ROM 702, and RAM 703 are connected to each other via a bus 704.
  • the CPU 701 is connected to an input / output interface 705 via a bus 704.
  • the input / output interface 705 is connected to an input unit 706 including various switches, a keyboard, a mouse, and a microphone, and an output unit 707 including a display and a speaker. Yes.
  • the CPU 701 executes various processes in response to a command input from the input unit 706, and outputs a processing result to the output unit 707, for example.
  • the storage unit 708 connected to the input / output interface 705 includes, for example, a hard disk, and stores programs executed by the CPU 701 and various data.
  • a communication unit 709 functions as a data transmission / reception unit via a network such as the Internet or a local area network, and communicates with an external device.
  • the drive 710 connected to the input / output interface 705 drives a removable medium 711 such as a semiconductor memory such as a magnetic disk, an optical disk, a magneto-optical disk, or a memory card, and executes data recording or reading.
  • a removable medium 711 such as a semiconductor memory such as a magnetic disk, an optical disk, a magneto-optical disk, or a memory card, and executes data recording or reading.
  • the technology disclosed in this specification can take the following configurations.
  • the data processing unit An anchor that is a reference image obtained by photographing a real object in the real world, and virtual object display control data that records the position information of the anchor and the position information of the registered information setting point in a virtual three-dimensional spatial coordinate system are input, Execute the event detection according to the change of the context defined in advance as a trigger for the display process of the registration information described in the display control data, or the display update process, An information processing apparatus that displays a virtual object indicating the registration information setting point together with the display of the registration information.
  • the virtual object display control data includes HTML (Hyper Text Markup Language) data in which position information in a three-dimensional space between an anchor that is a reference image obtained by photographing the real object and the registered information setting point is recorded, and Including a display control program,
  • HTML Hyper Text Markup Language
  • An anchor is detected from a captured image of the imaging unit, a position in the virtual three-dimensional space of the detected imaging unit is identified from a position and direction of the detected anchor in a virtual three-dimensional space coordinate, and a coordinate system of the display unit
  • the information processing apparatus according to (1), wherein a position of the registration information setting point in the display unit coordinate system is calculated, and a virtual object indicating the registration information setting point is displayed at the calculated position.
  • the data processing unit The registration information of the registration information setting point is displayed on the display unit on the condition that the distance between the information processing apparatus and the registration information setting point is equal to or less than a predetermined threshold.
  • Information processing device The registration information of the registration information setting point is displayed on the display unit on the condition that the distance between the information processing apparatus and the registration information setting point is equal to or less than a predetermined threshold.
  • the data processing unit The information processing according to any one of (1) to (5), wherein registration information of the registration information setting point is displayed on the display unit on a condition that a predetermined time is associated with the registration information setting point. apparatus.
  • the data processing unit The information processing apparatus according to any one of (1) to (8), wherein registration information of registration information setting points is displayed on the display unit in accordance with schedule information registered in advance by a user having the information processing apparatus.
  • the information processing apparatus A sensor that detects physical information of a user having an information processing device;
  • the data processing unit The information processing apparatus according to any one of (1) to (8), wherein registration information of registration information setting points is displayed on the display unit on a condition that an input of the sensor matches a predetermined condition.
  • the data processing unit The information processing apparatus according to any one of (1) to (10), wherein registration information to be output is selected according to user attribute information recorded in the information processing apparatus.
  • the information processing apparatus includes: Having a sensor for detecting the direction of the line of sight of a user having an information processing device; The data processing unit The information processing apparatus according to any one of (1) to (11), wherein registration information of a registration information setting point in a user line-of-sight direction detected by the sensor is displayed on the display unit.
  • the information processing apparatus includes: an imaging unit; a display unit that displays a captured image of the imaging unit; and data that displays a virtual object including registration information of registration information setting points in the real world included in the captured image on the display unit Having a processing unit,
  • the data processing unit is An anchor that is a reference image obtained by photographing a real object in the real world, and virtual object display control data that records the position information of the anchor and the position information of the registered information setting point in a virtual three-dimensional spatial coordinate system are input, Execute the event detection according to the change of the context defined in advance as a trigger for the display process of the registration information described in the display control data, or the display update process, An information processing method for displaying a virtual object indicating the registration information setting point together with the display of the registration information.
  • a program for executing information processing in an information processing device includes: an imaging unit; a display unit that displays a captured image of the imaging unit; and data that displays a virtual object including registration information of registration information setting points in the real world included in the captured image on the display unit Having a processing unit,
  • the program is stored in the data processing unit.
  • An anchor that is a reference image obtained by photographing a real object in the real world, and virtual object display control data that records the position information of the anchor and the position information of the registered information setting point in a virtual three-dimensional spatial coordinate system are input,
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • the apparatus that executes the display and display update processing of the registration information related to the registration information setting point in the real world using the event detection according to the change of the context as a trigger
  • the method is realized. Specifically, display control of a virtual object including registration information of registration information setting points in the real world is performed.
  • the data processing unit executes the display of the registration information described in the control data and the display update process according to a predetermined change in context. Further, a virtual object indicating a registration information setting point is displayed together with the registration information display. Based on the position and direction of the reference image (anchor) detected from the captured image in the virtual three-dimensional space, the positional relationship between the information processing apparatus and the registered information setting point is calculated.
  • a virtual object indicating a registration information setting point is displayed.
  • Information processing device (user terminal) DESCRIPTION OF SYMBOLS 20 Beacon transmitter 30 Network 40 Search server 50 Information provision server 101,102 Registration information setting point (POI) 111,121 point (POI) position identification mark 121,122 point (POI) correspondence registration information 201,202 reference real object 211,212 registration information setting point (POI) 301 Point (POI) Position Identification Mark 302 Point (POI) Corresponding Registration Information 321 Point (POI) Position Identification Mark 322 Point (POI) Corresponding Registration Information 501 Beacon Detection Unit 502 Data Processing Unit (Control Unit) 503 Motion sensor 504 Storage unit 505 Camera 506 Input unit 507 Output unit (display unit, etc.) 508 Communication unit 509 Various sensors 510 Timer 701 CPU 702 ROM 703 RAM 704 Bus 705 I / O interface 706 Input unit 707 Output unit 708 Storage unit 709 Communication unit 710 Drive 711 Removable media

Abstract

実世界の登録情報設定ポイントに関する登録情報の表示や表示更新処理をコンテキストの変化に応じたイベント検出をトリガとして実行する。実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトの表示制御を行う。データ処理部は、制御データに記述された登録情報の表示や表示更新処理を予め規定したコンテキストの変化に応じて実行する。さらに登録情報表示に併せて登録情報設定ポイントを示す仮想オブジェクトを表示する。撮影画像から検出する基準画像(アンカー)の仮想3次元空間での位置および方向等に基づいて情報処理装置と登録情報設定ポイントの位置関係を算出し、算出した位置関係とコンテキストの変化に基づき、登録情報設定ポイントを示す仮想オブジェクトを表示する。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、情報処理装置の近傍に存在する実オブジェクトに関する情報を、情報装置の位置、方向に基づき表示部(ディスプレイ)に表示する情報処理装置、および情報処理方法、並びにプログラムに関する。
 昨今、スマートホンやタブレット端末、あるいはグラス(眼鏡)型ディスプレイ等のウェアラブル端末等が普及し、多くのユーザがこれらの端末を利用している。
 これらの端末の多くは、通信機能のみならず、カメラ機能を備え、撮影画像を表示部に表示することができる。また、表示部には撮影画像のみならず、例えばネットワークを介してアクセスされるWebページ等、ネットワークを介して受信する様々な情報の表示が可能である。
 さらに、例えば、カメラの撮影画像に対する属性情報として設定されるGeo情報[経度緯度情報(Geostationary Earth Orbit)]や、携帯端末の有するGPS(Global Positioning System)機能によって取得される位置情報に従って、Webサイトから位置情報に対応付けられた情報を取得して表示する処理を可能とした端末もある。
 なお、このような撮影画像に関連する情報を撮影画像に重畳させて表示する構成を開示した文献として、例えば特許文献1(特開2011-028763号公報)がある。
特開2011-028763号公報
 GPSやGeo情報等の位置情報に基づき、撮影オブジェクトの関連情報を端末に重畳表示可能とした構成を示す従来技術は多々ある。
 様々な施設の登録情報をその施設位置に正確に対応付けたデータを用いて、オブジェクトの撮影および表示を行うユーザ端末の位置や傾きを検出し、表示部におけるオブジェクトの移動に応じて関連情報も連動させて移動させる制御を行うことで登録情報を施設位置に合わせて重畳表示することが可能である。
 しかし、従来の方法では、情報処理装置のプログラムによって、情報装置のGeo位置情報と登録情報のGeo位置情報の位置関係や、カメラの撮影した映像から認識された物体の撮影映像上での位置に追随させて、関連情報を撮影映像に重畳表示する方式が採用されている。そのため、登録情報のメタデータに合わせて重畳表示される文字のサイズや色を変えるようなことはできるが、ユーザ行動や情報端末のコンテキスト(状況)やその変化をトリガとして表示される登録情報を変更する処理や、その表示方法(文字の大きさ、位置、アニメーション等)を制御することは困難であった。
 例えば、情報端末のセンサから得られるユーザの身体情報(心拍、脈拍等)や温度センサの情報に基づき、カメラの撮影映像に映っていない場合でもスポーツドリンクの自動販売機が情報端末の近傍にあった場合は、それに関連する登録情報を表示部に表示し、ユーザにスポーツドリンクにて水分をとるように勧めるるような柔軟な処理は困難である。
 本開示は、例えば上記問題点に鑑みてなされたものであり、登録設定された実世界ポイント(POI:Point of Interest)に関する情報を、スマートホンなどのユーザ端末とそのポイント位置の位置関係、および、ユーザ端末から得られる様々な情報から判断されるコンテキスト(状況)に応じたイベントをトリガとして登録情報の表示を実行することを可能とする。例えば、ユーザの動き等に応じてユーザ端末の位置、傾き変更された場合に、その変化量に加えて、ユーザの行動状況(歩き、走り、電車など)を加味して、表示される情報やその表示方法(文字の大きさや表示位置)を変えるなどの多様な表示可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 撮像部と、
 前記撮像部の撮影画像を表示する表示部と、
 撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
 前記データ処理部は、
 実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行し、
 前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する情報処理装置にある。
 さらに、本開示の第2の側面は、
 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、撮像部と、前記撮像部の撮影画像を表示する表示部と、撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
 前記データ処理部が、
 実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行し、
 前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する情報処理方法にある。
 さらに、本開示の第3の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、撮像部と、前記撮像部の撮影画像を表示する表示部と、撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行する処理と、
 前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、実世界の登録情報設定ポイントに関する登録情報の表示や表示更新処理をコンテキストの変化に応じたイベント検出をトリガとして実行する装置、方法が実現される。
 具体的には、実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトの表示制御を行う。データ処理部は、制御データに記述された登録情報の表示や表示更新処理を予め規定したコンテキストの変化に応じて実行する。さらに登録情報表示に併せて登録情報設定ポイントを示す仮想オブジェクトを表示する。撮影画像から検出する基準画像(アンカー)の仮想3次元空間での位置および方向等に基づいて情報処理装置と登録情報設定ポイントの位置関係を算出し、算出した位置関係とコンテキストの変化に基づき、登録情報設定ポイントを示す仮想オブジェクトを表示する。
 本構成により、実世界の登録情報設定ポイントに関する登録情報の表示や表示更新処理をコンテキストの変化に応じたイベント検出をトリガとして実行する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の処理を実行する情報処理装置(ユーザ端末)を含むシステムの一構成例について説明する図である。 情報処理装置(ユーザ端末)の表示部の表示画像例について説明する図である。 情報処理装置(ユーザ端末)の表示部の表示画像例について説明する図である。 情報処理装置(ユーザ端末)の表示部の表示画像例について説明する図である。 本開示の処理を実行する情報処理装置(ユーザ端末)を含むシステムの各構成要素間の処理シーケンスについて説明する図である。 検索サーバの保持するデータの構成例について説明する図である。 情報提供サーバの提供するHTMLデータの一例について説明する図である。 基準実オブジェクトと登録情報設定ポイントについて説明する図である。 情報提供サーバの提供する表示制御プログラム(JavaScript(登録商標))一例について説明する図である。 仮想オブジェクト表示制御データの取得と仮想オブジェクト表示処理のシーケンスについ手説明するフローチャートを示す図である。 仮想オブジェクト表示制御データの取得と仮想オブジェクト表示処理のシーケンスについて説明するフローチャートを示す図である。 測位処理オブジェクト設定処理のシーケンスについて説明するフローチャートを示す図である。 仮想オブジェクト表示イベント検出に基づく仮想オブジェクト表示処理のシーケンスについて説明するフローチャートを示す図である。 仮想オブジェクト表示更新イベント検出および通知処理のシーケンスについて説明するフローチャートを示す図である。 仮想オブジェクト表示更新イベント検出および通知処理のシーケンスについて説明するフローチャートを示す図である。 仮想オブジェクトの具体的表示例を示す図である。 仮想オブジェクトの具体的表示例を示す図である。 情報処理装置の構成例について説明する図である。 情報処理装置の構成例について説明する図である。 サーバの構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の情報処理装置と、情報処理装置を含むシステムの構成例について
 2.通信処理および画像表示処理の詳細について
 3.登録情報設定ポイント(POI)位置識別マークの表示位置を決定する処理について
 4.情報処理装置の実行する各処理のシーケンスについて
 4-1.仮想オブジェクト表示制御データの取得と仮想オブジェクト表示処理
 4-2.測位処理オブジェクト設定処理
 4-3.仮想オブジェクト表示イベント検出に基づく仮想オブジェクト表示処理
 4-4.3次元位置測位処理
 5.仮想オブジェクトの表示開始または表示更新処理のトリガとなるイベントについて
 6.情報処理装置、およびサーバの構成例について
 7.本開示の構成のまとめ
  [1.本開示の情報処理装置と、情報処理装置を含むシステムの構成例について]
 まず、図1を参照して本開示の情報処理装置と、情報処理装置を含むシステムの構成例について説明する。
 図1は、本開示の情報処理装置を含む通信システムの一構成例を示す図である。
 情報処理装置(ユーザ端末)10は、例えばスマートホンや、グラス(眼鏡)型端末等、ユーザが携帯可能な通信端末である。
 情報処理装置(ユーザ端末)10は、通信部、カメラ(撮像部)、表示部を備え、カメラ撮影画像を表示部に表示し、通信部を介して受信した情報を撮影画像に重畳して表示部に表示する機能を備えた装置である。
 情報処理装置10は、カメラの撮影画像を表示部に表示する。表示部の表示画像は、カメラによって現在撮影されているリアルタイムの撮影画像とする。なお、本開示の処理は、過去に撮影されメモリに格納済みの画像を読み出して、表示部に表示した場合にも適用可能であるが、以下に説明する実施例では、現時点の撮影画像を表示部に表示している場合の処理例について説明する。なお、撮影画像をメディア等の記憶部に記録するか否かは任意である。
 情報処理装置10のカメラ(撮像部)および表示部は、それぞれ異なる装置で実現され、通信によって一体となった動作を行う構成としてもよい。
 通信によって一体となった動作を行う構成の場合、例えば、頭部に装着したカメラ(撮像部)が撮像した動画、および位置・向き情報をスマートホン(表示部)にWi-Fiで送信する構成により可能になる。
 本開示の処理は、情報処理装置10が物理的に一つの装置の構成であっても、通信を介して複数の装置で構成される場合においても適用可能である。
 情報処理装置10は、撮影画像を表示部に表示しながら、例えば無線LANやブルーツゥース等のアクセスポイント(AP)等によって構成されるビーコン送信装置20の出力するビーコンを受信する。
 ビーコンは、ビーコン送信装置20の識別子(ID)等を格納したパケットである。
 情報処理装置10は、ビーコン送信装置20から受信したビーコンを、インターネット等のネットワーク30を介して検索サーバ40に転送する。
 検索サーバ40は、情報処理装置10から転送されるビーコンを受信すると、受信ビーコンに含まれるビーコン送信装置識別子(ID)に基づいて、その識別子に対応して登録されたアクセス情報(URL)を取得して、情報処理装置10に送信する。
 アクセス情報(URL)は、ビーコン送信装置20の近辺にある情報登録ポイントの位置情報や、登録情報等を含むデータを取得するためのアクセス情報である。
 なお、例えばWebページなどの提供地図データでは、名所や、目印となる建物など、多くの人間の興味があると推定されるポイントとして登録情報設定ポイント(POI:Point of Interest)が設定されているが、上記アクセス情報(URL)は、例えばこの登録情報設定ポイント(POI)に関する位置情報と登録情報などを含む表示制御データを取得するためのアクセス情報である。
 情報処理装置10は、このアクセス情報  (URL)を用いて情報提供サーバ50から表示制御データを取得して、取得された表示制御データに含まれる登録情報設定ポイント(POI)に対応する登録情報等を表示部に表示された撮影画像上に重畳して表示する。
 すなわち、カメラ(撮像部)によって撮影され表示部に表示されている実オブジェクト上に、情報提供サーバ50から取得したPOIに関する位置情報や、登録情報を仮想オブジェクトとして重畳して表示する。
 情報提供サーバ50は、各地域の様々な位置にある様々な施設の位置情報と、施設の案内情報等、POIの表示制御データを提供する。情報提供サーバ50は、登録情報を登録したデータベースを備えており、そのデータベース情報を基に表示制御データを生成する。情報提供サーバ50は、情報端末10からの要求に含まれるURLに従い該当する表示制御データを返信する。
 情報処理装置10は、検索サーバ40が選択したアクセス情報(URL)を利用して、情報提供サーバ50からPOIの表示制御データを取得する。
 情報処理装置10は、このPOIの表示制御データを用いて、ビーコン送信装置20の設置場所の近辺にある様々な施設等のPOIの位置や登録情報を表示部に表示されたカメラ撮影画像上に重畳して表示する。
 図2以下を参照して。具体的な処理例について説明する。
 図2は、情報処理装置(ユ―ザ端末)10によるカメラ撮影画像の表示部に対する表示例を示している。
 なお、以下では、情報処理装置(ユ―ザ端末)10の一例としてスマートホンを用いた例を説明するが、以下に説明する実施例は、スマートホン以外の様々なユーザ端末、例えばタブレット端末、PC、グラス(眼鏡)型端末等においても同様に実行可能である。
 図2(a)は実世界(Real World)のある景色を示す。ある観光地の城を含む景色である。情報処理装置(ユーザ端末)10を携帯したユーザが、この観光地の城を訪れて観光中であり、図2(a)に示す景色を眺めているものとする。
 ユーザは、情報処理装置(ユーザ端末)10のカメラ機能を利用して(a)実世界の画像を撮り込み、撮影画像を表示部に表示する。
 表示部に表示された撮影画像が図2(b)に示す表示画像である。
 例えば、この状態において、先に図1を参照して説明した一連の処理が実行される。すなわち、以下の処理(S01~S04)を実行する。
 (S01)情報処理装置10は、図2(a)に示す実世界の近くにあるアクセスポイント(AP)等のビーコン送信装置20から受信したビーコンの識別情報(ID)を検索サーバ40に転送する。
 (S02)検索サーバ40は、識別情報に基づき、ビーコン送信装置20の近辺の登録情報を含むデータを取得するためのアクセス情報(URL)を情報処理装置10に送信する。
 (S03)情報処理装置10は、検索サーバ40から受信したアクセス情報(URL)を適用して情報提供サーバ50から、ビーコン送信装置20の近辺の施設の位置情報や登録情報の表示制御データを取得する。
 (S04)情報処理装置10は、情報提供サーバ50から取得したビーコン送信装置20の近辺の施設の位置情報や登録情報の表示制御データを用いて、表示部に表示中の撮影画像上に施設の位置を示すマークや、登録情報を仮想オブジェクトとして重畳表示する。
 これらの一連の処理を実行する。
 上記一連の処理を実行した結果として、情報処理装置10の表示部に表示される画像の例が図3、図4に示す表示画像である。
 図3(a)は、先に説明した図2と同様、実世界(Real World)のある景色であり、図3(b)は、上記一連の処理(S01~S04)を実行した後に情報処理装置10の表示部に表示される表示画像である。
 上記のステップS03において、情報提供サーバ50から取得したデータ、すなわち、ビーコン送信装置20の近辺の施設の位置情報と登録情報の表示制御データには、図3(a)実世界に示す以下の2つのポイントの情報が含まれているとする。
 (1)登録情報設定ポイントA(POI-A)101の位置情報と登録情報
 (2)登録情報設定ポイントB(POI-B)102の位置情報と登録情報
 図3(b)の表示画像は、
 (1)登録情報設定ポイントA(POI-A)101の位置情報と登録情報
 この情報を選択して表示した表示画像である。
 図3(b)表示画像は、撮影画像である実オブジェクト上に、情報提供サーバ50から取得した表示制御データに記述された仮想オブジェクトを重畳表示した画像である。
 表示される仮想オブジェクトは以下のデータである。
 (1)ポイントA(POI-A)位置識別マーク111、
 (2)ポイントA(POI-A)対応登録情報112、
 これらのデータを仮想オブジェクトとして表示している。
 このように、図3(b)に示す表示画像は、撮影画像である実オブジェクト上に、情報提供サーバ50から取得した表示制御データに基づいて生成した仮想オブジェクトを重畳して表示した画像、いわゆる拡張現実(AR:Augumented Reality)画像である。
 ポイントAは、チケットセンターであり、実オブジェクトである撮影画像のチケットセンター位置に、仮想オブジェクトとしてのポイントA(POI-A)位置識別マーク111が重畳して表示される。
 このポイントA(POI-A)位置識別マーク111の表示位置は、実オブジェクトである撮影画像のチケットセンター画像上に設定する必要がある。この表示位置は、情報提供サーバから取得するデータを適用して情報処理装置10が決定する。なお、情報処理装置10に表示される画像はカメラのリアルタイム撮影画像であり、ユーザの動きに応じて変動する。ポイントA(POI-A)位置識別マーク111の表示位置も、表示撮影画像(実オブジェクト)の動きに応じて更新する必要がある。この表示位置制御も、情報処理装置10において実行する。
 情報処理装置10の実行する表示制御によって、仮想オブジェクトであるポイントA(POI-A)位置識別マーク111の表示位置は、実オブジェクトである撮影画像のチケットセンター画像上に正確に位置するように制御される。
 この表示制御の具体的処理については後述する。
 さらに、もう1つの仮想オブジェクトであるポイントA(POI-A)対応登録情報112も、実オブジェクトである撮影画像上に重畳表示される。
 ポイントA(POI-A)対応登録情報112には、登録情報設定ポイントAに対応するチケットセンターに関する様々な情報が含まれる。図に示すように、チケットセンターのオープン時間、料金等の情報が表示される。これらの情報は、情報提供サーバ50のデータベースに記録された情報であり、検索サーバ40の提供するURLに従って取得される表示制御データに含まれるか、もしくは、その表示制御データに基づく取得情報である。
 図4は、もう1つのポイントBの情報、すなわち、
 (2)登録情報設定ポイントB(POI-B)102の位置情報と登録情報
 この情報を適用した表示画像例を示す図である。
 図4(a)は実世界(Real World)の景色であり、図4(b)は、上記一連の処理(S01~S04)を実行した後に情報処理装置10の表示部に表示される表示画像である。
 図4(b)表示画像は、撮影画像である実オブジェクト上に、情報提供サーバ50から取得した表示データである仮想オブジェクトを重畳表示した画像である。
 表示される仮想オブジェクトは以下のデータである。
 (1)ポイントB(POI-B)位置識別マーク121、
 (2)ポイントB(POI-B)対応登録情報122、
 これらのデータを仮想オブジェクトとして表示している。
 このように、図4(b)に示す表示画像は、撮影画像である実オブジェクト上に、情報提供サーバ50から取得したデータに基づいて生成した仮想オブジェクトを重畳して表示した画像、いわゆる拡張現実(AR:Augumented Reality)画像である。
 ポイントBは、城のエントランス(入り口)であり、実オブジェクトである撮影画像のエントランス位置に、仮想オブジェクトとしてのポイントB(POI-B)位置識別マーク121を重畳して表示する。
 このポイントB(POI-B)位置識別マーク121の表示位置は、実オブジェクトである撮影画像の城のエントランス画像上に設定する必要がある。この表示位置は、情報提供サーバから取得するデータを適用して情報処理装置10が決定し、制御を行う。すなわち、表示部に表示される撮影画像(実オブジェクト)の動きに応じて、ポイントB(POI-B)位置識別マーク121の表示位置も更新する。
 この情報処理装置10の実行する表示制御によって、仮想オブジェクトであるポイントB(POI-B)位置識別マーク121の表示位置は、実オブジェクトである撮影画像のエントランス画像上に常に設定される。
 この表示制御の具体的処理については後述する。
 さらに、もう1つの仮想オブジェクトであるポイントB(POI-B)対応登録情報122も、実オブジェクトである撮影画像上に重畳表示される。
 ポイントB(POI-B)対応登録情報122には、登録情報設定ポイントBに対応する城のエントランスに関する様々な情報が含まれる。図に示すように、エントランスのオープン時間、ガイド端末の貸し出し情報、トイレ位置情報等の情報が表示される。これらの情報は、情報提供サーバ50のデータベースに記録された情報であり、検索サーバ40の提供するURLに従って取得される情報である。
  [2.通信処理および画像表示処理の詳細について]
 図5は、図1に示した各装置間で実行する通信シーケンスと、情報処理装置(ユーザ端末)10において実行する拡張現実画像(実オブジェクトと仮想オブジェクトとの重畳画像)の表示処理シーケンスを説明するシーケンス図である。
 図5には、左からビーコン送信装置20、情報処理装置(ユーザ端末)10、検索サーバ40、情報提供サーバ50を示している。
 以下、各ステップの処理について、順次、説明する。
  (ステップS101)
 まず、ステップS101において、ビーコン送信装置20はビーコンを出力し、情報処理装置10がこのビーコンを受信する。前述したように、ビーコンは、ビーコン送信装置20の識別子(ID)等を格納したパケットである。
  (ステップS102)
 情報処理装置10は、ビーコン送信装置20から受信したビーコンを検索サーバ40に転送する。
  (ステップS103)
 検索サーバ40は、情報処理装置10から転送されたビーコンを受信し、ビーコンに含まれるビーコン送信装置20の識別子(ID)に基づいて、データベース検索を行い、ビーコン送信装置20の近辺の登録情報を含むデータを取得するためのアクセス情報(URL)を抽出する。
 検索サーバ40のデータベースに格納されたデータ例を図6に示す。検索サーバ40は、データベース(記憶部)に、例えば図6に示すようなデータを格納している。
 図6に示すデータは、
 ビーコン送信装置識別子(ID)、
 ビーコン送信装置近傍施設情報取得用URL
 これらの2つのデータの対応リストによって構成される。
 検索サーバ40は、情報処理装置10から転送されたビーコンを受信し、ビーコンに含まれるビーコン送信装置20の識別子(ID)に基づいて、例えば図6に示すデータ構成を持つリストを検索する。
 このリスト検索によって、情報処理装置10から転送されたビーコンに含まれるビーコン送信装置20の識別子(ID)に対応付けられたアクセス情報(URL)を取得する。
 このアクセス情報(URL)は、ビーコン送信装置20の近辺の登録情報を含むデータを取得するためのアクセス情報(URL)である。
  (ステップS104)
 次に、検索サーバ40は、ステップS104において、ステップS103の検索処理によって取得したアクセス情報(URL)を情報処理装置10に送信する。
  (ステップS105)
 情報処理装置10は、検索サーバ40から受信したアクセス情報(URL)を適用して情報提供サーバ50から、ビーコン送信装置20の近辺の施設の位置情報や登録情報を含むデータ(仮想オブジェクト表示制御データ)を取得する。
 情報提供サーバ50が情報処理装置10に送信するデータは、情報処理装置10の表示部に表示された実オブジェクトであるカメラ撮影画像上に重畳表示するための仮想オブジェクトの実態データと、その表示制御情報を含むデータである。このデータを、仮想オブジェクト表示制御データと呼ぶ。
 仮想オブジェクト表示制御データは、具台的には、以下のデータ等によって構成される。
 (1)HTML(Hyper Text Markup Language)、
 (2)CSS(Cascading Style Sheet)、
 (3)JavaScript(登録商標)
 HTMLは、情報処理装置10の表示部に表示する仮想オブジェクトの基本構造を示すデータである。HTMLデータには様々な種類があるが、例えばHTML5が利用可能である。
 CSSは、HTMLによって規定される仮想オブジェクト構成データの表示形式や色、形などを規定するスタイルシートであり、情報処理装置10の表示部に表示する仮想オブジェクトのスタイルを規定するデータである。
 JavaScript(登録商標)は、仮想オブジェクトの表示処理、表示更新処理、あるいは仮想オブジェクトの動きや更新処理を規定した表示制御プログラムである。例えばユーザによる表示オブジェクトに対するタッチ、クリックなどのイベント、あるいは所定時間の経過などの様々なコンテキスト(状況)に応じて検出されるイベントをトリガとして、仮想オブジャェクトの表示態様を変更するなど、表示情報に対する様々なアクションなどの表示制御を実行する表示制御プログラムである。
 情報提供サーバ50は、このように、
 (1)HTML(Hyper Text Markup Language)、
 (2)CSS(Cascading Style Sheet)、
 (3)JavaScript(登録商標)
 これらのデータを有する仮想オブジェクト表示制御データを情報処理装置10に提供する。
 この仮想オブジェクト表示制御データは、1つのURLによって取得されるデータであり、検索サーバ40がビーコン送信装置20のビーコンに含まれるビーコン送信装置識別子(ID)に基づいて選択されたアクセス情報(URL)によってHTMLが取得される。さらに、そのHTMLから参照されるCSS,JavaSciriptが取得可能となる。
 すなわち、HTML、CSS、JavaScript(登録商標)を構成要素とする仮想オブジェクト表示制御データは、1つの特定のビーコン送信装置20の近辺の実世界3次元空間の様々な施設に関する位置情報や案内情報を含み、図3、図4を参照して説明したポイント(POI)位置識別マークや、ポイント対応登録情報等の仮想オブジェクトの表示、および表示制御を行うためのデータである。
 このデータの詳細については後段で説明する。
  (ステップS106)
 情報処理装置10は、ステップS106において、URLに基づいて、情報提供サーバ50から取得したデータ(仮想オブジェクト表示制御データ)に記録された登録情報設定ポイントの位置情報と、カメラ撮影画像を適用して、表示画面上のポイント位置識別マークの表示位置を算出する。
 すなわち、先に図3、図4を参照して説明したように、仮想オブジェクトであるポイント位置識別マークを、実オブジェクトである撮影画像上の登録情報設定ポイントとなるチケットセンターやエントランス等の実オブジェクト表示位置に一致させて表示するための表示位置決定処理を行う。
 この表示位置決定処理には、情報提供サーバ50から取得したデータ(仮想オブジェクト表示制御データ)に記録された予め撮影済みの基準画像であるアンカーや登録情報設定ポイントとの仮想3次元空間での位置情報や、カメラ撮影画像を適用する。
 この表示位置決定処理の具体的処理については、後述する。
  (ステップS107)
 最後に、情報処理装置10はステップS107において、ステップS106で算出した表示位置に、ポイント位置識別マークを表示し、さらに施設ポイント対応登録情報を表示する。
 この表示結果が、例えば図3や図4を参照して説明した(b)表示画像である。
 なお、上述した処理例では、検索サーバ40は、情報処理装置10から転送されるビーコンに基づいて、ビーコン装置20の近傍の情報を取得するためのアクセス情報(URL)を提供するものとして説明したが、ビーコン以外のデータを利用する構成としてもよい。
 例えば、情報処理装置10が撮影した撮影画像の縮小画像であるサムネイルや画像特徴量データを検索サーバ40に送信し、検索サーバ40がサムネイルや画像特徴量データに対応する位置を特定して、その特定位置の近傍情報の表示制御データを取得するためのアクセス情報(URL)を提供する構成としてもよい。
 この場合、検索サーバ40は、様々なロケーションの撮影画像とアクセス情報の対応リストを記憶部に格納した構成とする。また、撮影映像はロケーションに限定されるものだけでなく、本やポスターなどであってもよい。検索サーバ40は、情報処理装置10から受信するデータに基づいてそのデータに一致する画像を含む撮影画像を、記憶部の対応リストから選択して、その画像に対応して設定されたPOI表示制御データのアクセス情報(URL)を情報処理装置10に提供する。
 あるいは、様々なロケーションの施設に記録されたマーカーやQRコード(登録商標)を情報処理装置10が読み取り、この読み取りデータを検索サーバ40に送信し、検索サーバ40が受信データに基づくデータベース検索を実行して、受信したマーカーやQRコード(登録商標)が記録された位置の近傍の情報を取得するためのアクセス情報(URL)を提供する構成としてもよい。
 この場合、検索サーバ40は、様々なロケーションに記録されたマーカーやQRコード(登録商標)とアクセス情報の対応リストを記憶部に格納し、情報処理装置10から受信するマーカーやQRコード(登録商標)に基づくデータ検索を実行して、マーカーやQRコード(登録商標)に対応して記録されたアクセス情報(URL)を情報処理装置10に提供する。
  [3.登録情報設定ポイント(POI)位置識別マークの表示位置を決定する処理について]
 次に、登録情報設定ポイント(POI)位置識別マークの表示位置を決定する処理について説明する。
 図5に示すシーケンス図を参照して説明したように、情報処理装置10は、検索サーバから通知されたアクセス情報(URL)に基づいて情報提供サーバ50から仮想オブジェクト表示制御データを取得する。さらに、この仮想オブジェクト表示制御データと、カメラ撮影画像を適用して、表示画面上のポイント位置識別マークの表示位置を算出する。
 以下、情報処理装置10が実行するポイント位置識別マークの表示位置決定処理について説明する。
 図7は、検索サーバから通知されたアクセス情報(URL)に基づいて情報提供サーバ50から取得されるデータ(仮想オブジェクト表示制御データ)に含まれるHTMLデータの一部を示す図である。
 図7に示すHTMLデータは、情報処理装置10が実行するポイント位置識別マークの表示位置決定処理に適用するデータを含む。
 図7に示すデータは、先に図3、図4を参照して説明した以下のポイント位置識別マークの表示位置を決定するために利用されるHTMLデータの一例である。
 ポイントA(POI-A)位置識別マーク111、
 ポイントB(POI-B)位置識別マーク121、
 図7に示すHTMLデータには予め撮影済みの基準画像と、該基準画像に含まれる実オブジェクトと登録情報設定ポイントとの相対位置情報が記録されている。
 図7に示すように、図7のHTMLデータには以下のデータが記録されている。
 (1)第1基準実オブジェクト情報
 (2)第2基準実オブジェクト情報
 (3)ポイントA対応情報
 (4)ポイントB対応情報
 (1),(2)に示す基準実オブジェクト情報について、図8を参照して説明する。
 基準実オブジェクトとは、実世界に存在する実オブジェクトであり、各登録情報設定ポイントの近くにある実オブジェクトである。この基準実オブジェクトは、登録情報設定ポイントの位置を算出するための基準位置となるオブジェクトでありアンカー(anchor)、またはアンカーオブジェクトと呼ばれる。基準オブジェクトを撮影した画像は、アンカー画像と呼ばれる。アンカー画像は位置の算出基準に利用されるだけなのでPOIと関連しなくても良いが、アンカー画像はPOIを含む場合もある。基準位置の検出精度を上げるには、実空間の特徴的なオブジェクトの画像が利用されるのが望ましい。また、実空間の様々な位置、方角の複数のアンカー画像を用いることで、さらに、位置基準の検出精度を上げることができ、ユーザ端末が移動、回転した場合でも位置検出が可能となる。
 図8を参照して基準実オブジェクトの例について説明する。
 図8には、実世界(Real World)に存在する城等の実オブジェクトを示している。
 図に示す座標軸(XYZ)は、実世界の実オブジェクトの3次元位置での位置関係を規定する仮想3次元空間座標の座標軸である。GPSのような絶対的な位置座標ではなく、仮想3次元空間座標の原点の位置は任意なローカル座標である。
 図8に示すように、第1基準実オブジェクト201は、城の上層部の領域からなる実オブジェクトである。
 また、第2基準実オブジェクト202は、城のエントランスを含む領域からなる実オブジェクトである。
 これらの基準実オブジェクトは、実世界の基準実オブジェクトが仮想3次元空間座標の位置に対応するかを特定し、且つ、ユーザ端末が仮想3次元空間座標を特定し、仮想3次元空間座標でのポイント位置識別マークの表示位置を決定するため利用されるオブジェクトである。
 この基準実オブジェクトに関する情報は、情報提供サーバ50の提供するHTMLデータに予め登録されている。具体的には、基準実オブジェクト情報には以下の情報が含まれる。
 (1)基準画像=基準実オブジェクトを撮影した画像(アンカー画像)(anchor.png)
 (2)基準画像に含まれる基準実オブジェクトの位置情報(position:3次元実空間内の基準実オブジェクトの位置を示す3次元座標データ(X,Y,Z))
 (3)基準画像に含まれる基準実オブジェクトの方向情報(rotation:基準実オブジェクトの姿勢を示す情報)であり、方向は一般的にはオイラー角で表わすことができるが、ここでは3Dグラフィックスで良く用いられるクオータニオン(四元数)(x,y,z;w)データで表す。
 (4)基準画像の領域(ディメンション)情報(dimension:横の長さと縦の長さ)
 (5)基準画像の仮想3次元空間での座標単位との実空間3D座標単位での変換(unit: メータやキロメータ)。
 (1)基準画像=基準実オブジェクトを撮影した画像(anchor.png)は、例えば、図8(b)に示す画像201p,202pである。
 (2)基準画像に含まれる基準実オブジェクトの位置情報(3次元実空間内の基準実オブジェクトの位置を示す3次元座標データ(X,Y,Z))に用いる座標は、例えばワールド座標系の座標であり、基準実オブジェクトの位置を示す座標と、ポイント対応情報の位置を示す座標は、同じ座標空間を用いた座標とする。
 (3)基準画像に含まれる基準実オブジェクトの方向情報についても、基準実オブジェクトとポイント対応情報各々の方向情報については、同じ基準点からの方向情報とする。
 図7に示すHTMLデータ中、第1基準実オブジェクト201に関する基準実オブジェクト情報(第1アンカー情報)は、以下のデータである。
 <span typeof='anchor'>
  <span property='unit' content='1m'/>
  <span property='position' content='152,44,37'/>
  <span property='rotation' content='63,44,99,3.3'/>
  <span property='dimension' content='13,7'/>
  <span property='src' content='anchor1.png'/>
 </span>
 上記データの意味は、以下の通りである。
  <span property='unit' content='1m'/>
 これは、データ単位を示し、以下に示す数値の単位が1m(メートル)であることを示す。
  <span property='position' content='152,44,37'/>
 これは、上述した(2)基準画像に含まれる基準実オブジェクトの位置情報(3次元実空間内の基準実オブジェクトの位置を示す3次元座標データ(X,Y,Z))である。
 (X,Y,Z)=(152,44,37)であることを示している。これは、例えば、基準実オブジェクトの中心位置の座標に相当する。
  <span property='rotation' content='63,44,99,3.3'/>
 これは、上述した(3)基準画像に含まれる基準実オブジェクトの方向情報クオータニオン(x,y,z:w)である。(x,y,z:w)=(63,44,99,3.3)である。
  <span property='dimension' content='13,7'/>
 これは、上述した(4)基準画像の領域(ディメンション)情報(横の長さと縦の長さ)である。
 具体的には、第1基準画像が横13m、縦7mの実世界の領域に対応する画像であることを示す。
  <span property='src' content='anchor1.png'/>
 これは、上述した(1)基準画像=基準実オブジェクトを撮影したアンカー画像(anchor1.png)である。
 例えば、図8(b)に示す画像201pである。
 図7に示すHTMLデータには、さらに、第2基準実オブジェクト202に関する基準実オブジェクト情報(第2アンカー情報)として、以下のデータが記録されている。
 <span typeof='anchor'>
  <span property='unit' content='1m'/>
  <span property='position' content='173,43,44'/>
  <span property='rotation' content='70,88,34,4.3'/>
  <span property='dimension' content='13,7'/>
  <span property='src' content='anchor2.png'/>
 </span>
 各データの意味は、第1基準実オブジェクト201に関する基準実オブジェクト情報(第1アンカー情報)において説明した意味と同様である。
 なお、図7に示す例では、基準実オブジェクト情報(アンカー情報)を2つ有する設定としているが、これは一例であり、HTMLデータには任意の数の基準実オブジェクト情報(アンカー情報)が記録可能である。
 さらに、図7に示すHTMLデータには、登録情報設定ポイントに関する情報、すなわち、図8に示す、以下の登録情報設定ポイント、
 (a)登録情報設定ポイントA(POI-A)211、
 (b)登録情報設定ポイントB(POI-B)212、
 これらの登録情報設定ポイントに関する情報が記録されている。
 具体的には、以下のポイント対応情報が登録されている。
 (1)登録情報設定ポイントに対応付けらた登録情報
 (2)登録情報設定ポイントの位置情報(3次元実空間内の登録情報設定ポイントの位置を示す3次元座標データ(X,Y,Z))
 (3)登録情報設定ポイントの方向情報(特定の基準点、例えば基準画像を撮影したカメラからの登録情報設定ポイントの方向を示す情報)
 (1)登録情報設定ポイントに対応付けらた登録情報とは、先に図3、図4を参照して説明したポイント対応登録情報112,122等の情報である。
 図7に示すHTMLデータ中、例えば、登録情報設定ポイントA(POI-A)211に関するポイント対応情報は、以下のデータである。
 <div typeof='poi' resource='#poi-a'>
  <span property='unit' content='1m'/>
  <span property='position' content="163,43,32'/>
  <span property='rotation' content='34,73,45,4.43'/>
  <!- html elements of poi-a --->
 </div>
 上記データの意味は、以下の通りである。
  <span property='unit' content='1m'/>
 これは、データ単位を示し、以下に示す数値の単位が1m(メートル)であることを示す。
  <span property='position' content="163,43,32'/>
 これは、上述した(2)登録情報設定ポイントの位置情報(3次元実空間内の登録情報設定ポイントの位置を示す3次元座標データ(X,Y,Z))である。
 (X,Y,Z)=(163,43,32)であることを示している。これは、登録情報設定ポイントの3次元実空間の位置座標に相当する。
 なお、前述したように、ここで用いる座標は例えばワールド座標系における座標であり、基準実オブジェクトの位置を示す座標と、ポイント対応情報の位置を示す座標は、同じ座標空間を用いた座標である。
  <span property='rotation' content='34,73,45,4.43'/>
 これは、上述した(3)登録情報設定ポイントの方向情報クオータニオン(x,y,z:w)である。(x,y,z:w)=(34,73,45,4.43)である。
 なお、前述したように、基準実オブジェクトとポイント対応情報各々の方向情報は、同じ基準点からの方向情報である。
  <!- html elements of poi-a --->
 これは、上述した(1)登録情報設定ポイントに対応付けらた登録情報であり、先に図3、図4を参照して説明したポイント対応登録情報112,122等の情報である。
 図7に示すHTMLデータには、さらに、登録情報設定ポイントB(POI-B)212に関するポイント対応情報として、以下のデータが記録されている。
 <div typeof='poi' resource='#poi-b'>
  <span property='unit' content='1m'/>
  <span property='position' content="163,39,28'/>
  <span property='rotation' content='34,70,41,4.53'/>
  <!- html elements of poi-a --->
 </div>
 各データの意味は、登録情報設定ポイントA(POI-A)211に関するポイント対応情報において説明した意味と同様である。
 なお、図7に示す例では、登録情報設定ポイント(POI)対応情報を2つ有する設定としているが、これは一例であり、HTMLデータには任意の数の登録情報設定ポイント(POI)対応情報を記録することができる。
 このように、検索サーバから通知されたアクセス情報(URL)に基づいて情報提供サーバ50から取得されるHTMLデータ(仮想オブジェクト表示制御データ)は、予め撮影済みの基準画像と、該基準画像に含まれるアンカーオブジェクトと登録情報設定ポイントの仮想3次元空間での位置情報を記録している。
 具体的には、以下のデータを含む。
 基準実オブジェクトを撮影した基準画像データ、
 基準画像データに含まれる基準実オブジェクトの位置、方向等の情報を含む3次元位置姿勢情報、
 登録情報設定ポイントの位置、方向等の情報を含む3次元位置姿勢情報、
 これらの情報を記録している。
 これらの情報は、情報処理装置10が実行するポイント位置識別マークの表示位置決定処理に適用される。
 図7に示す例では、HTMLにアンカーオブジェクト情報と登録設定ポイントの情報を記録しているが、HTMLの仮想オブジェクトと登録設定ポイント情報を対応づけてJavaScript(登録商標)に記録してもよい。もしくは、別データとしてJavaScript(登録商標)によって情報提供サーバ50から取得する設定としてもよい。従って、アンカーオブジェクト情報と登録ポイント情報をHTMLに記録することは必須ではない。
 情報処理装置(ユーザ端末)10のデータ処理部の実行する処理は例えば以下の処理手順となる。
 情報処理装置(ユーザ端末)10のデータ処理部は、HTMLデータ(仮想オブジェクト表示制御データ)、すなわち、予め撮影済みの基準画像と、該基準画像に含まれる実オブジェクトと登録情報設定ポイントの仮想3D空間座標における位置情報を記録したHTMLデータを情報提供サーバ50から入力する。
 次に、表示部に表示された撮影画像から、基準画像に含まれる実オブジェクトと同じ実オブジェクト(アンカー)を検出する。検出した実オブジェクト(アンカー)の3次元位置情報と、仮想オブジェクト表示制御データに記録された相対位置情報を適用して、ユーザ端末の位置情報を特定する。なお、撮影画像と基準画像からユーザ端末の位置を特定するのは3次元位置姿勢情報解析処理が利用されこの処理については後述する。さらに、ユーザ端末を原点とした座標系おける各登録情報設定ポイントの3次元位置を算出する。
 算出位置情報に基づいて表示部に表示された撮影画像上の登録情報設定ポイント表示位置を算出し、算出表示位置に仮想オブジェクトであるポイント位置識別マークを重畳表示する。仮想オブジェクトを重畳表示するにあたり、CSSの3次元TRANSFORMS機能を利用して3次元表示させることも可能である。
 このような手順に従って撮影画像上の登録情報設定ポイントに一致させてポイント位置識別マークを表示する。
 なお、これらの処理手順については、情報処理装置10が、情報提供サーバ50から取得するJavaScript(登録商標)に記録されている。
 次に、図7に示すHTMLデータとともに、情報処理装置10が、情報提供サーバ50から取得する仮想オブジェクト表示制御データの構成要素の1つであるJavaScript(登録商標)データの構成例について、図9を参照して説明する。JavaScript(登録商標)は、仮想オブジェクトの表示制御プログラムとして利用される。
 図9は、検索サーバから通知されたアクセス情報(URL)に基づいて情報提供サーバ50から取得されるJavaScript(登録商標)データの一部である。
 図9に示すJavaScript(登録商標)は、情報処理装置10において、ポイント位置識別マークの表示位置を決定するための処理手順を記録した処理プログラムに相当する。
 情報処理装置10のデータ処理部が、図9に示すJavaScript(登録商標)に基づいて実行する処理について、図9に示す処理ステップ(S201~S209)に従って、順次、説明する。
  (ステップS201)
 まず、情報処理装置10のデータ処理部は、情報処理装置のカメラによって撮影している撮影画像入力ストリームを入力する。
 この撮影画像は、カメラ部を介して現在入力されている画像データである。この撮影画像は表示部に継続的に表示される。なお、ここで説明する撮影画像は、カメラ機能によって撮り込まれている画像を意味し、記憶部に対する記録処理は実行してもしなくてもよい。
  (ステップS202)
 次に、情報処理装置10のデータ処理部は、ステップS202において、第1基準実オブジェクト情報(第1アンカー情報)を入力する。
 この第1基準実オブジェクト情報(第1アンカー情報)は、先に図7を参照して説明したHTMLデータに記録された第1基準実オブジェクト情報(第1アンカー情報)である。
 すなわち、第1基準実オブジェクト(第1アンカー)に関する以下の情報である。
 (1)基準画像=基準実オブジェクトを撮影した画像(anchor1.png)
 (2)基準画像に含まれる基準実オブジェクトの位置情報(3次元実空間内の基準実オブジェクトの位置を示す3次元座標データ(X,Y,Z))
 (3)基準画像に含まれる基準実オブジェクトの方向情報を表したクオータニオン(x,y,z:w)である。
 (4)基準画像の領域(ディメンション)情報(横の長さと縦の長さ)
 情報処理装置10のデータ処理部は、HTMLデータからこれらの第1基準実オブジェクト情報(第1アンカー情報)を読み込む。
  (ステップS203)
 次に、情報処理装置10のデータ処理部は、ステップS203において、第2基準実オブジェクト情報(第2アンカー情報)を入力する。
 この第2基準実オブジェクト情報(第2アンカー情報)も、先に図7を参照して説明したHTMLデータに記録された第2基準実オブジェクト情報(第2アンカー情報)である。
 なお、図9に示す例では、基準実オブジェクト情報(アンカー情報)を2つ読み込む設定としているが、これは一例であり、HTMLデータに記録された全ての基準実オブジェクト情報(アンカー情報)の読み取りを行う設定とする。
  (ステップS204)
 次に、情報処理装置10のデータ処理部は、ステップS204において、登録情報設定ポイントA(POI-A)対応情報を入力する。
 この登録情報設定ポイントA(POI-A)対応情報は、先に図7を参照して説明したHTMLデータに記録されたポイントA対応情報である。
 すなわち、登録情報設定ポイントA(POI-A)に関する以下の情報である。
 (1)登録情報設定ポイントに対応付けらた登録情報
 (2)登録情報設定ポイントの位置情報(3次元実空間内の登録情報設定ポイントの位置を示す3次元座標データ(X,Y,Z))
 (3)登録情報設定ポイントの方向情報を示したクオータニオン(x,y,z:w)である。
 情報処理装置10のデータ処理部は、HTMLデータからこれらのポイントA(POI-A)対応情報を読み込む。
  (ステップS205)
 次に、情報処理装置10のデータ処理部は、ステップS205において、登録情報設定ポイントB(POI-B)対応情報を入力する。
 この登録情報設定ポイントB(POI-B)対応情報は、先に図7を参照して説明したHTMLデータに記録されたポイントB対応情報である。
 なお、図9に示す例では、登録情報設定ポイント(POI)対応情報を2つ読み込む設定としているが、これは一例であり、HTMLデータに記録された全ての登録情報設定ポイント(POI)対応情報の読み取りを行う設定とする。
  (ステップS206)
 次に、情報処理装置10のデータ処理部は、ステップS206において、基準画像からユーザ端末のカメラ位置を測位する処理(3次元位置解析処理)によって算出した結果をJavaScript(登録商標)の関数(イベント処理関数)として登録する。
 このステップS206が実行される前に行われる測位処理は、ステップS202~S205において取得した下記情報、すなわち、
 (1)基準実オブジェクトを撮影した基準画像データと、基準画像データに含まれる基準実オブジェクトの位置、方向等の情報を含む3次元位置姿勢情報、
 (2)登録情報設定ポイントの位置、方向等の情報を含む3次元位置姿勢情報、
 これらの情報と、
 ステップS201において入力する、
 (3)撮影画像
 これらのデータを用いて実行される。
 なお、測位処理(3次元位置姿勢情報解析処理)は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、本出願人による先行特許出願である特許5380789号)に記載されている。
 情報処理装置10のデータ処理部は、SLAMを適用した処理に際して、情報処理装置の表示部(ディスプレイ)とカメラ各々の位置(position)、方向(rotation)、領域(dimention)など、必要なパラメータを入力して利用する。
 SLAMを適用した3次元位置姿勢解析処理の概要は以下の通りである。
 まず、カメラ撮影画像から、基準実オブジェクトに一致する実オブジェクトを検出する。これは、HTMLデータから取得した基準実オブジェクトを撮影した基準画像データと撮影画像との特徴点比較処理(特徴点マッチング)によって実行される。
 次に、基準画像に含まれるオブジェクトと、カメラ撮影画像に含まれるオブジェクトの差分に基づいて、カメラ撮影画像から検出した撮影オブジェクトの3次元位置姿勢を解析する。
 基準画像を撮影したカメラの位置と、現在の画像撮影位置(情報処理装置(ユーザ端末のカメラ位置)とは一致せず、基準画像に含まれるオブジェクトと、カメラ撮影画像に含まれるオブジェクトでは方向や大きさが異なるものとなる。
 これらの差分を解析して、カメラ撮影画像から検出した基準オブジェクトに対応する撮影オブジェクトを基準として実空間上でのカメラの3次元位置姿勢を解析する。
 なお、これらの解析処理に際しては、情報処理装置のカメラのレンズ倍率、位置や方向情報、アングル情報などのカメラ設定情報を用いる。
 次に、HTMLデータに記録された基準実オブジェクトの位置、方向、大きさ等の情報と実空間上でのカメラの3次元位置姿勢情報、撮影画像に含まれる登録情報設定ポイント(POI)の仮想3次元空間でのカメラの位置、方向を算出する。
 なお、上記処理で算出されるカメラの位置は例えばワールド座標系における3次元位置camaraPositionの座標(Xw,Yw,Zw)となる。また、カメラの方向を示すcamaraRotationおよびカメラの画角を示すCameraViewAngleはクォータリオンにて示される。
  (ステップS207)
 次に、情報処理装置10のデータ処理部は、ステップS207において、登録情報設定ポイントA(POI-A)と、登録情報設定ポイントB(POI-B)各々の3次元位置座標をカメラ座標に変換する。
 カメラ座標は、カメラ視点(撮像部)をcameraPosition, cameraRotationを原点としてカメラの向きに応じてXYZ座標軸を設定した座標系である。
 ステップS207では、S206の3次元測位で得られたワールド座標系のカメラの位置、向きから、HTMLデータに記録された登録情報設定ポイントA(POI-A)と、登録情報設定ポイントB(POI-B)各々のワールド座標系の座標(Xw,Yw,Zw)をカメラ座標系の座標(Xc,Yc,Zc)に変換する。
  (ステップS208)
 次に、情報処理装置10のデータ処理部は、ステップS208において、登録情報設定ポイントA(POI-A)と、登録情報設定ポイントB(POI-B)各々のカメラ座標を表示部(ディスプレイ)座標に変換する。
 表示部座標は、例えば表示部の左上隅を原点として、右向きにX軸、左下にY軸を設定した座標系である。この処理においてカメラの視界から外れた位置になる登録設定ポイントは表示以下の表示の処理では使用されない。
 ステップS208では、ステップS207で算出した登録情報設定ポイントA(POI-A)と、登録情報設定ポイントB(POI-B)各々のカメラ座標系の座標(Xc,Yc,Zc)を表示部座標(Xd,Yd)に変換する。
 なお、3次元画像表示を実行する場合は、左眼用表示部と、右眼用表示部各々に対する表示部座標を算出する。すなわち、左眼用表示部対応の表示部座標(Xdl,Ydl)と、右眼用表示部に対する表示部座標(Xdr,Ydr)である。
 なお、この処理に際しては、カメラ座標系におけるZ軸(距離)の値に応じて、左眼用画像と右眼用画像に視差を持つ画像を設定することが必要であり、水平方向の座標、例えば、Xdl,Xdrの座標値を視差に応じた差分を設定する。
 なお、これらの処理は、従来からの3次元画像の生成処理アルゴリズムに従って実行される。
  (ステップS209)
 次に、情報処理装置10のデータ処理部は、ステップS209において、登録情報設定ポイントA(POI-A)の表示部(ディスプレイ)座標位置に、ポイントA(POI-A)位置識別マークを表示し、登録情報設定ポイントB(POI-B)の表示部(ディスプレイ)座標位置に、ポイントB(POI-B)位置識別マークを表示しする。
 これらのポイント(POI)位置識別マークは、先に図3、図4を参照して説明した表示画像に表示されるポイント(POI)位置識別マークである。
 このように、情報処理装置10は、検索サーバから通知されたアクセス情報(URL)に基づいて情報提供サーバ50から取得するHTMLデータ、およびJavaScript(登録商標)データを利用して、3次元測位処理によりカメラの位置、方向を特定し、その結果を基に撮影画像に含まれる登録情報設定ポイント(POI)の表示部(ディスプレイ)における座標位置を算出して、その座標位置にポイント(POI)位置識別マークを表示する。
 さらに、ポイント(POI)位置識別マークを表示した登録情報設定ポイントに関する登録情報については、ポイント(POI)位置識別マークの表示位置の近傍に表示する。
 登録情報の表示位置や、登録情報およびポイント(POI)位置識別マークの表示態様、例えば、色、文字、角度等は、情報提供サーバ50からHTML、JavaScript(登録商標)とともに受領するスタイルシートであるCSSの規定に従って決定することができる。
  [4.情報処理装置の実行する各処理のシーケンスについて]
 次に、情報処理装置(ユーザ端末)10の実行する各処理のシーケンスについて図10以下に示すフローチャートを参照して説明する。
 情報処理装置10の実行する以下の各処理について、順次、説明する。
 (1)仮想オブジェクト表示制御データの取得と仮想オブジェクト表示処理、ユーザのタッチ等のイベント処理(図10~図11)
 (2)3次元測位処理ための設定(図12)
 (3)3次元測位の結果によるイベント検出に基づく、仮想オブジェクト表示処理(図13)
 (4)基準アンカーオブジェクトからの3次元測位処理、並びに測位結果のイベント通知処理(図14~図15)
 なお、これらの処理は、いずれも情報処理装置10のデータ処理部において実行される。情報処理装置10の記憶部に格納されたプログラムに従って、プログラム実行機能を有するCPUを備えたデータ処理部において実行される。
 なお、情報処理装置10の記憶部に格納されたプログラムの一部には、情報提供サーバ50から受信したプログラム、例えばJavaScript(登録商標)が含まれる。
  [4-1.仮想オブジェクト表示制御データの取得と仮想オブジェクト表示処理]
 まず、図10~図11に示すフローチャートを参照して、仮想オブジェクト表示制御データの取得と仮想オブジェクト表示処理のシーケンスについて説明する。
 以下、図10、図11に示すフローの各ステップの処理について、順次、説明する。
  (ステップS301)
 まず、情報処理装置は、ステップS301において、ビーコン送信装置からのビーコンが受信されたか否かのビーコン検出を行う。
 ビーコンが検出されると、ステップS302に進む。
  (ステップS302)
 ビーコンが検出されると、情報処理装置は、ステップS302において、検索サーバに対して、ビーコン送信装置に対応付けられた仮想オブジェクト表示制御データの取得用アドレス(URL)を要求する。
 情報処理装置は、この要求処理に際して、ビーコンに含まれるビーコンIDと、端末のサポートする3次元測位方法(Localization方法)の識別情報(ID)を検索サーバに送信する。
  (ステップS303)
 次に、情報処理装置は、ステップS303において、検索サーバから、ビーコン送信装置対応の仮想オブジェクト表示制御データ取得用アドレス(URL)を受信する。
  (ステップS304)
 次に、情報処理装置は、ステップS304において、検索サーバから受信したビーコン送信装置対応の仮想オブジェクト表示制御データ取得用アドレス(URL)を表示部に表示する。検索サーバは、URL以外にも表示制御データを表すタイトルなどの属性情報を送信し、情報処理装置はURLの代わりにタイトルなどユーザが理解しやすい情報を表示部に表示してもよい。
  (ステップS305)
 次に、情報処理装置は、ステップS305において、表示部に表示された仮想オブジェクト表示制御データ取得用アドレス(URL)ならびにタイトルなどに属性表示に対するユーザ表示指示を行なったかを否かを判定する。
 検出された場合は、ステップS306に進む。検出されない場合はステップS301に戻る。
  (ステップS306)
 次に、情報処理装置は、ステップS306において、Webブラウザを起動し、ユーザによって指定URLに従ってアクセスされる仮想オブジェクト表示制御データを情報提供サーバから取得する。
 なお、前述したように、情報提供サーバから取得する仮想オブジェクト表示制御データは、具台的には、以下のデータ等によって構成される。
 (1)HTML(Hyper Text Markup Language)、
 (2)CSS(Cascading Style Sheet)、
 (3)JavaScript(登録商標)
 HTMLは、情報処理装置の表示部に表示する仮想オブジェクトの基本構造を示すデータである、例えばHTML5を適用する。
 CSSは、HTMLによって規定される仮想オブジェクト構成データの表示形式や色、形などを規定するスタイルシートであり、情報処理装置の表示部に表示する仮想オブジェクトのスタイルを規定するデータである。
 JavaScript(登録商標)は、仮想オブジェクトの表示処理、表示更新処理、あるいは仮想オブジェクトの動きや更新処理を規定する表示制御プログラムであり、例えばユーザによる表示オブジェクトに対するタッチ、クリックなどのイベント、あるいは所定時間の経過などの様々なイベントをトリガとして、仮想オブジャェクトの表示態様を変更するなどの様々なアクションの制御を実行する。
 この仮想オブジェクト表示制御データは、1つのURLによって取得されるデータであり、検索サーバがビーコン送信装置のビーコンに含まれるビーコン送信装置識別子(ID)に基づいて選択されたアクセス情報(URL)によって取得可能となる。
 すなわち、HTML、CSS、JavaScript(登録商標)を構成要素とする仮想オブジェクト表示制御データは、1つの特定のビーコン送信装置の近辺の様々な施設に関する位置情報や案内情報を含み、図3、図4を参照して説明したポイント(POI)位置識別マークや、ポイント対応登録情報等の仮想オブジェクトの表示、および表示制御を行うためのデータである。
  (ステップS307)
 次に、情報処理装置は、ステップS307において、情報提供サーバから取得した仮想オブジェクト表示制御データを利用して、仮想オブジェクトの表示位置や表示態様を決定して表示部に表示する。なお。この処理には、例えば、Webレンダリングプログラムと、Webページ表示御プログラム(JavaScript(登録商標))が使用される。
 なお、表示部に表示する仮想オブジェクトは、例えば先に図3、図4を参照して説明した登録情報設定ポイント(POI)位置識別マークや、登録情報設定ポイント(POI)に対応付けられた登録情報である。
 これらの仮想オブジェクトは、情報提供サーバから取得した仮想オブジェクト表示制御データに含まれるHTMLデータに基本情報が記録されている。これらの仮想オブジェクトの表示態様は、同様に情報提供サーバから取得した仮想オブジェクト表示制御データに含まれるCSSに従って設定することがきる。
  (ステップS308)
 次に、情報処理装置は、ステップS308において、表示部に表示された仮想オブジェクトの表示更新を行うトリガとなるイベントの検出有無を判定する。
 この仮想オブジェクトの表示更新を行うトリガとなるイベントとしては、例えばユーザによる表示部のタッチ処理や、仮想オブジェクトの表示開始から所定時間の経過、あるいは、表示画面の移動など、様々な種類のイベントがある。
 どのようなイベントの検出に基づいて表示更新を実行するかについては、情報提供サーバの提供するJavaScript(登録商標)に記述され、この記述に従って実行する。
 なお、情報提供サーバの提供するJavaScript(登録商標)のみならず、情報処理装置が保持する表示制御プログラムに従ってイベント検出を実行して、検出イベントに応じて表示更新を実行する構成としてもよい。
 ステップS308において、表示部に表示された仮想オブジェクトの表示更新を行うトリガとなるイベントが検出された場合は、ステップS309に進む。
  (ステップS309)
 次に、情報処理装置は、ステップS309において、Webレンダリングプログラムと、Webページ表示制御プログラム(JavaScript(登録商標)等)に基づいて、イベント対応の処理として表示データ(仮想オブジェクト)の更新を実行する。
  [4-2.測位処理アンカー情報設定処理]
 次に、図12に示すフローチャートを参照して、測位処理のアンカー情報設定処理のシーケンスについて説明する。図12に示すフローチャートはJavaScript(登録商標)のプログラムによる処理であり、例えば、図9に示すJavaScript(登録商標)のプログラムのステップS201からS206において実行される。図12におけるオブジェクトとはJavaScript(登録商標)で処理されるオブジェクトのことを示す。
 以下、図12に示すフローの各ステップの処理について、順次、説明する。
  (ステップS401)
 まず、情報処理装置は、ステップS401において、情報提供サーバから受信したHTMLデータに記述された基準画像を含むアンカーオブジェクトを取得する。HTMLデータはDOM(ドキュメントオブジェクトモデル)オブジェクトとしてJavaScript(登録商標)のプログラムから取得できる。
 先に図7を参照して説明したように、HTMLデータに記述されたアンカー情報ジェクトには、以下の各データが含まれる。
 (1)基準画像=アンカーとなる基準画像(anchor1.png)
 (2)基準画像に含まれるアンカーの位置情報(仮想3次元実空間内のアンカー位置を示す3次元座標データ(X,Y,Z))
 (3)基準画像に含まれるアンカーの方向情報(仮想3次元空間内の方位を示すクオータニオン(x, y, z: w))
 (4)基準画像の領域(ディメンション)情報(横の長さと縦の長さ)
  (ステップS402)
 次に、情報処理装置は、ステップS402において、情報処理装置のカメラ機能を利用して撮影される映像キャプチャーのオブジェクトからの動画ストリームオブジェクトを取得する。
  (ステップS403)
 次に、情報処理装置は、ステップS403において、3次元位置測位処理(Spacelocalization)オブジェクトを取得する。
  (ステップS404)
 次に、情報処理装置は、ステップS404において、ステップS402にて取得した動画ストリームオブジェクトを3次元位置算出処理(Spacelocalization)用オブジェクトに設定する。S402からS404の処理により、情報処理装置はカメラにて撮影された映像の動画ストリームを3次元位置測位処理にて処理することが可能になる。
  (ステップS405)
 次に、情報処理装置は、ステップS405において、ステップS404で設定した3次元位置測位処理(Spacelocalization)用撮影オブジェクトに、S401にて取得したアンカーオブジェクトを設定し、アンカーIDを設定して登録(記憶部に格納)する。これにより3次元位置算出処理に、HTMLデータとして記述されていたアンカー情報が入力されることになる。
  (ステップS406)
 次に、情報処理装置は、ステップS406において、空間位置測位処理用オブジェクトにすべてのアンカーを対応づける処理が完了したか否かを判定する。
 完了していない場合は、ステップS405に戻り、未処理データに対するアンカーオブジェクトの設定を行う。
 空間位置算出処理用オブジェクトにアンカーオブジェクトを対応づける処理が完了したと判定すると、ステップS407に進む。
  (ステップS407)
 次に、情報処理装置は、ステップS407において、3次元位置測位処理(Spacelocalization)用オブジェクトにイベント(3次元位置得意イベント)処理関数を登録する。
 なお、このイベント処理関数は、アンカー情報に含まれる基準画像とカメラで撮影された動画ストリームから3次元位置測位によりカメラの仮想3次元空間での位置、方位が算出された結果の処理開始トリガとなるイベントである。
 具体的には、ユーザの移動やカメラの撮影方向の移動などにより、情報処理装置の撮影部で撮影された画像の所定量(予め設定した規定値)以上の移動発生し仮想3次元空間でのカメラの位置、方位が変化した検出された場合に発生されるイベント処理関数であり、ステップS407にてイベント処理関数が登録されたことにより、3次元位置算出処理(Spacelocalization)オブジェクトを用いて、カメラの3次元位置の算出処理が開始される。
 なお、どのくらいの所定量の移動によりイベントが発生するかの精度、つまり、イベントの頻度は情報提供サーバから受信するJavaScript(登録商標)に記録されており、イベント処理関数の登録時に設定され、3次元位置測位処理部に入力される。
  [4-3.仮想オブジェクト表示イベント検出に基づく仮想オブジェクト表示処理]
 次に、図13に示すフローチャートを参照して、仮想オブジェクト表示イベント検出に基づく仮想オブジェクト表示処理のシーケンスについて説明する。このフローチャートの処理はJavaScript(登録商標)プログラムによる処理であり、例えば、図9に示すJavaScript(登録商標)のプログラムのS207からS209の3次元測位処理イベント関数内で実行される。
 以下、図13に示すフローの各ステップの処理について、順次、説明する。
  (ステップS501)
 まず、情報処理装置は、ステップS501において、3次元位置測位処理(Spacelocalization)用オブジェクトのイベントが発生したか否かを判定する。これは前記図12のS407に登録されたイベント処理関数の呼び出しが起こったか否かに対応する。
 ステップS501において、3次元位置算出処理のイベントがイベントが発生したと判定した場合は、ステップS502に進む。
  (ステップS502)
 ステップS501において、仮想オブジェクトの表示、更新イベントが発生したと判定すると、情報処理装置は、ステップS502において、端末表示部(ディスプレイ)の位置、方向、領域(ディメンション)、カメラの位置、方向、アングルを取得する。これステップは図12において登録したイベント処理関数の引数としてこれらの情報が渡されることに相当する。
  (ステップS503)
 次に、情報処理装置は、ステップS503において、HTMLデータに記述された登録情報設定ポイント(POI)対応情報(座標、方向等の3次元位置姿勢情報)を取得する。図12のS401で示したように、HTMLデータに記録されたアンカー情報の取得同様に、HTMLデータに記録された登録情報設定ポイント(POI)情報はDOMオブジェクトとしてJavaScript(登録商標)のプログラムで取得することができる。
  (ステップS504)
 次に、情報処理装置は、ステップS504において、ステップS503で情報提供サーバから受信したHTMLデータから取得した登録情報設定ポイント(POI)の座標、方向等の3次元位置姿勢情報を、端末の表示部(ディスプレイ)座標系の座標に変換し、POIリストに保存する。
 この変換処理には、登録情報設定ポイント(POI)の位置、姿勢をユーザ端末(カメラ)を原点としたユーザ端末座標系にPOIの座標を変換する処理と、変換された端末座標系のPOIの座標から、さらに表示デバイスの座標系へ変換する2段の変換が行われる。
 ユーザ端末座標系から表示デバイス座標系へ変換するには、仮想3次元空間でのカメラ位置、方位ならびに端末表示部(ディスプレイ)の位置、方位が必要であり、S502で取得された情報が利用される。特に、カメラ方位とディスプレイの方位が一致しないユーザ端末の場合は、それらの方位の差を考慮して、ディスプレイ座標系でのPOIの表示位置を算出する必要がある。
  (ステップS505)
 次に、情報処理装置は、ステップS505において、全POIの座標変換とリスト登録を完了したか否かを判定する。
 完了していない場合は、ステップS503に戻り、未処理POIについて、ステップS503~S504の処理を実行する。
 全POIの座標変換とリスト登録処理が完了したと判定した場合は、ステップS506に進む。
  (ステップS506)
 全POIの座標変換とリスト登録処理が完了したと判定した場合は、情報処理装置は、ステップS506において、生成したPOIリストから、順にPOIを選択する。
  (ステップS507)
 次に、情報処理装置は、ステップS507において、リストから選択した選択POIの座標(表示部座標系の座標)が、表示部の表示範囲内にあるか否かを判定する。表示範囲内にあるか否かは、仮想3次元空間でのカメラ位置、方位ならびに端末表示部(ディスプレイ)の位置、方位の情報から判断し、特に、情報処理装置が表示部の一部分に撮影部からの映像が表示する場合は、撮影映像の表示位置に合わせてPOIの表示位置を算出することで、撮影映像に移された実オブジェクトの位置にPOIを重畳することが可能である。
 POIの座標が表示部の表示範囲内にない場合は、そのPOIの処理を停止し、ステップS506に戻り、POIリストから次のPOIを選択する。
 ステップS507において、リストから選択した選択POIの座標(表示部座標系の座標)が、表示部の表示範囲内にあると判定した場合はステップS508に進む。
  (ステップS508)
 リストから選択した選択POIの座標(表示部座標系の座標)が、表示部の表示範囲内にあると判定した場合、情報処理装置は、ステップS508において、選択POIのポイント位置識別マークと、登録情報を表示する。なお、これらの仮想オブジェクトの表示態様は、例えばCSS等を利用して設定する。
  (ステップS509)
 次に、情報処理装置は、ステップS509において、すべてのPOIの処理が完了したか否かを判定する。
 未処理のPOIがある場合は、ステップS506に戻り、POIリストから次の未処理POIを選択してステップS507以下の処理を実行する。
 ステップS509において、すべてのPOIの処理が完了したと判定した場合は、処理を終了する。
  [4-4.3次元位置測位処理]
 次に、図14~図15に示すフローチャートを参照して、カメラの3次元位置測位処理シーケンスについて説明する。これらのフローチャートは、例えば、情報提供サーバ50から提供される表示制御データのJavaScript(登録商標)ではなく、情報処理装置の記録部に記録されたプログラムによって実行される。このためJavaScript(登録商標)のプログラムにより3次元位置測位のアルゴリズムが公開される問題を回避でき、また、情報処理装置のハードウェアの高速処理などを使って3次元位置測位の高速、高精度、且つ、低消費に処理を行うことができる。
 以下、図14~図15に示すフローの各ステップの処理について、順次、説明する。
  (ステップS601)
 まず、情報処理装置のデータ処理部は、ステップS601において、カメラ撮影画像の解像度、カメラのレンズ倍率を取得する。これらは情報処理装置のカメラ制御部のメモリに記録されたカメラ設定情報の取得によって実行される。
  (ステップS602)
 次に、情報処理装置は、ステップS602において、情報処理装置に付属する動きセンサを初期化する。すなわち、過去に計測されたデータをリセットし、現在位置や傾き(方向)を初期値に設定する初期化処理を実行する。動きセンサはジャイロや加速度センサなど情報処理装置の位置、姿勢を特定するのに用いられる。
  (ステップS603)
 次に、情報処理装置は、ステップS603において、情報提供サーバから取得したHTMLデータ(図7参照)に記述された基準実オブジェクト情報(アンカー情報)、つまり、図12のステップS405にて3次元位置測位処理に設定された(アンカー情報)に含まれる基準画像から特徴点を抽出する。
  (ステップS604)
 次に、情報処理装置は、ステップS604において、図12のステップS405にて3次元位置測位処理に設定された全ての基準実オブジェクト情報(アンカー情報)対応の基準画像からの特徴点抽出処理が完了したか否かを判定する。
 未処理の基準画像がある場合は、ステップS603に戻り、未処理の基準画像からの特徴点抽出を実行する。
 情報提供サーバから取得したHTMLデータ(図7参照)に記述された全ての基準実オブジェクト情報(アンカー情報)対応の基準画像からの特徴点抽出処理が完了したと判定した場合は、ステップS605に進む。
  (ステップS605)
 情報提供サーバから取得したHTMLデータ(図7参照)に記述された全ての基準実オブジェクト情報(アンカー情報)対応の基準画像からの特徴点抽出処理が完了すると、情報処理装置のデータ処理部は、ステップS605において、カメラの撮影画像入力を開始する。
  (ステップS606)
 次に、情報処理装置のデータ処理部は、ステップS606において、カメラ撮影画像の各フレームから、特徴点を抽出する。
  (ステップS607)
 次に、情報処理装置のデータ処理部は、ステップS607において、動きセンサの観測値を取得する。
  (ステップS608)
 次に、情報処理装置のデータ処理部は、ステップS608において、基準画像(アンカー画像)の特徴点と、カメラ撮影画像の特徴点とのマッチング処理により、実空間のカメラの位置、方向を含む3次元位置姿勢情報を算出する。この処理は、例えば前述したSLAM技術を適用して実行する。
  (ステップS609)
 次に、情報処理装置は、ステップS609において、全基準画像(アンカー画像)についての特徴点と、カメラ撮影画像の特徴点とのマッチング処理によるカメラの3次元位置姿勢情報算出処理が完了したか否かを判定する。
 未処理の基準画像がある場合は、ステップS608に戻り未処理基準画像に対する処理を実行する。
 すべての基準画像に対する処理が完了したと判定した場合は、ステップS610に進む。
  (ステップS610)
 次に、情報処理装置は、ステップS610において、全基準画像とカメラ撮影画像との特徴点マッチング結果に基づいて、実空間のカメラの位置、方向の最終的な3次元位置姿勢情報を算出する。
 ステップS608では、1つの基準画像(アンカー画像)毎に各基準画像対応のカメラの3次元位置姿勢情報が算出され、複数の基準画像各々について、異なるカメラの3次元位置姿勢情報が算出される。
 ステップS610では、例えば、これらの複数の値を平均化する等の処理を実行して最終的な実空間のカメラの位置、方向を含む3次元位置姿勢情報を算出する。複数のアンカーの基準画像を利用して3次元位置姿勢を測位することで、ユーザが移動したり、カメラの方向が移動した場合でも測位が可能であり、また、カメラ映像に複数のアンカーが検出された場合は、測位精度を上げることが可能である。さらには、端末のモーションセンサーを組み合わせることでアンカーが撮影映像から検出されていない場合でも、カメラの位置、方向を推定することも可能である。
  (ステップS611)
 次に、情報処理装置は、ステップS611において、前フレームで特定したカメラの3次元位置姿勢と現在のフレームから算出した次元位置姿勢との変化量を検出する。モーションセンサーの検出したカメラ自体の移動によるフレーム映像のブレなどの補完もこの検出には利用されるが、カメラ姿勢情報とともにフレーム映像のブレの補正情報も含めてイベント処理関数に渡すことで、JavaScript(登録商標)に従った制御によってカメラ撮影映像に重畳する場合の表示ずれを補正することができる。
  (ステップS612)
 次に、情報処理装置は、ステップS612において、ステップS611で検出した変化量が既定閾値以上変化したか否かを判定する。
 閾値は、図12のステップS407にて表示制御データのJavaScript(登録商標)プログラムから予め設定された値であり、記録部に保存された値である。
 表示部に表示された画像位置が、既定閾値以上変化したと判定した場合、ステップS613に進む。
  (ステップS613)
 カメラの3次元位置姿勢が既定閾値以上変化したと判定した場合、情報処理装置は、ステップS613において、3次元測位姿勢の結果として、表示部の位置、方向、領域(ディメンション)、カメラの位置、方向、アングル情報を設定して、イベント処理関数の処理を開始する。
 なお、情報処理装置のデータ処理部は、仮想オブジェクトの表示更新処理の開始に伴い、先に図13を参照して説明したフローに従った処理を実行して仮想オブジェクトの表示、更新処理を実行することになる。
  [5.仮想オブジェクトの表示開始または表示更新処理のトリガとなるイベントについて]
 上述した実施例では、表示部に表示する仮想オブジェクトである登録情報設定ポイント(POI)位置識別子や、登録情報設定ポイント(POI)対応の登録情報の表示処理、あるいは表示更新処理のトリガとなるイベントの例として、ユーザ端末(カメラ)の位置姿勢の変化がの既定閾値以上の移動などを説明した。
 しかし、これらの仮想オブジェクトの表示処理、あるいは表示更新処理のトリガとなるイベントーザ端末(カメラ)の位置姿勢の変化に合わせて、カメラで撮影した映像に移される実オブジェ事にPOIの位置を合わせて重畳して表示するに限らず、JavaScript(登録商標)のプログラムにより様々な表示処理、表示トリガをJavaScript(登録商標)で実現することが可能である。また、HTML,CSSの表示制御の機能を利用して、単に、POIを文字表示するだけでなく、多様な表示方法を情報提供者は提示することができる。
 情報処理装置(ユーザ端末)10のデータ処理部は、情報処理装置の近傍の登録情報設定ポイントに関する登録情報の表示処理、または表示更新処理を予め規定した様々なコンテキスト(状況)の変化に応じたイベント検出をトリガとして実行する。
 具体的には、例えば、以下のような情報に基づくイベント検出をトリガとして仮想オブジェクトの表示を開始、または更新する処理を行なってもよい。
 (1)情報処理装置(ユーザ端末)の位置
 (2)時間
 (3)情報処理装置(ユーザ端末)を保有するユーザの行動履歴
 (4)情報処理装置、あるいはサーバに登録されたユーザの予定情報
 (5)ユーザの身体情報(心拍、脈拍等)
 (6)店舗等のセール情報
 (7)情報処理装置(ユーザ端末)の設定情報、
 (8)情報処理装置(ユーザ端末)を保有するユーザの属性(年齢、性別、興味等)
 (9)情報処理装置(ユーザ端末)を保持するユーザの視線
 (1)情報処理装置(ユーザ端末)の位置に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 ユーザが情報処理装置(ユーザ端末)を保持して移動している場合、情報処理装置(ユーザ端末)と登録情報設定ポイント(POI)までの距離が既定距離(3m)以内となったことをイベントとして検出して、仮想オブジェクトの表示開始や表示更新処理を実行する。この場合、基準実オブジェクト情報(アンカー情報)から3次元位置測位処理により実世界の情報端末の位置、方位をトラッキングできていた状態ではは、情報処理装置(ユーザ端末)と登録情報設定ポイント(POI)の位置計測は3次元位置測位処理にて行われ、必ずしも、登録情報設定ポイント(POI)が撮影映像に映されている必要はない。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、
 (a)情報処理装置(ユーザ端末)と登録情報設定ポイント(POI)までの距離計測処理、
 (b)計測距離と既定閾値との比較処理、
 (c)計測距離が既定閾値以下になった場合にイベント発生と判定する、
 これらの一連の処理を実行するプログラムを規定する。
 (2)時間に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 例えば、あるレストランの開店時間である午前11:00になったとき、情報処理装置(ユーザ端末)を保持しているユーザが、レストランの近所にいる場合に、そのレストランの位置と、レストランの提供メニュー等を仮想オブジェクトとして表示する。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、
 (a)情報処理装置(ユーザ端末)と登録情報設定ポイント(POI)までの距離計測処理、
 (b)計測距離と既定閾値との比較処理、
 (c)現在時刻取得処理
 (d)計測距離が既定閾値以下になり、かつ時間が登録情報設定ポイント(POI)(例えばレストラン)の開店時間になった場合にイベント発生と判定する、
 これらの一連の処理を実行するプログラムを規定する。
 また、情報提供サーバは、レストランの提供メニュー等を含む登録情報設定ポイント対応登録情報を仮想オブジェクトとして情報処理装置に提供する。
 (3)情報処理装置(ユーザ端末)を保有するユーザの行動履歴に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 情報処理装置(ユーザ端末)を保持しているユーザの移動状態(歩行、ランニング、車、電車等による高速移動)を解析し、解析情報に応じた最適な情報を仮想オブジェクトとして表示する。
 例えば歩行している場合、移動位置や速度に応じた経路情報、名所案内情報、トイレの場所情報等を仮想オブジェクトとして表示する。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、
 (a)情報処理装置(ユーザ端末)と登録情報設定ポイント(POI)までの距離計測処理、
 (b)計測距離と既定閾値との比較処理、
 (c)計測距離が既定閾値以下になった場合にイベント発生と判定する、
 これらの一連の処理を実行するプログラムを規定する。
 また、情報提供サーバは、経路情報、名所案内情報、トイレの場所情報等を仮想オブジェクトとして情報処理装置に提供する。
 (4)情報処理装置、あるいはサーバに登録されたユーザの予定情報に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 この処理を実行する場合、ユーザの予定情報を予め情報処理装置のメモリ、あるいは情報提供サーバに登録しておく。
 ある登録済みの予定プランの開始時間、あるいは開始時間の一定時間前になった場合、情報処理装置(ユーザ端末)に、予定プランの集合位置や、予定情報等を仮想オブジェクトとして表示する。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、
 (a)登録済みの予定情報取得処理
 (b)現在時刻取得処理
 (c)時間が登録済み予定情報の設定時間、あるいはその一定時間前になった場合にイベント発生と判定する、
 これらの一連の処理を実行するプログラムを規定する。
 また、情報提供サーバからは、予定プランの集合位置や、予定情報等を仮想オブジェクトとして情報処理装置に提供する。
 (5)ユーザの身体情報(心拍、脈拍等)に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 この処理を実行する場合、ユーザの身体情報を計測するセンサの検出情報を情報処理装置が入力する構成を設定することが必要である。
 センサは、ユーザの心拍や脈拍等を計測し、計測情報を情報処理装置に出力する。
 具体的には例えばユーザがマラソンを行っている場合、ユーザの保持する情報処理装置のデータ処理部は、ユーザの心拍や脈拍の状態に応じた情報、例えば、深呼吸を促す情報や、休息を促す情報、あるいは近隣の休憩所等の案内情報を仮想オブジェクトとして表示する。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、
 (a)センサからのユーザの身体情報の取得処理、
 (b)入力する身体情報に応じたイベント検出処理、
 これらの一連の処理を実行するプログラムを規定する。
 また、情報提供サーバからは、ユーザの心拍や脈拍の状態に応じた情報、例えば、深呼吸を促す情報や、休息を促す情報、あるいは近隣の休憩所等の案内情報を仮想オブジェクトとして情報処理装置に提供する。
 (6)店舗等のセール情報に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 例えば、ある店舗のセール開始時間である午前10:00になったとき、情報処理装置(ユーザ端末)を保持しているユーザが、その店舗の近所にいる場合に、その店舗の位置と、店舗のセール内容等を仮想オブジェクトとして表示する。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、
 (a)情報処理装置(ユーザ端末)と登録情報設定ポイント(POI)までの距離計測処理、
 (b)計測距離と既定閾値との比較処理、
 (c)現在時刻取得処理
 (d)計測距離が既定閾値以下になり、かつ時間が登録情報設定ポイント(POI)(例えば店舗)の開店時間になった場合にイベント発生と判定する、
 これらの一連の処理を実行するプログラムを規定する。
 また、情報提供サーバは、店舗のセール内容等を含む登録情報設定ポイント対応登録情報を仮想オブジェクトとして情報処理装置に提供する。
 (7)情報処理装置(ユーザ端末)の設定情報に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 情報処理装置(ユーザ端末)の設定情報とは、例えば、表示言語の設定、音声出力の有無等の設定である。
 例えば、表示言語を日本語にしている場合は、日本語情報からなる登録情報を仮想オブジェクトとして提供し、英語設定にしている場合は英語情報からなる登録情報を提供する。また、音声出力をONに設定している場合は、音声出力を持つ登録情報を出力する構成としてもよい。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、上述した実施例に従った登録情報設定ポイント(POI)の検出処理の他、
 (a)情報処理装置(ユーザ端末)の設定情報取得処理を実行するプログラムを規定する。
 また、情報提供サーバは、情報処理装置(ユーザ端末)の設定情報に応じた言語、表示用データ、または音声データを情報処理装置に提供する。
 (8)情報処理装置(ユーザ端末)を保有するユーザの属性(年齢、性別、興味等)に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 この処理を実行する場合、ユーザの年齢、性別、興味等のユーザ属性情報を予め情報処理装置のメモリ、あるいは情報提供サーバに登録しておく。
 情報処理装置は、登録済みのユーザ属性に応じた最適な提供情報を含む仮想オブジェクトの表示を行う。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、上述した実施例に従った登録情報設定ポイント(POI)の検出処理の他、
 (a)登録済みのユーザ属性情報の取得処理を実行するプログラムを規定する。
 また、情報提供サーバは、情報処理装置(ユーザ端末)の設定情報に応じた最適な提供情報を含む仮想オブジェクトを情報処理装置に提供する。
 仮想オブジェクトの具体的表示例を図16、図17を参照して説明する。
 図16は、年齢が30~50代の中年男性でアルコール好きというユーザ属性情報が登録されている場合の仮想オブジェクト表示例である。
 例えば、複数の同じ属性(30~50代の中年男性でアルコール好き)を持つユーザが連れ立って個別に情報処理装置を保持して歩いている場合の例を想定する。
 この場合、各自の情報処理装置には、図16に示すような仮想オブジェクトが表示される。
 すなわち居酒屋等のアルコール提供店舗の位置を示すポイント(POI)位置識別マーク301と、ポイント(POI)対応登録情報302が次々と表示される。
 図17は、年齢が20~30代の女性でショッピング好きというユーザ属性情報が登録されている場合の仮想オブジェクト表示例である。
 この場合、情報処理装置には、図17に示すような仮想オブジェクトが表示される。
 すなわち20~30代の女性が好むアイテムを販売している供店舗の位置を示すポイント(POI)位置識別マーク321と、ポイント(POI)対応登録情報322が次々と表示される。
 (9)情報処理装置(ユーザ端末)を保持するユーザの視線に基づくイベント検出をトリガとした仮想オブジェクトの表示開始や表示更新処理の具体例について説明する。この処理の1つの具体例としては、例えば以下の処理がある。
 この処理を実行する場合、ユーザの視線を計測するセンサの検出情報を情報処理装置が入力する構成を設定することが必要である。
 センサは、ユーザの視線方向を検出し、検出情報を情報処理装置に出力する。
 情報処理装置のデータ処理部は、ユーザの視線方向にある登録情報設定ポイント(POI)に関連する登録情報を優先的に表示する処理を実行する。
 なお、この処理を行なう場合、例えばJavaScript(登録商標)等の表示制御プログラムには、上述した実施例に従った登録情報設定ポイント(POI)の検出処理の他、
 (a)ユーザの視線方向検出結果を入力して、表示オブジェクトを決定するプログラムを規定する。
 このように、仮想オブジェクトの表示処理、あるいは表示更新処理のトリガとなるイベントとして、様々なイベントの設定が可能である。
  [6.情報処理装置、およびサーバの構成例について]
 次に、情報処理装置(ユーザ端末)、および情報提供サーバ、検索サーバの構成例について説明する。
 図18は、情報処理装置(ユーザ端末)10の一構成例を示すブロック図である。
 情報処理装置10は、図18に示すように、ビーコン検出部501、データ処理部(制御部)502、動きセンサ503、記憶部504、カメラ(撮像部)505、入力部506、出力部(表示部)507、通信部508、各種センサ509、タイマ510を有する。
 ビーコン検出部501は、ビーコン送信装置20の送信するビーコンを検出する。
 データ処理部(制御部)502は、情報処理装置10の実行する各種のデータ処理を実行する。具体的には、上述した例えばフローチャートに従った処理を実行する。データ処理部(制御部)502はプログラム実行機能を有するCPUを有し、例えば、記憶部504に格納されたプログラムに従った処理を実行する。
 動きセンサ503は、情報処理装置の動きを検出するセンサである。移動の方向や傾き、加速度などを検出する様々なセンサによって構成される。
 記憶部504は、たとえばRAM、ROM、HDD、その他のメディアによって構成され、データ処理部5602の実行するプログラム、各種パラメータ等を記憶し、さらに、データ処理部の実行するデータ処理のワークエリアとしても利用される。
 カメラ(撮像部)505は、画像撮影を実行する。なお、前述したように3次元画像を撮影する構成の場合は、離間位置に2つの撮像部を備えた構成を持つ。2次元画像を撮影する構成の場合は1つの撮像部となる。
 入力部506は、ユーザ操作部であり、ユーザによる様々な指示入力が実行される。なお、表示部がタッチパネルとして構成されている場合、表示部も入力部として機能することになる。
 出力部507は、表示部、音声出力部等から構成される。表示部は、前述した処理に従って、カメラの撮影画像てある実オブジェクトを表示するとともに、情報提供サーバから取得する仮想オブジェクトとしてのポイント(POI)位置識別マークや、ポイント(POI)対応登録情報が重畳して表示される。
 通信部508は、情報提供サーバや検索サーバ、そのたの外部装置との通信処理を行なう通信部である。
 各種センサ509は、例えば視線センサ、心拍数センサ等の様々なユーザ状況などを計測するセンサである。
 データ処理部502は、これらのセンサ検出情報に応じて仮想オブジェクトの表示更新を実行することができる。
 タイマ510は、現在時間の検出、所定タイミングからの経過時間の計測等を実行する。
 図19は、様々な処理を実行するデータ処理部502において実行するデータ処理プログラムのレイヤ構成を説明する階層図である。
 データ処理部502は、OS(Operating System)レイヤ上で様々なアプリケーションを実行する。
 図に示す通信処理アプリケーションは、ビーコン検出、URL取得、URLに基づきWebページを表示処理装置へ指示するアプリケーションである。図10のS301からS306までの処理を実行する。
 表示処理アプリケーションは、カメラによって撮影された画像の表示処理や、情報提供サーバから提供される仮想オブジェクトの表示処理等を実行する。
 また、表示処理アプリケーションは、表示制御データの表示ならびに様々なイベントをトリガとして仮想オブジェクトの表示更新処理を実行する。
 なお、表示処理アプリケーションによる表示情報の出力あるいは更新処理は、図19の表示処理アプリケーションの下位に示す3D空間測位ライブラリ、表示制御ライブラリ、Webページ表示ライブラリの処理を伴って実行される。
 3D空間測位ライブラリは、カメラを介して撮影されるオブジェクトと基準画像を基に情報処理装置自身の3次元位置、方向(傾き)等を算出する3次元測位処理を実行する。具体的には前述したようにSLAM技術等を利用した3次元測位処理を実行する。
 表示制御ライブラリは、WebKit、JavaScript(登録商標)の実行部であり、表示部への仮想オブジェクトの表示ならびに、ユーザの操作などのイベントをトリガとした表示の更新処理等を実行する。
 Webページ表示アプリケーションは、WebKit WebCore等によって構成され、Webページの表示処理を実行する。
 これらのアプリケーションならびにライブラリはOSレイヤ上で動作可能であり、OSレイヤは、各アプリケーションの実行する処理の全体的な制御や、ハードウェア(HW)レイヤに設定された様々な処理部とアプリケーションレイヤ間のコマンド、パラメータ等の入出力制御などを行う。
 図20は、情報提供サーバや検索サーバとして適用可能な通信装置のハードウェア構成例を示している。
 CPU(Central Processing Unit)701は、ROM(Read Only Memory)702、または記憶部708に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)703には、CPU701が実行するプログラムやデータなどが記憶される。これらのCPU701、ROM702、およびRAM703は、バス704により相互に接続されている。
 CPU701はバス704を介して入出力インタフェース705に接続され、入出力インタフェース705には、各種スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部706、ディスプレイ、スピーカなどよりなる出力部707が接続されている。CPU701は、入力部706から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部707に出力する。
 入出力インタフェース705に接続されている記憶部708は、例えばハードディスク等からなり、CPU701が実行するプログラムや各種のデータを記憶する。通信部709は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース705に接続されているドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア711を駆動し、データの記録あるいは読み取りを実行する。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 撮像部と、
 前記撮像部の撮影画像を表示する表示部と、
 撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
 前記データ処理部は、
 実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行し、
 前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する情報処理装置。
 (2) 前記仮想オブジェクト表示制御データは、前記実オブジェクトを撮影した基準画像であるアンカーと前記登録情報設定ポイントとの3次元空間での位置情報を記録したHTML(Hyper Text Markup Language)データならびに、表示制御プログラムを含み、
 前記データ処理部は、
 前記撮像部の撮影画像からアンカーを検出し、検出したアンカーの仮想3次元空間座標での位置および方向から、前記撮像部の仮想3次元空間での位置を特定して、前記表示部の座標系である表示部座標系における前記登録情報設定ポイントの位置を算出し、算出位置に前記登録情報設定ポイントを示す仮想オブジェクトを表示する前記(1)に記載の情報処理装置。
 (3) 前記データ処理部は、
 前記登録情報設定ポイントの位置が既定閾値以上移動したことを条件として、表示部に表示した仮想オブジェクトの表示更新処理を実行する前記(1)または(2)に記載の情報処理装置。
 (4)前記データ処理部は、
 ユーザによる指示入力を条件として、表示部に対する仮想オブジェクトの表示処理または表示更新処理を実行する前記(1)~(3)いずれかに記載の情報処理装置。
 (5)前記データ処理部は、
 情報処理装置と登録情報設定ポイントとの距離が既定閾値以下となったことを条件として、該登録情報設定ポイントの登録情報を前記表示部に表示する前記(1)~(4)いずれかに記載の情報処理装置。
 (6)前記データ処理部は、
 登録情報設定ポイントに対応付けて予め規定した時間になったことを条件として、該登録情報設定ポイントの登録情報を前記表示部に表示する前記(1)~(5)いずれかに記載の情報処理装置。
 (7)前記データ処理部は、
 情報処理装置を持つユーザの行動履歴と、予め既定した行動履歴との一致判定を条件として、登録情報設定ポイントの登録情報を前記表示部に表示する前記(1)~(6)いずれかに記載の情報処理装置。
 (8)前記データ処理部は、
 情報処理装置を持つユーザの予め登録された予定情報に応じて、登録情報設定ポイントの登録情報を前記表示部に表示する前記(1)~(8)いずれかに記載の情報処理装置。
 (9)前記情報処理装置は、
 情報処理装置を持つユーザの身体情報を検出するセンサを有し、
 前記データ処理部は、
 前記センサの入力が予め規定した条件に一致したことを条件として、登録情報設定ポイントの登録情報を前記表示部に表示する前記(1)~(8)いずれかに記載の情報処理装置。
 (10)前記データ処理部は、
 情報処理装置の設定情報に応じて、前記登録情報の出力態様を変更する前記(1)~(9)いずれかに記載の情報処理装置。
 (11)前記データ処理部は、
 情報処理装置に記録されたユーザ属性情報に応じて、出力する登録情報を選択する前記(1)~(10)いずれかに記載の情報処理装置。
 (12) 前記情報処理装置は、
 情報処理装置を持つユーザの視線方向を検出するセンサを有し、
 前記データ処理部は、
 前記センサの検出するユーザ視線方向にある登録情報設定ポイントの登録情報を前記表示部に表示する前記(1)~(11)いずれかに記載の情報処理装置。
 (13) 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、撮像部と、前記撮像部の撮影画像を表示する表示部と、撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
 前記データ処理部が、
 実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行し、
 前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する情報処理方法。
 (14) 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、撮像部と、前記撮像部の撮影画像を表示する表示部と、撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行する処理と、
 前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、実世界の登録情報設定ポイントに関する登録情報の表示や表示更新処理をコンテキストの変化に応じたイベント検出をトリガとして実行する装置、方法が実現される。
 具体的には、実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトの表示制御を行う。データ処理部は、制御データに記述された登録情報の表示や表示更新処理を予め規定したコンテキストの変化に応じて実行する。さらに登録情報表示に併せて登録情報設定ポイントを示す仮想オブジェクトを表示する。撮影画像から検出する基準画像(アンカー)の仮想3次元空間での位置および方向等に基づいて情報処理装置と登録情報設定ポイントの位置関係を算出し、算出した位置関係とコンテキストの変化に基づき、登録情報設定ポイントを示す仮想オブジェクトを表示する。
 本構成により、実世界の登録情報設定ポイントに関する登録情報の表示や表示更新処理をコンテキストの変化に応じたイベント検出をトリガとして実行する装置、方法が実現される。
  10 情報処理装置(ユーザ端末)
  20 ビーコン送信装置
  30 ネットワーク
  40 検索サーバ
  50 情報提供サーバ
 101,102 登録情報設定ポイント(POI)
 111,121 ポイント(POI)位置識別マーク
 121,122 ポイント(POI)対応登録情報
 201,202 基準実オブジェクト
 211,212 登録情報設定ポイント(POI)
 301 ポイント(POI)位置識別マーク
 302 ポイント(POI)対応登録情報
 321 ポイント(POI)位置識別マーク
 322 ポイント(POI)対応登録情報
 501 ビーコン検出部
 502 データ処理部(制御部)
 503 動きセンサ
 504 記憶部
 505 カメラ
 506 入力部
 507 出力部(表示部等)
 508 通信部
 509 各種センサ
 510 タイマ
 701 CPU
 702 ROM
 703 RAM
 704 バス
 705 入出力インタフェース
 706 入力部
 707 出力部
 708 記憶部
 709 通信部
 710 ドライブ
 711 リムーバブルメディア

Claims (14)

  1.  撮像部と、
     前記撮像部の撮影画像を表示する表示部と、
     撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
     前記データ処理部は、
     実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行し、
     前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する情報処理装置。
  2.  前記仮想オブジェクト表示制御データは、前記実オブジェクトを撮影した基準画像であるアンカーと前記登録情報設定ポイントとの3次元空間での位置情報を記録したHTML(Hyper Text Markup Language)データならびに、表示制御プログラムを含み、
     前記データ処理部は、
     前記撮像部の撮影画像からアンカーを検出し、検出したアンカーの仮想3次元空間座標での位置および方向から、前記撮像部の仮想3次元空間での位置を特定して、前記表示部の座標系である表示部座標系における前記登録情報設定ポイントの位置を算出し、算出位置に前記登録情報設定ポイントを示す仮想オブジェクトを表示する請求項1に記載の情報処理装置。
  3.  前記データ処理部は、
     前記登録情報設定ポイントの位置が既定閾値以上移動したことを条件として、表示部に表示した仮想オブジェクトの表示更新処理を実行する請求項1に記載の情報処理装置。
  4.  前記データ処理部は、
     ユーザによる指示入力を条件として、表示部に対する仮想オブジェクトの表示処理または表示更新処理を実行する請求項1に記載の情報処理装置。
  5.  前記データ処理部は、
     情報処理装置と登録情報設定ポイントとの距離が既定閾値以下となったことを条件として、該登録情報設定ポイントの登録情報を前記表示部に表示する請求項1に記載の情報処理装置。
  6.  前記データ処理部は、
     登録情報設定ポイントに対応付けて予め規定した時間になったことを条件として、該登録情報設定ポイントの登録情報を前記表示部に表示する請求項1に記載の情報処理装置。
  7.  前記データ処理部は、
     情報処理装置を持つユーザの行動履歴と、予め既定した行動履歴との一致判定を条件として、登録情報設定ポイントの登録情報を前記表示部に表示する請求項1に記載の情報処理装置。
  8.  前記データ処理部は、
     情報処理装置を持つユーザの予め登録された予定情報に応じて、登録情報設定ポイントの登録情報を前記表示部に表示する請求項1に記載の情報処理装置。
  9.  前記情報処理装置は、
     情報処理装置を持つユーザの身体情報を検出するセンサを有し、
     前記データ処理部は、
     前記センサの入力が予め規定した条件に一致したことを条件として、登録情報設定ポイントの登録情報を前記表示部に表示する請求項1に記載の情報処理装置。
  10.  前記データ処理部は、
     情報処理装置の設定情報に応じて、前記登録情報の出力態様を変更する請求項1に記載の情報処理装置。
  11.  前記データ処理部は、
     情報処理装置に記録されたユーザ属性情報に応じて、出力する登録情報を選択する請求項1に記載の情報処理装置。
  12.  前記情報処理装置は、
     情報処理装置を持つユーザの視線方向を検出するセンサを有し、
     前記データ処理部は、
     前記センサの検出するユーザ視線方向にある登録情報設定ポイントの登録情報を前記表示部に表示する請求項1に記載の情報処理装置。
  13.  情報処理装置において実行する情報処理方法であり、
     前記情報処理装置は、撮像部と、前記撮像部の撮影画像を表示する表示部と、撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
     前記データ処理部が、
     実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行し、
     前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する情報処理方法。
  14.  情報処理装置において情報処理を実行させるプログラムであり、
     前記情報処理装置は、撮像部と、前記撮像部の撮影画像を表示する表示部と、撮影画像に含まれる実世界の登録情報設定ポイントの登録情報を含む仮想オブジェクトを前記表示部に表示するデータ処理部を有し、
     前記プログラムは、前記データ処理部に、
     実世界での実オブジェクトを撮影した基準画像であるアンカーと、仮想3次元空間座標系での前記アンカーの位置情報と前記登録情報設定ポイントの位置情報を記録した仮想オブジェクト表示制御データを入力し、表示制御データに記述された前記登録情報の表示処理、または表示更新処理を予め規定したコンテキストの変化に応じたイベント検出をトリガとして実行する処理と、
     前記登録情報の表示に併せて、前記登録情報設定ポイントを示す仮想オブジェクトを表示する処理を実行させるプログラム。
PCT/JP2015/064895 2014-08-01 2015-05-25 情報処理装置、および情報処理方法、並びにプログラム WO2016017254A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201580040888.4A CN106575299A (zh) 2014-08-01 2015-05-25 信息处理装置、信息处理方法和程序
EP15826720.3A EP3176755A4 (en) 2014-08-01 2015-05-25 Information processing device, information processing method, and program
JP2016538185A JP6683127B2 (ja) 2014-08-01 2015-05-25 情報処理装置、および情報処理方法、並びにプログラム
US15/326,550 US10225506B2 (en) 2014-08-01 2015-05-25 Information processing apparatus and information processing method
US16/259,466 US10499002B2 (en) 2014-08-01 2019-01-28 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-158133 2014-08-01
JP2014158133 2014-08-01

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/326,550 A-371-Of-International US10225506B2 (en) 2014-08-01 2015-05-25 Information processing apparatus and information processing method
US16/259,466 Continuation US10499002B2 (en) 2014-08-01 2019-01-28 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
WO2016017254A1 true WO2016017254A1 (ja) 2016-02-04

Family

ID=55217159

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064895 WO2016017254A1 (ja) 2014-08-01 2015-05-25 情報処理装置、および情報処理方法、並びにプログラム

Country Status (5)

Country Link
US (2) US10225506B2 (ja)
EP (1) EP3176755A4 (ja)
JP (1) JP6683127B2 (ja)
CN (1) CN106575299A (ja)
WO (1) WO2016017254A1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126284A (ja) * 2016-01-15 2017-07-20 東芝テック株式会社 プログラム及びビーコンシステム
JP2017162216A (ja) * 2016-03-09 2017-09-14 株式会社ナカヨ ビーコンシステム、携帯端末、および、付帯情報の表示方法
JP2018124925A (ja) * 2017-02-03 2018-08-09 Kddi株式会社 端末装置及びプログラム
JP2018169892A (ja) * 2017-03-30 2018-11-01 Kddi株式会社 サーバ装置、端末装置及びプログラム
EP3438953A4 (en) * 2016-03-31 2019-04-10 Sony Corporation INFORMATION PROCESSING DEVICE
JP2020013550A (ja) * 2018-05-24 2020-01-23 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法
WO2020031795A1 (ja) * 2018-08-07 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2020510923A (ja) * 2017-02-28 2020-04-09 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法
US11079897B2 (en) 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
CN113340199A (zh) * 2018-05-07 2021-09-03 苹果公司 使用增强现实进行测量的设备和方法
US11115468B2 (en) 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
US11196964B2 (en) 2019-06-18 2021-12-07 The Calany Holding S. À R.L. Merged reality live event management system and method
WO2022025296A1 (ja) * 2020-07-31 2022-02-03 株式会社Jvcケンウッド 表示装置、表示方法及びプログラム
US11471772B2 (en) 2019-06-18 2022-10-18 The Calany Holding S. À R.L. System and method for deploying virtual replicas of real-world elements into a persistent virtual world system
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11632600B2 (en) 2018-09-29 2023-04-18 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11797146B2 (en) 2020-02-03 2023-10-24 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015183550A1 (en) * 2014-05-27 2015-12-03 Bourbaki 13, Inc. Determining three-dimensional information from projections or placement of two-dimensional patterns
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A2 (en) 2016-12-30 2024-01-03 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US20190026286A1 (en) * 2017-07-19 2019-01-24 International Business Machines Corporation Hierarchical data structure
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10724867B1 (en) * 2017-08-07 2020-07-28 United Services Automobile Association (Usaa) Systems and methods for position-based building guidance
JP7013757B2 (ja) * 2017-09-20 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
IL255671B (en) * 2017-11-14 2021-09-30 Everysight Ltd System and method for determining an image position using one or more anchors
KR102596429B1 (ko) 2017-12-10 2023-10-30 매직 립, 인코포레이티드 광학 도파관들 상의 반사―방지 코팅들
US11187923B2 (en) 2017-12-20 2021-11-30 Magic Leap, Inc. Insert for augmented reality viewing device
CN108197621A (zh) * 2017-12-28 2018-06-22 北京金堤科技有限公司 企业信息获取方法及系统和信息处理方法及系统
CN109996032B (zh) * 2017-12-29 2020-10-02 杭州海康威视系统技术有限公司 信息显示方法及装置、计算机设备及存储介质
WO2019178567A1 (en) 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
WO2019231850A1 (en) 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
CN108932055B (zh) * 2018-06-04 2021-08-24 杭州艺手工网络科技有限公司 一种增强现实内容的方法和设备
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
WO2020026799A1 (ja) * 2018-07-31 2020-02-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US20220293010A1 (en) * 2019-01-15 2022-09-15 Sony Group Corporation Information processing apparatus and information processing method
JP2020140487A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 処理装置、処理方法およびプログラム
CN113544766A (zh) * 2019-03-12 2021-10-22 奇跃公司 在第一和第二增强现实观看器之间配准本地内容
US11206505B2 (en) * 2019-05-06 2021-12-21 Universal City Studios Llc Systems and methods for dynamically loading area-based augmented reality content
CN110287872A (zh) * 2019-06-25 2019-09-27 清华大学 一种基于移动终端的兴趣点视线方向识别方法及装置
CN110365995A (zh) * 2019-07-22 2019-10-22 视云融聚(广州)科技有限公司 在视频中融合增强现实标签的流媒体服务方法及系统
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment
US11361735B1 (en) * 2020-04-15 2022-06-14 Apple Inc. Head-mountable device with output for distinguishing virtual and physical objects
CN112068703B (zh) * 2020-09-07 2021-11-16 北京字节跳动网络技术有限公司 目标物体的控制方法、装置、电子设备及存储介质
CN112672057B (zh) * 2020-12-25 2022-07-15 维沃移动通信有限公司 拍摄方法及装置
CN112819970B (zh) * 2021-02-19 2023-12-26 联想(北京)有限公司 一种控制方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091390A (ja) * 2004-09-24 2006-04-06 Mitsubishi Electric Corp 情報表示システム及び情報表示方法及び情報表示方法をコンピュータに実行させるためのプログラム及び情報表示端末装置
JP2010238096A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、拡張現実感システム及び端末画面表示方法
JP2011055250A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
JP2012128779A (ja) * 2010-12-17 2012-07-05 Panasonic Corp 仮想物体表示装置
WO2013027628A1 (ja) * 2011-08-24 2013-02-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2013105346A (ja) * 2011-11-14 2013-05-30 Sony Corp 情報提示装置、情報提示方法、情報提示システム、情報登録装置、情報登録方法、情報登録システムおよびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
JP4631987B2 (ja) 1998-10-19 2011-02-16 ソニー株式会社 情報処理端末、情報処理システム及び情報処理方法
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US20060190812A1 (en) * 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
JP5725296B2 (ja) 2011-07-29 2015-05-27 セイコーエプソン株式会社 運動情報生成装置、運動情報生成プログラム及び記録媒体
JP5735071B2 (ja) * 2013-09-27 2015-06-17 株式会社ダスキン 情報検索装置、情報検索方法、及び情報検索プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091390A (ja) * 2004-09-24 2006-04-06 Mitsubishi Electric Corp 情報表示システム及び情報表示方法及び情報表示方法をコンピュータに実行させるためのプログラム及び情報表示端末装置
JP2010238096A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、拡張現実感システム及び端末画面表示方法
JP2011055250A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
JP2012128779A (ja) * 2010-12-17 2012-07-05 Panasonic Corp 仮想物体表示装置
WO2013027628A1 (ja) * 2011-08-24 2013-02-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2013105346A (ja) * 2011-11-14 2013-05-30 Sony Corp 情報提示装置、情報提示方法、情報提示システム、情報登録装置、情報登録方法、情報登録システムおよびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3176755A4 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126284A (ja) * 2016-01-15 2017-07-20 東芝テック株式会社 プログラム及びビーコンシステム
JP2017162216A (ja) * 2016-03-09 2017-09-14 株式会社ナカヨ ビーコンシステム、携帯端末、および、付帯情報の表示方法
EP3438953A4 (en) * 2016-03-31 2019-04-10 Sony Corporation INFORMATION PROCESSING DEVICE
JP2018124925A (ja) * 2017-02-03 2018-08-09 Kddi株式会社 端末装置及びプログラム
JP2020510923A (ja) * 2017-02-28 2020-04-09 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法
JP7155135B2 (ja) 2017-02-28 2022-10-18 シグニファイ ホールディング ビー ヴィ 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法
JP2018169892A (ja) * 2017-03-30 2018-11-01 Kddi株式会社 サーバ装置、端末装置及びプログラム
CN113340199A (zh) * 2018-05-07 2021-09-03 苹果公司 使用增强现实进行测量的设备和方法
US11808562B2 (en) 2018-05-07 2023-11-07 Apple Inc. Devices and methods for measuring using augmented reality
CN113340199B (zh) * 2018-05-07 2023-06-20 苹果公司 使用增强现实进行测量的设备和方法
US11391561B2 (en) 2018-05-07 2022-07-19 Apple Inc. Devices and methods for measuring using augmented reality
US11079897B2 (en) 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
US11307968B2 (en) 2018-05-24 2022-04-19 The Calany Holding S. À R.L. System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
JP2020013550A (ja) * 2018-05-24 2020-01-23 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法
WO2020031795A1 (ja) * 2018-08-07 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11632600B2 (en) 2018-09-29 2023-04-18 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11818455B2 (en) 2018-09-29 2023-11-14 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11115468B2 (en) 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
US11665317B2 (en) 2019-06-18 2023-05-30 The Calany Holding S. À R.L. Interacting with real-world items and corresponding databases through a virtual twin reality
US11471772B2 (en) 2019-06-18 2022-10-18 The Calany Holding S. À R.L. System and method for deploying virtual replicas of real-world elements into a persistent virtual world system
US11202037B2 (en) 2019-06-18 2021-12-14 The Calany Holding S. À R.L. Virtual presence system and method through merged reality
US11245872B2 (en) 2019-06-18 2022-02-08 The Calany Holding S. À R.L. Merged reality spatial streaming of virtual spaces
US11196964B2 (en) 2019-06-18 2021-12-07 The Calany Holding S. À R.L. Merged reality live event management system and method
US11202036B2 (en) 2019-06-18 2021-12-14 The Calany Holding S. À R.L. Merged reality system and method
US11797146B2 (en) 2020-02-03 2023-10-24 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
WO2022025296A1 (ja) * 2020-07-31 2022-02-03 株式会社Jvcケンウッド 表示装置、表示方法及びプログラム
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments

Also Published As

Publication number Publication date
CN106575299A (zh) 2017-04-19
JP6683127B2 (ja) 2020-04-15
EP3176755A4 (en) 2018-02-28
JPWO2016017254A1 (ja) 2017-05-18
US20170201709A1 (en) 2017-07-13
US20190158774A1 (en) 2019-05-23
EP3176755A1 (en) 2017-06-07
US10499002B2 (en) 2019-12-03
US10225506B2 (en) 2019-03-05

Similar Documents

Publication Publication Date Title
JP6683127B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
EP2915140B1 (en) Fast initialization for monocular visual slam
TWI574223B (zh) 運用擴增實境技術之導航系統
US9280851B2 (en) Augmented reality system for supplementing and blending data
JP6296056B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6496671B2 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
US10733798B2 (en) In situ creation of planar natural feature targets
JP4743818B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
KR101413011B1 (ko) 위치 정보 기반 증강현실 시스템 및 제공 방법
KR20130053535A (ko) 무선 통신 디바이스를 이용한 건물 내부의 증강현실 투어 플랫폼 서비스 제공 방법 및 장치
KR101253644B1 (ko) 위치 정보를 이용한 증강 현실 콘텐츠 출력 장치 및 방법
WO2019127320A1 (zh) 信息处理方法、装置、云处理设备及计算机程序产品
JP5357966B2 (ja) 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム
US9870514B2 (en) Hypotheses line mapping and verification for 3D maps
KR20190048738A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
JP7039535B2 (ja) 生成装置、生成方法、および生成プログラム
Etzold et al. MIPos: towards mobile image positioning in mixed reality web applications based on mobile sensors
JP6959305B2 (ja) 生成装置、生成方法、および生成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15826720

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016538185

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015826720

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15326550

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE