WO2019151493A1 - 複合現実システム、プログラム、方法、及び携帯端末装置 - Google Patents

複合現実システム、プログラム、方法、及び携帯端末装置 Download PDF

Info

Publication number
WO2019151493A1
WO2019151493A1 PCT/JP2019/003680 JP2019003680W WO2019151493A1 WO 2019151493 A1 WO2019151493 A1 WO 2019151493A1 JP 2019003680 W JP2019003680 W JP 2019003680W WO 2019151493 A1 WO2019151493 A1 WO 2019151493A1
Authority
WO
WIPO (PCT)
Prior art keywords
mixed reality
marker
identification code
virtual
terminal device
Prior art date
Application number
PCT/JP2019/003680
Other languages
English (en)
French (fr)
Inventor
修一 倉林
Original Assignee
株式会社Cygames
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Cygames filed Critical 株式会社Cygames
Priority to CN201980023788.9A priority Critical patent/CN111937046B/zh
Publication of WO2019151493A1 publication Critical patent/WO2019151493A1/ja
Priority to US16/943,444 priority patent/US11321925B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06131Constructional details the marking comprising a target pattern, e.g. for indicating the center of the bar code or for helping a bar code reader to properly orient the scanner or to retrieve the bar code inside of an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10554Moving beam scanning
    • G06K7/10564Light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to a mixed reality system and the like, and more particularly to a mixed reality system and the like that allows a user in a predetermined real space to experience mixed reality.
  • MR Mated Reality
  • MR Mated Reality
  • the MR technology can make the user who experiences this experience as if a virtual object exists on the spot.
  • a technology for executing MR itself with high accuracy such as displaying an object in a virtual space without giving the user a sense of incongruity, has been developed.
  • Patent Document 1 discloses a system capable of recognizing a real space environment in real time in a mixed reality environment.
  • the present invention has been made to solve such problems, and it is a main object of the present invention to provide a mixed reality system and the like that allow a user to experience MR according to the location more easily. And
  • a mixed reality system as one aspect of the present invention includes a server, a display for displaying a virtual object for a user in a predetermined real space, and shooting for shooting the real space.
  • a mixed reality system for displaying a mixed reality image in which a virtual object is superimposed on a photographed image of a real space on the display, the portable terminal device having the device, on a real object in the predetermined real space MR markers each including an identification code including an identifier including position information corresponding to each position and a positioning marker having a polygonal shape are arranged at one or more predetermined positions of
  • the server is three-dimensional space data of real objects in the predetermined real space acquired in advance, each of which is tertiary in the virtual space.
  • a virtual space data storage unit for storing virtual space data including three-dimensional space data composed of three-dimensional shape elements having position information and virtual object data arranged in the virtual space; and an identifier included in the identification code
  • An application storage unit that stores a Web application specified by the Web application, and the Web application provides a Web page for displaying a mixed reality image, and when the Web page for displaying a mixed reality image is read by the mobile terminal device,
  • An application storage unit that activates the imaging device and includes a display area of a mixed reality image based on a captured image of a real space captured by the imaging device, and the mobile terminal device includes the identification code Provided by the Web application by accessing the identifier included in A browser unit that displays the web page for displaying the mixed reality image and the Web application, and when the MR marker is captured by the imaging device and the identification code is recognized, the MR marker is configured.
  • the mobile phone determined from the marker recognition unit for recognizing the alignment marker, the position information included in the identifier accessed by the browser unit, and the shape and size of the alignment marker recognized by the marker recognition unit
  • a position determination unit that determines a viewpoint position of a virtual camera in a virtual space corresponding to a position and a shooting direction of the imaging device in a real space based on a positional relationship between the terminal device and the alignment marker; and the virtual space data And the viewpoint position of the virtual camera based on the mixed reality image display web page
  • An image generation unit configured to generate a mixed reality image in which a virtual object is superimposed on a captured image in real space for display in a display area.
  • the portable terminal device includes an identification code recognition unit that recognizes the identification code when the MR marker is imaged by the imaging device, and the browser unit includes the identification code recognition unit.
  • the web page for displaying the mixed reality image provided by the web application is displayed by accessing the identifier included in the identification code recognized by the web application.
  • the virtual space data storage unit stores the virtual space data corresponding to each identifier included in the identification code
  • the browser unit stores the virtual space corresponding to the accessed identifier.
  • Data is acquired from the virtual space data storage unit, and the image generation unit generates a mixed reality image viewed from the viewpoint position of the virtual camera using the virtual space data acquired from the virtual space data storage unit.
  • the portable terminal device determines whether or not an identifier included in the identification code recognized when the Web application is activated is the same as the identifier accessed by the browser unit.
  • An identifier determining unit is further provided, and the marker recognizing unit recognizes the alignment marker when determined to be the same by the identifier determining unit.
  • the browser unit accesses another identifier included in the identification code recognized when the web application is activated when the identifier determination unit determines that they are not the same.
  • the virtual space data corresponding to another identifier is acquired from the virtual space data storage unit, the mixed reality image display web page is displayed without re-reading, and the marker recognizing unit displays the other identifier.
  • the positioning marker constituting the MR marker is recognized together with the identification code included.
  • the identifier is a URL.
  • the three-dimensional shape element is a mesh composed of polygons.
  • the identification code is a QR code (registered trademark) or a data matrix.
  • the alignment marker has a square shape.
  • the alignment marker is disposed along an edge of the identification code.
  • the marker recognizing unit recognizes the alignment marker by painting and erasing the identification code with a predetermined color.
  • the alignment marker is disposed in the vicinity of the identification code at a position having a predetermined positional relationship with the identification code.
  • the mobile terminal device transmits, to the server, a captured image of a real space and an image data of a virtual object that are captured by the imaging device that constitutes the mixed reality image generated by the image generation unit. Then, the other terminal device is configured to be able to acquire the mixed reality image.
  • a program as one aspect of the present invention includes a display for displaying a virtual object for a user in a predetermined real space and a photographing device for photographing the real space.
  • a program for a mixed reality system that includes a portable terminal device and displays a mixed reality image in which a virtual object is superimposed on a captured image of a real space on the display.
  • MR marker composed of an identification code including an identifier including position information corresponding to each position and a positioning marker having a polygonal shape at one or more predetermined positions on the real object Are arranged, and each of the three-dimensional space data of the real object in the predetermined real space acquired in advance is stored in the virtual space.
  • Three-dimensional space data composed of three-dimensional shape elements having three-dimensional position information, virtual space data including virtual object data arranged in the virtual space, a Web application specified by an identifier included in the identification code,
  • the web application provides a mixed reality image display web page, and the mixed reality image display web page is activated by the portable terminal device when the photographing device is activated.
  • the browser is started and A step of accessing the identifier included in the identification code and displaying the mixed reality image display web page; and when the web application is started and the MR marker is photographed by the photographing device and the identification code is recognized.
  • a step of recognizing the alignment marker constituting the MR marker, and a positional relationship between the portable terminal device and the alignment marker determined from the shape and size of the recognized alignment marker Determining a viewpoint position of a virtual camera in a virtual space corresponding to a position and a shooting direction of the photographing apparatus in real space based on position information included in an identifier included in the identification code; and the virtual space data On the mixed reality image display web page based on the viewpoint position of the virtual camera and the virtual camera. Generating a mixed reality image in which a virtual object is superimposed on a captured image in real space for display in the display area.
  • a method includes a display for displaying a virtual object to a user in a predetermined real space and a photographing device for photographing the real space.
  • a method executed by a mixed reality system that includes a mobile terminal device and displays a mixed reality image in which a virtual object is superimposed on a captured image of a real space on the display, wherein the system includes the predetermined real space MR composed of an identification code including an identifier including position information corresponding to each position and a positioning marker having a polygonal shape at one or more predetermined positions on a real object inside 3D space data of a real object in the predetermined real space, where markers are arranged and acquired in advance, each of which is a tertiary in the virtual space
  • Three-dimensional space data composed of three-dimensional shape elements having position information and virtual space data including virtual object data arranged in the virtual space, and a Web application specified by an identifier included in the identification code,
  • the web application provides a mixed reality image display web
  • a mobile terminal device shoots a server, a display for displaying a virtual object to a user in a predetermined real space, and the real space.
  • a mobile terminal device in a mixed reality system for displaying a mixed reality image in which a virtual object is superimposed on a captured image in real space on the display.
  • an identification code including an identifier including position information corresponding to each position, and an alignment marker having a polygonal shape 3D spatial data of real objects in the predetermined real space obtained by arranging MR markers configured in advance, Identified by three-dimensional space data composed of three-dimensional shape elements having three-dimensional position information in the virtual space, virtual space data including virtual object data arranged in the virtual space, and an identifier included in the identification code
  • a web application for providing a mixed reality image display web page, and the mixed reality image display web page is activated by the portable terminal device when the photographing device is activated.
  • a browser unit for displaying the mixed reality image display web page When the application is started and the MR marker is imaged by the imaging device and the identification code is recognized, the marker recognition unit that recognizes the alignment marker constituting the MR marker and the browser unit access Based on the positional relationship between the mobile terminal device and the alignment marker determined from the positional information included in the identifier and the shape and size of the alignment marker recognized by the marker recognition unit.
  • the mixed reality image display Based on the virtual space data and the viewpoint position of the virtual camera, the mixed reality image display based on the position determination unit that determines the viewpoint position of the virtual camera in the virtual space corresponding to the position and shooting direction of the imaging device in space A virtual object is superimposed on a real-space captured image for display in the display area of the web page An image generation unit that generates the mixed reality image.
  • the user can experience MR according to the place more easily.
  • 1 is an overall configuration diagram of a mixed reality system according to an embodiment of the present invention. It is a block diagram which shows the hardware constitutions of the server by one Embodiment of this invention. It is a block diagram which shows the hardware constitutions of the portable terminal device by one Embodiment of this invention. It is a figure which shows an example of the predetermined
  • the mixed reality system according to the present embodiment allows a user to experience MR by superimposing and drawing a virtual object that is the existence of a virtual space on a captured image of a real space visually recognized by the user through a smartphone screen, for example.
  • a virtual object is computer graphics that occupies only a small part on the screen, such as a game character.
  • more detailed explanation than necessary may be omitted. For example, detailed descriptions of already well-known matters and redundant descriptions of substantially the same configuration may be omitted.
  • FIG. 1 is an overall configuration diagram of a mixed reality system 1 according to an embodiment of the present invention.
  • the mixed reality system 1 includes a server 3 and a mobile terminal device 4, and the server 3 and the mobile terminal device 4 are connected to a network 2 such as the Internet and can communicate with each other.
  • a network 2 such as the Internet
  • FIG. 2 is a block diagram showing a hardware configuration of the server 3 according to an embodiment of the present invention.
  • the server 3 includes a processor 11, a display device 12, an input device 13, a storage device 14, and a communication device 15. Each of these components is connected by a bus 16. It is assumed that an interface is interposed between the bus 16 and each component device as necessary.
  • the processor 11 controls the overall operation of the server 3 and is, for example, a CPU. Note that an electronic circuit such as an MPU may be used as the processor 11.
  • the processor 11 executes various processes by reading and executing programs and data stored in the storage device 14. In one example, the processor 11 includes a plurality of processors.
  • the display device (display) 12 displays an application screen or the like to the user of the server 3 under the control of the processor 11.
  • the input device 13 receives an input from the user to the server 3, and is, for example, a touch panel, a touch pad, a keyboard, or a mouse.
  • the storage device 14 includes a main storage device and an auxiliary storage device.
  • the main storage device is a semiconductor memory such as a RAM.
  • the RAM is a volatile storage medium capable of reading and writing information at high speed, and is used as a storage area and a work area when the processor 21 processes information.
  • the main storage device may include a ROM that is a read-only nonvolatile storage medium. In this case, the ROM stores a program such as firmware.
  • the auxiliary storage device stores various programs and data used by the processor 11 when executing each program.
  • the auxiliary storage device is, for example, a hard disk device, but may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable.
  • the auxiliary storage device stores, for example, an operating system (OS), middleware, application programs, various data that can be referred to when these programs are executed.
  • OS operating system
  • middleware middleware
  • application programs various data that can be referred to when these programs are executed.
  • the storage device 14 stores data (for example, tables) and programs for various databases.
  • Various databases are realized by the operation of the processor 11 and the like.
  • the server 3 may have a database server function, may include one or a plurality of database servers, or may include other servers.
  • the communication device 15 exchanges data with other computers such as the mobile terminal device 4 via the network 2.
  • the communication device 15 performs wired communication using an Ethernet (registered trademark) cable, mobile communication, wireless communication such as a wireless LAN, and connects to the network 4.
  • Ethernet registered trademark
  • FIG. 3 is a block diagram showing a hardware configuration of the mobile terminal device 4 according to the embodiment of the present invention.
  • the mobile terminal device 4 is a smartphone.
  • the mobile terminal device 4 includes a processor 21, a display device 22, an input device 23, a photographing device 24, a storage device 25, and a communication device 26.
  • Each of these components is connected by a bus 27. It is assumed that an interface is interposed between the bus 27 and each component device as necessary.
  • the portable terminal device 4 may be a tablet computer, a computer having a contact input device such as a touch pad, or the like.
  • the processor 21 controls the operation of the entire mobile terminal device 4 and is, for example, a CPU. Note that an electronic circuit such as an MPU may be used as the processor 21.
  • the processor 21 executes various processes by reading and executing programs and data stored in the storage device 24. In one example, the processor 21 includes a plurality of processors.
  • the display device (display) 22 displays an application screen, an image photographed by the photographing device 24, and the like to the user of the mobile terminal device 4 under the control of the processor 21.
  • a liquid crystal display is preferable, but a display using an organic EL, a plasma display, or the like may be used.
  • the input device 23 has a function of accepting input from the user, such as a touch panel, a touch pad, and an input button.
  • the mobile terminal device 4 since the mobile terminal device 4 is a smartphone, the mobile terminal device 4 includes a touch panel as the input device 23, the touch panel also functions as the display device 22, and the display device 22 and the input device 23 are integrated. Structure. However, the display device 22 and the input device 23 may be in separate forms arranged at different positions.
  • the imaging device (imaging device) 24 captures (captures) a still image or moving image in real space, and stores the captured image or moving image data in the storage unit 25.
  • the imaging device 24 is a camera that includes, for example, an image sensor.
  • the storage device 25 is a storage device included in a general smartphone including a RAM that is a volatile memory and a ROM that is a nonvolatile memory.
  • the storage device 25 can also include an external memory.
  • the storage device 25 includes a main storage device and an auxiliary storage device.
  • the main storage device is a volatile storage medium capable of reading and writing information at high speed, and is used as a storage area and a work area when the processor 21 processes information.
  • the auxiliary storage device stores various programs and data used by the processor 21 when executing each program.
  • the auxiliary storage device is, for example, a hard disk device, but may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable.
  • the auxiliary storage device stores, for example, an operating system (OS), middleware, application programs, various data that can be referred to when these programs are executed.
  • OS operating system
  • middleware middleware
  • application programs various data that can be referred to when these programs are executed.
  • the communication device 26 exchanges data with other computers such as the server 3 via the network 2.
  • the communication device 26 performs wireless communication such as mobile communication and wireless LAN, and connects to the network 2.
  • the program is downloaded from the server 3 by the communication device 26 and stored in the storage device 25.
  • the communication device 26 may perform wired communication using an Ethernet (registered trademark) cable or the like.
  • a real-world space predetermined real space
  • MR mixed reality
  • a real space 50 that is a predetermined indoor space as shown in FIG. Is assumed.
  • a desk 51 which is a real object in the real world is arranged.
  • the three-dimensional shape of the real object is represented by three-dimensional space data using basic units each having three-dimensional position information in the virtual space.
  • This basic unit is expressed as a three-dimensional shape element.
  • a three-dimensional mesh is used as a three-dimensional shape element. Therefore, the three-dimensional section data is composed of a three-dimensional mesh.
  • the three-dimensional mesh is formed from one or a plurality of polygons, and at least one of the vertexes of the polygons constituting each three-dimensional mesh has three-dimensional position information.
  • the three-dimensional shape element may be point cloud data or the like.
  • 3D space data is acquired in advance as follows.
  • point cloud data indicating a three-dimensional shape of a real object in the real space 50 is acquired in advance by using, for example, a high-precision laser scanner (not shown).
  • Each of the point cloud data has, for example, three-dimensional coordinates (x, y, z), and is arranged in the virtual space 60 associated with the real space 50.
  • Each of the point cloud data is colored point cloud data having color information.
  • a polygon having each point cloud as a vertex is formed from the colored point cloud data acquired as described above.
  • the three-dimensional mesh is formed from the polygon.
  • the three-dimensional mesh is generated from a plurality of captured images in the real space 50 using a known method.
  • the three-dimensional shape element which comprises three-dimensional space data does not need to have color information, in the said illustration, point cloud data does not need to have color information.
  • the MR marker 52 is arranged at one or more predetermined positions of the desk 51 of the real object in the real space 50. In one example, as shown in FIG. 4, MR markers 52 are arranged at a plurality of locations on the surface of the desk 51.
  • FIG. 5 is a diagram illustrating an example of the MR marker 52.
  • the MR marker 52 includes an identification code 53 including an identifier 55 including position information corresponding to each position of the arranged MR marker 52 and a positioning marker 54 having a quadrangular shape.
  • FIG. 6 is a diagram illustrating an example of the identification code 53.
  • the identification code 53 is a QR code (registered trademark) (hereinafter referred to as “two-dimensional code”), and the identifier 55 is a URL.
  • the identification code 53 is a marker for activating the browser by being photographed by the mobile terminal device 4, and is a marker for identifying the photographed MR marker 52.
  • the identifier 55 includes position information corresponding to each position of the MR marker 52 to be arranged and the activation and initialization of the Web application stored in the server 3.
  • the two-dimensional code 53 is recognized by a two-dimensional code reader application (QR code (registered trademark) reader application), and the URL 55 included in the two-dimensional code 53 is extracted by the two-dimensional code reader application.
  • the identification code 53 may be another two-dimensional barcode such as a data matrix.
  • URL 55 is URL (1) shown below. https: // server name / MR scene ID / @ latitude, longitude, angle The server name and MR scene ID specify the access position to the server 3, each of which is based on alphanumeric character string data. Composed. The latitude, longitude, and angle indicate the latitude of the MR marker 52, the longitude of the MR marker 52, and the angle (azimuth) of the MR marker 52, each of which is constituted by numerical data. The URL (1) can also include numerical data indicating the altitude of the MR marker 52. However, the identifier 55 may be an identifier that designates a file location other than the URL.
  • FIG. 7 is a diagram illustrating an example of the alignment marker 54.
  • the alignment marker 54 has a square shape and is arranged along the edge of the identification code.
  • the alignment marker 54 is a marker for calculating the position and orientation of the mobile terminal device 4 by being photographed by the mobile terminal device 4 and has a predetermined size and shape. Since the alignment marker 54 is a marker for calculating the position and orientation of the mobile terminal device 4, the alignment marker 54 may have a polygonal shape other than a quadrangle.
  • the alignment marker 54 is not a marker for identifying the MR marker 52, it has a square shape and is the same for all the MR markers 52 to be arranged. Thereby, the calculation amount of the system can be reduced.
  • the predetermined real space in which the mixed reality system 1 of the present embodiment provides MR to the user is a real space 50 as shown in FIG. 4, but FIG. It is not limited.
  • the real space 50 may be an indoor space covered with a wall or an outdoor space.
  • the real space 50 may be a single partitioned space or may include a plurality of partitioned spaces.
  • the real object may not be the desk 51, but may be a chair, a shelf, a wall, or the ground, and the real space 50 may include a plurality of real objects.
  • the position of the MR marker 52 may not be a plurality of locations on the surface of the desk 51 as long as the position is one or more predetermined positions of the real object in the real space 50.
  • FIG. 8 is a functional block diagram of the server 3 according to an embodiment of the present invention.
  • the server 3 includes a virtual space data storage unit 31 and an application storage unit 32.
  • these functions are realized by a program being executed by the processor 11.
  • another part may have a part of one part (function).
  • these functions may also be realized by hardware by configuring an electronic circuit or the like for realizing part or all of each function.
  • the server 3 may be composed of one server device or a plurality of server devices.
  • the virtual space data storage unit 31 is a virtual including three-dimensional space data of a real object in the real space 50 acquired in advance and virtual object data that is data of a three-dimensional virtual object arranged in the virtual space 60. Store spatial data. When the three-dimensional shape element is a three-dimensional mesh, virtual object data is also formed by the three-dimensional mesh.
  • the virtual space data storage unit 31 stores virtual space data in the virtual space 60 corresponding to the real space 50 around the MR marker 52 for each MR marker 52 arranged. Specifically, the virtual space data storage unit 31 stores the virtual space data for each of the arranged MR markers 52 by storing the virtual space data corresponding to each of the identifiers 55 included in the identification code 53. .
  • the virtual space data storage unit 31 functions as a database that stores virtual space data
  • the storage device 14 stores data and programs for the database.
  • the server 3 includes a database server that stores virtual space data as the virtual space data storage unit 31.
  • the virtual object data is data of a virtual object whose shape changes with time.
  • the application storage unit 32 stores a Web application 33 (hereinafter referred to as “Web application 33”) specified by the identifier 55 included in the identification code 53.
  • Web application 33 provides a mixed reality image display web page 34 (hereinafter referred to as “MR experience page 34”) to the mobile terminal device 4 that accesses the web application 33.
  • the MR experience page 34 activates the photographing device 24 when read by the mobile terminal device 4 and displays a mixed reality image based on the photographed image (or photographed moving image) of the real space 50 photographed by the photographing device 24. It includes areas.
  • the MR experience page 34 displays a captured image (or captured moving image) of the real space 50 captured by the imaging device 24 in the display area of the mixed reality image.
  • the MR experience page 34 is preferably configured such that the display area of the mixed reality image occupies most of the display 22 in the same manner as a general camera application.
  • the mobile terminal device 4 interprets the URL 55 extracted from the two-dimensional code through the two-dimensional code reader application as the URL of the Web browser, and the browser of the mobile terminal device 4 accesses the URL 55 as it is.
  • the server 3 transmits HTML, JavaScript (registered trademark), images, and the like necessary for executing the web application 33 as a response to the mobile terminal device 4. What is displayed as a Web page in the mobile terminal device 4 by data transmitted to the mobile terminal device 4 as the response corresponds to the MR experience page 4 in the present embodiment.
  • the MR experience page 34 is embedded with JavaScript (registered trademark), and when the MR experience page 34 is read into the mobile terminal device 4, JavaScript (registered trademark) is executed. 24 is activated.
  • the server 3 includes an application server that stores the web application 33 as the application storage unit 32.
  • the URL 55 is the above-described URL (1)
  • the server 3 determines that the access from the mobile terminal device 4 is an access from the web application 33 and transmits the virtual space data or virtual object data corresponding to the URL 55 to the mobile terminal device 4 as a response. .
  • FIG. 9 is a functional block diagram of the mobile terminal device 4 according to the embodiment of the present invention.
  • the portable terminal device 4 includes a first identification code recognition unit 41, a browser unit 42, a second identification code recognition unit 43, an identifier determination unit 44, a marker recognition unit 45, a position determination unit 46, an image And a generation unit 47.
  • these functions are realized by the program being executed by the processor 21.
  • another part may have a part of one part (function).
  • these functions may also be realized by hardware by configuring an electronic circuit or the like for realizing part or all of each function.
  • the first identification code recognition unit 41 recognizes the identification code 53 when the MR marker 52 is imaged by the imaging device 24.
  • the browser unit 42 accesses the identifier 55 included in the identification code 53 recognized by the first identification code recognition unit 41 and displays the MR experience page 34 provided by the Web application 33 specified by the identifier 55. To do.
  • the mobile terminal device 4 is installed with a two-dimensional code reader application and a browser that are installed in a general smartphone.
  • the two-dimensional code reader application has the function of the first identification code recognition unit 41, and the browser has the function of the browser unit 42.
  • the two-dimensional code reader application is activated to activate the imaging device 24.
  • the activated imaging device 24 images the MR marker 52
  • the two-dimensional code reader application recognizes (identifies) the two-dimensional code 53 from the captured image.
  • the URL 55 is extracted from the two-dimensional code 53.
  • the browser is activated.
  • the browser accesses the URL 55 extracted by the two-dimensional code reader application
  • the browser accesses the Web application 33 on the server 3 specified by the URL 55 and displays the MR experience page 34 based on the response received from the server 3.
  • the Web application 33 is activated when accessed in this way.
  • the Web application 33 on the server 4 is specified by the part before @, and the mobile terminal device 4 accesses the URL 55 to access the Web application 33. 33 is accessed.
  • the second identification code recognizing unit 43 newly recognizes the identification code 53 from the photographed image when the photographing device 24 photographs the MR marker 52 after the mobile terminal device 4 accesses the MR experience web page 34.
  • the second identification code recognizing unit 43 captures an image when the browser accesses or displays the MR experience web page 34 and the image capturing device 24 captures the MR marker 52.
  • the identification code 53 is newly recognized from the image.
  • JavaScript registered trademark
  • embedded in the MR experience page 34 is automatically executed, whereby the photographing device 24 is activated and the function of the second identification code recognition unit 43 is realized.
  • the browser has the function of the second identification code recognition unit 43.
  • one application or API included in the mobile terminal device 4 has the functions of the first identification code recognition unit 41 and the second identification code recognition unit 43.
  • the 1st identification code recognition part 41 and the 2nd identification code recognition part 43 can be made into the same software module.
  • the identifier determination unit 44 accesses the identifier 55 included in the recognized identification code 53 by the browser unit 42. It is determined whether or not the identifier 55 is the same. In one example, the identifier determination unit 44 is extracted from the URL 55 accessed by the browser and the two-dimensional code 53 recognized by the MR marker 52 displayed in the display area of the mixed reality image in the MR experience page 34. It is determined whether or not the URL 55 is the same.
  • the marker recognition unit 45 recognizes the alignment marker 54 when the identification code 53 is newly recognized by the second identification code recognition unit 43.
  • the marker recognizing unit 45 recognizes the alignment marker 54 when the identifier determining unit 44 further determines that they are the same.
  • the marker recognizing unit 45 recognizes the alignment marker 54 when the newly recognized recognition code 53 is included in the MR marker 52 that has activated the web application 33. It is possible to identify the MR marker 52 that has activated 33 and the other MR markers 52.
  • the marker recognizing unit 45 recognizes the alignment marker 54 from the image of the MR marker 52 as it is because the MR marker 52 is configured by integrating the identification code 53 and the alignment marker 54. I can't. Therefore, the marker recognition unit 45 extracts and recognizes the alignment marker 54 by deleting the recognized identification code 53 as image processing. For example, the marker recognition unit 45 recognizes the alignment marker 54 by painting and erasing the identification code 53 with a predetermined color such as the background color of the desk 51 on which the MR marker 52 is arranged.
  • the position determination unit 46 determines the positional relationship between the mobile terminal device 4 and the alignment marker 52 determined from the position information included in the identifier 55 accessed by the browser unit 42 and the shape and size of the alignment marker 52. Based on this, the position of the mobile terminal device 4 in the real space 50 and the angle at which the photographing device 24 is photographing are determined. In other words, the position determination unit 46 determines the viewpoint position of the virtual camera in the virtual space 50 corresponding to the position of the mobile terminal device 4 (position of the photographing device 24) and the photographing direction of the photographing device 24.
  • the identification code 53 referred to by the position determination unit 46 is the identification code 53 recognized by the second identification code recognition unit 43, and includes the identifier 55 accessed by the browser unit 42. .
  • the position determination unit 46 determines the viewpoint position of the virtual camera as follows.
  • the position determination unit 46 determines the approximate position of the mobile terminal device 4 from the information included in the identifier 55 as an absolute value. Determine the correct position.
  • the position determined here is, for example, 6 DoF as an absolute position.
  • the position determining unit 46 recognizes the alignment marker 54 recognized by the marker recognizing unit 45 as an image, and a coordinate conversion matrix for converting from the marker coordinate system to the camera coordinate system as shown in Expression (1). T is calculated. (Formula 1) In the formula (1), r is a rotation component, and t is a translation component.
  • the position determining unit 46 uses the coordinate transformation matrix T to calculate the position and orientation of the MR marker 52 in the camera coordinate system in the image captured by the imaging device 24, and the relative position of the MR marker 52 to the imaging device 24. To decide.
  • the position determined here is, for example, 6 DoF as a relative position.
  • the position determination unit 46 determines the viewpoint position of the virtual camera by determining the absolute position of the imaging device 24 in the virtual space 60 using the absolute position and the relative position determined as described above. Note that the absolute position of the imaging device 24 may be 6 DoF or a quarteranion.
  • the image generation unit 47 superimposes a virtual object on the captured image of the real space 50 based on the virtual space data stored in the virtual space data storage unit 31 and the viewpoint position of the virtual camera determined by the position determination unit 46. Generate mixed reality images.
  • the image generation unit 47 acquires the virtual space data corresponding to the identifier 55 from the virtual space data storage unit 31, and uses the acquired virtual space data to view the viewpoint of the virtual camera.
  • a mixed reality image viewed from the position is generated.
  • a known method as shown in Patent Document 1 can be used.
  • the mixed reality image generated by the image generation unit 47 is displayed in the display area of the MR experience page 34.
  • the image generation unit 47 generates an MR moving image by generating a mixed reality image at a predetermined frame rate.
  • the browser unit 42 displays the mixed reality image generated by the image generation unit 47 in the display area of the MR experience page 34. Since the data that the image generation unit 47 superimposes on the captured image is virtual object data, the data that the image generation unit 47 acquires from the virtual space data storage unit 31 is only virtual object data in the virtual space data. You can also.
  • the second identification code recognition unit 43 recognizes an identification code 53 that is not determined by the identification unit determination unit 44 from the captured image to be recognized, and the identification unit determination unit 44 is included in the recognized identification code 53. It is determined whether or not the identifier 55 is the same as the identifier 55 accessed by the browser unit 42.
  • the second identification code recognition unit 43 and the identification unit determination unit 44 perform the above processing as long as the identification code 53 that has not been determined by the identification unit determination unit 44 is included in the captured image to be recognized.
  • the access unit 42 is updated by the second identification code recognition unit 43.
  • the identifier 55 included in one identification code 53 among the identification codes 53 recognized in the above is accessed.
  • the identification code 53 is, for example, the identification code 53 positioned at the center of the captured image to be recognized by the second identification code recognition unit 43.
  • the browser unit 42 continues to display the MR experience page 34 without re-reading the displayed MR experience page 34.
  • the marker recognizing unit 45 recognizes the alignment marker 54 included in the MR marker 52 constituting the identification code 53 including the identifier 55 accessed by the browser unit 42.
  • the image generation unit 47 acquires virtual space data corresponding to the identifier 55 accessed by the browser unit 42 from the virtual space data storage unit 31, and uses the acquired virtual space data as viewed from the viewpoint position of the virtual camera. Generate a mixed reality image.
  • the function of the browser unit 42 is realized by using a history.pushState () function that is an API standardized in the browser. As a result, the browser can rewrite the URL 55 dynamically by leaving history information without re-reading the MR experience page 34.
  • the function of acquiring the virtual space data corresponding to the URL 55 of the image generation unit 47 is realized using a fetch () function of JavaScript (registered trademark). By executing the JavaScript (registered trademark), the mobile terminal device 4 can acquire data corresponding to the rewritten URL 55 from the server 3. At this time, when the URL 55 is the above-described URL (1), the mobile terminal device 4 accesses the URL 55 including @ and the following.
  • the server 3 determines that the access is an access from the web application 33 and transmits virtual space data corresponding to the URL 55 including @ and subsequent to the mobile terminal device 4.
  • the MR experience page 34 incorporates JavaScript (registered trademark), and the mobile terminal device 4 stores the data corresponding to the rewritten URL 55 as the server when the URL 55 is dynamically rewritten as described above. 3 to obtain from.
  • the mixed reality displayed in the display area of the MR experience page 34 displayed on the mobile terminal device 4 is further displayed on another terminal device such as a smartphone that can be connected to the network 2.
  • another terminal device such as a smartphone that can be connected to the network 2.
  • An image or an MR movie can be distributed.
  • the server 3 accepts access from the mobile terminal device 4 via the URL 55, and stores the mixed reality image or the MR video in a predetermined storage location of the storage device 25 in association with the URL, for example.
  • Other terminal devices can view the mixed reality image or the MR moving image by accessing the URL.
  • the server 3 stores a web page for distribution that provides WEBRTC, and the web page for distribution accepts access from the mobile terminal device 4 via the URL 55.
  • the browser installed in the mobile terminal device 4 supports WEBRTC.
  • the distribution web page receives the captured image of the real space 50 captured by the imaging device 24 and the image data of the virtual object superimposed on the captured image, which constitutes the mixed reality image generated by the image generation unit 48.
  • the server 3 notifies each other of the IP address and port number of the mobile terminal device 4 and the other terminal device, and the two terminal devices can perform peer-to-peer communication. Set as follows. Thereby, other terminal devices can browse the mixed reality image browsed by the user of the mobile terminal device 4.
  • two or more terminal devices can perform peer-to-peer communication.
  • a server other than the server 3 stores the distribution web page.
  • the other terminal device is a real space captured by the image capturing device 24 from the server 3 or a server other than the server 3 (for example, an MCU server or an SFU server). 50 captured images and image data of a virtual object superimposed on the captured images are received.
  • the information processing shown in FIG. 10 is realized by causing the mobile terminal device 4 to execute the program and causing the server 3 to execute the program.
  • the user who has the mobile terminal device 4 is in the real space 50, and the mobile terminal device 4 is installed with a two-dimensional code reader application and a browser installed on a general smartphone. Yes.
  • step 101 when the portable terminal device 4 in which the two-dimensional code reader application is activated captures the MR marker 52, the portable terminal device 4 recognizes (extracts) the two-dimensional code from the photographed image of the photographing device 24.
  • the mobile terminal device 4 two-dimensional code reader application
  • extracts the URL 55 from the two-dimensional code 53 and reads it the mobile terminal device 4 starts the browser and passes the URL 55 as a parameter.
  • step 102 the mobile terminal device 4 (browser) accesses the URL 55 and displays the MR experience page 34.
  • JavaScript registered trademark
  • the photographing device 24 is activated. Since the operation from step 101 to the activation of the imaging device 24 in step 102 is a series of operations, the imaging device 24 images the MR marker 52 imaged in step 101 in the general operation of the first user. It remains. In this case, the MR marker 52 is displayed in the display area of the MR experience page 34.
  • step 104 the portable terminal device 4 (browser) displays one of the two images in the photographed image.
  • the dimension code 53 is decoded and the URL 55 is extracted.
  • the mobile terminal device 4 (browser) is configured to continue executing this process until the two-dimensional code 53 is recognized, but may be configured to display an error message on the display 24.
  • the URL 55 may be extracted by decoding the two-dimensional code 53 using a function of the browser, or the URL 55 may be extracted by decoding the two-dimensional code 53 using JavaScript (registered trademark) executed in the browser. May be.
  • step 105 the mobile terminal device 4 determines whether or not the URL 55 accessed by the browser is the same as the URL 55 extracted in step 104. If it is determined in step 105 that they are the same, the process proceeds to step 108, and if it is determined that they are not the same, the process proceeds to step 106.
  • step 106 the portable terminal device 4 (browser) determines whether there is a two-dimensional code 53 other than the two-dimensional code 53 already recognized from the photographed image of the photographing device 24. If it is determined in step 106, the portable terminal device 4 (browser) further obtains a URL 55 from the two-dimensional code 53 that is in the photographed image and is not yet recognized in step 104. Extract.
  • Step 104 to Step 106 are repeated, and if none of the URLs 55 included in the two-dimensional code 53 recognized from the photographed image is the same as the URL 55 accessed by the browser, the process proceeds to Step 107.
  • the process proceeds from step 106 to step 107 even if the captured image includes only one two-dimensional code 53.
  • the mobile terminal device 4 uses the URL 55 extracted from the two-dimensional code 53 located at the center of the captured image as the URL accessed by the mobile terminal device 4, for example, the latest of the browser. Update as history.
  • the mobile terminal device 4 (browser) updates the URL 55 extracted from the two-dimensional code 53 as the URL accessed by the mobile terminal device 4.
  • step 108 the mobile terminal device 4 deletes the two-dimensional code 53 including the URL 55 accessed by the browser as image processing from the MR marker 52 constituting the two-dimensional code 53, so that the MR marker 52 is Recognizing the alignment marker 54 included.
  • the mobile terminal device 4 deletes the two-dimensional code 53 recognized in step 104 as image processing, thereby performing an alignment marker. 54 is extracted and recognized. If it is determined in step 105 that they are not the same, and the URL accessed by the browser in step 107 is updated to the URL 55 extracted from one two-dimensional code 53 in the photographed image, the two-dimensional code 53 is updated in step 108.
  • the alignment marker 54 is extracted and recognized.
  • the mobile terminal device 4 recognizes the alignment marker 54 and calculates a coordinate transformation matrix T.
  • the mobile terminal device 4 determines the viewpoint position of the virtual camera in the virtual space 60 using the calculated coordinate transformation matrix T.
  • the viewpoint position of the virtual camera is a virtual camera position when the virtual space 50 is displayed on the mixed reality screen.
  • step 110 the mobile terminal device 4 acquires virtual space data corresponding to the URL 55 accessed by the browser from the server 3, and uses the acquired virtual space data, a mixed reality image viewed from the viewpoint position of the virtual camera. Is generated.
  • This process proceeds to step 103 unless the application is terminated, for example, due to the termination of the application (step 111).
  • the mixed reality system 1 includes an MR marker 52 in which a two-dimensional code 53 and an alignment marker 54 are integrated in a real space 50.
  • the mobile terminal device 4 reads the two-dimensional code 53 of the MR marker 52 by using an existing arbitrary two-dimensional code reader application, extracts the URL 55, and accesses the URL 55 to store the Web stored on the server 3.
  • the application 33 is executed.
  • the mobile terminal device 4 uses the two-dimensional code 53 to identify the MR marker 52 that has activated the web application 33, and uses the MR marker 52 together with the two-dimensional code 53 to calculate the position and orientation of the mobile terminal device 4.
  • a positioning marker 54 is used.
  • the mixed reality system 1 can use the two-dimensional code 53 as the identification marker and select the alignment marker 54 used as the posture control marker according to the contents of the identification marker.
  • the two-dimensional code 53 and the alignment marker 54 are appropriately associated and recognized. It becomes possible to do.
  • the mixed reality system 1 uses a portable terminal device 4 such as a smartphone in which an existing two-dimensional code reader application and a browser are installed. Therefore, the user can experience MR more easily without installing a special application in the mobile terminal device 4.
  • a portable terminal device 4 such as a smartphone in which an existing two-dimensional code reader application and a browser are installed. Therefore, the user can experience MR more easily without installing a special application in the mobile terminal device 4.
  • the mixed reality system 1 is realized by the mobile terminal device 4 accessing the Web application 33 specified by the URL 55 extracted from the two-dimensional code 53. Therefore, the mixed reality system 1 can use the URL 55 as a base point for sharing the MR experience as well as using the URL 55 as a base point for starting the MR experience.
  • the server 3 stores virtual space data corresponding to each of the URLs 55 included in the two-dimensional code 53.
  • the stored virtual space data is virtual space data in the virtual space 60 corresponding to the real space 50 around the MR marker 52 for each MR marker 52 to be arranged.
  • the mobile terminal device 4 reads the two-dimensional code 53, extracts the URL 55, accesses the URL 55, acquires the virtual space data stored on the server 3, and uses the acquired data to obtain the virtual camera data. Generate a mixed reality image from the viewpoint. Since the mixed reality system 1 is configured in this manner and can recognize the two-dimensional code 53 and the alignment marker 54 in association with each other as described above, the MR system 52 is arranged for the user. It is possible to experience MR according to the place.
  • the mobile terminal device 4 acquires virtual space data corresponding to the URL 55 included in the two-dimensional code 53 and recognizes the alignment marker 54 that forms the MR marker 52 together with the two-dimensional code 53. To do. Then, the mobile terminal device 4 and the mobile terminal device 4 and the alignment marker 52 determined from the position information included in the URL 55 included in the two-dimensional code 53 and the shape and size of the recognized alignment marker 52 are included. And the viewpoint position of the virtual camera in the virtual space 50 corresponding to the shooting direction and the shooting direction in the real space 60 are determined. With such a configuration, it is possible to provide the user with a highly accurate mixed reality space in which the real object and the virtual object in the real space 50 are almost in contact with each other.
  • the mobile terminal device 4 determines whether or not the URL 55 extracted from the newly recognized two-dimensional code 53 after starting the Web application 33 is the same as the URL 55 accessed by the browser. judge. When the mobile terminal device 4 determines that they are not identical, the mobile terminal device 4 accesses the URL 55 extracted from the newly recognized two-dimensional code 53 without reloading the MR experience page 34. For example, the latest URL of the browser is updated as the existing URL.
  • the mobile terminal device 4 recognizes the alignment marker 54 that constitutes the MR marker 52 together with the two-dimensional code 53 including the updated URL 55, and uses the coordinate transformation matrix T calculated thereby, the virtual terminal 60 in the virtual space 60. Determine the camera viewpoint.
  • the mobile terminal device 4 acquires virtual space data corresponding to the updated URL 55 from the server 3, and generates a mixed reality image viewed from the viewpoint position of the virtual camera using the acquired virtual space data.
  • the mobile terminal device 4 first sets the reference MR marker 52, and when the imaging device 24 recognizes the two-dimensional code 53 of the other MR marker 52 by the movement of the user, The “roaming process” for changing the reference MR marker 52 can be performed.
  • the mobile terminal device 4 uses the two-dimensional code 53 to identify the MR marker 52 after the Web application 33 is activated. Thereby, it becomes possible to continue providing MR experience to the user who moves in the real space 50.
  • the browser dynamically rewrites the URL 55 without reloading the MR experience page 34, the MR experience can be continuously provided to the user moving in the real space 50. It becomes.
  • the server 3 accepts access from the mobile terminal device 4 via the URL 55, and other terminal devices display the mobile terminal device 4 by accessing the server 3, for example.
  • An MR moving image or the like displayed in the display area of the MR experience page 34 is acquired.
  • the user of the mobile terminal device 4 shares the mixed reality experienced by other users with, for example, posting on the SNS a URL accessible to the MR video or the like. Is possible.
  • the mixed reality system 1 uses an existing web system for a mixed reality experience that has not been implemented so far. Therefore, the MR system can be used more easily and more generally.
  • the mixed reality system 1 realizes a system in which the URL 55 can be used as a starting point, browsing, and sharing of the MR experience. This allows the user to experience MR according to the location more easily.
  • a computer-readable storage medium storing a program for realizing the functions of the embodiment of the present invention described above and the information processing shown in the flowchart may be used.
  • the function of the embodiment of the present invention described above and a method for realizing the information processing shown in the flowchart may be used.
  • a server that can supply a computer with a program that realizes the functions of the embodiment of the present invention described above and the information processing shown in the flowcharts can be used.
  • a virtual machine that realizes the functions of the embodiment of the present invention described above and the information processing shown in the flowchart may be used.
  • the MR marker 52 includes an identification code 53, a positioning marker 54 having a polygonal shape, which is disposed in the vicinity of the identification code 53 at a position having a predetermined positional relationship with the identification code 53.
  • Consists of FIG. 11 is a diagram illustrating a modified example of the MR marker 52.
  • the alignment marker 54 has a square shape and is disposed adjacent to the identification code 53, and the marker recognition unit 45 recognizes the alignment marker 54 from the image of the MR marker 52 as it is. can do.
  • the marker recognition unit 45 has a positioning marker 54 arranged at a position having a predetermined positional relationship with the identification code 53. Recognize.
  • the identifier determination unit 44 determines that they are not the same, the location information included in the identifier 55 included in the identification code 53 newly recognized by the second identification code recognition unit 43, and the browser unit 42 It is further determined whether or not the position information included in the identifier 55 accessed by is within a predetermined distance range. If it is not within the predetermined distance range, the browser unit 42 does not access the identifier 55 included in the identification code 53 newly recognized by the second identification code recognition unit 43, and the marker recognition unit 45 uses the identification code 53. The alignment marker 54 included in the constituting MR marker 52 is not recognized.

Abstract

より簡易に、その場所に応じたMRを体験させることが可能な複合現実システムを提供する。 本発明は、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、サーバは、仮想空間データ記憶部と、アプリケーション記憶部とを備え、携帯端末装置は、ブラウザ部と、マーカ認識部と、位置決定部と、画像生成部とを備える。

Description

複合現実システム、プログラム、方法、及び携帯端末装置
 本発明は、複合現実システム等に関し、特に所定の実空間内にいるユーザに対して複合現実感を体感させることができる複合現実システム等に関する。
 近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術は、これを体験するユーザに対して、あたかもその場に仮想の物体が存在するかのような体験を行わせることができる。MR技術については、ユーザに違和感を与えることなく仮想空間の物体を表示させるような、MRそのものを高精度に実行する技術が開発されている。例えば特許文献1は、複合現実環境において実空間の環境をリアルタイムに認識することができるシステムを開示している。
特許第6088094号
 しかしながら、ユーザがMR体験を開始するためには、例えばスマートフォンに専用のアプリをインストールする必要があった。更に、そのような専用のアプリを、場所に応じてユーザにダウンロードさせるためには、その場所に広帯域の無線通信を用意する必要があり、かつユーザにアプリのインストールを促す必要があるため、現実的に運用することは困難であった。
 本発明は、このような課題を解決するためになされたものであり、ユーザに、より簡易に、その場所に応じたMRを体験させることが可能な複合現実システム等を提供することを主目的とする。
 上記の目的を達成するために、本発明の一態様としての複合現実システムは、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、前記サーバは、 予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データと該仮想空間に配置される仮想オブジェクトデータとを含む仮想空間データを記憶する仮想空間データ記憶部と、前記識別コードに含まれる識別子により特定されるWebアプリケーションを記憶するアプリケーション記憶部であって、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものである、アプリケーション記憶部と、を備え、前記携帯端末装置は、前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、を備えることを特徴とする。
 また、本発明において好ましくは、前記携帯端末装置は、前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識する識別コード認識部を備え、前記ブラウザ部は、前記識別コード認識部により認識された前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示する。
 また、本発明において好ましくは、前記仮想空間データ記憶部は、前記識別コードに含まれる識別子の各々に対応する前記仮想空間データを記憶し、前記ブラウザ部は、アクセスした識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、前記画像生成部は、前記仮想空間データ記憶部から取得された前記仮想空間データを用いて前記仮想カメラの視点位置からみた複合現実画像を生成する。
 また、本発明において好ましくは、前記携帯端末装置は、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる識別子が、前記ブラウザ部がアクセスした識別子と同一であるか否かを判定する識別子判定部を更に備え、前記マーカ認識部は、前記識別子判定部により同一であると判定された場合、前記位置合わせ用マーカを認識する。
 また、本発明において好ましくは、前記ブラウザ部は、前記識別子判定部により同一でないと判定された場合、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる他の識別子にアクセスし、該他の識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、再読み込みをせずに前記複合現実画像表示用ウェブページを表示し、前記マーカ認識部は、前記他の識別子を含む前記識別コードとともに前記MRマーカを構成する前記位置合わせ用マーカを認識する。
 また、本発明において好ましくは、前記識別子はURLである。
 また、本発明において好ましくは、前記3次元形状要素は、ポリゴンから構成されるメッシュである。
 また、本発明において好ましくは、前記識別コードはQRコード(登録商標)又はデータマトリックスである。
 また、本発明において好ましくは、前記位置合わせ用マーカは、正方形の形状を有する。
 また、本発明において好ましくは、前記位置合わせ用マーカは、前記識別コードの縁に沿うように配置される。
 また、本発明において好ましくは、前記マーカ認識部は、前記識別コードを予め定められた色で塗りつぶして消去することにより、前記位置合わせ用マーカを認識する。
 また、本発明において好ましくは、前記位置合わせ用マーカは、前記識別コードの近傍に、前記識別コードと所定の位置関係を有する位置に配置される。
 また、本発明において好ましくは、前記携帯端末装置は、前記サーバに前記画像生成部が生成する複合現実画像を構成する前記撮影装置が撮影する実空間の撮影画像及び仮想オブジェクトの画像データをそれぞれ送信し、他の端末装置が、該複合現実画像を取得することができるように構成される。
 また、上記の目的を達成するために、本発明の一態様としてのプログラムは、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムのためのプログラムであって、前記システムは、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、前記プログラムは、前記携帯端末装置に、前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、を実行させることを特徴とする。
 また、上記の目的を達成するために、本発明の一態様としての方法は、所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにより実行される方法であって、前記システムは、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、前記携帯端末装置が、前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、を含むことを特徴とする。
 また、上記の目的を達成するために、本発明の一態様としての携帯端末装置は、サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおける携帯端末装置であって、前記システムは、前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、前記携帯端末装置は、前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて、前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、を備えることを特徴とする。
 本発明によれば、ユーザに、より簡易に、その場所に応じたMRを体験させることができる。
本発明の一実施形態による複合現実システムの全体構成図である。 本発明の一実施形態によるサーバのハードウェア構成を示すブロック図である。 本発明の一実施形態による携帯端末装置のハードウェア構成を示すブロック図である。 複合現実システムがユーザに複合現実感を提供する所定の実空間の一例を示す図である。 MRマーカの一例を示す図である。 識別コードの一例を示す図である。 位置合わせ用マーカの一例を示す図である。 本発明の一実施形態によるサーバ3の機能ブロック図である。 本発明の一実施形態による携帯端末装置の機能ブロック図である。 本発明の一実施形態による複合現実システムの情報処理を示すフローチャートである。 MRマーカの変形例を示す図である。
 以下、図面を参照して、本発明の実施形態による複合現実システムについて説明する。本実施形態による複合現実システムは、例えばスマートフォンの画面を通してユーザが視認する実空間の撮影画像に対して、仮想空間の存在である仮想オブジェクトを重畳させて描画することにより、ユーザにMRを体験させる。仮想オブジェクトは、例えばゲームキャラクタのように、画面上のごく一部だけを占めるコンピュータグラフィックスである。本明細書においては、説明の便宜上、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成についての重複説明を省略する場合がある。
 図1は、本発明の一実施形態による複合現実システム1の全体構成図である。図1に示すように、複合現実システム1は、サーバ3と、携帯端末装置4と備え、サーバ3及び携帯端末装置4は、インターネットなどのネットワーク2に接続され、互いに通信可能である。
 図2は本発明の一実施形態によるサーバ3のハードウェア構成を示すブロック図である。サーバ3は、プロセッサ11、表示装置12、入力装置13、記憶装置14、及び通信装置15を備える。これらの各構成装置はバス16によって接続される。バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。
 プロセッサ11は、サーバ3全体の動作を制御するものであり、例えばCPUである。なお、プロセッサ11としては、MPU等の電子回路が用いられてもよい。プロセッサ11は、記憶装置14に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。1つの例では、プロセッサ11は、複数のプロセッサから構成される。
 表示装置(ディスプレイ)12は、プロセッサ11の制御に従って、アプリケーション画面などをサーバ3の使用者に表示する。入力装置13は、サーバ3に対するユーザからの入力を受け付けるものであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。
 記憶装置14は、主記憶装置及び補助記憶装置を含む。主記憶装置は、例えばRAMのような半導体メモリである。RAMは、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサ21が情報を処理する際の記憶領域及び作業領域として用いられる。主記憶装置は、読み出し専用の不揮発性記憶媒体であるROMを含んでいてもよい。この場合、ROMはファームウェア等のプログラムを格納する。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置は、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。補助記憶装置は、例えば、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。
 好適な1つの例では、記憶装置14は各種データベース用のデータ(例えばテーブル)やプログラムを記憶する。プロセッサ11の動作などにより、各種データベースは実現される。サーバ3は、データベースサーバ機能を備えることもできるし、1又は複数のデータベースサーバを含むこともできるし、又は他のサーバを含むこともできる。
 通信装置15は、ネットワーク2を介して携帯端末装置4などの他のコンピュータとの間でデータの授受を行う。例えば通信装置15は、イーサネット(登録商標)ケーブル等を用いた有線通信や移動体通信、無線LAN等の無線通信を行い、ネットワーク4へ接続する。
 図3は本発明の一実施形態による携帯端末装置4のハードウェア構成を示すブロック図である。本実施形態において、携帯端末装置4はスマートフォンである。携帯端末装置4は、プロセッサ21、表示装置22、入力装置23、撮影装置24、記憶装置25、及び通信装置26を備える。これらの各構成装置はバス27によって接続される。バス27と各構成装置との間には必要に応じてインタフェースが介在しているものとする。ただし、携帯端末装置4は、上記の構成を備えるものであれば、タブレット型コンピュータ、タッチパッド等の接触型入力装置を備えるコンピュータなどとすることができる。
 プロセッサ21は、携帯端末装置4全体の動作を制御するものであり、例えばCPUである。なお、プロセッサ21としては、MPU等の電子回路が用いられてもよい。プロセッサ21は、記憶装置24に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。1つの例では、プロセッサ21は、複数のプロセッサから構成される。
 表示装置(ディスプレイ)22は、プロセッサ21の制御に従って、アプリケーション画面や撮影装置24によって撮影された画像などを携帯端末装置4のユーザに表示する。好ましくは液晶ディスプレイであるが、有機ELを用いたディスプレイやプラズマディスプレイ等であってもよい。
 入力装置23は、タッチパネル、タッチパッド、入力ボタン等のようにユーザからの入力を受け付ける機能を有するものである。本実施形態では、携帯端末装置4はスマートフォンであるため、携帯端末装置4は入力装置23としてタッチパネルを備え、タッチパネルは表示装置22としても機能し、表示装置22と入力装置23は一体となった構造である。ただし、表示装置22と入力装置23は、別の位置に配置される別個の形態であってもよい。
 撮影装置(撮像装置)24は、実空間の静止画又は動画を撮影(撮像)するものであり、撮影した画像又は動画データを記憶部25に格納する。撮影装置24は、例えばイメージセンサなどから構成されるカメラである。
 記憶装置25は、揮発性メモリであるRAM及び不揮発性メモリであるROMを含む、一般的なスマートフォンが備える記憶装置である。記憶装置25は、外部メモリを含むこともできる。
 1つの例では、記憶装置25は、主記憶装置及び補助記憶装置を含む。主記憶装置は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、プロセッサ21が情報を処理する際の記憶領域及び作業領域として用いられる。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ21が使用するデータを格納する。補助記憶装置は、例えばハードディスク装置であるが、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。補助記憶装置は、例えば、オペレーティングシステム(OS)、ミドルウェア、アプリケーションプログラム、これらのプログラムの実行に伴って参照され得る各種データなどを格納する。
 通信装置26は、ネットワーク2を介してサーバ3などの他のコンピュータとの間でデータの授受を行う。例えば通信装置26は、移動体通信や無線LAN等の無線通信を行い、ネットワーク2へ接続する。1つの例では、通信装置26によって、プログラムをサーバ3からダウンロードして、記憶装置25に格納する。ただし、通信装置26は、イーサネット(登録商標)ケーブル等を用いた有線通信を行ってもよい。
 本実施形態の複合現実システム1がユーザに複合現実感(MR)を提供する現実世界の空間(所定の実空間)として、図4に示すような予め定められた屋内の空間である実空間50を想定する。実空間50内には、現実世界の実オブジェクトである机51が配置される。
 本実施形態においては、実空間50に対応付けされた仮想空間60において、各々が仮想空間における3次元位置情報を有する基本単位を用いた3次元空間データにより、実オブジェクトの3次元形状を表す。この基本単位を3次元形状要素と表現する。本実施形態においては、3次元形状要素として3次元メッシュを用いる。したがって、3次元区間データは3次元メッシュから構成される。3次元メッシュは、1又は複数のポリゴンから形成され、各々の3次元メッシュを構成するポリゴンの頂点の少なくとも1つは3次元位置情報を有する。なお、3次元形状要素は、点群データなどとすることもできる。
 3次元空間データは、以下のように予め取得される。1つの例では、最初に、例えば高精度なレーザスキャナ(図示せず)を用いることにより、実空間50内の実オブジェクトの3次元形状を示す点群データを予め取得する。点群データのそれぞれは、例えば3次元座標(x、y、z)を有し、実空間50に対応付けられた仮想空間60内に配置される。なお点群データのそれぞれは、色情報を有する色付き点群データである。続いて、既知の方法を用いて、上記のように取得された色付き点群データから各点群を頂点としたポリゴンが形成される。3次元メッシュは、当該ポリゴンから形成される。他の例では、3次元メッシュは、実空間50内における複数の撮影画像から、既知の方法を用いて生成される。なお、3次元空間データを構成する3次元形状要素は、色情報を有する必要はないため、上記例示において、点群データは色情報を有していなくてもよい。
 実空間50内にある実オブジェクトの机51の予め定められた1以上の位置には、MRマーカ52が配置される。1つの例では、図4に示すように、机51の表面の複数箇所にMRマーカ52が配置される。
 図5は、MRマーカ52の一例を示す図である。MRマーカ52は、配置されるMRマーカ52の各々の位置に対応する位置情報を包含する識別子55を含む識別コード53と四角形の形状を有する位置合わせ用マーカ54とから構成される。
 図6は、識別コード53の一例を示す図である。本実施形態では、識別コード53はQRコード(登録商標)(以下、「二次元コード」という。)であり、識別子55はURLであるものとする。識別コード53は、携帯端末装置4により撮影されることにより、ブラウザを起動するためのマーカであり、撮影されたMRマーカ52を識別するためのマーカである。識別子55は、サーバ3が記憶するWebアプリケーションの起動及び初期化と、配置されるMRマーカ52の各々の位置に対応する位置情報を含む。1つの例では、二次元コード53は、二次元コードリーダアプリ(QRコード(登録商標)リーダアプリ)により認識され、二次元コード53が包含するURL55は、二次元コードリーダアプリにより抽出される。他の変形例では、識別コード53は、データマトリックスなどの他の二次元バーコードとすることもできる。
 1つの例では、URL55は以下に示すURL(1)である。
https://サーバ名/MRシーンのID/@緯度,経度,アングル
 サーバ名及びMRシーンのIDはサーバ3に対してアクセスする位置を指定するものであり、各々が英数字の文字列データから構成される。緯度、経度、及びアングルは、MRマーカ52の緯度、MRマーカ52の経度、MRマーカ52のアングル(方位)を示すものであり、各々が数値データから構成される。URL(1)は、MRマーカ52の標高を示す数値データを含むこともできる。ただし、識別子55はURL以外のファイル位置を指定する識別子とすることもできる。
 図7は、位置合わせ用マーカ54の一例を示す図である。本実施形態では、位置合わせ用マーカ54は、正方形の形状を有し、識別コードの縁に沿うように配置される。位置合わせ用マーカ54は、携帯端末装置4により撮影されることにより、携帯端末装置4の位置姿勢を算出するためのマーカであり、予め大きさ及び形状は定められている。位置合わせ用マーカ54は、携帯端末装置4の位置姿勢を算出するためのマーカであるため、四角形以外の多角形の形状とすることもできる。好ましくは、位置合わせ用マーカ54は、MRマーカ52を識別するためのマーカではないため、正方形の形状を有し、配置されるすべてのMRマーカ52で同じである。これにより、システムの演算量を低減することができる。
 なお、説明の便宜上、本実施形態の複合現実システム1がユーザにMRを提供する所定の実空間を図4に示すような実空間50としているが、図4は1つの例であってこれに限定されない。例えば、実空間50は、壁に覆われた屋内の空間であってもよいし、屋外の空間であってもよい。また例えば、実空間50は、1つの区切られた空間であってもよいし、複数の区切られた空間を含むものであってもよい。また例えば、実オブジェクトは、机51でなくてもよく、椅子、棚、壁又は地面などであってもよく、実空間50は複数の実オブジェクトを含んでもよい。また例えば、MRマーカ52の位置は、実空間50内にある実オブジェクトの予め定められた1以上の位置であれば、机51の表面の複数箇所でなくてもよい。
 図8は、本発明の一実施形態によるサーバ3の機能ブロック図である。サーバ3は、仮想空間データ記憶部31と、アプリケーション記憶部32と、を備える。本実施形態においては、プロセッサ11によりプログラムが実行されることによりこれらの機能が実現される。本実施形態においては、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。なおサーバ3は、1つのサーバ装置から構成してもよいし、複数のサーバ装置から構成してもよい。
 仮想空間データ記憶部31は、予め取得された実空間50内にある実オブジェクトの3次元空間データと、仮想空間60に配置される3次元の仮想オブジェクトのデータである仮想オブジェクトデータとを含む仮想空間データを記憶する。3次元形状要素が3次元メッシュである場合、仮想オブジェクトデータも3次元メッシュにより形成される。仮想空間データ記憶部31は、配置されるMRマーカ52ごとに、MRマーカ52の周囲の実空間50に対応する仮想空間60における仮想空間データを記憶する。具体的には、仮想空間データ記憶部31は、識別コード53に含まれる識別子55の各々に対応させて仮想空間データを記憶することにより、配置されるMRマーカ52ごとに仮想空間データを記憶する。
 1つの例では、仮想空間データ記憶部31は、仮想空間データを記憶するデータベースとして機能し、記憶装置14はデータベース用のデータ及びプログラムを記憶する。1つの例では、サーバ3は、仮想空間データ記憶部31として、仮想空間データを記憶するデータベースサーバを備える。1つの例では、仮想オブジェクトデータは、時間に応じて形状が変化する仮想オブジェクトのデータである。
 アプリケーション記憶部32は、識別コード53に含まれる識別子55により特定されるWebアプリケーション33(以下、「Webアプリ33」という。)を記憶する。Webアプリ33は、Webアプリ33にアクセスする携帯端末装置4へ複合現実画像表示用ウェブページ34(以下、「MR体験用ページ34」という。)を提供する。MR体験用ページ34は、携帯端末装置4により読み込まれると撮影装置24を起動させるものであり、撮影装置24が撮影する実空間50の撮影画像(又は撮影動画)に基づいた複合現実画像の表示領域を含むものである。MR体験用ページ34は、重畳させて描画させる仮想オブジェクトが無い場合、複合現実画像の表示領域には、撮影装置24が撮影する実空間50の撮影画像(又は撮影動画)を表示する。なお、複合現実画像の表示領域が、一般的なカメラのアプリと同様にして、ディスプレイ22の大部分を占めるように、MR体験用ページ34は構成されるのが好ましい。
 1つの例では、携帯端末装置4は、二次元コードリーダアプリを通じて二次元コードから抽出されるURL55をWebブラウザのURLと解釈し、携帯端末装置4のブラウザは、URL55へそのままアクセスする。サーバ3は、Webアプリ33の実行に必要なHTML、JavaScript(登録商標)、画像等をレスポンスとして、携帯端末装置4へ送信する。当該レスポンスとして携帯端末装置4へ送信されるデータにより携帯端末装置4においてWebページとして表示されるものが、本実施形態におけるMR体験用ページ4に対応する。MR体験用ページ34は、JavaScript(登録商標)が組み込まれ、MR体験用ページ34が携帯端末装置4に読み込まれたときにJavaScript(登録商標)が実行され、例えばHTML Media Capture APIにより、撮影装置24を起動させる。1つの例では、サーバ3は、アプリケーション記憶部32として、Webアプリ33を記憶するアプリケーションサーバを備える。1つの例では、URL55が前述のURL(1)である場合において、MR体験用ページ34により携帯端末装置4においてJavaScript(登録商標)からURL55が読み込まれる場合、携帯端末装置4は、@以降も含んだURL55へアクセスする。この場合、サーバ3は、携帯端末装置4からのアクセスがWebアプリ33からのアクセスであると判定して、URL55に対応する仮想空間データ又は仮想オブジェクトデータをレスポンスとして、携帯端末装置4へ送信する。
 図9は本発明の一実施形態による携帯端末装置4の機能ブロック図である。携帯端末装置4は、第1の識別コード認識部41と、ブラウザ部42と、第2の識別コード認識部43と、識別子判定部44と、マーカ認識部45と、位置決定部46と、画像生成部47と、を備える。本実施形態においては、プロセッサ21によりプログラムが実行されることによりこれらの機能が実現される。本実施形態においては、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。
 第1の識別コード認識部41は、撮影装置24によりMRマーカ52が撮影される場合、識別コード53を認識する。ブラウザ部42は、第1の識別コード認識部41により認識された識別コード53に含まれる識別子55にアクセスして、該識別子55により特定されるWebアプリ33が提供するMR体験用ページ34を表示する。
 1つの例では、携帯端末装置4は、一般的なスマートフォンにおいてインストールされているような二次元コードリーダアプリ及びブラウザがインストールされている。この場合、二次元コードリーダアプリが第1の識別コード認識部41の機能を有し、ブラウザがブラウザ部42の機能を有する。この場合、二次元コードリーダアプリは、実行されることにより撮影装置24を起動し、起動された撮影装置24によりMRマーカ52が撮影されると、撮影画像から二次元コード53を認識(識別)し、当該二次元コード53からURL55を抽出する。二次元コードリーダアプリは、URL55を抽出すると、ブラウザを起動する。ブラウザは、二次元コードリーダアプリが抽出したURL55にアクセスすると、該URL55により特定されたサーバ3上のWebアプリ33へアクセスし、サーバ3から受信したレスポンスに基づいてMR体験用ページ34を表示する。Webアプリ33は、このようにアクセスされることで起動する。
 1つの例では、URL55が前述のURL(1)である場合、サーバ4上のWebアプリ33は、@の前の部分により特定され、携帯端末装置4は、URL55へアクセスすることで当該Webアプリ33にアクセスする。
 第2の識別コード認識部43は、携帯端末装置4がMR体験用ウェブページ34にアクセスした後、撮影装置24がMRマーカ52を撮影する場合、撮影画像から識別コード53を新たに認識する。或いは、第2の識別コード認識部43は、ブラウザがMR体験用ウェブページ34にアクセスしており又は該ウェブページ34を表示しており、かつ撮影装置24がMRマーカ52を撮影する場合、撮影画像から識別コード53を新たに認識する。1つの例では、MR体験用ページ34に組み込まれたJavaScript(登録商標)が自動的に実行されることにより、撮影装置24が起動され、第2の識別コード認識部43の機能が実現される。1つの例では、ブラウザが第2の識別コード認識部43の機能を有する。1つの例では、携帯端末装置4が備える1つのアプリケーションやAPIが、第1の識別コード認識部41及び第2の識別コード認識部43の機能を有する。このように、第1の識別コード認識部41と第2の識別コード認識部43は、同一のソフトウェアモジュールとすることができる。
 識別子判定部44は、Webアプリ33が起動され、第2の識別コード認識部43により識別コード53が認識された場合、認識された識別コード53に含まれる識別子55が、ブラウザ部42がアクセスした識別子55と同一であるか否かを判定する。1つの例では、識別子判定部44は、ブラウザがアクセスしているURL55と、MR体験用ページ34内の複合現実画像の表示領域に表示するMRマーカ52より認識される二次元コード53から抽出されるURL55とが同一であるか否かを判定する。
 マーカ認識部45は、第2の識別コード認識部43により識別コード53が新たに認識された場合、位置合わせ用マーカ54を認識する。好適な1つの例では、マーカ認識部45は、更に識別子判定部44により同一であると判定された場合に、位置合わせ用マーカ54を認識する。このように構成される場合、マーカ認識部45は、新たに認識された認識コード53がWebアプリ33を起動させたMRマーカ52が含むものである場合に位置合わせ用マーカ54を認識するため、Webアプリ33を起動させたMRマーカ52とそれ以外のMRマーカ52を識別することが可能となる。
 1つの例では、マーカ認識部45は、MRマーカ52が識別コード53と位置合わせ用マーカ54とが一体として構成されるため、MRマーカ52のそのままの画像から位置合わせ用マーカ54を認識することができない。そのため、マーカ認識部45は、認識された識別コード53を画像処理として消去することにより、位置合わせ用マーカ54を抽出し、認識する。例えば、マーカ認識部45は、MRマーカ52が配置されている机51の背景色などの予め定められた色で識別コード53を塗りつぶして消去することにより、位置合わせ用マーカ54を認識する。
 位置決定部46は、ブラウザ部42がアクセスした識別子55が包含する位置情報、及び位置合わせ用マーカ52の形状及び大きさから決定される携帯端末装置4と位置合わせ用マーカ52との位置関係に基づいて、実空間50における携帯端末装置4の位置及び撮影装置24の撮影している角度を決定する。すなわち、位置決定部46は、携帯端末装置4の位置(撮影装置24の位置)及び撮影装置24の撮影方向に対応する仮想空間50における仮想カメラの視点位置を決定する。位置決定部46が参照する識別コード53は、第2の識別コード認識部43により認識された識別コード53であり、ブラウザ部42がアクセスしている識別子55を包含している識別コード53である。
 1つの例では、位置決定部46は、以下のように仮想カメラの視点位置を決定する。識別子55が、MRマーカ52の緯度、経度、標高、及びアングル(方位)の情報を含む場合、位置決定部46は、識別子55が含む情報から、携帯端末装置4の大まかな位置を、絶対的な位置として決定する。ここで決定される位置は、例えば絶対位置としての6DoFである。更に位置決定部46は、マーカ認識部45により認識された位置合わせ用マーカ54を画像として認識し、式(1)に示すような、マーカ座標系からカメラ座標系へ変換するための座標変換行列Tを算出する。
Figure JPOXMLDOC01-appb-I000001
                              (式1)
式(1)において、rは回転成分であり、tは並進成分を示している。位置決定部46は、座標変換行列Tを用いることにより、撮影装置24による撮影画像中のMRマーカ52のカメラ座標系における位置及び姿勢を算出し、MRマーカ52の撮影装置24に対する相対的な位置を決定する。ここで決定される位置は、例えば相対位置としての6DoFである。位置決定部46は、上記のように決定される絶対位置及び相対位置を用いて、仮想空間60における撮影装置24の絶対位置を決定することにより、仮想カメラの視点位置を決定する。なお撮影装置24の絶対位置は、6DoFであってもよいし、クオータニオンであってもよい。
 画像生成部47は、仮想空間データ記憶部31に記憶される仮想空間データと位置決定部46により決定される仮想カメラの視点位置とに基づいて、実空間50の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する。ブラウザ部42が、識別子55にアクセスすると、画像生成部47は、仮想空間データ記憶部31から識別子55に対応する仮想空間データを取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。複合現実画像の生成にあたっては、特許文献1に示すような既知の方法を用いることができる。画像生成部47により生成された複合現実画像は、MR体験用ページ34における表示領域に表示される。好適な1つの例では、画像生成部47は、所定のフレームレートで複合現実画像を生成することにより、MR動画を生成する。1つの例では、ブラウザ部42が、画像生成部47により生成された複合現実画像をMR体験用ページ34における表示領域に表示する。なお、画像生成部47が撮影画像に重畳させるデータは仮想オブジェクトデータであるため、画像生成部47が仮想空間データ記憶部31から取得するデータは、仮想空間データのうちの仮想オブジェクトデータのみとすることもできる。
 以下に、識別子判定部44により同一でないと判定された場合の各部の処理について更に説明する。第2の識別コード認識部43は、認識対象の撮影画像から識別部判定部44により判定されていない識別コード53を認識し、識別部判定部44は、該認識された識別コード53に含まれる識別子55が、ブラウザ部42がアクセスした識別子55と同一であるか否かを判定する。第2の識別コード認識部43及び識別部判定部44は、認識対象の撮影画像に識別部判定部44により判定されていない識別コード53が含まれる限り、上記の処理を行う。
 上記の場合において、識別子判定部44が同一であると判定する識別コード53が第2の識別コード認識部43により認識されなかった場合、アクセス部42は、第2の識別コード認識部43により新たに認識された識別コード53のうちの1つの識別コード53に含まれる識別子55にアクセスする。当該識別コード53は、例えば第2の識別コード認識部43の認識対象の撮影画像において一番中央に位置する識別コード53である。このとき、ブラウザ部42は、表示されているMR体験用ページ34の再読み込みを行わずに、MR体験用ページ34の表示を継続する。マーカ認識部45は、ブラウザ部42によりアクセスされた識別子55を含む識別コード53を構成するMRマーカ52が含む位置合わせ用マーカ54を認識する。画像生成部47は、仮想空間データ記憶部31から、ブラウザ部42によりアクセスされた識別子55に対応する仮想空間データを取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。
 1つの例では、上記のブラウザ部42の機能は、ブラウザにおいて標準化されているAPIであるhistory.pushState()関数を用いて実現される。これにより、ブラウザは、MR体験用ページ34の再読み込みを行わずに履歴情報を残し、URL55を動的に書き換えることが可能となる。1つの例では、上記の画像生成部47のURL55に対応する仮想空間データを取得する機能は、JavaScript(登録商標)のfetch()関数を用いて実現される。当該JavaScript(登録商標)を実行することにより、携帯端末装置4は、書き換えられたURL55に対応するデータをサーバ3から取得することが可能となる。このとき携帯端末装置4は、URL55が前述のURL(1)である場合、@以降も含んだURL55へアクセスする。サーバ3は、当該アクセスをWebアプリ33からのアクセスであると判定して、@以降も含んだURL55に対応する仮想空間データを携帯端末装置4へ送信する。この場合、MR体験用ページ34はJavaScript(登録商標)が組み込まれ、携帯端末装置4は、上記のように、URL55が動的に書き換えられたときに、書き換えられたURL55に対応するデータをサーバ3から取得するように構成される。
 本実施形態による複合現実システム1は、更に、ネットワーク2に接続可能なスマートフォンなどの他の端末装置に、携帯端末装置4が表示しているMR体験用ページ34における表示領域に表示される複合現実画像又はMR動画を配信できるように構成される。
 1つの例では、サーバ3は、URL55を介して、携帯端末装置4からのアクセスを受け付けており、例えばURLに関連付けて、記憶装置25の所定の格納場所に複合現実画像又はMR動画を記憶する。他の端末装置は、当該URLにアクセスすることで、複合現実画像又はMR動画を閲覧することができる。
 1つの例では、サーバ3は、WEBRTCを提供する配信用ウェブページを記憶し、配信用ウェブページは、URL55を介して、携帯端末装置4からのアクセスを受け付けている。この場合、携帯端末装置4にインストールされているブラウザは、WEBRTCをサポートするものである。配信用ウェブページは、画像生成部48が生成する複合現実画像を構成する、撮影装置24が撮影する実空間50の撮影画像と該撮影画像に重畳される仮想オブジェクトの画像データとを受信する。他の端末装置が配信用ウェブページにアクセスすると、サーバ3は、携帯端末装置4及び他の端末装置のIPアドレス及びポート番号をお互いに通知し、2つの端末装置がPeer-to-Peer通信できるように設定する。これにより、他の端末装置は、携帯端末装置4のユーザが閲覧する複合現実画像を閲覧することが可能となる。この場合、2以上の端末装置が、Peer-to-Peer通信可能である。他の例では、サーバ3以外のサーバが配信用ウェブページを記憶する。他の例では、他の端末装置が配信用ウェブページにアクセスすると、他の端末装置は、サーバ3又はサーバ3以外のサーバ(例えばMCUサーバ又はSFUサーバ)から、撮影装置24が撮影する実空間50の撮影画像と該撮影画像に重畳される仮想オブジェクトの画像データとを受信する。
 次に、本発明の一実施形態による複合現実システム1の情報処理について図10に示したフローチャートを用いて説明する。図10に示す情報処理は、プログラムを携帯端末装置4に実行させ、かつプログラムをサーバ3に実行させることで実現される。本処理においては、携帯端末装置4を持っているユーザは実空間50内におり、携帯端末装置4は、一般的なスマートフォンにおいてインストールされているような二次元コードリーダアプリ及びブラウザがインストールされている。
 ステップ101で、二次元コードリーダアプリが起動された携帯端末装置4は、MRマーカ52を撮影すると、撮影装置24の撮影画像から二次元コードを認識(抽出)する。携帯端末装置4(二次元コードリーダアプリ)は、二次元コード53からURL55を抽出して読み込むと、ブラウザを起動し、当該URL55をパラメータとして受け渡す。
 ステップ102で、携帯端末装置4(ブラウザ)は、URL55にアクセスし、MR体験用ページ34を表示する。ブラウザがURL55にアクセスすると、ブラウザ内でJavaScript(登録商標)が自動的に実行され、撮影装置24が起動される。なお、ステップ101からステップ102における撮影装置24の起動までは一連の動作であるため、最初のユーザの一般的な動作においては、撮影装置24は、ステップ101で撮影されたMRマーカ52を撮影したままである。この場合、MR体験用ページ34の表示領域には、当該MRマーカ52が表示される。
 携帯端末装置4(ブラウザ)は、撮影装置24の撮影画像から二次元コード53を認識すると(ステップ103)、ステップ104で、携帯端末装置4(ブラウザ)は、撮影画像の中にある1つの二次元コード53をデコードし、URL55を抽出する。ステップ103では、携帯端末装置4(ブラウザ)は、二次元コード53を認識するまで本処理を実行し続けるように構成されるが、エラーメッセージをディスプレイ24に表示するように構成してもよい。ステップ104では、ブラウザが有する機能により二次元コード53をデコードしてURL55を抽出してもよいし、ブラウザ内で実行されるJavaScript(登録商標)により、二次元コード53をデコードしてURL55を抽出してもよい。
 ステップ105で、携帯端末装置4は、ブラウザがアクセスしているURL55と、ステップ104において抽出されたURL55とが同一であるか否かを判定する。ステップ105で、同一であると判定された場合、本処理はステップ108へ進み、同一でないと判定された場合、本処理はステップ106へ進む。
 ステップ106で、携帯端末装置4(ブラウザ)は、撮影装置24の撮影画像から既に認識した二次元コード53以外の二次元コード53が有るか否かを判定する。ステップ106で有ると判定された場合、ステップ104で、携帯端末装置4(ブラウザ)は、撮影画像の中にある二次元コード53であって、まだ認識していない二次元コード53からURL55を更に抽出する。
 本処理は、ステップ104~ステップ106を繰り返し、撮影画像から認識された二次元コード53に含まれるURL55のいずれもが、ブラウザがアクセスしているURL55と同一でない場合、ステップ107へ進む。ステップ105で同一でないと判定された場合において撮影画像に1つの二次元コード53のみが含まれる場合においても、本処理は、ステップ106からステップ107へ進む。
 ステップ107で、携帯端末装置4(ブラウザ)は、例えば撮影画像の一番中央に位置する二次元コード53から抽出されるURL55を、携帯端末装置4がアクセスしているURLとして、例えばブラウザの最新履歴として、更新する。携帯端末装置4(ブラウザ)は、撮影画像に1つの二次元コード53のみが含まれる場合、当該二次元コード53から抽出されるURL55を、携帯端末装置4がアクセスしているURLとして更新する。
 ステップ108で、携帯端末装置4は、ブラウザがアクセスしているURL55を含む二次元コード53を、該二次元コード53を構成するMRマーカ52から画像処理として消去することにより、該MRマーカ52が含む位置合わせ用マーカ54を認識する。1つの例では、ステップ105で同一であると判定された場合、ステップ108で、携帯端末装置4は、ステップ104で認識された二次元コード53を画像処理として消去することにより、位置合わせ用マーカ54を抽出し、認識する。ステップ105で同一でないと判定され、ステップ107でブラウザがアクセスしているURLを撮影画像にある1つの二次元コード53から抽出されるURL55に更新した場合、ステップ108で、該二次元コード53を画像処理として消去することにより、位置合わせ用マーカ54を抽出し、認識する。ステップ108で、携帯端末装置4は、位置合わせ用マーカ54を認識し、座標変換行列Tを算出する。
 ステップ109で、携帯端末装置4は、算出された座標変換行列Tを用いて、仮想空間60における仮想カメラの視点位置を決定する。仮想カメラの視点位置は、複合現実画面において仮想空間50を表示する際の仮想的なカメラ位置である。
 ステップ110で、携帯端末装置4は、ブラウザがアクセスしているURL55に対応する仮想空間データをサーバ3から取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。本処理は、例えばアプリケーションが終了するなどにより終了しない限り、ステップ103へ進む(ステップ111)。
 次に、本発明の実施形態による複合現実システム1の作用効果について説明する。本実施形態では、複合現実システム1には、実空間50内に二次元コード53と位置合わせ用マーカ54とを統合したMRマーカ52が配置される。携帯端末装置4は、既存の任意の二次元コードリーダアプリを用いて、MRマーカ52の二次元コード53を読み込んでURL55を抽出し、当該URL55にアクセスすることによりサーバ3上に記憶されるWebアプリ33を実行する。携帯端末装置4は、Webアプリ33を起動させたMRマーカ52の識別に二次元コード53を用い、携帯端末装置4の位置姿勢を算出するために、該二次元コード53とともに該MRマーカ52を構成する位置合わせ用マーカ54を用いる。
 このように、複合現実システム1は、二次元コード53を識別用マーカとして用い、識別用マーカの内容に応じて、姿勢制御マーカとして用いる位置合わせ用マーカ54を選択することが可能となる。このような多段階のコード識別を行う構成とすることにより、撮影装置24が複数のMRマーカ52を撮影した場合であっても、二次元コード53及び位置合わせ用マーカ54を適切に関連付けて認識することが可能となる。
 また本実施形態では、複合現実システム1は、既存の二次元コードリーダアプリ及びブラウザがインストールされたスマートフォンなどの携帯端末装置4を用いる。したがって、ユーザは、携帯端末装置4に特別なアプリケーションのインストールを行うことなく、より簡易に、MRを体験することが可能となる。
 また本実施形態では、複合現実システム1は、携帯端末装置4が二次元コード53から抽出されるURL55に特定されるWebアプリ33にアクセスすることにより実現される。そのため、複合現実システム1は、URL55を、MR体験の開始の基点として用いるだけでなく、MR体験を共有する基点として用いることが可能となる。
 また本実施形態では、サーバ3は、二次元コード53に含まれるURL55の各々に対応する仮想空間データを記憶する。記憶される仮想空間データは、配置されるMRマーカ52ごとに、MRマーカ52の周囲の実空間50に対応する仮想空間60における仮想空間データである。携帯端末装置4は、二次元コード53を読み込んでURL55を抽出し、当該URL55にアクセスすることにより、サーバ3上に記憶される仮想空間データを取得し、取得されたデータを用いて仮想カメラの視点からみた複合現実画像を生成する。複合現実システム1は、このように構成され、また前述のとおり二次元コード53及び位置合わせ用マーカ54を適切に関連付けて認識することが可能であるため、ユーザに、配置されるMRマーカ52ごとに、その場所に応じたMRを体験させることが可能となる。
 また本実施形態では、携帯端末装置4は、二次元コード53に含まれるURL55に対応する仮想空間データを取得するとともに、該二次元コード53とともにMRマーカ52を構成する位置合わせ用マーカ54を認識する。そして、携帯端末装置4は、二次元コード53に含まれるURL55が包含する位置情報、及び認識された位置合わせ用マーカ52の形状及び大きさから決定される携帯端末装置4と位置合わせ用マーカ52との位置関係に基づいて、実空間60における撮影装置24の位置及び撮影方向に対応する仮想空間50における仮想カメラの視点位置を決定する。このような構成とすることにより、実空間50内の実オブジェクトと仮想オブジェクトとがほぼ正確に接触する、高精度な複合現実空間をユーザに提供することが可能となる。
 また本実施形態では、携帯端末装置4は、Webアプリ33を起動した後に新たに認識された二次元コード53から抽出されたURL55が、ブラウザによりアクセスしているURL55と同一であるか否かを判定する。携帯端末装置4は、同一でないと判定した場合、MR体験用ページ34の再読み込みをせずに、新たに認識された二次元コード53から抽出されたURL55を、携帯端末装置4がアクセスしているURLとして、例えばブラウザの最新履歴として、更新する。携帯端末装置4は、更新されたURL55を含む二次元コード53とともにMRマーカ52を構成する位置合わせ用マーカ54を認識し、これにより算出された座標変換行列Tを用いて、仮想空間60における仮想カメラの視点位置を決定する。携帯端末装置4は、更新されたURL55に対応する仮想空間データをサーバ3から取得し、取得された仮想空間データを用いて、仮想カメラの視点位置からみた複合現実画像を生成する。
 このような構成とすることにより、携帯端末装置4は、最初に基準となるMRマーカ52を設定し、ユーザの移動により撮影装置24が他のMRマーカ52の二次元コード53を認識したとき、基準となるMRマーカ52を変更する「ローミング処理」を行うことが可能となる。この「ローミング処理」において、携帯端末装置4は、Webアプリ33起動後のMRマーカ52の識別に二次元コード53を用いている。これにより、実空間50内を移動するユーザに対して、MR体験を提供し続けることが可能となる。またこのとき、ブラウザは、MR体験用ページ34の再読み込みを行わずにURL55を動的に書き換えるため、実空間50内を移動するユーザに対して、MR体験をシームレスに提供し続けることが可能となる。
 また本実施形態では、サーバ3は、URL55を介して、携帯端末装置4からのアクセスを受け付けており、他の端末装置は、例えばサーバ3にアクセスすることにより、携帯端末装置4が表示しているMR体験用ページ34における表示領域に表示されるMR動画等を取得する。このような構成とすることにより、携帯端末装置4のユーザは、例えばMR動画等にアクセス可能なURLをSNS上に投稿することにより、自身が体験する複合現実感を他のユーザと共有することが可能となる。近年、スマートフォンを用いたWeb利用者、特にSNS利用者が多いが、上記のように、複合現実システム1は、今まで実施されていないような、複合現実感の体験を既存のWebシステムを用いて共有するシステムを提供するため、MRシステムを、より簡易に、より一般的に使用することが可能となる。
 このように複合現実システム1は、URL55を、MR体験の開始・閲覧・共有の基点として利用可能なシステムを実現している。これにより、ユーザに、より簡易に、その場所に応じたMRを体験させることが可能となる。
 上記の作用効果は、特に言及が無い限り、他の実施形態や他の実施例においても同様である。
 本発明の他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する方法とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムをコンピュータに供給することができるサーバとすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する仮想マシンとすることもできる。
 以下に本発明の実施形態の変形例について説明する。以下で述べる変形例は、矛盾が生じない限りにおいて、適宜組み合わせて本発明の任意の実施形態に適用することができる。
 1つの例では、MRマーカ52は、識別コード53と、識別コード53の近傍に、識別コード53と所定の位置関係を有する位置に配置される、多角形の形状を有する位置合わせ用マーカ54とから構成される。図11は、MRマーカ52の変形例を示す図である。本変形例では、位置合わせ用マーカ54は、正方形の形状を有し、識別コード53に隣接して配置され、マーカ認識部45は、MRマーカ52のそのままの画像から位置合わせ用マーカ54を認識することができる。この場合、マーカ認識部45は、第2の識別コード認識部43により識別コード53が新たに認識されると、該識別コード53と所定の位置関係を有する位置に配置された位置合わせ用マーカ54を認識する。
 1つの例では、識別子判定部44は、同一でないと判定した場合、第2の識別コード認識部43により新たに認識された識別コード53に含まれる識別子55が包含する位置情報と、ブラウザ部42がアクセスした識別子55が包含する位置情報とが所定距離範囲内であるか否かを更に判定する。所定距離範囲内でない場合、ブラウザ部42は、第2の識別コード認識部43により新たに認識された識別コード53に含まれる識別子55にアクセスせず、マーカ認識部45は、該識別コード53を構成するMRマーカ52が含む位置合わせ用マーカ54を認識しない。
 以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。
 1 複合現実システム
 2 ネットワーク
 3 サーバ
 4 携帯端末装置
 11 プロセッサ
 12 表示装置
 13 入力装置
 14 記憶装置
 15 通信装置
 16 バス
 21 プロセッサ
 22 表示装置
 23 入力装置
 24 撮影装置
 25 記憶装置
 26 通信装置
 27 バス
 31 仮想空間データ記憶部
 32 アプリケーション記憶部
 41 第1の識別コード認識部
 42 ブラウザ部
 43 第2の識別コード認識部
 44 識別子判定部
 45 マーカ認識部
 46 位置決定部
 47 画像生成部
 50 実空間
 51 机
 52 MRマーカ
 53 識別コード
 54 位置合わせ用マーカ
 55 識別子

Claims (16)

  1.  サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムであって、
     前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
     前記サーバは、
     予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データと該仮想空間に配置される仮想オブジェクトデータとを含む仮想空間データを記憶する仮想空間データ記憶部と、
     前記識別コードに含まれる識別子により特定されるWebアプリケーションを記憶するアプリケーション記憶部であって、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものである、アプリケーション記憶部と、を備え、
     前記携帯端末装置は、
     前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、
     前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、
     前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、 前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、
     を備える複合現実システム。
  2.  前記携帯端末装置は、
     前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識する識別コード認識部を備え、
     前記ブラウザ部は、前記識別コード認識部により認識された前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示する、請求項1に記載の複合現実システム。
  3.  前記仮想空間データ記憶部は、前記識別コードに含まれる識別子の各々に対応する前記仮想空間データを記憶し、
     前記ブラウザ部は、アクセスした識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、
     前記画像生成部は、前記仮想空間データ記憶部から取得された前記仮想空間データを用いて前記仮想カメラの視点位置からみた複合現実画像を生成する、請求項1又は2に記載の複合現実システム。
  4.  前記携帯端末装置は、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる識別子が、前記ブラウザ部がアクセスした識別子と同一であるか否かを判定する識別子判定部を更に備え、
     前記マーカ認識部は、前記識別子判定部により同一であると判定された場合、前記位置合わせ用マーカを認識する、請求項3に記載の複合現実システム。
  5.  前記ブラウザ部は、前記識別子判定部により同一でないと判定された場合、前記Webアプリケーションが起動されて認識された前記識別コードに含まれる他の識別子にアクセスし、該他の識別子に対応する前記仮想空間データを前記仮想空間データ記憶部から取得し、再読み込みをせずに前記複合現実画像表示用ウェブページを表示し、
     前記マーカ認識部は、前記他の識別子を含む前記識別コードとともに前記MRマーカを構成する前記位置合わせ用マーカを認識する、請求項4に記載の複合現実システム。
  6.  前記識別子はURLである、請求項1から5のいずれか1項に記載の複合現実システム。
  7.  前記3次元形状要素は、ポリゴンから構成されるメッシュである、請求項1から6のいずれか1項に記載の複合現実システム。
  8.  前記識別コードはQRコード(登録商標)又はデータマトリックスである、請求項1から7のいずれか1項に記載の複合現実システム。
  9.  前記位置合わせ用マーカは、正方形の形状を有する、請求項1から8のいずれか1項に記載の複合現実システム。
  10.  前記位置合わせ用マーカは、前記識別コードの縁に沿うように配置される、請求項1から9のいずれか1項に記載の複合現実システム。
  11.  前記マーカ認識部は、前記識別コードを予め定められた色で塗りつぶして消去することにより、前記位置合わせ用マーカを認識する、請求項10に記載の複合現実システム。
  12.  前記位置合わせ用マーカは、前記識別コードの近傍に、前記識別コードと所定の位置関係を有する位置に配置される、請求項1から9のいずれか1項に記載の複合現実システム。
  13.  前記携帯端末装置は、前記サーバに前記画像生成部が生成する複合現実画像を構成する前記撮影装置が撮影する実空間の撮影画像及び仮想オブジェクトの画像データをそれぞれ送信し、他の端末装置が、該複合現実画像を取得することができるように構成される、請求項1から12のいずれか1項に記載の複合現実システム。
  14.  所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムのためのプログラムであって、
     前記システムは、
     前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
     予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、 前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、
     前記プログラムは、前記携帯端末装置に、
     前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、
     前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、
     前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、
     前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、
     を実行させるプログラム。
  15.  所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにより実行される方法であって、
     前記システムは、
     前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
     予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、 前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、
     前記携帯端末装置が、
     前記撮影装置が起動され、かつ前記撮影装置により前記MRマーカが撮影される場合、前記識別コードを認識することにより、ブラウザを起動して該認識された前記識別コードに含まれる識別子にアクセスして前記複合現実画像表示用ウェブページを表示するステップと、
     前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するステップと、
     前記認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と前記位置合わせ用マーカとの位置関係、及び前記識別コードに含まれる識別子が包含する位置情報に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定するステップと、
     前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成するステップと、
     を含む方法。
  16.  サーバ、並びに所定の実空間内にいるユーザに対して仮想オブジェクトを表示するためのディスプレイ及び実空間を撮影する撮影装置を有する携帯端末装置を備え、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を該ディスプレイに表示するための複合現実システムにおける携帯端末装置であって、
     前記システムは、
     前記所定の実空間内にある実オブジェクト上の予め定められた1以上の位置に、各々の位置に対応する位置情報を包含する識別子を含む識別コードと多角形の形状を有する位置合わせ用マーカとから構成されるMRマーカが配置され、
     予め取得された前記所定の実空間内にある実オブジェクトの3次元空間データであって各々が仮想空間における3次元位置情報を有する3次元形状要素から構成される3次元空間データ及び該仮想空間に配置される仮想オブジェクトデータを含む仮想空間データと、 前記識別コードに含まれる識別子により特定されるWebアプリケーションと、を記憶し、該Webアプリケーションは複合現実画像表示用ウェブページを提供し、該複合現実画像表示用ウェブページは、前記携帯端末装置により読み込まれると前記撮影装置を起動させるものであり、前記撮影装置が撮影する実空間の撮影画像に基づいた複合現実画像の表示領域を含むものであり、
     前記携帯端末装置は、
     前記識別コードに含まれる識別子にアクセスして前記Webアプリケーションが提供する前記複合現実画像表示用ウェブページを表示するブラウザ部と、
     前記Webアプリケーションが起動され、前記撮影装置により前記MRマーカが撮影されて、前記識別コードが認識された場合、該MRマーカを構成する前記位置合わせ用マーカを認識するマーカ認識部と、
     前記ブラウザ部がアクセスした識別子が包含する位置情報、及び前記マーカ認識部により認識された前記位置合わせ用マーカの形状及び大きさから決定される前記携帯端末装置と該位置合わせ用マーカとの位置関係に基づいて、実空間における前記撮影装置の位置及び撮影方向に対応する仮想空間における仮想カメラの視点位置を決定する位置決定部と、 前記仮想空間データと前記仮想カメラの視点位置とに基づいて、前記複合現実画像表示用ウェブページにおける前記表示領域に表示するための、実空間の撮影画像に仮想オブジェクトを重畳させた複合現実画像を生成する画像生成部と、
     を備える携帯端末装置。
PCT/JP2019/003680 2018-02-01 2019-02-01 複合現実システム、プログラム、方法、及び携帯端末装置 WO2019151493A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980023788.9A CN111937046B (zh) 2018-02-01 2019-02-01 混合现实系统、存储介质、方法和便携式终端装置
US16/943,444 US11321925B2 (en) 2018-02-01 2020-07-30 Mixed-reality system, program, method, and portable terminal device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018016562A JP6453501B1 (ja) 2018-02-01 2018-02-01 複合現実システム、プログラム、方法、及び携帯端末装置
JP2018-016562 2018-02-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/943,444 Continuation US11321925B2 (en) 2018-02-01 2020-07-30 Mixed-reality system, program, method, and portable terminal device

Publications (1)

Publication Number Publication Date
WO2019151493A1 true WO2019151493A1 (ja) 2019-08-08

Family

ID=65020527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003680 WO2019151493A1 (ja) 2018-02-01 2019-02-01 複合現実システム、プログラム、方法、及び携帯端末装置

Country Status (4)

Country Link
US (1) US11321925B2 (ja)
JP (1) JP6453501B1 (ja)
CN (1) CN111937046B (ja)
WO (1) WO2019151493A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10969600B2 (en) 2018-03-08 2021-04-06 Apple Inc. Electronic devices with optical markers
JP7203692B2 (ja) * 2019-06-12 2023-01-13 本田技研工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP6833925B2 (ja) * 2019-07-29 2021-02-24 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置及び画像処理方法
US10777017B1 (en) * 2020-01-24 2020-09-15 Vertebrae Inc. Augmented reality presentation using a uniform resource identifier
US11194952B2 (en) * 2020-01-30 2021-12-07 Leap Tools, Inc. Systems and methods for product visualization using a single-page application
US10817648B1 (en) 2020-01-30 2020-10-27 Leap Tools Inc. Systems and methods for product visualization using a single-page application
US11610013B2 (en) 2020-04-17 2023-03-21 Intertrust Technologies Corporation Secure content augmentation systems and methods
CN114581635B (zh) * 2022-03-03 2023-03-24 上海涞秋医疗科技有限责任公司 一种基于HoloLens眼镜的定位方法及系统
CN115457142B (zh) * 2022-09-14 2023-10-10 北京中科深智科技有限公司 一种mr混合摄影相机的标定方法和系统
JP7373090B1 (ja) 2023-05-01 2023-11-01 株式会社あかつき 情報処理システム、情報処理装置、プログラム及び情報処理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8700301B2 (en) * 2008-06-19 2014-04-15 Microsoft Corporation Mobile computing devices, architecture and user interfaces based on dynamic direction information
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
US20170034586A1 (en) * 2008-10-08 2017-02-02 Wakingapp Ltd. System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
JP5762892B2 (ja) * 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
EP3666352B1 (en) * 2011-10-28 2021-12-01 Magic Leap, Inc. Method and device for augmented and virtual reality
EP2600316A1 (en) * 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US9497501B2 (en) * 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9324190B2 (en) * 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US20150170260A1 (en) * 2012-02-29 2015-06-18 Google Inc. Methods and Systems for Using a Mobile Device to Visualize a Three-Dimensional Physical Object Placed Within a Three-Dimensional Environment
US9578226B2 (en) * 2012-04-12 2017-02-21 Qualcomm Incorporated Photometric registration from arbitrary geometry for augmented reality
NO334902B1 (no) * 2012-12-07 2014-07-07 Kongsberg Defence & Aerospace As System og fremgangsmåte for overvåking av minst ett observasjonsområde
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
US20140210857A1 (en) * 2013-01-28 2014-07-31 Tencent Technology (Shenzhen) Company Limited Realization method and device for two-dimensional code augmented reality
JP6264014B2 (ja) * 2013-12-17 2018-01-24 セイコーエプソン株式会社 頭部装着型表示装置
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
JP6294780B2 (ja) * 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
TWI526992B (zh) * 2015-01-21 2016-03-21 國立清華大學 擴充實境中基於深度攝影機之遮蔽效果優化方法
US9723253B2 (en) * 2015-03-11 2017-08-01 Sony Interactive Entertainment Inc. Apparatus and method for automatically generating an optically machine readable code for a captured image
EP3451135A4 (en) * 2016-04-26 2019-04-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
CN109416842B (zh) * 2016-05-02 2023-08-29 华纳兄弟娱乐公司 在虚拟现实和增强现实中的几何匹配
JP6870109B2 (ja) * 2017-11-14 2021-05-12 マクセル株式会社 ヘッドアップディスプレイ装置およびその表示制御方法
JP7142853B2 (ja) * 2018-01-12 2022-09-28 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
KR20200047185A (ko) * 2018-10-26 2020-05-07 삼성전자주식회사 전자 장치 및 그 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等

Also Published As

Publication number Publication date
JP2019133507A (ja) 2019-08-08
US20200357188A1 (en) 2020-11-12
US11321925B2 (en) 2022-05-03
CN111937046A (zh) 2020-11-13
CN111937046B (zh) 2024-03-29
JP6453501B1 (ja) 2019-01-16

Similar Documents

Publication Publication Date Title
JP6453501B1 (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
JP6951400B2 (ja) コンテンツ認識フォトフィルタを供給するための装置および方法
JP2019133642A (ja) 複合現実システム、プログラム、方法、及び携帯端末装置
Arth et al. The history of mobile augmented reality
US9898844B2 (en) Augmented reality content adapted to changes in real world space geometry
US9924102B2 (en) Image-based application launcher
JP6105092B2 (ja) 光学式文字認識を用いて拡張現実を提供する方法と装置
JP6458371B2 (ja) 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム
KR102257826B1 (ko) 상황 로컬 이미지 인식 데이터세트
JP6022732B2 (ja) コンテンツ作成ツール
US20130088514A1 (en) Mobile electronic device, method and webpage for visualizing location-based augmented reality content
US20150185825A1 (en) Assigning a virtual user interface to a physical object
CN111638796A (zh) 虚拟对象的展示方法、装置、计算机设备及存储介质
US20150370318A1 (en) Apparatus, system, and method of controlling display, and recording medium
US20150187137A1 (en) Physical object discovery
US20160163107A1 (en) Augmented Reality Method and System, and User Mobile Device Applicable Thereto
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的系统和方法
JP6500355B2 (ja) 表示装置、表示プログラム、および表示方法
US9467660B1 (en) Map generation using map features from user captured images
KR20130119233A (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
CN112882576B (zh) Ar交互方法、装置、电子设备及存储介质
WO2020040277A1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
ES2958257T3 (es) Sistemas y métodos de visualización de productos mediante el uso de una aplicación de una sola página
JP2011060254A (ja) 拡張現実システム、拡張現実装置および仮想オブジェクト表示方法
US10762702B1 (en) Rendering three-dimensional models on mobile devices

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19747007

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19747007

Country of ref document: EP

Kind code of ref document: A1