WO2021256242A1 - ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体 - Google Patents

ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体 Download PDF

Info

Publication number
WO2021256242A1
WO2021256242A1 PCT/JP2021/020832 JP2021020832W WO2021256242A1 WO 2021256242 A1 WO2021256242 A1 WO 2021256242A1 JP 2021020832 W JP2021020832 W JP 2021020832W WO 2021256242 A1 WO2021256242 A1 WO 2021256242A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
terminal
visitor
facility
Prior art date
Application number
PCT/JP2021/020832
Other languages
English (en)
French (fr)
Inventor
晃 浪口
浩平 金澤
陽平 水谷
雄也 木元
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to JP2022532475A priority Critical patent/JP7355467B2/ja
Publication of WO2021256242A1 publication Critical patent/WO2021256242A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to a guide device, a guide system, a guide method, a program, and a recording medium.
  • Patent Document 1 a technique for promoting a product or the like using AR (Augmented Reality) technology has been proposed (for example, Patent Document 1).
  • the present invention in a large facility of an exhibition hall or the like, it is possible to display information by AR on the terminal screen of a user (visitor) in an easy-to-understand manner, and the AR image is easy to see and the terminal screen is easy to operate.
  • the purpose is to provide a guide device and a guide method.
  • the guide device of the present invention includes imaging information acquisition unit, virtual information generation unit, map information management unit, visitor terminal information acquisition unit, image information output unit, and terminal screen control unit.
  • the image pickup information acquisition unit acquires an image captured by a terminal of a visitor in a specific area, and obtains an image captured.
  • the virtual information generation unit generates a virtual image relating to the specific area, and generates a virtual image.
  • the map information management unit manages the facility location information in association with the map of the specific area.
  • the visitor terminal information acquisition unit acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal.
  • the image information output unit outputs a composite image in which the virtual image is superimposed on the captured image.
  • the virtual image generated by the virtual information generation unit includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a facility position image and a facility detailed information image, and the facility position image and the facility detailed information image are associated with each other for each facility.
  • the image information output unit superimposes the facility position image on a position corresponding to the image of the facility, provides a window unit, and displays an image displaying the facility detailed information image on the window unit.
  • the map information management unit calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility position information.
  • the terminal screen control unit Based on the calculated distance, the terminal screen control unit generates at least one image of an integrated image in which the facility position images of a plurality of the facilities are integrated and an integrated image in which the integrated images are unintegrated.
  • the image information output unit is a device that outputs at least one of the integrated image and the integrated release image to the terminal of the visitor.
  • the guide system of the present invention is The guide device is the guide device of the present invention.
  • the terminal is the terminal of the visitor,
  • the guide device and the terminal are systems capable of communicating via a communication network.
  • the guide method of the present invention Includes imaging information acquisition process, virtual information generation process, map information management process, visitor terminal information acquisition process, image information output process, and terminal screen control process.
  • image pickup information acquisition step an image captured by a terminal of a visitor in a specific area is acquired.
  • the virtual information generation step generates a virtual image relating to the specific area, and generates a virtual image.
  • the map information management process manages the facility location information in association with the map of the specific area.
  • the visitor terminal information acquisition step acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal.
  • the image information output step a composite image in which the virtual image is superimposed on the captured image is output.
  • the virtual image generated in the virtual information generation step includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a facility position image and the facility detailed information image, and the facility position image and the facility detailed information image are linked to each other for each facility.
  • the image information output step in the captured image, the facility position image is superimposed on the position corresponding to the image of the facility, a window portion is provided, and an image for displaying the facility detailed information image is displayed on the window portion.
  • the map information management step calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility position information.
  • the terminal screen control step generates at least one image of an integrated image in which the facility position images of a plurality of the facilities are integrated and an integrated image in which the integrated images are unintegrated, based on the calculated distance.
  • the image information output step is a method of outputting at least one of the integrated image and the integrated release image to the terminal of the visitor.
  • the program of the present invention This is a program for causing a computer to execute a procedure including an imaging information acquisition procedure, a virtual information generation procedure, a map information management procedure, a visitor terminal information acquisition procedure, an image information output procedure, and a terminal screen control procedure.
  • a procedure including an imaging information acquisition procedure, a virtual information generation procedure, a map information management procedure, a visitor terminal information acquisition procedure, an image information output procedure, and a terminal screen control procedure.
  • an imaging information acquisition procedure an image captured by a terminal of a visitor in a specific area is acquired.
  • the virtual information generation procedure generates a virtual image relating to the specific area and generates a virtual image.
  • the map information management procedure manages the facility location information in association with the map of the specific area.
  • the visitor terminal information acquisition procedure acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal.
  • the image information output procedure a composite image in which the virtual image is superimposed on the captured image is output.
  • the virtual image generated in the virtual information generation procedure includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a facility position image and the facility detailed information image, and the facility position image and the facility detailed information image are linked to each other for each facility.
  • the image information output procedure in the captured image, the facility position image is superimposed on the position corresponding to the image of the facility, a window portion is provided, and an image for displaying the facility detailed information image is displayed on the window portion.
  • the map information management procedure calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility location information.
  • the terminal screen control procedure generates at least one image of an integrated image in which the facility position images of a plurality of the facilities are integrated and an integrated image in which the integrated images are deintegrated, based on the calculated distance.
  • the image information output procedure outputs at least one of the integrated image and the integrated release image to the visitor's terminal.
  • the recording medium of the present invention is a computer-readable recording medium on which the program of the present invention is recorded.
  • information by AR can be displayed on the terminal of a user (visitor) in an easy-to-understand manner, the AR image becomes easy to see, and the operation of the terminal screen becomes easy.
  • FIG. 1A is a block diagram showing a configuration of an example of the apparatus of the first embodiment
  • FIG. 1B is a schematic diagram showing a configuration of an example of the system of the fourth embodiment
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the apparatus of the first embodiment.
  • FIG. 3 is a flowchart showing an example of processing in the apparatus of the first embodiment.
  • FIG. 4 is a schematic diagram showing an example of an image displayed on the screen of the terminal.
  • FIG. 5 is a schematic diagram showing an example of the relationship between the reference distance and the area to be integrated.
  • FIG. 6 is a schematic diagram showing an example of an image displayed on the screen of the terminal.
  • FIG. 7 is a block diagram showing a configuration of an example of the device of the second embodiment.
  • FIG. 1A is a block diagram showing a configuration of an example of the apparatus of the first embodiment
  • FIG. 1B is a schematic diagram showing a configuration of an example of the system of the fourth embodiment.
  • FIG. 2 is
  • FIG. 8 is a flowchart showing an example of processing in the apparatus of the second embodiment.
  • FIG. 9 is a schematic diagram showing an example in which a pin and a window portion are displayed on the screen of the terminal.
  • FIG. 10 is a schematic diagram showing an example in which a pin and a window portion are displayed on the screen of the terminal.
  • FIG. 11 is a schematic diagram showing an example in which a pin and a window portion are displayed on the screen of the terminal.
  • FIG. 12 is a schematic diagram showing an example in which a pin and a window portion are displayed on the screen of the terminal.
  • FIG. 13 is a schematic diagram showing an example in which a pin and a window portion are displayed on the screen of the terminal.
  • FIG. 14 is a schematic diagram showing an example of the hierarchical structure of the facility detailed information image.
  • FIG. 15 is a schematic diagram showing an example of a single swipe and a multi-swipe.
  • the "visitor” means a person who comes within a specific area, and is also referred to as a user. Visitors can also be rephrased as visitors, visitors, and the like.
  • FIG. 1A is a block diagram showing a configuration of an example of a guide device 10 of the present embodiment
  • FIG. 1B is a schematic showing a configuration of an example of a guide system including the guide device 10 of the present embodiment. It is a figure.
  • the apparatus 10 includes an image pickup information acquisition unit 11, a virtual information generation unit 12, a map information management unit 13, a visitor terminal information acquisition unit 14, an image information output unit 15, and a terminal screen control.
  • a unit 16 and a terminal selection information acquisition unit 17 are included.
  • the terminal selection information acquisition unit 17 has an arbitrary configuration and may not be included in the apparatus 10. The guide system will be described later.
  • the device 10 may be, for example, one device including the above-mentioned parts, or may be a device in which the above-mentioned parts can be connected via the communication network 30. Further, the present device 10 can be connected to an external device described later via the communication line network 30.
  • the communication network 30 is not particularly limited, and a known network can be used, and may be wired or wireless, for example. Examples of the communication line network 30 include an Internet line, WWW (World Wide Web), a telephone line, LAN (Local Area Network), SAN (Storage Area Network), DTN (Delay Traveler Network), and the like. Examples of wireless communication include WiFi (Wireless Fidelity), Bluetooth (registered trademark) and the like.
  • the wireless communication may be either a form in which each device directly communicates (Ad Hoc communication) or an indirect communication via an access point.
  • the apparatus 10 may be incorporated in the server as a system, for example. Further, the apparatus 10 is, for example, a personal computer (PC, for example, a desktop type, a notebook type), a terminal (for example, a smartphone, a mobile phone, a glasses type, a watch type, or the like) wearable terminal on which the program of the present invention is installed. ) Etc. may be used.
  • FIG. 2 illustrates a block diagram of the hardware configuration of the present device 10.
  • the apparatus 10 includes, for example, a central processing unit (CPU, GPU, etc.) 101, a memory 102, a bus 103, a storage device 104, an input device 105, a display device 106, a communication device 107, and the like. Each part of the apparatus 10 is connected to each other via a bus 103 by each interface (I / F).
  • I / F interface
  • the central processing unit 101 is responsible for overall control of the device 10.
  • the program of the present invention and other programs are executed by the central processing unit 101, and various information is read and written.
  • the central arithmetic processing device 101 includes an image pickup information acquisition unit 11, a virtual information generation unit 12, a map information management unit 13, a visitor terminal information acquisition unit 14, an image information output unit 15, and a terminal screen control unit. It functions as 16 and the terminal selection information acquisition unit 17.
  • the bus 103 can also be connected to, for example, an external device.
  • the external device include an external storage device (external database, etc.), a printer, and the like.
  • the apparatus 10 can be connected to an external network (communication network 30) by, for example, a communication device 107 connected to the bus 103, and can also be connected to another apparatus via the external network.
  • the memory 102 may be, for example, a main memory (main storage device).
  • main memory main storage device
  • the memory 102 reads various operation programs such as the program of the present invention stored in the storage device 104 described later, and the central processing unit 101 reads the memory. Receives data from 102 and executes the program.
  • the main memory is, for example, a RAM (random access memory).
  • the memory 102 may be, for example, a ROM (read-only memory).
  • the storage device 104 is also referred to as a so-called auxiliary storage device with respect to the main memory (main storage device), for example.
  • the storage device 104 stores an operation program including the program of the present invention.
  • the storage device 104 may be, for example, a combination of a recording medium and a drive for reading and writing to the recording medium.
  • the recording medium is not particularly limited, and may be an internal type or an external type, and examples thereof include HD (hard disk), CD-ROM, CD-R, CD-RW, MO, DVD, flash memory, and memory card. Be done.
  • the storage device 104 may be, for example, a hard disk drive (HDD) in which a recording medium and a drive are integrated, and a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the memory 102 and the storage device 104 can also store user log information and information acquired from an external database (not shown).
  • the device 10 further includes, for example, an input device 105 and a display device 106.
  • the input device 105 is, for example, a touch panel, a keyboard, a mouse, or the like.
  • Examples of the display device 106 include an LED display, a liquid crystal display, and the like.
  • the guide method of the present embodiment is carried out as follows, for example, by using the guide device 10 of FIG. 1 or FIG.
  • the guide method of the present embodiment is not limited to the use of the guide device 10 of FIG. 1 or 2.
  • the image pickup information acquisition unit 11 acquires an image captured by a terminal of a visitor in a specific area (S1).
  • the specific area is not particularly limited and may be indoors or outdoors.
  • the indoors include, for example, exhibition halls, event halls, department stores, schools such as universities, and the like.
  • the terminal of the visitor is not particularly limited, and is, for example, a personal computer, a smartphone, a mobile phone, a wearable terminal such as a glasses type and a wristwatch type, and the like.
  • the captured image may be, for example, a still image or a moving image.
  • the acquisition is performed, for example, via the communication network 30.
  • the virtual information generation unit 12 generates a virtual image related to the specific area (S2).
  • the generated virtual image includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a position image of the facility and a detailed information image of the facility, and the position image of the facility and the detailed information image of the facility are associated with each other for each facility.
  • the location image of the facility is also referred to as a facility location image
  • the detailed information image of the facility is also referred to as a facility detailed information image.
  • the facility detailed information image is, for example, an image having a hierarchical structure of one layer or two or more layers.
  • the position image is, for example, an image based on the facility position information.
  • the detailed information image is, for example, an image based on the detailed information of the facility.
  • One facility detailed information image may be associated with one facility position image, or two facility detailed information images may be associated with one.
  • the facility position image and the facility detailed information image may be stored in the memory 102 or the storage device 104 in advance, or may be acquired from an external database via the communication network 30. Further, as will be described later, the facility position image and the facility detailed information image may be generated by the virtual information generation unit 12.
  • the facility is not particularly limited as long as it is installed in the specific area. Specifically, for example, there are exhibition booths, shops, tenants, classrooms, examination rooms, and the like.
  • the map information management unit 13 manages the facility location information in association with the map of the specific area (S3).
  • the facility location information is, for example, information indicating a location within the facility, and specifically, the location of an exhibition booth, a tenant, a classroom, or the like is indicated.
  • the visitor terminal information acquisition unit 14 acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal (S4).
  • the terminal of the visitor is also referred to as a visitor terminal or a terminal.
  • the position information and orientation information of the terminal are, for example, information in which the position and orientation (direction) of the terminal are specified by a position code or a direction mark arranged in the specific area.
  • the position code may also serve as, for example, the direction mark.
  • the position code and the direction mark include, for example, a QR code (registered trademark), an AR marker, a barcode, a chameleon code (registered trademark), and the like.
  • the position information of the terminal and the orientation information of the terminal may be information specified by using a known technique.
  • the image information output unit 15 outputs a composite image in which the virtual image is superimposed on the captured image (S5).
  • the output may be executed, for example, via the communication network 30.
  • the virtual image for each facility includes a facility position image and a facility detailed information image, and the facility position image and the facility detailed information image are associated with each other for each facility.
  • the image information output unit 15 superimposes the facility position image on the position corresponding to the image of the facility in the captured image, provides a window unit, and displays the facility detailed information image on the window unit.
  • the image is output to the terminal (visitor's terminal).
  • the window unit can display a plurality of the facility detailed information images on a transitionable screen.
  • the window unit can display, for example, the facility detailed information image on a screen in which an image for each layer can be transitioned.
  • the window portion will be described later.
  • the map information management unit 13 calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility position information (S6).
  • the distance is calculated, for example, by referring to the position information of the visitor terminal and the facility position information on the map and converting from the respective position information, the distance between the visitor terminal and the facility. Can be calculated.
  • the terminal screen control unit 16 may generate at least one of the integrated image and the integrated release image based on, for example, a predetermined reference distance.
  • the reference distance is a terminal and a facility that serve as a reference when deciding whether to generate the integrated image by integrating a plurality of the facility position images or to release the integration of the integrated images to generate the unintegrated image. It is a distance between them, and for example, any distance can be set.
  • the reference distance may be, for example, a reference distance of two or more steps depending on the position of the facility from the visitor terminal.
  • the terminal screen control unit 16 integrates or unintegrates the facility position image step by step according to, for example, the steps of the reference distance of two or more steps.
  • the steps are not particularly limited, and examples thereof include two steps, three steps, and four steps.
  • the terminal screen control unit 16 may specify an area unit to be integrated on the map according to the reference distances of the two or more stages.
  • the image information output unit 15 outputs at least one of the integrated image and the integrated release image to the terminal of the visitor (S8), and ends the process (END).
  • the terminal selection information acquisition unit 17 selects the facility position image selected from the plurality of facility position images corresponding to the plurality of facilities. Information may be acquired (terminal selection information acquisition process).
  • the window unit displays the facility detailed information image associated with the selected facility location information based on the selection information.
  • the terminal selection information acquisition step can be executed at any timing, for example, after the S5 step shown in FIG.
  • the terminal screen control unit 16 cancels the integration of the integrated image in which the facility position images of the plurality of the facilities are integrated and the integration of the integrated images based on the distance between the terminal and the facility. Generates at least one of the unintegrated images. Therefore, for example, in a large facility such as an exhibition hall, it is possible to display information by AR on the terminal screen of a visitor in an easy-to-understand manner. This makes it easier for visitors to see the AR image, which makes it easier to operate the terminal screen.
  • the composite image is displayed on the screen (display) of the terminal 20.
  • the facility position image is, for example, pin images 4 (4a to 4c) showing the position of an exhibition booth.
  • identification information may be attached to each of the pin images 4.
  • the identification information is, for example, a number, a character, a symbol, and a combination of two or more thereof.
  • the pin image 4 on the composite image is arranged at a position based on the facility position information.
  • FIG. 5 shows a region in which the reference distance has three stages of (1) short distance, (2) medium distance, and (3) long distance, and the short distance is centered on the terminal and has a radius of less than 15 m.
  • each numerical value of the reference distance is an example, and the present invention is not limited thereto. As shown in FIG.
  • the pin 4 corresponding to each exhibition booth is generated as the unintegrated image 4A.
  • the area corresponding to the middle-distance is divided into eight equal parts, and for a plurality of exhibition booths located in each area, pin 4 is used.
  • the area corresponding to the long distance is divided into four equal parts, and the pin for the plurality of exhibition booths located in each area.
  • the number of divisions of each area at medium distance and long distance is an example, and is not limited thereto.
  • FIG. 6 shows an example of a terminal displaying the unintegrated image 4A, the medium-distance integrated image 4B, and the long-distance integrated image 4C.
  • an exhibition booth having a short distance from the terminal can determine a more accurate position.
  • Exhibition booths that are far from the terminal can be easily viewed and operated.
  • the pin size becomes smaller as the object moves away from the position of the terminal, which makes it difficult to visually recognize and operate.
  • the present invention since at least one of the integrated image and the integrated release image is generated and displayed based on the reference distance, information by AR can be easily understood on the terminal screen of a visitor in a large facility such as an exhibition hall. It is possible to display. This makes it easier for visitors to see the AR image, which makes it easier to operate the terminal screen.
  • the guide device 10A of the present embodiment further includes a terminal screen operation information acquisition unit 18, a specific area information acquisition unit 19, and a specific area information acquisition unit 19. Includes the visitor information acquisition unit 21.
  • the central processing unit 101 replaces the configuration of the guide device 10 shown in FIG. The same applies except that the guide device 10A shown in FIG. 7 is provided.
  • the guide method of the present embodiment is carried out as follows, for example, by using the guide device 10A of FIG.
  • the guide method of the present embodiment is not limited to the use of the guide device 10A of FIG. 7.
  • (S1) to (S8) are executed in the same manner as in (S1) to (S8) shown in FIG. 3 of the first embodiment.
  • the terminal screen operation information acquisition unit 18 acquires operation information for the screen of the terminal (S9).
  • the operation information is, for example, information related to the visitor operation, specifically, a swipe operation on the screen (terminal screen) of the terminal, line-of-sight detection, blink detection, voice instruction, and tap on the terminal screen. The operation and a combination of two or more of these may be used.
  • the image information output unit 15 transitions the screen of the window unit according to the operation information.
  • the image information output unit 15 controls the order of the screens to be transitioned and displayed in the window unit based on the position information of the terminal and the orientation information of the terminal managed on the map (S10). End the process (END).
  • the image information output unit 15 may specify the front direction of the visitor, for example, based on the position information of the terminal and the orientation information of the terminal managed on the map.
  • the order of the screens to be transitioned and displayed in the window portion is, for example, the order of the facilities arranged in the left-right direction in the front direction.
  • the window unit can display the facility detailed information image on a screen in which images for each layer can be transitioned
  • the visitor can display the facility detailed information image with one finger.
  • the screen of the terminal terminal screen
  • the screen of the window portion changes for each layer.
  • the visitor swipes the terminal screen with two or more fingers for example, the screen of the window portion changes for each facility detailed information image. Specifically, it will be described later.
  • the specific area information acquisition unit 19 may acquire detailed facility information regarding the facility in the specific area (S11).
  • the step (S11) may be processed in parallel with the step (S1), for example, as shown in FIG.
  • the acquisition may be executed, for example, via the communication network 30, or may be executed by input by the input device 105.
  • the facility detailed information is, for example, information about an exhibition booth or the like, and more specifically, information such as a company name, company introduction information, products and services, and the like.
  • the virtual information generation unit 12 generates, for example, the facility detailed information image based on the facility detailed information. Further, the virtual information generation unit 12 may generate the facility position image based on the facility position information.
  • the visitor information acquisition unit 21 may acquire information about the visitor (S12).
  • the step (S12) may be processed in parallel with the step (S1), for example, as shown in FIG.
  • the acquisition may be executed, for example, via the communication network 30, or may be executed by input by the input device 105.
  • the information about the visitors is, for example, the attributes of the visitors (gender, age, occupation), the purpose of the visit (inspection, business negotiations, etc.), the exhibition booth (area) of interest, and the like.
  • the image information output unit 15 outputs a composite image in which the virtual image is superimposed on the captured image according to the information about the visitor.
  • the virtual image includes recommendation information, schedule information, exhibition booth information, and the like.
  • the recommendation information is, for example, information recommended to the visitor based on the information about the visitor (for example, a recommended event, a recommended exhibition booth, etc.).
  • the schedule information is, for example, information indicating the schedule of an event to be held in the specific area. Examples of the event include demonstrations and seminars.
  • the event may be an event promoted by the organizer or an event promoted by the exhibitor.
  • the exhibition booth information is, for example, company name, company introduction information, information on products and services, and the like.
  • the composite image is displayed on the screen (display) of the terminal 20.
  • the facility position images are, for example, pin images 4a to 4c showing the positions of exhibition booths.
  • identification information may be added to each of the pin images 4a to 4c.
  • the identification information is, for example, the same as described above.
  • the pin images 4a to 4c are arranged at positions based on the facility position information, for example.
  • the window portion may be arranged at the lower part of the composite image, for example, as shown in FIG. 9, but the window portion is merely an example and is not limited thereto.
  • the window unit transitions and displays a plurality of the facility detailed information images.
  • a facility detailed information image of company A A Corp.
  • Window window section
  • the order of the screens to be transitioned and displayed in the window section will be explained.
  • the upper part of FIG. 10 shows the front direction 2 of each facility (booth) in the specific area and the user 1 (terminal 20).
  • the lower part of FIG. 10 shows an example of a group of terminal 20 and facility detailed information images.
  • the facility detailed information image B is displayed on the terminal 20.
  • the order of the screens to be transitioned and displayed in the window section is as follows: user 1 uses facility detailed information images A to C corresponding to exhibition booths (pin images) A to C, which are the group closest to the position of the terminal 20.
  • the exhibition booths (pin images) "near G1" and “near G2”, which are the group “near G” that is the second closest to the position of the terminal 20, are supported.
  • Detailed facility information image “Near G1” and “Near G2” are arranged in the order of facilities (booths) arranged in the left-right direction in the front direction 2 of the user 1.
  • the order of the screens to be transitioned and displayed in the window section will be further described.
  • the exhibition booths (pin images) B, A, and C are arranged in order from the left when viewed from the front direction 2 of the user 1, the exhibition booths B and A are in the window portion.
  • the facility detailed information image is displayed in this order.
  • the exhibition booth is in the window portion.
  • the facility detailed information image is displayed in the order of A, B, and C.
  • the exhibition booths (pin images) C, A, and B are arranged in order from the left when viewed from the front direction 2 of the user 1, the exhibition booth C is in the window portion. , A, B, and the facility detailed information image is displayed in this order.
  • the front-back and left-right directions of the exhibition booth change depending on the position and direction of the user 1 (terminal 20).
  • the image information output unit 15 identifies the front direction 2 of the user 1 based on the position information of the terminal 20 and the orientation information of the terminal 20, and displays the facility details according to the front direction 2 of the specified user 1.
  • the order of the information images changes. Further, as shown in FIG.
  • the pin image (facility position image) corresponding to the facility detailed information image is linked and selected. It may be in a state.
  • the selected state is, for example, information indicating that the user 1 has selected a pin image.
  • the pin image (A) is in the selected state
  • the pin image (B) is in the selected state
  • the pin image (C) is in the selected state.
  • FIG. 14 shows an example of the hierarchical structure of the facility detailed information image.
  • the facility detailed information image has the facility detailed information images (a1) to (a3) in the lower layer of the facility detailed information image (a), and the facility is in the lower layer of the facility detailed information image (a3).
  • the facility detailed information image (a) is an image based on the facility detailed information indicating the company name.
  • the facility detailed information image (a1) is an image based on the facility detailed information showing the company introduction
  • the facility detailed information image (a2) is an image based on the facility detailed information showing the greetings of the representative and the like, and the facility detailed information.
  • the image (a3) is an image based on detailed facility information showing products, services, and the like.
  • the facility detailed information images (a3-1) to (a3-3) are images based on the facility detailed information showing each of the product A, the product B, and the product C.
  • FIG. 15 shows an example of a single swipe and a multi-swipe.
  • FIG. 15A when the user swipes the screen of the terminal 20 from left to right (also referred to as a single swipe) with one finger, for example, the displayed facility detailed information image (a).
  • the facility detailed information image (a1) which is the lower layer, is displayed on the terminal 20.
  • the order of the facility detailed information images (a1) to (a3) is not particularly limited, and can be arbitrarily set by the exhibitor, for example.
  • FIG. 15B when the user swipes the screen of the terminal 20 from left to right (also referred to as multi-swipe) with two or more fingers, for example, the displayed facility detailed information is displayed.
  • the other facility detailed information image (b) that is not the lower layer of the image (a) is displayed on the terminal 20. That is, the terminal 20 skips (does not display) the facility detailed information images (a1) to (a3) and the facility detailed information images (a3-1) to (a3-3), and displays the facility detailed information image (b). indicate.
  • the direction of the swipe is an example and is not limited thereto. The swipe direction may be, for example, swiped from right to left, from top to bottom, from bottom to top, and the like.
  • FIG. 1B is a schematic diagram showing the configuration of an example of the guide system of the present embodiment.
  • the guide system of the present embodiment includes the guide device 10 according to any one of the first to third embodiments, and the terminal 20.
  • the terminal 20 is the terminal of a visitor in the specific area.
  • the guide device 10 and the terminal 20 can communicate with each other via the communication network 30.
  • the guide system is also referred to as a guide system device.
  • the guide system of the present embodiment may further include the exhibitor's terminal, for example.
  • the exhibitor's terminal is, for example, a personal computer, a smartphone, a mobile phone, a wearable terminal such as a glasses type and a wristwatch type.
  • the guide device 10 and the exhibitor's terminal can communicate with each other via, for example, a communication network 30.
  • the program of the present embodiment is a program for causing a computer to execute each step of the method of the present invention as a procedure.
  • "procedure” may be read as "processing”.
  • the program of the present embodiment may be recorded on a computer-readable recording medium, for example.
  • the recording medium is, for example, a non-transitory computer-readable storage medium.
  • the recording medium is not particularly limited, and examples thereof include a read-only memory (ROM), a hard disk (HD), and an optical disk.
  • Appendix 1 Includes imaging information acquisition unit, virtual information generation unit, map information management unit, visitor terminal information acquisition unit, image information output unit, and terminal screen control unit.
  • the image pickup information acquisition unit acquires an image captured by a terminal of a visitor in a specific area, and obtains an image captured.
  • the virtual information generation unit generates a virtual image relating to the specific area, and generates a virtual image.
  • the map information management unit manages the facility location information in association with the map of the specific area.
  • the visitor terminal information acquisition unit acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal.
  • the image information output unit outputs a composite image in which the virtual image is superimposed on the captured image.
  • the virtual image generated by the virtual information generation unit includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a facility position image and a facility detailed information image, and the facility position image and the facility detailed information image are associated with each other for each facility.
  • the image information output unit superimposes the facility position image on a position corresponding to the image of the facility, provides a window unit, and displays an image displaying the facility detailed information image on the window unit.
  • the map information management unit calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility position information.
  • the terminal screen control unit Based on the calculated distance, the terminal screen control unit generates at least one image of an integrated image in which the facility position images of a plurality of the facilities are integrated and an integrated image in which the integrated images are unintegrated.
  • the image information output unit outputs at least one of the integrated image and the unintegrated image to the visitor's terminal.
  • Guide device. (Appendix 2)
  • the terminal screen control unit generates at least one of the integrated image and the integrated release image based on a predetermined reference distance.
  • the reference distance is a reference distance of two or more steps according to the position of the facility from the terminal of the visitor.
  • the facility position images are integrated or unintegrated step by step according to the two or more reference distance stages.
  • the guide device according to Appendix 2. (Appendix 4) On the map, the area unit to be integrated is defined according to the reference distance of the two or more steps.
  • the guide device according to Appendix 3. (Appendix 5)
  • it includes a terminal selection information acquisition unit.
  • the terminal selection information acquisition unit acquires selection information regarding the facility position image selected from the plurality of facility position images corresponding to the plurality of facilities.
  • the window unit displays the facility detailed information image associated with the selected facility position image based on the selection information.
  • the guide device according to any one of Supplementary note 1 to 4. (Appendix 6)
  • the window unit can display a plurality of the facility detailed information images on a transitionable screen.
  • the map information management unit manages the position information of the visitor's terminal and the orientation information of the visitor's terminal on the map.
  • the image information output unit can control the order of screens to be transitioned and displayed in the window unit based on the position information of the visitor's terminal and the orientation information of the visitor's terminal managed on the map.
  • the guide device according to any one of Supplementary Provisions 1 to 5. (Appendix 7)
  • the image information output unit identifies the front direction of the visitor based on the position information of the visitor's terminal and the orientation information of the visitor's terminal managed on the map.
  • the guide device according to Appendix 6, wherein the order of the screens displayed by transitioning in the window unit in the image information output unit is the order of the facilities arranged in the left-right direction in the front direction.
  • the facility detailed information image is an image having a hierarchical structure of one layer or two or more layers.
  • (Appendix 9) In addition, it includes a terminal screen operation information acquisition unit.
  • the terminal screen operation information acquisition unit acquires operation information for the screen of the visitor's terminal, and obtains operation information.
  • the guide device according to any one of Supplementary note 6 to 8, wherein the image information output unit transitions the screen of the window unit according to the operation information.
  • the specific area information acquisition unit acquires information about the specific area and obtains information about the specific area.
  • the virtual information generation unit generates a virtual image related to the specific area based on the information about the specific area.
  • the guide device according to any one of Supplementary note 1 to 9.
  • the visitor information acquisition unit acquires information about the visitor and obtains information about the visitor.
  • the image information output unit outputs a composite image in which the virtual image is superimposed on the captured image according to the information about the visitor.
  • the guide device according to any one of Supplementary note 1 to 10. (Appendix 12) Including guide device and terminal
  • the guide device is the guide device according to any one of Supplementary note 1 to 11.
  • the terminal is the terminal of the visitor,
  • the guide device and the terminal can communicate with each other via a communication network. Guide system.
  • Imaging information acquisition process includes imaging information acquisition process, virtual information generation process, map information management process, visitor terminal information acquisition process, image information output process, and terminal screen control process.
  • image pickup information acquisition step an image captured by a terminal of a visitor in a specific area is acquired.
  • the virtual information generation step generates a virtual image relating to the specific area, and generates a virtual image.
  • the map information management process manages the facility location information in association with the map of the specific area.
  • the visitor terminal information acquisition step acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal.
  • image information output step a composite image in which the virtual image is superimposed on the captured image is output.
  • the virtual image generated in the virtual information generation step includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a facility position image and the facility detailed information image, and the facility position image and the facility detailed information image are linked to each other for each facility.
  • the image information output step in the captured image, the facility position image is superimposed on the position corresponding to the image of the facility, a window portion is provided, and an image for displaying the facility detailed information image is displayed on the window portion.
  • the map information management step calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility position information.
  • the terminal screen control step generates at least one image of an integrated image in which the facility position images of a plurality of the facilities are integrated and an integrated image in which the integrated images are unintegrated, based on the calculated distance.
  • the image information output step outputs at least one of the integrated image and the integrated release image to the visitor's terminal.
  • Guide method. (Appendix 14)
  • the terminal screen control step generates at least one of the integrated image and the integrated release image based on a predetermined reference distance.
  • the reference distance is a reference distance of two or more steps depending on the position of the facility from the terminal of the visitor.
  • the facility position images are integrated or unintegrated step by step according to the two or more reference distance stages.
  • the guide method described in Appendix 14. On the map, the area unit to be integrated is defined according to the reference distance of the two or more steps.
  • the guide method according to Appendix 15. (Appendix 17) In addition, it includes a terminal selection information acquisition process.
  • the terminal selection information acquisition step acquires selection information regarding the facility position image selected from the plurality of facility position images corresponding to the plurality of facilities.
  • the window unit displays the facility detailed information image associated with the selected facility position image based on the selection information.
  • the guide method according to any one of Supplementary Notes 13 to 16.
  • the window unit can display a plurality of the facility detailed information images on a transitionable screen.
  • the map information management process manages the position information of the visitor's terminal and the orientation information of the visitor's terminal on the map.
  • the image information output process can control the order of screens to be transitioned and displayed in the window unit based on the position information of the visitor's terminal and the orientation information of the visitor's terminal managed on the map.
  • the guide method according to any one of Supplementary Provisions 13 to 17. (Appendix 19)
  • the image information output process identifies the front direction of the visitor based on the position information of the visitor's terminal and the orientation information of the visitor's terminal managed on the map.
  • the guide method according to Appendix 18, wherein the order of the screens transitioned and displayed in the window portion in the image information output step is the order of the facilities arranged in the left-right direction in the front direction.
  • the facility detailed information image is an image having a hierarchical structure of one layer or two or more layers.
  • the guide method according to Appendix 18 or 19, wherein the window portion can display the facility detailed information image on a screen in which an image for each layer can be changed.
  • Appendix 21 In addition, it includes a terminal screen operation information acquisition process. In the terminal screen operation information acquisition process, operation information for the terminal screen of the visitor is acquired, and the operation information is acquired.
  • the guide method according to any one of the appendices 18 to 20, wherein the image information output step is a transition of the screen of the window portion by the operation information.
  • it includes a specific area information acquisition process In addition, it includes a specific area information acquisition process. The specific area information acquisition process acquires information about the specific area and obtains information.
  • the virtual information generation step generates a virtual image related to the specific area based on the information about the specific area.
  • the guide method according to any one of Supplementary Notes 13 to 21. (Appendix 23) In addition, it includes a visitor information acquisition process.
  • the visitor information acquisition process acquires information about the visitor and obtains information about the visitor.
  • the image information output step outputs a composite image in which the virtual image is superimposed on the captured image according to the information about the visitor.
  • the guide method according to any one of Supplementary Notes 13 to 22.
  • Appendix 24 A program for causing a computer to execute a procedure including an imaging information acquisition procedure, a virtual information generation procedure, a map information management procedure, a visitor terminal information acquisition procedure, an image information output procedure, and a terminal screen control procedure;
  • image pickup information acquisition procedure an image captured by a terminal of a visitor in a specific area is acquired.
  • the virtual information generation procedure generates a virtual image relating to the specific area and generates a virtual image.
  • the map information management procedure manages the facility location information in association with the map of the specific area.
  • the visitor terminal information acquisition procedure acquires the position information of the visitor's terminal and the orientation information of the visitor's terminal.
  • the image information output procedure a composite image in which the virtual image is superimposed on the captured image is output.
  • the virtual image generated in the virtual information generation procedure includes a virtual image for each facility in the specific area.
  • the virtual image for each facility includes a facility position image and the facility detailed information image, and the facility position image and the facility detailed information image are linked to each other for each facility.
  • the image information output procedure in the captured image, the facility position image is superimposed on the position corresponding to the image of the facility, a window portion is provided, and an image for displaying the facility detailed information image is displayed on the window portion.
  • the map information management procedure calculates the distance between the visitor's terminal and the facility on the map based on the position information of the visitor's terminal and the facility location information.
  • the terminal screen control procedure generates at least one image of an integrated image in which the facility position images of a plurality of the facilities are integrated and an integrated image in which the integrated images are deintegrated, based on the calculated distance.
  • the image information output procedure outputs at least one of the integrated image and the integrated release image to the visitor's terminal.
  • the terminal screen control procedure generates at least one of the integrated image and the unintegrated image based on a predetermined reference distance.
  • the reference distance is a reference distance of two or more steps depending on the position of the facility from the terminal of the visitor.
  • the facility position images are integrated or unintegrated step by step according to the two or more reference distance stages.
  • the terminal selection information acquisition procedure acquires selection information regarding the facility position image selected from the plurality of facility position images corresponding to the plurality of facilities.
  • the window unit displays the facility detailed information image associated with the selected facility position image based on the selection information.
  • the window unit can display a plurality of the facility detailed information images on a transitionable screen.
  • the map information management procedure manages the position information of the visitor's terminal and the orientation information of the visitor's terminal on the map.
  • the image information output procedure can control the order of screens to be transitioned and displayed in the window unit based on the position information of the visitor's terminal and the orientation information of the visitor's terminal managed on the map.
  • the program according to any one of Supplementary Provisions 24 to 28. (Appendix 30)
  • the image information output procedure identifies the front direction of the visitor based on the position information of the visitor's terminal and the orientation information of the visitor's terminal managed on the map.
  • the program according to Appendix 29, wherein the order of the screens to be displayed by transitioning in the window portion in the image information output procedure is the order of the facilities arranged in the left-right direction in the front direction.
  • the facility detailed information image is an image having a hierarchical structure of one layer or two or more layers.
  • (Appendix 32) In addition, including the terminal screen operation information acquisition procedure, In the terminal screen operation information acquisition procedure, operation information for the terminal screen of the visitor is acquired, and the operation information is acquired.
  • the specific area information acquisition procedure acquires information about the specific area and obtains information.
  • the virtual information generation procedure generates a virtual image related to the specific area based on the information about the specific area.
  • the program according to any one of Supplementary Provisions 24 to 32. (Appendix 34)
  • the visitor information acquisition procedure acquires information about the visitor and obtains information about the visitor.
  • the image information output procedure outputs a composite image in which the virtual image is superimposed on the captured image according to the information about the visitor.
  • Appendix 35 A computer-readable recording medium recording the program according to any one of Supplementary Provisions 24 to 34.
  • information by AR can be displayed on the terminal of a user (visitor) in an easy-to-understand manner, the AR image becomes easy to see, and the operation of the terminal screen becomes easy. Therefore, according to the present invention, it is useful in various fields to which AR technology can be applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

来場者の端末画面にARによる情報を分かりやすく表示することが可能なガイド装置を提供する。 本発明のガイド装置(10)において、仮想情報生成部(12)は、特定エリアの施設毎の施設位置画像及び施設詳細情報画像を含む仮想画像を生成し、マップ情報管理部(13)は、前記特定エリアのマップ上において、来場者端末位置情報及び施設位置情報に基づき、来場者端末と施設との距離を算出し、端末画面制御部(16)は、前記距離に基づき、統合画像及び統合解除画像の少なくとも一方の画像を生成し、画像情報出力部(15)は、撮像画像に前記仮想画像を重畳した合成画像と、前記統合画像及び前記統合解除画像の少なくとも一方とを出力する。

Description

ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体
 本発明は、ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体に関する。
 近年、AR(Augmented Reality:拡張現実感)技術を用いて、商品等を宣伝する技術が提案されている(例えば、特許文献1)。
特開2018-147137号公報
 最近では、展示会が催され、展示会場で商品等を宣伝することが多く実施されている。このため、展示会場において、ARを利用した商品等の宣伝や情報の発信が考えられる。一方、展示会場は広く、また、出展ブースも多いため、来場者の端末(スマートホン、タブレット等)にARを利用した情報を表示すると、端末画面に多数のAR画像が表示されて見難くなり、かつ、端末画面に対する操作もし難くなる。この問題は、展示会場に限らず、イベント会場、デパート、大学等の学校、大病院、ショッピングモールなどの大型施設でも問題になる。
 そこで、本発明は、展示会場の大型施設等において、ユーザ(来場者)の端末画面にARによる情報を分かりやすく表示することが可能であり、かつ、AR画像が見やすく端末画面の操作が容易なガイド装置及びガイド方法の提供を目的とする。
 前記目的を達成するために、本発明のガイド装置は、
撮像情報取得部、仮想情報生成部、マップ情報管理部、来場者端末情報取得部、画像情報出力部、及び、端末画面制御部を含み、
前記撮像情報取得部は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
前記仮想情報生成部は、前記特定エリアに関する仮想画像を生成し、
前記マップ情報管理部は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
前記来場者端末情報取得部は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
前記画像情報出力部は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
前記仮想情報生成部において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
前記施設毎の仮想画像は、施設位置画像及び施設詳細情報画像を含み、前記施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
前記画像情報出力部は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
前記マップ情報管理部は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
前記端末画面制御部は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
前記画像情報出力部は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する、装置である。
 本発明のガイドシステムは、
前記ガイド装置は、前記本発明のガイド装置であり、
前記端末は、前記来場者の端末であり、
前記ガイド装置及び前記端末は、通信回線網を介して通信可能である、システムである。
 本発明のガイド方法は、
撮像情報取得工程、仮想情報生成工程、マップ情報管理工程、来場者端末情報取得工程、画像情報出力工程、及び、端末画面制御工程を含み、
前記撮像情報取得工程は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
前記仮想情報生成工程は、前記特定エリアに関する仮想画像を生成し、
前記マップ情報管理工程は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
前記来場者端末情報取得工程は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
前記画像情報出力工程は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
前記仮想情報生成工程において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
前記施設毎の仮想画像は、施設位置画像及び前記施設詳細情報画像を含み、施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
前記画像情報出力工程は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
前記マップ情報管理工程は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
前記端末画面制御工程は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
前記画像情報出力工程は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する、方法である。
 本発明のプログラムは、
コンピュータに、撮像情報取得手順、仮想情報生成手順、マップ情報管理手順、来場者端末情報取得手順、画像情報出力手順、及び、端末画面制御手順を含む手順を実行させるためのプログラムである。
 前記本発明のプログラムにおいて、
前記撮像情報取得手順は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
前記仮想情報生成手順は、前記特定エリアに関する仮想画像を生成し、
前記マップ情報管理手順は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
前記来場者端末情報取得手順は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
前記画像情報出力手順は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
前記仮想情報生成手順において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
前記施設毎の仮想画像は、施設位置画像及び前記施設詳細情報画像を含み、施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
前記画像情報出力手順は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
前記マップ情報管理手順は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
前記端末画面制御手順は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
前記画像情報出力手順は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する。
 本発明の記録媒体は、前記本発明のプログラムを記録しているコンピュータ読み取り可能な記録媒体である。
 本発明によれば、ユーザ(来場者)の端末に分かりやすくARによる情報を表示することができ、AR画像が見やすくなり、端末画面の操作が容易になる。
図1(A)は、実施形態1の装置の一例の構成を示すブロック図であり、図1(B)は、実施形態4のシステムの一例の構成を示す模式図である。 図2は、実施形態1の装置のハードウエア構成の一例を示すブロック図である。 図3は、実施形態1の装置における処理の一例を示すフローチャートである。 図4は、端末の画面に表示される画像の一例を示す模式図である。 図5は、基準距離と統合するエリアの関係の一例を示す模式図である。 図6は、端末の画面に表示される画像の一例を示す模式図である。 図7は、実施形態2の装置の一例の構成を示すブロック図である。 図8は、実施形態2の装置における処理の一例を示すフローチャートである。 図9は、端末の画面にピンとウインドウ部を表示した一例を示す模式図である。 図10は、端末の画面にピンとウインドウ部を表示した一例を示す模式図である。 図11は、端末の画面にピンとウインドウ部を表示した一例を示す模式図である。 図12は、端末の画面にピンとウインドウ部を表示した一例を示す模式図である。 図13は、端末の画面にピンとウインドウ部を表示した一例を示す模式図である。 図14は、施設詳細情報画像の階層構造の一例を示す模式図である。 図15は、シングルスワイプとマルチスワイプの一例を示す模式図である。
 本発明において、「来場者」とは、特定エリア内に来る人を意味し、ユーザともいう。また、来場者は、来館者、来校者等とも言い換えることができる。
 本発明の実施形態について図を用いて説明する。本発明は、以下の実施形態には限定されない。以下の各図において、同一部分には、同一符号を付している。また、各実施形態の説明は、特に言及がない限り、互いの説明を援用でき、各実施形態の構成は、特に言及がない限り、組合せ可能である。
[実施形態1]
 図1(A)は、本実施形態のガイド装置10の一例の構成を示すブロック図であり、図1(B)は、本実施形態のガイド装置10を含むガイドシステムの一例の構成を示す模式図である。図1(A)に示すように、本装置10は、撮像情報取得部11、仮想情報生成部12、マップ情報管理部13、来場者端末情報取得部14、画像情報出力部15、端末画面制御部16、及び端末選択情報取得部17を含む。なお、端末選択情報取得部17は、任意の構成であり、本装置10に含まれなくてもよい。ガイドシステムについては、後述する。
 本装置10は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、通信回線網30を介して接続可能な装置でもよい。また、本装置10は、通信回線網30を介して、後述する外部装置と接続可能である。通信回線網30は、特に制限されず、公知のネットワークを使用でき、例えば、有線でも無線でもよい。通信回線網30は、例えば、インターネット回線、WWW(World Wide Web)、電話回線、LAN(Local Area Network)、SAN(Storage Area Network)、DTN(Delay Tolerant Networking)等があげられる。無線通信としては、例えば、WiFi(Wireless Fidelity)、Bluetooth(登録商標)等が挙げられる。前記無線通信としては、各装置が直接通信する形態(Ad Hoc通信)、アクセスポイントを介した間接通信のいずれであってもよい。本装置10は、例えば、システムとしてサーバに組み込まれていてもよい。また、本装置10は、例えば、本発明のプログラムがインストールされたパーソナルコンピュータ(PC、例えば、デスクトップ型、ノート型)、端末(例えば、スマートフォン、携帯電話、眼鏡型及び腕時計型等のウェアラブル端末等)等であってもよい。
 図2に、本装置10のハードウエア構成のブロック図を例示する。本装置10は、例えば、中央演算処理装置(CPU、GPU等)101、メモリ102、バス103、記憶装置104、入力装置105、表示装置106、通信デバイス107等を有する。本装置10の各部は、それぞれのインタフェース(I/F)により、バス103を介して相互に接続されている。
 中央演算処理装置101は、本装置10の全体の制御を担う。本装置10において、中央演算処理装置101により、例えば、本発明のプログラムやその他のプログラムが実行され、また、各種情報の読み込みや書き込みが行われる。具体的には、例えば、中央演算処理装置101が、撮像情報取得部11、仮想情報生成部12、マップ情報管理部13、来場者端末情報取得部14、画像情報出力部15、端末画面制御部16、及び端末選択情報取得部17として機能する。
 バス103は、例えば、外部装置とも接続できる。前記外部装置は、例えば、外部記憶装置(外部データベース等)、プリンター等があげられる。本装置10は、例えば、バス103に接続された通信デバイス107により、外部ネットワーク(通信回線網30)に接続でき、外部ネットワークを介して、他の装置と接続することもできる。
 メモリ102は、例えば、メインメモリ(主記憶装置)が挙げられる。中央演算処理装置101が処理を行う際には、例えば、後述する記憶装置104に記憶されている本発明のプログラム等の種々の動作プログラムを、メモリ102が読み込み、中央演算処理装置101は、メモリ102からデータを受け取って、プログラムを実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。また、メモリ102は、例えば、ROM(読み出し専用メモリ)であってもよい。
 記憶装置104は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。前述のように、記憶装置104には、本発明のプログラムを含む動作プログラムが格納されている。記憶装置104は、例えば、記録媒体と、記録媒体に読み書きするドライブとの組合せであってもよい。前記記録媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、CD-ROM、CD-R、CD-RW、MO、DVD、フラッシュメモリー、メモリーカード等が挙げられる。記憶装置104は、例えば、記録媒体とドライブとが一体化されたハードディスクドライブ(HDD)、及びソリッドステートドライブ(SSD)であってもよい。
 本装置10において、メモリ102及び記憶装置104は、ユーザのログ情報、並びに、外部データベース(図示せず)から取得した情報を記憶することも可能である。
 本装置10は、例えば、さらに、入力装置105、表示装置106を含む。入力装置105は、例えば、タッチパネル、キーボード、マウス等である。表示装置106は、例えば、LEDディスプレイ、液晶ディスプレイ等が挙げられる。
 つぎに、本実施形態のガイド方法の一例を、図3のフローチャートに基づき説明する。本実施形態のガイド方法は、例えば、図1又は図2のガイド装置10を用いて、次のように実施する。なお、本実施形態のガイド方法は、図1又は図2のガイド装置10の使用には限定されない。
 まず、撮像情報取得部11により、特定エリアの来場者の端末で撮像された撮像画像を取得する(S1)。前記特定エリアは、特に制限されず、屋内でもよいし、屋外でもよい。前記屋内としては、例えば、展示会場、イベント会場、デパート、大学等の学校等がある。前記来場者の端末は、特に制限されず、例えば、パーソナルコンピュータ、スマートフォン、携帯電話、眼鏡型及び腕時計型等のウェアラブル端末等である。前記撮像画像は、例えば、静止画でもよいし、動画でもよい。前記取得は、例えば、通信回線網30を介して実行される。
 次に、仮想情報生成部12により、前記特定エリアに関する仮想画像を生成する(S2)。また、生成する前記仮想画像は、前記特定エリアの施設毎の仮想画像を含む。前記施設毎の仮想画像は、前記施設の位置画像及び前記施設の詳細情報画像を含み、前記施設の位置画像及び前記施設の詳細情報画像は、前記施設毎に互いに紐づけられている。以下、施設の位置画像を、施設位置画像ともいい、施設の詳細情報画像を施設詳細情報画像ともいう。前記施設詳細情報画像は、例えば、1層又は2層以上の階層構造の画像である。前記位置画像は、例えば、前記施設位置情報に基づく画像である。前記詳細情報画像は、例えば、前記施設の詳細情報に基づく画像である。1つの前記施設位置画像に対し、1つの前記施設詳細情報画像が紐づけられていてもよいし、2つの前記施設詳細情報画像が紐づけられていてもよい。前記施設位置画像及び前記施設詳細情報画像は、例えば、予め、メモリ102や記憶装置104に記憶されていてもよいし、外部のデータベースから通信回線網30を介して取得してもよい。また、後述するように、前記施設位置画像及び前記施設詳細情報画像は、仮想情報生成部12により生成されてもよい。
 前記施設は、前記特定エリア内に設置されているものであれば特に制限されない。具体的には、例えば、展示ブース、売店、テナント、教室、診察室等がある。
 次に、マップ情報管理部13により、前記特定エリアのマップ上に施設位置情報を紐づけて管理する(S3)。前記施設位置情報は、例えば、施設内の位置を示す情報であり、具体的に、展示ブース、テナント、教室等の位置が示されている。
 次に、来場者端末情報取得部14により、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得する(S4)。以下、前記来場者の端末を、来場者端末や端末ともいう。前記端末の位置情報及び向き情報は、例えば、前記特定エリア内に配置された位置コードや方向マークによって端末の位置や向き(方向)を特定された情報である。前記位置コードは、例えば、前記方向マークを兼ねていてもよい。前記位置コード及び前記方向マークは、例えば、QRコード(登録商標)、ARマーカー、バーコード、カメレオンコード(登録商標)等がある。なお、これらに限らず、前記端末の位置情報及び前記端末の向き情報は、公知の技術を用いて特定された情報であってもよい。
 次に、画像情報出力部15により、前記撮像画像に前記仮想画像を重畳した合成画像を出力する(S5)。前記出力は、例えば、通信回線網30を介して、実行されてもよい。前記施設毎の仮想画像は、施設位置画像及び施設詳細情報画像を含み、前記施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられている。また、画像情報出力部15により、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記端末(来場者の端末)に出力する。前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能である。前記施設詳細情報画像が1層又は2層以上の階層構造の画像である場合、前記ウインドウ部は、例えば、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である。前記ウインドウ部については、後述する。
 次に、マップ情報管理部13により、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出する(S6)。前記距離の算出は、例えば、前記マップ上において、前記来場者端末の位置情報と前記施設位置情報とを参照し、それぞれの位置情報から換算することで、前記来場者端末と前記施設との距離を算出できる。
 次に、端末画面制御部16により、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成する(S7)。端末画面制御部16は、例えば、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成してもよい。前記基準距離は、複数の前記施設位置画像を統合した前記統合画像を生成するか、前記統合画像の統合を解除して前記統合解除画像を生成するかを決定する際の基準となる端末及び施設間の距離であり、例えば、任意の距離を設定できる。前記基準距離は、例えば、前記来場者端末からの前記施設の位置に応じて2段階以上の基準距離であってもよい。この場合、端末画面制御部16は、例えば、前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する。前記基準距離が2段階以上の段階を有する場合、前記段階は、特に制限されず、例えば、2段階、3段階、4段階等があげられる。また、端末画面制御部16は、前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されていてもよい。
 そして、画像情報出力部15により、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力し(S8)、処理を終了する(END)。
 なお、ガイド装置10が、端末選択情報取得部17を有する場合、端末選択情報取得部17により、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得してもよい(端末選択情報取得工程)。この場合、前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置情報に紐づけられた前記施設詳細情報画像を表示する。図示していないが、前記端末選択情報取得工程は、例えば、図3に示すS5工程より後であれば任意のタイミングで実行できる。
 本実施形態のガイド装置10は、端末画面制御部16により、前記端末と前記施設との距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成する。このため、例えば、展示会場等の大型施設において、来場者の端末画面にARによる情報を分かりやすく表示することが可能である。これにより、来場者は、AR画像が見やすくなるため、端末画面の操作も容易になる。
[実施形態2]
 図4から図6を用いて、端末画面制御部16による、統合画像及び統合解除画像の生成の一例を説明する。
 まず、図4に示すように、端末20の画面(ディスプレイ)に、前記合成画像が表示される。前記施設位置画像は、例えば、展示ブースの位置を示すピン画像4(4a~4c)である。ピン画像4には、例えば、それぞれ識別情報が付与されてもよい。前記識別情報は、例えば、数字、文字、記号、及びこれらの2つ以上の組み合わせ等である。前記合成画像上のピン画像4は、前記施設位置情報に基づく位置に配置される。
 図5は、前記基準距離が(1)近距離、(2)中距離、(3)遠距離の3段階であり、前記近距離が、前記端末を中心とした、半径15m未満の領域であり、前記中距離が、前記端末を中心とした、半径15m以内且つ半径30m未満の領域であり、前記遠距離が、前記端末を中心とした、半径30m以上の領域である場合における、結合画像及び結合解除画像の生成の一例を示す図である。なお、前記基準距離の各数値は、例示であり、本発明はこれには制限されない。図5に示すように、例えば、来場者の端末20を中心として、前記近距離の領域内にある展示ブースについては、各展示ブースに対応するピン4を、統合解除画像4Aとして生成する。また、来場者の端末20からの距離が前記中距離の領域にある展示ブースについては、前記中距離に該当するエリアを8等分し、各エリア内に位置する複数の展示ブースについて、ピン4を統合した中距離統合画像4Bを生成する。そして、来場者の端末20からの距離が前記遠距離の領域にある展示ブースについては、前記遠距離に該当するエリアを4等分し、各エリア内に位置する複数の展示ブースについて、前記ピンを統合した遠距離統合画像4Cを生成する。なお、中距離及び遠距離における各エリアの分割数は、例示であり、これには制限されない。
 図6に、統合解除画像4A、中距離統合画像4B、遠距離統合画像4Cを表示した端末の例を示す。このように、来訪者の端末からの距離に基づき、統合画像及び統合解除画像を生成、表示することで、例えば、前記端末からの距離が近い展示ブースは、より正確な位置を判別でき、前記端末からの距離が遠い展示ブースも容易に視認及び操作可能に表示できる。
 一般に、ARにおいて、位置情報を示すピン画像を表示する場合、対象物が端末の位置から離れるほどピンのサイズが小さくなり、視認及び操作が難しくなる。本発明によれば、前記基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成、表示するため、展示会場等の大型施設において、来場者の端末画面にARによる情報を分かりやすく表示することが可能である。これにより、来場者は、AR画像が見やすくなるため、端末画面の操作も容易になる。
[実施形態3]
 図7及び図8を用いて、本発明のガイド装置の別の形態について説明する。図7に示すように、本実施形態のガイド装置10Aは、前記実施形態1及び2のガイド装置10の構成に加えて、さらに、端末画面操作情報取得部18、特定エリア情報取得部19、及び来場者情報取得部21を含む。本実施形態のガイド装置10Aのハードウエア構成は、図2に示す前記実施形態1のガイド装置10のハードウエア構成において、中央演算処理装置101が、前記図1に示すガイド装置10の構成に代えて、図7に示すガイド装置10Aの構成を備える以外は同様である。
 つぎに、本実施形態のガイド方法の一例を、図8のフローチャートを用いて説明する。本実施形態のガイド方法は、例えば、図7のガイド装置10Aを用いて、次のように実施する。なお、本実施形態のガイド方法は、図7のガイド装置10Aの使用には限定されない。
 まず、前記実施形態1の図3に示す(S1)~(S8)と同様にして、(S1)~(S8)を実行する。
 つぎに、端末画面操作情報取得部18により、前記端末の画面に対する操作情報を取得する(S9)。前記操作情報は、例えば、前記来場者操作に関する情報であり、具体的には、前記端末の画面(端末画面)に対するスワイプ操作、視線の検出、瞬きの検出、音声による指示、前記端末画面に対するタップ操作、及びこれらの2つ以上の組み合わせ等であってもよい。そして、画像情報出力部15により、前記操作情報により前記ウインドウ部の画面を遷移させる。
 そして、画像情報出力部15により、前記マップ上で管理されている前記端末の位置情報及び前記端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御し(S10)、処理を終了する(END)。画像情報出力部15は、例えば、前記マップ上で管理されている前記端末の位置情報及び前記端末の向き情報に基づき来場者の正面方向を特定してもよい。この場合、前記ウインドウ部で遷移させて表示する画面の順番は、例えば、前記正面方向での左右方向に並ぶ前記施設の順番である。
 前記施設詳細情報画像が、階層構造の画像であり、且つ前記ウインドウ部が、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である場合、来場者が一本指で前記端末の画面(端末画面)をスワイプした場合は、例えば、前記階層毎に前記ウインドウ部の画面が遷移する。一方で、来場者が二本指以上で前記端末画面をスワイプした場合は、例えば、前記施設詳細情報画像毎に前記ウインドウ部の画面が遷移する。具体的には、後述する。
 さらに、特定エリア情報取得部19により、前記特定エリアの前記施設に関する施設詳細情報を取得してもよい(S11)。前記工程(S11)は、例えば、図8に示すように、前記工程(S1)と並行して処理してもよい。前記取得は、例えば、通信回線網30を介して、実行されてもよいし、入力装置105による入力により、実行されてもよい。前記施設詳細情報は、例えば、出展ブース等に関する情報であり、より具体的には、会社名、会社紹介情報、商品及びサービス等の情報等である。そして、仮想情報生成部12により、例えば、前記施設詳細情報に基づき前記施設詳細情報画像を生成する。また、仮想情報生成部12は、前記施設位置情報に基づき、前記施設位置画像を生成してもよい。
 さらに、来場者情報取得部21により、前記来場者に関する情報を取得してもよい(S12)。前記工程(S12)は、例えば、図8に示すように、前記工程(S1)と並行して処理してもよい。前記取得は、例えば、通信回線網30を介して、実行されてもよいし、入力装置105による入力により、実行されてもよい。前記来場者に関する情報とは、例えば、来場者の属性(性別、年齢、職業)、来場の目的(視察、商談等)、興味ある出展ブース(エリア)等である。そして、画像情報出力部15により、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する。具体的には、例えば、前記仮想画像として、リコメンド情報、スケジュール情報、出展ブース情報等がある。リコメンド情報とは、例えば、前記来場者に関する情報に基づいて、前記来場者に推奨する情報(例えば、おすすめのイベント、おすすめの出展ブース等である)。スケジュール情報は、例えば、前記特定エリア内で行われるイベントのスケジュールを示す情報である。前記イベントとしては、例えば、デモンストレーション、セミナー等が挙げられる。前記イベントは、主催者が進行するイベントでもよいし、出展者が進行するイベントでもよい。出展ブース情報は、例えば、会社名、会社紹介情報、商品及びサービス等の情報等である。
 図9~図13に基づき、端末の画面に前記ピンとウインドウ部を表示した一例を説明する。以下、特定エリアとして、展示会場を想定して説明するが、前述のように、これに限定されない。
 まず、図9に示すように、端末20の画面(ディスプレイ)に、前記合成画像が表示される。前記施設位置画像は、例えば、展示ブースの位置を示すピン画像4a~4cである。ピン画像4a~4cには、例えば、それぞれ識別情報が付与されてもよい。前記識別情報は、例えば、前述と同様である。ピン画像4a~4cは、例えば、前記施設位置情報に基づく位置に配置される。また、前記ウインドウ部は、例えば、図9に示すように、前記合成画像の下部に配置されてもよいが、例示であってこれに限定されない。前記ウインドウ部は、複数の前記施設詳細情報画像を遷移して表示する。図9において、ウインドウ部(Window)には、会社A(A Corp.)の施設詳細情報画像が表示されている。
 前記ウインドウ部で遷移させて表示する画面の順番について説明する。図10上部には、特定エリアの各施設(ブース)及びユーザ1(端末20)の正面方向2を示す。図10下段では、端末20及び施設詳細情報画像の一群の例を示す。図10において、端末20には、施設詳細情報画像Bが表示されている。まず、前記ウインドウ部で遷移させて表示する画面の順番は、端末20の位置と最も距離が近いグループである展示ブース(ピン画像)A~Cに対応する施設詳細情報画像A~Cをユーザ1の正面方向2での左右方向に並ぶ施設(ブース)の順番にする。次に、前記施設詳細情報画像A~Cに続けて、端末20の位置と2番目に距離が近いグループ「近G」である展示ブース(ピン画像)「近G1」及び「近G2」に対応する施設詳細情報画像「近G1」及び「近G2」をユーザ1の正面方向2での左右方向に並ぶ施設(ブース)の順番にする。さらに続けて、端末20の位置と最も距離が遠いグループ「遠G」である展示ブース(ピン画像)「遠G1」及び「遠G2」に対応する施設詳細情報画像「遠G1」及び「遠G2」をユーザ1の正面方向2での左右方向に並ぶ施設(ブース)の順番にする。
 前記ウインドウ部で遷移させて表示する画面の順番について、さらに説明する。図11の左側に示す位置にユーザ1がおり、ユーザ1の正面方向2からみて左から順に展示ブース(ピン画像)B、A、Cがある場合、前記ウインドウ部には、展示ブースB、A、Cの順で前記施設詳細情報画像が表示される。また、図11の下側に示す位置にユーザ1がおり、ユーザ1の正面方向2からみて左から順に展示ブース(ピン画像)A、B、Cがある場合、前記ウインドウ部には、展示ブースA、B、Cの順で前記施設詳細情報画像が表示される。さらに、図11の右側に示す位置にユーザ1がおり、ユーザ1の正面方向2からみて左から順に展示ブース(ピン画像)C、A、Bがある場合、前記ウインドウ部には、展示ブースC、A、Bの順で前記施設詳細情報画像が表示される。このように、ユーザ1(端末20)の位置及び方向によって、展示ブースの前後左右方向が変わる。言い換えれば、画像情報出力部15により、端末20の位置情報及び端末20の向き情報に基づきユーザ1の正面方向2を特定し、特定したユーザ1の正面方向2に応じて、表示する前記施設詳細情報画像の順番が遷移する。また、図12に示すように、ユーザ1の周囲(ユーザ1を中心とした360度)に、展示ブース(ピン)がある場合、ユーザ1の回転(右回転又は左回転)に応じて、前記施設の順番(表示する前記施設詳細情報画像)が遷移してもよい。
 また、図13に示すように、端末20の画面上の前記ウインドウ部に施設詳細情報画像が表示されると、前記施設詳細情報画像と対応するピン画像(施設位置画像)が連動して、選択状態となってもよい。前記選択状態とは、例えば、ユーザ1がピン画像を選択していることを示す情報である。具体的に、図13(A)では、ピン画像(A)が前記選択状態であり、図13(B)では、ピン画像(B)が前記選択状態であり、図13(C)では、ピン画像(C)が前記選択状態である。
 つぎに、図14及び図15に基づき、前記施設詳細情報画像の階層構造について説明する。
 図14は、前記施設詳細情報画像の階層構造の一例を示す。図14に示すように、施設詳細情報画像は、施設詳細情報画像(a)の下層に、施設詳細情報画像(a1)~(a3)があり、施設詳細情報画像(a3)の下層に、施設詳細情報画像(a3-1)~(a3-3)がある。施設詳細情報画像(a)は、会社名を示す施設詳細情報に基づく画像である。施設詳細情報画像(a1)は、会社紹介を示す施設詳細情報に基づく画像であり、施設詳細情報画像(a2)は、代表者等のあいさつを示す施設詳細情報に基づく画像であり、施設詳細情報画像(a3)は、商品及びサービス等を示す施設詳細情報に基づく画像である。施設詳細情報画像(a3-1)~(a3-3)は、商品A、商品B、及び商品Cのそれぞれを示す施設詳細情報に基づく画像である。
 図15は、シングルスワイプとマルチスワイプの一例を示す。図15(A)に示すように、ユーザが一本指で端末20の画面を左から右方向にスワイプ(シングルスワイプともいう)した場合は、例えば、表示されている施設詳細情報画像(a)の下層である施設詳細情報画像(a1)が端末20に表示される。施設詳細情報画像(a1)~(a3)の順番は、特に制限されず、例えば、出展者が任意に設定できる。一方で、図15(B)に示すように、ユーザが二本指以上で端末20の画面を左から右方向にスワイプ(マルチスワイプともいう)した場合は、例えば、表示されている施設詳細情報画像(a)の下層でない他の施設詳細情報画像(b)が端末20に表示される。すなわち、端末20は、施設詳細情報画像(a1)~(a3)及び施設詳細情報画像(a3-1)~(a3-3)を飛ばして(表示せず)、施設詳細情報画像(b)を表示する。なお、前記スワイプの方向は、例示であって、これに限定されない。前記スワイプの方向は、例えば、右から左方向、上から下方向、及び下から上方向等にスワイプされてもよい。
[実施形態4]
 図1(B)は、本実施形態のガイドシステムの一例の構成を示す模式図である。図1(B)に示すように、本実施形態のガイドシステムは、実施形態1~3のいずれかに記載のガイド装置10と、端末20と、を含む。端末20は、前記特定エリアの来場者の前記端末である。ガイド装置10及び端末20は、通信回線網30を介して通信可能である。ガイドシステムは、ガイドシステム装置ともいう。
 本実施形態のガイドシステムは、例えば、さらに、出展者の端末を含んでもよい。前記出展者の端末とは、例えば、パーソナルコンピュータ、スマートフォン、携帯電話、眼鏡型及び腕時計型等のウェアラブル端末等である。ガイド装置10及び前記出展者の端末は、例えば、通信回線網30を介して通信可能である。
[実施形態5]
 本実施形態のプログラムは、本発明の方法の各工程を、手順として、コンピュータに実行させるためのプログラムである。本発明において、「手順」は、「処理」と読み替えてもよい。また、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されていてもよい。前記記録媒体は、例えば、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)である。前記記録媒体としては、特に限定されず、例えば、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク等が挙げられる。
 以上、実施形態を参照して本発明を説明したが、本発明は、上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をできる。
 この出願は、2020年6月15日に出願された日本出願特願2020-102761を基礎とする優先権を主張し、その開示の全てをここに取り込む。
<付記>
 上記の実施形態の一部又は全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
撮像情報取得部、仮想情報生成部、マップ情報管理部、来場者端末情報取得部、画像情報出力部、及び、端末画面制御部を含み、
前記撮像情報取得部は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
前記仮想情報生成部は、前記特定エリアに関する仮想画像を生成し、
前記マップ情報管理部は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
前記来場者端末情報取得部は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
前記画像情報出力部は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
前記仮想情報生成部において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
前記施設毎の仮想画像は、施設位置画像及び施設詳細情報画像を含み、前記施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
前記画像情報出力部は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
前記マップ情報管理部は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
前記端末画面制御部は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
前記画像情報出力部は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する、
ガイド装置。
(付記2)
前記端末画面制御部は、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成する、
付記1記載のガイド装置。
(付記3)
前記端末画面制御部において、前記基準距離は、前記来場者の端末からの前記施設の位置に応じて2段階以上の基準距離であり、
前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する、
付記2記載のガイド装置。
(付記4)
前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されている、
付記3記載のガイド装置。
(付記5)
さらに、端末選択情報取得部を含み、
前記端末選択情報取得部は、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得し、
前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置画像に紐づけられた前記施設詳細情報画像を表示する、
付記1から4のいずれかに記載のガイド装置。
(付記6)
前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能であり、
前記マップ情報管理部は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を前記マップ上で管理し、
前記画像情報出力部は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御可能である、付記1から5のいずれかに記載のガイド装置。
(付記7)
前記画像情報出力部は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき来場者の正面方向を特定し、
前記画像情報出力部における前記ウインドウ部で遷移させて表示する画面の順番は、前記正面方向での左右方向に並ぶ前記施設の順番である付記6記載のガイド装置。
(付記8)
前記施設詳細情報画像は、1層又は2層以上の階層構造の画像であり、
前記ウインドウ部は、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である、付記6又は7記載のガイド装置。
(付記9)
さらに、端末画面操作情報取得部を含み、
前記端末画面操作情報取得部は、前記来場者の端末の画面に対する操作情報を取得し、
前記画像情報出力部は、前記操作情報により前記ウインドウ部の画面を遷移させる、付記6から8のいずれかに記載のガイド装置。
(付記10)
さらに、特定エリア情報取得部を含み、
前記特定エリア情報取得部は、前記特定エリアに関する情報を取得し、
前記仮想情報生成部は、前記特定エリアに関する情報に基づき前記特定エリアに関する仮想画像を生成する、
付記1から9のいずれかに記載のガイド装置。
(付記11)
さらに、来場者情報取得部を含み、
前記来場者情報取得部は、前記来場者に関する情報を取得し、
前記画像情報出力部は、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する、
付記1から10のいずれかに記載のガイド装置。
(付記12)
ガイド装置、及び、端末を含み、
前記ガイド装置は、付記1から11のいずれかに記載のガイド装置であり、
前記端末は、前記来場者の端末であり、
前記ガイド装置及び前記端末は、通信回線網を介して通信可能である、
ガイドシステム。
(付記13)
撮像情報取得工程、仮想情報生成工程、マップ情報管理工程、来場者端末情報取得工程、画像情報出力工程、及び、端末画面制御工程を含み、
前記撮像情報取得工程は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
前記仮想情報生成工程は、前記特定エリアに関する仮想画像を生成し、
前記マップ情報管理工程は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
前記来場者端末情報取得工程は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
前記画像情報出力工程は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
前記仮想情報生成工程において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
前記施設毎の仮想画像は、施設位置画像及び前記施設詳細情報画像を含み、施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
前記画像情報出力工程は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
前記マップ情報管理工程は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
前記端末画面制御工程は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
前記画像情報出力工程は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する、
ガイド方法。
(付記14)
前記端末画面制御工程は、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成する、
付記13記載のガイド方法。
(付記15)
前記端末画面制御工程において、前記基準距離は、前記来場者の端末からの前記施設の位置に応じて2段階以上の基準距離であり、
前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する、
付記14記載のガイド方法。
(付記16)
前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されている、
付記15記載のガイド方法。
(付記17)
さらに、端末選択情報取得工程を含み、
前記端末選択情報取得工程は、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得し、
前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置画像に紐づけられた前記施設詳細情報画像を表示する、
付記13から16のいずれかに記載のガイド方法。
(付記18)
前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能であり、
前記マップ情報管理工程は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を前記マップ上で管理し、
前記画像情報出力工程は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御可能である、付記13から17のいずれかに記載のガイド方法。
(付記19)
前記画像情報出力工程は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき来場者の正面方向を特定し、
前記画像情報出力工程における前記ウインドウ部で遷移させて表示する画面の順番は、前記正面方向での左右方向に並ぶ前記施設の順番である付記18記載のガイド方法。
(付記20)
前記施設詳細情報画像は、1層又は2層以上の階層構造の画像であり、
前記ウインドウ部は、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である、付記18又は19記載のガイド方法。
(付記21)
さらに、端末画面操作情報取得工程を含み、
前記端末画面操作情報取得工程は、前記来場者の端末の画面に対する操作情報を取得し、
前記画像情報出力工程は、前記操作情報により前記ウインドウ部の画面を遷移させる、付記18から20のいずれかに記載のガイド方法。
(付記22)
さらに、特定エリア情報取得工程を含み、
前記特定エリア情報取得工程は、前記特定エリアに関する情報を取得し、
前記仮想情報生成工程は、前記特定エリアに関する情報に基づき前記特定エリアに関する仮想画像を生成する、
付記13から21のいずれかに記載のガイド方法。
(付記23)
さらに、来場者情報取得工程を含み、
前記来場者情報取得工程は、前記来場者に関する情報を取得し、
前記画像情報出力工程は、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する、
付記13から22のいずれかに記載のガイド方法。
(付記24)
コンピュータに、撮像情報取得手順、仮想情報生成手順、マップ情報管理手順、来場者端末情報取得手順、画像情報出力手順、及び、端末画面制御手順を含む手順を実行させるためのプログラム;
前記撮像情報取得手順は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
前記仮想情報生成手順は、前記特定エリアに関する仮想画像を生成し、
前記マップ情報管理手順は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
前記来場者端末情報取得手順は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
前記画像情報出力手順は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
前記仮想情報生成手順において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
前記施設毎の仮想画像は、施設位置画像及び前記施設詳細情報画像を含み、施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
前記画像情報出力手順は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
前記マップ情報管理手順は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
前記端末画面制御手順は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
前記画像情報出力手順は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する。
(付記25)
前記端末画面制御手順は、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成する、
付記24記載のプログラム。
(付記26)
前記端末画面制御手順において、前記基準距離は、前記来場者の端末からの前記施設の位置に応じて2段階以上の基準距離であり、
前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する、
付記25記載のプログラム。
(付記27)
前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されている、
付記26記載のプログラム。
(付記28)
さらに、端末選択情報取得手順を含み、
前記端末選択情報取得手順は、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得し、
前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置画像に紐づけられた前記施設詳細情報画像を表示する、
付記24から27のいずれかに記載のプログラム。
(付記29)
前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能であり、
前記マップ情報管理手順は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を前記マップ上で管理し、
前記画像情報出力手順は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御可能である、付記24から28のいずれかに記載のプログラム。
(付記30)
前記画像情報出力手順は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき来場者の正面方向を特定し、
前記画像情報出力手順における前記ウインドウ部で遷移させて表示する画面の順番は、前記正面方向での左右方向に並ぶ前記施設の順番である付記29記載のプログラム。
(付記31)
前記施設詳細情報画像は、1層又は2層以上の階層構造の画像であり、
前記ウインドウ部は、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である、付記29又は30記載のプログラム。
(付記32)
さらに、端末画面操作情報取得手順を含み、
前記端末画面操作情報取得手順は、前記来場者の端末の画面に対する操作情報を取得し、
前記画像情報出力手順は、前記操作情報により前記ウインドウ部の画面を遷移させる、付記24から31のいずれかに記載のプログラム。
(付記33)
さらに、特定エリア情報取得手順を含み、
前記特定エリア情報取得手順は、前記特定エリアに関する情報を取得し、
前記仮想情報生成手順は、前記特定エリアに関する情報に基づき前記特定エリアに関する仮想画像を生成する、
付記24から32のいずれかに記載のプログラム。
(付記34)
さらに、来場者情報取得手順を含み、
前記来場者情報取得手順は、前記来場者に関する情報を取得し、
前記画像情報出力手順は、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する、
付記24から33のいずれかに記載のプログラム。
(付記35)
付記24から34のいずれかに記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
 本発明によれば、ユーザ(来場者)の端末に分かりやすくARによる情報を表示することができ、AR画像が見やすくなり、端末画面の操作が容易になる。このため、本発明によれば、AR技術を適用可能な様々な分野に有用である。
10 ガイド装置
11 撮像情報取得部
12 仮想情報生成部
13 マップ情報管理部
14 来場者端末情報取得部
15 画像情報出力部
16 端末画面制御部
17 端末選択情報取得部
18 端末画面操作情報取得部
19 特定エリア情報取得部
21 来場者情報取得部
20 来場者の端末
30 通信回線網

 

Claims (35)

  1. 撮像情報取得部、仮想情報生成部、マップ情報管理部、来場者端末情報取得部、画像情報出力部、及び、端末画面制御部を含み、
    前記撮像情報取得部は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
    前記仮想情報生成部は、前記特定エリアに関する仮想画像を生成し、
    前記マップ情報管理部は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
    前記来場者端末情報取得部は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
    前記画像情報出力部は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
    前記仮想情報生成部において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
    前記施設毎の仮想画像は、施設位置画像及び施設詳細情報画像を含み、前記施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
    前記画像情報出力部は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
    前記マップ情報管理部は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
    前記端末画面制御部は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
    前記画像情報出力部は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する、
    ガイド装置。
  2. 前記端末画面制御部は、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成する、
    請求項1記載のガイド装置。
  3. 前記端末画面制御部において、前記基準距離は、前記来場者の端末からの前記施設の位置に応じて2段階以上の基準距離であり、
    前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する、
    請求項2記載のガイド装置。
  4. 前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されている、
    請求項3記載のガイド装置。
  5. さらに、端末選択情報取得部を含み、
    前記端末選択情報取得部は、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得し、
    前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置画像に紐づけられた前記施設詳細情報画像を表示する、
    請求項1から4のいずれか一項に記載のガイド装置。
  6. 前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能であり、
    前記マップ情報管理部は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を前記マップ上で管理し、
    前記画像情報出力部は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御可能である、請求項1から5のいずれか一項に記載のガイド装置。
  7. 前記画像情報出力部は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき来場者の正面方向を特定し、
    前記画像情報出力部における前記ウインドウ部で遷移させて表示する画面の順番は、前記正面方向での左右方向に並ぶ前記施設の順番である請求項6記載のガイド装置。
  8. 前記施設詳細情報画像は、1層又は2層以上の階層構造の画像であり、
    前記ウインドウ部は、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である、請求項6又は7記載のガイド装置。
  9. さらに、端末画面操作情報取得部を含み、
    前記端末画面操作情報取得部は、前記来場者の端末の画面に対する操作情報を取得し、
    前記画像情報出力部は、前記操作情報により前記ウインドウ部の画面を遷移させる、請求項6から8のいずれか一項に記載のガイド装置。
  10. さらに、特定エリア情報取得部を含み、
    前記特定エリア情報取得部は、前記特定エリアに関する情報を取得し、
    前記仮想情報生成部は、前記特定エリアに関する情報に基づき前記特定エリアに関する仮想画像を生成する、
    請求項1から9のいずれか一項に記載のガイド装置。
  11. さらに、来場者情報取得部を含み、
    前記来場者情報取得部は、前記来場者に関する情報を取得し、
    前記画像情報出力部は、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する、
    請求項1から10のいずれか一項に記載のガイド装置。
  12. ガイド装置、及び、端末を含み、
    前記ガイド装置は、請求項1から11のいずれか一項に記載のガイド装置であり、
    前記端末は、前記来場者の端末であり、
    前記ガイド装置及び前記端末は、通信回線網を介して通信可能である、
    ガイドシステム。
  13. 撮像情報取得工程、仮想情報生成工程、マップ情報管理工程、来場者端末情報取得工程、画像情報出力工程、及び、端末画面制御工程を含み、
    前記撮像情報取得工程は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
    前記仮想情報生成工程は、前記特定エリアに関する仮想画像を生成し、
    前記マップ情報管理工程は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
    前記来場者端末情報取得工程は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
    前記画像情報出力工程は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
    前記仮想情報生成工程において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
    前記施設毎の仮想画像は、施設位置画像及び前記施設詳細情報画像を含み、施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
    前記画像情報出力工程は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
    前記マップ情報管理工程は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
    前記端末画面制御工程は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
    前記画像情報出力工程は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する、
    ガイド方法。
  14. 前記端末画面制御工程は、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成する、
    請求項13記載のガイド方法。
  15. 前記端末画面制御工程において、前記基準距離は、前記来場者の端末からの前記施設の位置に応じて2段階以上の基準距離であり、
    前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する、
    請求項14記載のガイド方法。
  16. 前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されている、
    請求項15記載のガイド方法。
  17. さらに、端末選択情報取得工程を含み、
    前記端末選択情報取得工程は、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得し、
    前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置画像に紐づけられた前記施設詳細情報画像を表示する、
    請求項13から16のいずれか一項に記載のガイド方法。
  18. 前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能であり、
    前記マップ情報管理工程は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を前記マップ上で管理し、
    前記画像情報出力工程は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御可能である、請求項13から17のいずれか一項に記載のガイド方法。
  19. 前記画像情報出力工程は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき来場者の正面方向を特定し、
    前記画像情報出力工程における前記ウインドウ部で遷移させて表示する画面の順番は、前記正面方向での左右方向に並ぶ前記施設の順番である請求項18記載のガイド方法。
  20. 前記施設詳細情報画像は、1層又は2層以上の階層構造の画像であり、
    前記ウインドウ部は、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である、請求項18又は19記載のガイド方法。
  21. さらに、端末画面操作情報取得工程を含み、
    前記端末画面操作情報取得工程は、前記来場者の端末の画面に対する操作情報を取得し、
    前記画像情報出力工程は、前記操作情報により前記ウインドウ部の画面を遷移させる、請求項18から20のいずれか一項に記載のガイド方法。
  22. さらに、特定エリア情報取得工程を含み、
    前記特定エリア情報取得工程は、前記特定エリアに関する情報を取得し、
    前記仮想情報生成工程は、前記特定エリアに関する情報に基づき前記特定エリアに関する仮想画像を生成する、
    請求項13から21のいずれか一項に記載のガイド方法。
  23. さらに、来場者情報取得工程を含み、
    前記来場者情報取得工程は、前記来場者に関する情報を取得し、
    前記画像情報出力工程は、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する、
    請求項13から22のいずれか一項に記載のガイド方法。
  24. コンピュータに、撮像情報取得手順、仮想情報生成手順、マップ情報管理手順、来場者端末情報取得手順、画像情報出力手順、及び、端末画面制御手順を含む手順を実行させるためのプログラム;
    前記撮像情報取得手順は、特定エリアの来場者の端末で撮像された撮像画像を取得し、
    前記仮想情報生成手順は、前記特定エリアに関する仮想画像を生成し、
    前記マップ情報管理手順は、前記特定エリアのマップ上に施設位置情報を紐づけて管理し、
    前記来場者端末情報取得手順は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を取得し、
    前記画像情報出力手順は、前記撮像画像に前記仮想画像を重畳した合成画像を出力し、
    前記仮想情報生成手順において生成する仮想画像は、前記特定エリアの施設毎の仮想画像を含み、
    前記施設毎の仮想画像は、施設位置画像及び前記施設詳細情報画像を含み、施設位置画像及び前記施設詳細情報画像は前記施設毎に互いに紐づけられており、
    前記画像情報出力手順は、前記撮像画像において、前記施設の画像に対応する位置に前記施設位置画像を重畳し、かつ、ウインドウ部を設け、前記ウインドウ部に前記施設詳細情報画像を表示する画像を前記来場者の端末に出力し、
    前記マップ情報管理手順は、前記マップ上において、前記来場者の端末の位置情報及び前記施設位置情報に基づき、前記来場者の端末と前記施設との距離を算出し、
    前記端末画面制御手順は、算出された前記距離に基づき、複数の前記施設の前記施設位置画像を統合した統合画像及び前記統合画像の統合を解除した統合解除画像の少なくとも一方の画像を生成し、
    前記画像情報出力手順は、前記統合画像及び前記統合解除画像の少なくとも一方を前記来場者の端末に出力する。
  25. 前記端末画面制御手順は、予め規定した基準距離に基づき、前記統合画像及び前記統合解除画像の少なくとも一方を生成する、
    請求項24記載のプログラム。
  26. 前記端末画面制御手順において、前記基準距離は、前記来場者の端末からの前記施設の位置に応じて2段階以上の基準距離であり、
    前記2段階以上の基準距離の段階に応じて、前記施設位置画像を段階的に統合又は統合解除する、
    請求項25記載のプログラム。
  27. 前記マップ上において、前記2段階以上の基準距離に応じて、統合するエリア単位が規定されている、
    請求項26記載のプログラム。
  28. さらに、端末選択情報取得手順を含み、
    前記端末選択情報取得手順は、複数の前記施設に対応する複数の前記施設位置画像のなかから選択された前記施設位置画像に関する選択情報を取得し、
    前記ウインドウ部は、前記選択情報に基づき、選択された前記施設位置画像に紐づけられた前記施設詳細情報画像を表示する、
    請求項24から27のいずれか一項に記載のプログラム。
  29. 前記ウインドウ部は、複数の前記施設詳細情報画像を遷移可能な画面で表示可能であり、
    前記マップ情報管理手順は、前記来場者の端末の位置情報及び前記来場者の端末の向き情報を前記マップ上で管理し、
    前記画像情報出力手順は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき、前記ウインドウ部で遷移させて表示する画面の順番を制御可能である、請求項24から28のいずれか一項に記載のプログラム。
  30. 前記画像情報出力手順は、前記マップ上で管理されている前記来場者の端末の位置情報及び前記来場者の端末の向き情報に基づき来場者の正面方向を特定し、
    前記画像情報出力手順における前記ウインドウ部で遷移させて表示する画面の順番は、前記正面方向での左右方向に並ぶ前記施設の順番である請求項29記載のプログラム。
  31. 前記施設詳細情報画像は、1層又は2層以上の階層構造の画像であり、
    前記ウインドウ部は、前記施設詳細情報画像を階層毎の画像を遷移可能な画面で表示可能である、請求項29又は30記載のプログラム。
  32. さらに、端末画面操作情報取得手順を含み、
    前記端末画面操作情報取得手順は、前記来場者の端末の画面に対する操作情報を取得し、
    前記画像情報出力手順は、前記操作情報により前記ウインドウ部の画面を遷移させる、請求項24から31のいずれか一項に記載のプログラム。
  33. さらに、特定エリア情報取得手順を含み、
    前記特定エリア情報取得手順は、前記特定エリアに関する情報を取得し、
    前記仮想情報生成手順は、前記特定エリアに関する情報に基づき前記特定エリアに関する仮想画像を生成する、
    請求項24から32のいずれか一項に記載のプログラム。
  34. さらに、来場者情報取得手順を含み、
    前記来場者情報取得手順は、前記来場者に関する情報を取得し、
    前記画像情報出力手順は、前記来場者に関する情報に応じて、前記撮像画像に前記仮想画像を重畳した合成画像を出力する、
    請求項24から33のいずれか一項に記載のプログラム。
  35. 請求項24から34のいずれか一項に記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
     
PCT/JP2021/020832 2020-06-15 2021-06-01 ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体 WO2021256242A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022532475A JP7355467B2 (ja) 2020-06-15 2021-06-01 ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020102761 2020-06-15
JP2020-102761 2020-06-15

Publications (1)

Publication Number Publication Date
WO2021256242A1 true WO2021256242A1 (ja) 2021-12-23

Family

ID=79267914

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020832 WO2021256242A1 (ja) 2020-06-15 2021-06-01 ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体

Country Status (2)

Country Link
JP (1) JP7355467B2 (ja)
WO (1) WO2021256242A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198668A (ja) * 2011-03-18 2012-10-18 Ns Solutions Corp 情報処理装置、拡張現実感提供方法、及びプログラム
JP2012242202A (ja) * 2011-05-18 2012-12-10 Alpine Electronics Inc 車載システム
JP2013218597A (ja) * 2012-04-11 2013-10-24 Sony Corp 情報処理装置、表示制御方法及びプログラム
WO2016017253A1 (ja) * 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198668A (ja) * 2011-03-18 2012-10-18 Ns Solutions Corp 情報処理装置、拡張現実感提供方法、及びプログラム
JP2012242202A (ja) * 2011-05-18 2012-12-10 Alpine Electronics Inc 車載システム
JP2013218597A (ja) * 2012-04-11 2013-10-24 Sony Corp 情報処理装置、表示制御方法及びプログラム
WO2016017253A1 (ja) * 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP7355467B2 (ja) 2023-10-03
JPWO2021256242A1 (ja) 2021-12-23

Similar Documents

Publication Publication Date Title
Lutz Care migration: The connectivity between care chains, care circulation and transnational social inequality
Krase et al. On the spatial semiotics of vernacular landscapes in global cities
Avila et al. Race, culture, politics, and urban renewal: An introduction
O'Neill Evaluation of a conceptual model of architectural legibility
Pitt et al. Deciding when to use tablets for business applications.
Gaiser et al. The spatial construction of civic identities: A study of Manchester’s linguistic landscapes
US20140156186A1 (en) Facility wayfinding system
KR102004175B1 (ko) 3차원 지도 제공 장치 및 방법
Wang et al. A user-centered taxonomy for specifying mixed reality systems for aec industry
WO2021256241A1 (ja) ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体
Stähli et al. Evaluation of pedestrian navigation in smart cities
Garcia-Lopez et al. An experiment to discover usability guidelines for designing mobile tourist apps
Rubin Geography, colonialism and town planning: Patrick Geddes’ plan for mandatory Jerusalem
JP2021093088A (ja) 処理装置、処理方法、および処理プログラム
WO2021256242A1 (ja) ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体
JP7294735B2 (ja) ナビゲーション装置、ナビゲーションシステム、ナビゲーション方法、プログラム、及び、記録媒体
WO2021256240A1 (ja) ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体
Verhoeff Theoretical consoles: Concepts for gadget analysis
WO2021079820A1 (ja) 需要度算出装置、イベント支援システム、需要度算出方法、及びイベント支援システムの生産方法
JP7332197B2 (ja) 情報共有装置、イベント支援システム、情報共有方法、及びイベント支援システムの生産方法
Schmalfuß-Schwarz et al. Supporting independent travelling for people with visual impairments in buildings by harmonizing maps on embossed paper and pin-matrix devices for accessible info-points
Craig et al. A vision for pervasive information visualisation to support passenger navigation in public metro networks
KR20180076188A (ko) 마커와 음성인식을 이용한 증강현실 구현 방법
WO2021079821A1 (ja) 広告情報生成装置、イベント支援システム、広告情報生成方法、及びイベント支援システムの生産方法
WO2021079829A1 (ja) 表示装置、イベント支援システム、表示方法、及びイベント支援システムの生産方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21827120

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022532475

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21827120

Country of ref document: EP

Kind code of ref document: A1