WO2011122654A1 - 情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム Download PDF

Info

Publication number
WO2011122654A1
WO2011122654A1 PCT/JP2011/057972 JP2011057972W WO2011122654A1 WO 2011122654 A1 WO2011122654 A1 WO 2011122654A1 JP 2011057972 W JP2011057972 W JP 2011057972W WO 2011122654 A1 WO2011122654 A1 WO 2011122654A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
empty space
image
product
parking lot
Prior art date
Application number
PCT/JP2011/057972
Other languages
English (en)
French (fr)
Inventor
昇 庵原
和宏 笹尾
甲 横山
新 櫻井
武蔵リカルド 岡本
Original Assignee
新日鉄ソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011055410A external-priority patent/JP5102886B2/ja
Priority claimed from JP2011057899A external-priority patent/JP5054834B2/ja
Priority claimed from JP2011061375A external-priority patent/JP5280475B2/ja
Application filed by 新日鉄ソリューションズ株式会社 filed Critical 新日鉄ソリューションズ株式会社
Priority to EP20110762878 priority Critical patent/EP2544138A4/en
Priority to SG2012071809A priority patent/SG184301A1/en
Priority to US13/635,370 priority patent/US8896685B2/en
Publication of WO2011122654A1 publication Critical patent/WO2011122654A1/ja
Priority to US14/228,159 priority patent/US9689688B2/en
Priority to US14/228,176 priority patent/US20140214606A1/en
Priority to US14/228,168 priority patent/US9395195B2/en
Priority to US14/521,259 priority patent/US20150112586A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/008Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/203Specially adapted for sailing ships
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3685Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3889Transmission of selected map data, e.g. depending on route
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0639Item locations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B2213/00Navigational aids and use thereof, not otherwise provided for in this class
    • B63B2213/02Navigational aids and use thereof, not otherwise provided for in this class using satellite radio beacon positioning systems, e.g. the Global Positioning System GPS
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Definitions

  • the present invention relates to an information processing device, an information processing method and program, an information processing device, an empty space guidance system, an empty space guidance method and program, an image display system, an image display method and a program.
  • Navigation technology is used in various fields, such as guidance to the destination and presentation of work procedures during work. Since navigation technology is a technology that assists in facilitating certain actions, a mechanism that can be understood as intuitively as possible has been demanded. As one of such mechanisms, navigation using a technology called augmented reality that superimposes data managed by computers such as characters and images on the real environment and gives supplementary information to the real environment. Technology exists.
  • AR augmented reality
  • a technique for navigation is disclosed (for example, see Patent Document 1). More specifically, the position and orientation of the portable information terminal at the time of photographing is calculated, and an image obtained by photographing predetermined information previously associated with the marker using a marker reflected in an image photographed by the portable information terminal This is a technique for superimposing and displaying on top.
  • AR is a technique for providing supplementary information by superimposing and displaying computer-managed data (hereinafter referred to as computer graphics image data) such as characters, graphics, still images, and moving images in an actual environment.
  • a parking lot is provided with a sensor in each parking space to detect the parking situation.
  • the inside of the hall is divided into a plurality of blocks, and “full”, “empty”, etc. are displayed on an electric light board or the like for each block to guide the driver to the empty space.
  • “full” or “empty” is displayed at the entrance of each block, the driver cannot grasp the “full” or “empty” situation unless he / she runs near the block.
  • Patent Document 3 discloses a mechanism for reflecting a vacant state of a parking lot in a car navigation system. The method of the prior art document 1 detects a vehicle that is likely to depart from a parking space, and transmits the situation to the car navigation system of another vehicle, thereby guiding an empty space nearby.
  • Non-Patent Document 1 discloses a mechanism for three-dimensional display by combining a ship automatic identification system (AIS) and an electronic chart. However, after all, sailors are required to understand the graph display as shown in FIG.
  • AIS ship automatic identification system
  • JP 2004-48674 A Japanese Patent Laid-Open No. 10-198731 JP 2006-209429 A
  • the present invention has been made in view of such problems, and based on the current status of navigation objects whose situation can always change, the augmented reality technology is used to superimpose and display real-time information at any timing, making it more intuitive
  • the purpose is to provide enhanced perception that can be understood.
  • the navigation information may include information that is recommended for the store side but is unnecessary for the user.
  • the technology disclosed in Patent Document 2 can display the product information of the products scheduled for shopping registered in the list in advance on the mobile terminal. Since there is no limit, there is a possibility that the product to be purchased is out of stock or the price of the product to be purchased fluctuates when going to the store. Furthermore, in order to be able to understand intuitively in an environment where the situation is constantly changing, such as the price and availability of goods, the timing and type of information that can be obtained is almost as realistic as possible, and immediately It was required to present it in a state where it could be perceived by.
  • the present invention has been made in view of such problems, and a first object of the present invention is to provide support for easily acquiring product information and guide information of products planned for purchase at an arbitrary timing.
  • the car navigation system or the like must store the map information of the parking lot. There was a problem such as the need to update the map information.
  • a second object is to provide a technology that allows a driver to find and reach a target empty space.
  • the present invention has been made in view of such problems, and a third object of the present invention is to provide useful information when a ship sails so that a sailor can intuitively grasp the situation.
  • an information processing system includes an augmented reality presentation device capable of combining and displaying real space video and computer graphics image data, and inventory information and sales of each product posted on the flyer.
  • An information processing system having a management device that manages at least one of information, wherein the augmented reality presentation device includes imaging means for acquiring image data relating to a product posted in the leaflet by photographing,
  • a first transmission unit configured to transmit image data relating to the product acquired by the imaging unit to the management device, wherein the management device includes an image related to the product from the augmented reality presentation device.
  • the augmented reality presentation device Transmitting at least one of first information acquisition means for acquiring one of the information and inventory information and sales information of the product acquired by the first acquisition means to the augmented reality presentation device
  • the augmented reality presentation device receives computer graphic image data indicating at least one of inventory information and sales information of the product transmitted from the management device as reality. It further has a presentation means for synthesizing and presenting the flyer image of the space.
  • the information processing apparatus of the present invention includes an empty space information acquisition unit that acquires empty space information of a parking lot, a vehicle information acquisition unit that acquires the position and direction of a car in the parking lot, and the empty space information acquisition unit. Based on the acquired empty space information, the position and orientation of the car in the parking lot acquired by the vehicle information acquisition means, and information on the position information of each empty space of the parking lot map stored in the storage device An empty space specifying means for specifying an empty space existing in the traveling direction of the vehicle, and an empty space object indicating the empty space specified by the empty space specifying means, and indicating the position of the empty space in the parking lot Image generating means for generating a virtual space image of the image, and transmitting means for transmitting the virtual space image generated by the image generating means to the vehicle; Having.
  • the information processing apparatus includes an empty space information acquisition unit that acquires empty space information of a parking lot, a vehicle information acquisition unit that acquires the position and direction of a car in the parking lot, and the empty space information acquisition unit. Based on the acquired empty space information, the position and orientation of the car in the parking lot acquired by the vehicle information acquisition means, and information on the position information of each empty space of the parking lot map stored in the storage device An empty space specifying means for specifying an empty space existing in the traveling direction of the vehicle, an empty space object indicating the empty space specified by the empty space specifying means, and position information indicating the position of the empty space, Transmitting means for transmitting to the vehicle.
  • the present invention provides a position information acquisition device that acquires ship position information, an information storage device that stores an electronic chart including a seabed shape and a tide table, an image display device, and an image provided to the image display device
  • An image display system comprising: an image display system including the position information of the ship acquired by the position information acquisition apparatus, the tide table, and information relating to a water depth indicated by an electronic chart.
  • the depth of the ship below the sea level is obtained based on the position information, the depth below the sea surface, and the seafloor topographic image data indicated by the electronic chart, A virtual space image of a seabed shape under the sea surface at a depth is created and provided to the image display device, and the image display device outputs a seafloor shape virtual space image provided by the image providing device from the image display device. Wind Superimposed to display in.
  • the timing at which information is obtained, the type of information, etc. are almost as realistic as possible and can be immediately perceived. It is possible to present in a simple state. For example, according to the present invention, it is possible to assist so that product information and guide information of a shopping-scheduled product can be easily acquired at an arbitrary timing.
  • the driver without updating the map information of the car navigation system installed in each car, or even if the car navigation system is not installed in each car, the driver can Thus, it is possible to provide a technique capable of easily finding and reaching a target empty space.
  • FIG. 1 is a diagram schematically illustrating a configuration of a shopping navigation system according to the first embodiment.
  • FIG. 2A is a diagram illustrating a hardware configuration of the shopping management server.
  • FIG. 2B is a diagram illustrating a hardware configuration of the mobile terminal.
  • FIG. 3A is a flowchart illustrating a flow of registration processing of a product scheduled for purchase in the shopping navigation system according to the first embodiment.
  • FIG. 3B is a flowchart illustrating a process for presenting product information of a product to be purchased and a navigation process from the current location to the store in the shopping navigation system according to the first embodiment.
  • FIG. 1 is a diagram schematically illustrating a configuration of a shopping navigation system according to the first embodiment.
  • FIG. 2A is a diagram illustrating a hardware configuration of the shopping management server.
  • FIG. 2B is a diagram illustrating a hardware configuration of the mobile terminal.
  • FIG. 3A is a flowchart illustrating a flow of registration processing of a product
  • FIG. 4 is a diagram illustrating a state in which a user points to a purchase planned product posted on the flyer and the state is captured by an angle of view of an imaging unit of the mobile terminal.
  • FIG. 5 is a diagram showing a display example in which computer graphics image data of product information is combined with a real space video.
  • FIG. 6 is a diagram illustrating an example of an AR display when product information of apples that are products to be purchased by the user can be acquired for three stores.
  • FIG. 7 is a diagram schematically illustrating an example of the database structure of the flyer information DB.
  • FIG. 8 is a diagram schematically illustrating an example of the database structure of the user information DB.
  • FIG. 9 is a diagram schematically illustrating an example of the database structure of the product information DB.
  • FIG. 10 is a diagram schematically illustrating the configuration of the shopping navigation system according to the second embodiment.
  • FIG. 11A is a flowchart illustrating a flow of registration processing of a purchase planned product in the shopping navigation system according to the second embodiment.
  • FIG. 11B is a flowchart illustrating a process for presenting product information of a product scheduled for purchase and a navigation process from the current location to the store in the shopping navigation system according to the second embodiment.
  • FIG. 12 is a diagram illustrating an example of a shopping list.
  • FIG. 13 is a diagram illustrating an example of a system configuration of an empty space guidance system.
  • FIG. 14 is a diagram illustrating an example of a hardware configuration of the information processing apparatus.
  • FIG. 15 is a diagram illustrating an example of a hardware configuration of a car.
  • FIG. 11A is a flowchart illustrating a flow of registration processing of a purchase planned product in the shopping navigation system according to the second embodiment.
  • FIG. 11B is a flowchart
  • FIG. 16 is a diagram illustrating an example of a software configuration of the information processing apparatus according to the third embodiment.
  • FIG. 17 is a diagram illustrating an example of a software configuration of the car according to the third embodiment.
  • FIG. 18 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the third embodiment.
  • FIG. 19 is a diagram illustrating an example of superimposed display on the display according to the third embodiment.
  • FIG. 20 is a diagram illustrating an example of a software configuration of the information processing apparatus according to the fourth embodiment.
  • FIG. 21 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the fourth embodiment.
  • FIG. 22 is a diagram illustrating an example of superimposed display on the display according to the fourth embodiment.
  • FIG. 23 is a diagram illustrating an example of a software configuration of the information processing apparatus according to the fifth embodiment.
  • FIG. 24 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the fifth embodiment.
  • FIG. 25 is a diagram illustrating an example of superimposed display on the display according to the fifth embodiment.
  • FIG. 26 is a diagram illustrating an example of a software configuration of the information processing apparatus according to the sixth embodiment.
  • FIG. 27 is a diagram illustrating an example of a software configuration of a car according to the sixth embodiment.
  • FIG. 28 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the sixth embodiment.
  • FIG. 29 is a diagram illustrating an example of a system configuration of the image display system according to the seventh embodiment.
  • FIG. 29 is a diagram illustrating an example of a system configuration of the image display system according to the seventh embodiment.
  • FIG. 30 is a diagram illustrating an example of a hardware configuration of the image providing apparatus.
  • FIG. 31 is a diagram illustrating an example of a hardware configuration of the image display apparatus.
  • FIG. 32 is a diagram illustrating an example of a software configuration of the image providing apparatus.
  • FIG. 33 is a diagram illustrating an example of a software configuration of the image display apparatus.
  • FIG. 34 is a diagram illustrating an example in which a sea-bottom-shaped virtual space image is superimposed and displayed below the sea level of the landscape from the display device.
  • FIG. 35 is a diagram illustrating an example of a system configuration of the image display system according to the embodiment.
  • FIG. 36 is a diagram illustrating an example of a system configuration of the image display system according to the ninth embodiment.
  • FIG. 37 is a diagram illustrating an example of a system configuration of the image display system according to the tenth embodiment.
  • FIG. 38 is a diagram illustrating an example of a system configuration of the image display system according to the eleventh embodiment.
  • FIG. 1 is a diagram schematically illustrating a configuration of a shopping navigation system according to the first embodiment.
  • the shopping navigation system according to the present embodiment includes a shopping management server 100 and a mobile terminal 200, which are connected to each other via a wireless communication line.
  • the user browses the flyer 300 and selects a product to be purchased from the products posted on the flyer 300.
  • the user points to the selected purchase planned product, and captures the state in the angle of view of the imaging unit of the mobile terminal 200, whereby image data in a state in which the purchase planned product is pointed is generated by the imaging unit.
  • the portable terminal 200 detects image data of a product scheduled for purchase from the image data generated by the imaging unit.
  • a method for detecting image data of a product to be purchased for example, several finger shape patterns in the state of pointing are prepared, and image data matching or similar to those finger shape patterns is detected in the image data. In such a case, a method of recognizing the image data as a finger and detecting an object that exists within a certain distance from the finger in the direction of the finger may be considered.
  • the mobile terminal 200 When the mobile terminal 200 detects the image data of the product scheduled for purchase, the mobile terminal 200 transmits the image data of the product scheduled for purchase to the shopping management server 100.
  • the shopping management server 100 receives the image data of the product to be purchased from the mobile terminal 200
  • the product matching unit 106 stores the image data of each product listed in the flyer 300 stored in the flyer information DB 102, and the mobile terminal.
  • the consistency with the image data of the product scheduled for purchase received from 200 is determined, and it is determined whether or not the product planned for purchase is a product listed on the flyer 300. If the purchase planned product is a product listed on the flyer 300, the registration / inquiry unit 105 registers the purchase planned product and the user in association with each other in the user information DB 101. As a result, the user's planned purchase product is registered in the shopping management server 100.
  • the mobile terminal 200 After the product to be purchased is registered in the shopping management server 100, when the user wants to know the transition of price information or stock information of the product to be purchased, the mobile terminal 200 is again held over the flyer 300, and the mobile terminal 200 The product to be purchased is captured at the angle of view of the imaging unit. Thereby, the image data of the product to be purchased is transmitted from the mobile terminal 200 to the shopping management server 100.
  • the product matching unit 106 of the shopping management server 100 analyzes the image data received from the mobile terminal 200 to detect that the image data is image data of a product posted on the flyer 300. Then, the registration / inquiry unit 105 determines that the product is a user's planned purchase product.
  • the product information search unit 107 acquires product information such as the latest (current) sales price and inventory information of the product to be purchased and transmits it to the mobile terminal 200.
  • the mobile terminal 200 synthesizes computer graphics image data indicating the latest product information of a product scheduled for purchase with a real-space image and displays it on the display. At this time, the computer graphics image data indicating the product information is displayed in the vicinity of the real space image so that the product information is related to the product to be purchased. Is synthesized.
  • the map information search unit 108 acquires the current location information of the mobile terminal 200 and the address information of the store selling the product to be purchased, and includes a location indicated by the current location information and a location indicated by the address information. Information is acquired from the map information DB 104. Then, the map information search unit 108 generates guide information for guiding the route from the current location of the mobile terminal 200 to the store selling the product to be purchased using the acquired map information, and stores the information in the mobile terminal 200. Send to. Using the guidance information, the mobile terminal 200 displays computer graphics image data that guides the route from the current location to the store that sells the product to be purchased with the video in the real space.
  • the user confirms on the display of the mobile terminal 200 an image in which route guidance based on computer graphics image data is combined with the image of the real space on the street. While moving to the store.
  • an expanded sense of reality is presented by displaying computer graphics image data at a position that matches the image of the real space on the display of the mobile terminal 200.
  • display of computer graphics image data giving an expanded sense of reality may be referred to as AR (Augmented Reality) display.
  • HMD high-transmission type
  • video transmission type video transmission type
  • optical transmission type optical transmission type
  • the composite display (AR display) is to display computer graphics image data superimposed on a position in alignment with a real space image displayed on the lens part of the HMD by any method, for example, optical transmission.
  • the type method the image is superimposed and displayed on the image of the real space seen through, and in the case of the video transmission type, the image is displayed on the image of the real space captured by the video camera.
  • the mobile terminal 200 includes a mobile terminal type AR display device that displays a real-space image captured by the imaging unit on a display and displays computer graphics image data in combination with the displayed real-space image.
  • the AR display device applicable to the present embodiment is not limited to this.
  • a glasses-type AR display device worn on the user's head which displays computer graphics image data at a position that matches optically transmitted and projected images in a real space.
  • An AR display device (HMD) may be used, or a head that is installed in the direction of the line of sight of the driver's seat of a moving vehicle and displays computer graphics image data in combination with a real space image that is optically transmitted and projected.
  • An AR display device of an up display type may be used.
  • the coordinates of the real space video object and the computer graphics image data are performed.
  • the computer graphics image data may be synthesized so as to match the estimated position, or a marker is attached to the object in the real space, the marker is photographed by the imaging unit, and the image data is captured from the photographed image data.
  • the position of the object in the real space may be detected by analyzing the image data in the real space captured by the imaging unit, and the computer graphics image data may be synthesized so as to match the detected position.
  • FIG. 2A is a diagram illustrating a hardware configuration of the shopping management server 100 according to the present embodiment.
  • the CPU 1001 comprehensively controls each device and controller connected to the system bus.
  • the ROM 1003 or the HD (hard disk) 1009 stores a BIOS (Basic Input / Output Output System) that is a control program of the CPU 1001 and an operating system program, for example, processing executed by the shopping management server 100 among the processing shown in FIGS. 3A and 3B. Programs and so on are stored.
  • BIOS Basic Input / Output Output System
  • the HD 1009 is arranged inside the shopping management server 100.
  • a configuration corresponding to the HD 1009 may be arranged outside the shopping management server 100.
  • the program for performing the processing shown in FIGS. 3A and 3B according to the present embodiment is recorded on a computer-readable recording medium such as a flexible disk (FD) or a CD-ROM, and is supplied from the recording medium. It is good also as a structure to be supplied, and it is good also as a structure supplied via communication media, such as the internet.
  • the RAM 1002 functions as a main memory, work area, and the like of the CPU 1001.
  • the CPU 1001 implements various operations by loading a program necessary for execution of processing into the RAM 1002 and executing the program.
  • HD1009 and FD1008 function as an external memory.
  • the CPU 1001 implements various operations by loading a program necessary for execution of processing into the RAM 1002 and executing the program.
  • the disk controller 1007 controls access to external memories such as the HD 1007 and the FD 1008.
  • the communication I / F controller 1006 is connected to the Internet or a LAN, and controls communication with the outside by, for example, TCP / IP.
  • the display controller 1010 controls image display on the display 1011.
  • the KB controller 1004 receives an operation input from the KB (keyboard) 1005 and transmits it to the CPU 1001.
  • a pointing device such as a mouse can also be applied to the shopping management server 100 according to the present embodiment as a user operation means.
  • the registration / inquiry unit 105, the product matching unit 106, the product information search unit 107, and the map information search unit 108 illustrated in FIG. 1 are stored in, for example, the HD 1009 and loaded into the RAM 1002 as necessary, and execute the program.
  • This is a configuration realized by the CPU 1001.
  • the user information DB 101, flyer information DB 102, product information DB 103, and map information DB 104 have a configuration corresponding to a partial storage area in the HD 1009.
  • FIG. 2B is a diagram illustrating a hardware configuration of the mobile terminal 200 according to the present embodiment.
  • the CPU 2001 comprehensively controls each device and controller connected to the system bus.
  • the ROM 2003 stores, for example, a program for processing executed by the mobile terminal 200 among the processing shown in FIGS. 3A and 3B. Note that the program for performing the processes shown in FIGS. 3A and 3B may be supplied via a communication medium such as the Internet.
  • the RAM 2002 functions as a main memory and work memory of the CPU 2001.
  • the CPU 2001 implements various operations by loading a program necessary for execution of processing into the RAM 2002 and executing the program.
  • a communication I / F controller 2005 is connected to the Internet or a LAN, and controls communication with the outside by TCP / IP, for example.
  • the imaging unit 2004 converts a subject image incident through an optical lens and formed on the imaging element into an electrical signal, and outputs moving image data or still image data.
  • a display controller 2006 controls image display on the display 2007. In the present embodiment, it is assumed that the display 2007 employs a liquid crystal display.
  • FIG. 3A is a flowchart showing a flow of registration processing of a product scheduled for purchase in the shopping navigation system according to the present embodiment.
  • the user points to a purchase planned product posted on the flyer 300 and captures the state in the angle of view of the imaging unit 2007 of the mobile terminal 200.
  • the imaging unit 2007 generates image data captured at the angle of view, and the mobile terminal 200 analyzes the image data to detect image data of a product to be purchased designated by pointing.
  • step S ⁇ b> 102 the mobile terminal 200 transmits the image data of the product scheduled for purchase detected in step S ⁇ b> 101 to the shopping management server 100.
  • FIG. 4 is a diagram illustrating a state in which the user points to a purchase planned product posted on the flyer 300 and the state is captured by the angle of view of the imaging unit 2007 of the mobile terminal 200.
  • the user selects and points to the apple to be purchased among the products posted on the flyer 300.
  • the photographing unit of the mobile terminal 200 keeps this state in the angle of view, and the flyer 300
  • the display 2007 shows a video in which the user points to the product to be purchased (apple) above. Therefore, in the example of FIG. 4, the image data of the apple is detected as the image data of the product scheduled for purchase.
  • the user may specify a product to be purchased by moving his / her finger so as to surround the apple on the flyer and capturing it in the angle of view of the imaging unit 2007.
  • the mobile terminal 200 detects the trajectory of the user's finger and determines a product that falls within the trajectory as a purchase-scheduled product.
  • step S201 the shopping management server 100 receives image data of a product scheduled for purchase from the portable terminal 200.
  • step S ⁇ b> 202 the product matching unit 106 acquires the image data of each product posted in the flyer 300 from the flyer information DB 102 and compares it with the image data of the planned purchase product received from the mobile terminal 200.
  • step S ⁇ b> 203 the product matching unit 106 determines whether the image data of the product scheduled for purchase and the image data of the product listed on the flyer 300 match, whereby the product scheduled for purchase is the product listed on the flyer 300. It is determined whether or not.
  • This matching is determined by performing pattern matching between the image data of the product to be purchased and the image data of the product listed in the leaflet 300, and when it is determined that both are the same or similar, It is determined that the product is on the flyer 300. When it is determined that the product to be purchased is a product posted on the flyer 300, the process proceeds to step S204. On the other hand, if it is determined that the product to be purchased is not a product listed in the flyer 300, the process returns to step S201 and waits for reception of image data of a new product to be purchased.
  • FIG. 7 is a diagram schematically showing an example of the database structure of the flyer information DB 102.
  • the flyer information DB 102 manages the ID (product ID) of each product listed in the flyer 300 and image data in association with each other.
  • the product matching unit 106 displays the image data of the product to be purchased and each product listed in the flyer 300.
  • the image data of the planned purchase product is determined to be identical or similar to the image data of the apple 701, and the purchase planned product is determined to be an apple.
  • step S204 the registration / inquiry unit 105 acquires the product ID associated with the image data of the product determined to be a purchase planned product from the flyer information DB 102 via the product matching unit 106.
  • the registration / inquiry unit 105 acquires the transmission source user ID from the header information of the image data of the product to be purchased received in step S201. Then, the registration / inquiry unit 105 registers the user ID and the product ID of the product scheduled for purchase in the user information DB 101 in association with each other.
  • FIG. 8 is a diagram schematically showing an example of the database structure of the user information DB 101.
  • the user information DB 101 manages a user ID and a purchase planned product ID in association with each other. For example, when the product ID of the product to be purchased is “1011” and the user ID “aaa” can be acquired from the header information of the image data of the product to be purchased, as shown in the record 801, the user ID “ “aaa” and purchase planned product ID “1011” are managed in association with each other.
  • FIG. 3B is a flowchart showing a process for presenting product information of a product to be purchased and a navigation process from the current location to the store in the shopping navigation system according to the present embodiment.
  • the mobile terminal 200 is held over the product scheduled to be posted on the flyer 300 again.
  • the product to be purchased is captured at the angle of view of the imaging unit 2007.
  • the imaging unit 2007 of the mobile terminal 200 generates image data of a product to be purchased.
  • step S ⁇ b> 104 the mobile terminal 200 transmits the image data of the product scheduled for purchase to the shopping management server 100.
  • step S ⁇ b> 205 the shopping management server 100 receives image data of a product scheduled for purchase from the mobile terminal 200.
  • step S ⁇ b> 206 the product matching unit 106 acquires the image data of each product listed in the flyer 300 from the flyer information DB 102 and compares it with the image data of the planned purchase product received from the mobile terminal 200.
  • step S ⁇ b> 207 the product matching unit 106 determines a match between the image data of the product planned for purchase and the image data of the product listed in the flyer 300, so that the product planned for purchase is the product listed in the flyer 300. It is determined whether or not. When it is determined that the product to be purchased is a product posted on the flyer 300, the process proceeds to step S213. On the other hand, when it is not determined that the product to be purchased is a product listed in the flyer 300, the process returns to step S205.
  • step S213 the registration / inquiry unit 105 acquires the product ID associated with the image data of the product determined to be a purchase planned product from the flyer information DB 102 via the product matching unit 106.
  • the registration / inquiry unit 105 acquires the transmission source user ID from the header information of the image data received in step S205.
  • step S208 the registration / query unit 105 determines whether the product ID acquired in step S213 is managed in the user information DB 101 in association with the user ID. If the product ID is associated with the user ID, the process proceeds to step S209. On the other hand, if the product ID is not associated with the user ID, the process returns to step S205.
  • step S209 the product information search unit 107 searches the product information DB 103 for product information corresponding to the product ID acquired in step S213, and transmits the product information to the mobile terminal 200.
  • FIG. 9 is a diagram schematically showing an example of the database structure of the product information DB 103.
  • the product information DB 103 manages the product ID, product name, price (price 1, price 2,%), Store, inventory quantity, and product attributes in association with each other.
  • As the product attribute if the product is food, the production location, date of production, and the like are managed. If the product is clothing, the color, size, and the like are managed.
  • the data managed in the product information DB 103 may be updated at an arbitrary timing in cooperation with a POS system (Point Of Sales system) not shown in FIG.
  • POS system Point Of Sales system
  • step S209 a record 901 is retrieved from the product information DB 103 shown in FIG. Sent.
  • the latest information regarding the price and the stock amount included in the product information is transmitted to the mobile terminal 200.
  • the price of the product posted in the flyer 300 is registered as the initial price (price 1), and the price is additionally registered every time the price is updated (price 2, price 3,... ⁇ ).
  • step S ⁇ b> 209 the last registered price is transmitted to the mobile terminal 200 from the history of prices registered in this way. As a result, the latest (current) price of the product scheduled for purchase is displayed on the mobile terminal 200.
  • a price history may be managed, the price itself may be overwritten, and only the latest price may be managed.
  • the stock quantity is overwritten at a predetermined timing, and only the latest stock quantity is managed. Accordingly, in step S209, the latest inventory amount is transmitted to the mobile terminal 200. As a result, the latest stock quantity of the product scheduled for purchase is displayed on the mobile terminal 200.
  • step S105 the mobile terminal 200 receives the product information from the shopping management server 100.
  • step S ⁇ b> 106 the mobile terminal 200 displays the received product information computer graphics image data in combination with a real-space video.
  • FIG. 5 is a diagram showing a display example in which computer graphics image data of product information is combined with a real space video.
  • computer graphics image data indicating product information 501 and computer graphics image data indicating a tag 502 that is an operation switch for requesting route guidance are displayed in the vicinity of the product to be purchased. .
  • step S110 the mobile terminal 200 determines whether or not there is a request for route guidance (navigation). That is, the mobile terminal 200 determines whether or not the tag 502 has been operated. If the tag 502 is operated, the process proceeds to step S107. On the other hand, if the tag 502 has not been operated, the process ends. In step S ⁇ b> 107, the mobile terminal 200 issues a route guidance request to the shopping management server 100.
  • step S ⁇ b> 210 the shopping management server 100 receives a route guidance request from the mobile terminal 200.
  • the map information search unit 108 acquires the current location information of the mobile terminal 200, and acquires store information selling the product scheduled for purchase from the product search unit 107.
  • the current location of the mobile terminal 200 can be acquired by using GPS (Global Positioning System).
  • the product information DB 103 includes address information of stores that sell products, and the map information search unit 108 plans to purchase from the product information DB 103 via the product information search unit 107.
  • the address information of the store that sells the product shall be acquired.
  • step S ⁇ b> 211 the map information search unit 108 searches for map information including the position indicated by the current location information of the mobile terminal 200 and the position indicated by the address information of the store selling the product to be purchased.
  • step S212 the map information search unit 108 uses the searched map information to generate guide information for guiding a route from the current location of the mobile terminal 200 to a store selling the product to be purchased, and the mobile terminal 200 is transmitted.
  • step S108 the mobile terminal 200 receives the guide information from the shopping management server 100.
  • step S109 using the received guidance information, the mobile terminal 200 synthesizes computer graphics image data that guides the route from the current location of the mobile terminal 200 to the store that sells the product to be purchased into a real-space image. And displayed on the display 2007.
  • Step S209 in FIG. 3B may be executed after step S204 in 3A.
  • the shopping management server 100 registers the association between the user ID and the product ID of the product to be purchased in the user information DB 801 in step S204, the product information corresponding to the product ID is stored in the product information DB 103 in the subsequent step S209. Are transmitted to the portable terminal 200. By doing in this way, it becomes possible to notify the portable terminal 200 of the product information of the purchase planned product at the time of registering the association between the user ID and the product ID of the planned purchase product.
  • the user needs to hold the mobile terminal 200 over the flyer 300 again in the process of presenting the product information of the product to be purchased.
  • the present invention is not limited to this. Another embodiment that does not require the portable terminal 200 to be held over the flyer 300 will be described with a focus on differences from the above-described embodiment.
  • FIG. 10 is a diagram schematically illustrating the configuration of the shopping navigation system according to the second embodiment.
  • the system according to the present embodiment does not include the user information DB 101 in the shopping management server 100 as compared with the system according to the above-described embodiment.
  • the shopping list 201 is stored in the mobile terminal 200.
  • the shopping list 201 is a file in which the product ID of a product to be purchased is recorded, and is managed in association with a product image, a product name, or the like as shown in FIG.
  • FIG. 11A is a flowchart showing a flow of registration processing of a product scheduled for purchase in the shopping navigation system according to the present embodiment. Compared to FIG. 3A, step S1101 is added, and step S1201 is added instead of step S204 being deleted.
  • step S1201 the registration / inquiry unit 105 acquires the product ID associated with the image data of the product determined to be a purchase planned product from the flyer information DB 102 via the product matching unit 106. Then, the acquired product ID is transmitted to the mobile terminal 200.
  • step S1101 the product ID is received from the mobile terminal 200.
  • the received product ID is stored in the ROM 2003.
  • FIG. 11B is a flowchart showing a product information presentation process and a navigation process from the current location to the store in the shopping navigation system according to the present embodiment.
  • step S1102 is added instead of deleting step S103 and step S104 of FIG. 3B.
  • step S1202 is added instead of step S208 being deleted from step S205 in FIG. 3B.
  • the present embodiment will be described focusing on differences from the above-described embodiment.
  • step S1102 in FIG. The product ID is transmitted to the shopping management server 100.
  • a method for specifying the product ID of the product for example, a shopping list is displayed on the mobile terminal 200 as shown in FIG. 12, and when the product name displayed on the shopping list is tapped, the mobile terminal corresponding to the product name is displayed.
  • the product ID registered in 200 is selected and transmitted to the shopping management server 100.
  • step S1202 the shopping management server 100 acquires a product ID. Thereafter, the process proceeds to step S209 similar to FIG. 3B.
  • the user does not need the flyer 30 when acquiring the inventory information and price information of the product to be purchased, and thus can be acquired more easily.
  • the product information of the purchase planned product in the store selling the purchase planned product is displayed as an AR.
  • the user's planned purchase product may be sold at a plurality of stores.
  • product information at a plurality of stores selling the product is searched, and the product information is obtained.
  • AR display can also be performed. That is, in the flyer information DB 102, the association between the image data of the flyer products of a plurality of stores and the product ID is managed, and there are a plurality of image data of products that match or are similar to the image data of the product to be purchased.
  • each of the products All product information corresponding to the ID may be acquired from the product information DB 103.
  • a method may be used in which all the product IDs corresponding to image data that matches or is similar to the image data of the product to be purchased are specified from the flyer information DB 102.
  • a column for managing product names is added in the flyer information DB 102, and a product name that is the same as or similar to the product name of a product that matches or is similar to the image data of the product to be purchased.
  • a method of specifying all the product IDs of the products managed in the column “product name” may be used.
  • a method may be used in which all product IDs of products that match or are similar to the product name or product image data managed in association with the product ID received from the mobile terminal 200 may be used.
  • all the acquired merchandise information is transmitted with respect to the portable terminal 200 from the shopping management server 100, and the portable terminal 200 can carry out AR display of the merchandise information of several stores regarding a purchase plan commodity.
  • FIG. 6 is a diagram showing an example of an AR display when product information of apples that are products to be purchased by the user can be acquired for three stores.
  • 601, 602, and 603 are product information about apples at A store, B store, and C store, respectively, and indicate current apple prices, stock quantities, and the like at each store.
  • the user can refer to product information of apples other than the A store that issued the flyer. For example, if an apple is sold at a cheaper price than the A store in a store other than the A store, or if the stock is out of the A store and the stock remains in the other store, buy the apple in the other store You may change your shopping destination.
  • step S110 the mobile terminal 200 determines whether the tag 604 relating to the product of which store is operated among the plurality of stores in which the product information is AR-displayed, and then in step S107, the mobile terminal 200 200 issues a request for route guidance to the store to the shopping management server 100.
  • a store selection form of the tag 604 that is an operation switch for requesting route guidance is displayed in a pull-down menu, but other configurations are possible.
  • a tag for each of a plurality of stores may be provided, or voice recognition for recognizing a store name uttered by the user may be used.
  • the management server 100 may automatically detect it, generate guidance information for navigating to the multi-store with respect to the mobile terminal 200, and transmit it to the mobile terminal 200.
  • the shopping physical server 100 compares the product information in the plurality of stores searched in the above-described step S209 at an arbitrary timing, and generates guide information based on a predetermined rule.
  • the rule is stored in the ROM 1003 or the HD (hard disk) 1009.
  • the route to the nearest store among the plurality of stores searched in the current location and in step S209 is guided or searched in step S209.
  • the route that guides the route to the store with the most stock among the plurality of stores that have been acquired, or separately acquires information indicating the congestion status of people in each route of the plurality of stores searched in step S209, and the route that is most easily passed It may be possible to guide the user.
  • One rule may not be fixedly applied, but a plurality of rules may be applied in combination, or the combination may be dynamically changed and applied. For example, by first applying the rule “Guide the route to the store with the shortest distance”, guide information to the store A is generated, and the user goes to the store A based on the information displayed on the mobile terminal 200 as AR.
  • the purchase management server 100 purchases based on another rule “Guide the route to the store with the most stock”.
  • the management server 100 generates new guidance information and displays the AR on the mobile terminal 200. Further, not only the route from the current location to the store but also the location where the target product is displayed in the store may be guided. Furthermore, when the user has reached the vicinity of the target product but cannot find the product, the posture may be detected by the posture detection function of the mobile terminal 200 to guide the user to see the direction.
  • the shopping management server 100 may automatically select a product according to the user's preference from the flyer, and guide the user about the selected product and the store that handles the product. .
  • user master information is registered in the shopping management server 100.
  • Information that is registered as master information includes personal preferences (whether or not quality is important, whether or not seasonal things are important, whether or not there are allergies, the target food cost for one week, the target calorie for the day, Whether you want to increase the number of items with the same ingredients and the same cooking procedure halfway, whether you want to finish shopping nearby, or family preferences (Father: oily, children: meat center, adults: dry curry, children: Sweet curry), cooking history (cooking success or failure, leftover history, family reaction).
  • the shopping management server 100 acquires the flyer information of each store.
  • the image of the product, the price, etc. are acquired from the electronic flyer data of each store site, or the image of the product is obtained from the image data obtained by taking a photograph of the folded flyer of the newspaper, The method of acquiring a price etc. is mentioned.
  • the flyer information may be obtained from a plurality of stores. For example, it is conceivable to obtain leaflet information about curry ingredients from a store A which is a supermarket, and to obtain leaflet information about seasonings from a store B which is a cheap liquor store.
  • the mobile terminal 200 displays an image. Recognition, voice recognition, character recognition, and the like are performed, and the analysis result is combined with master information and flyer information to select a food and a store.
  • the shopping management server 100 generates guide information for guiding the route from the current location of the mobile terminal 200 to the sales store based on the food and the sales store thus selected, and transmits the guidance information to the mobile terminal 200. To do.
  • computer graphics image data for guiding from the current location to the sales store is combined with the video in the real space and displayed. Thereby, the route to the store where the food that matches the user's preference can be purchased is automatically guided.
  • a product such as the price of the food, the amount of inventory, the production area, etc. is displayed on the image of the real space in which the shelf on which the food is placed is reflected.
  • the computer graphics image data indicating the information may be combined and displayed, or the computer graphics image data displayed in an arrow indicating the position of the shelf may be combined and displayed on the image in the real space.
  • the history of ingredients actually purchased by the user may be registered in the master information and used when selecting the next ingredient. Furthermore, you may make it output the log
  • image data of the product planned for purchase is captured by the imaging unit 2004 and the image data is captured from the mobile terminal 200 to the shopping management server 100.
  • the present invention is not limited to this. That is, when a marker corresponding to a product is posted on the leaflet, the marker may be photographed by the imaging unit 2004 and image data of the marker may be transmitted from the mobile terminal 200 to the shopping management server 100.
  • the shopping management server 100 manages the association between the marker and the product, and identifies the planned purchase product corresponding to the marker by analyzing the received image data of the marker.
  • the shopping management server 100 compares the ID of each product listed in the leaflet 300 stored in the leaflet information DB 102 with the ID of the planned purchase product, and if there is a matching product, the purchase planned product is the flyer. And the user information DB 101 is managed by associating the user with the product to be purchased.
  • the user when the user wants to obtain product information of the product to be purchased, the user also captures a marker corresponding to the product to be purchased with the imaging unit 2004 and transfers the image data of the marker from the portable terminal 200 to the shopping management server 100. Send to.
  • the shopping management server 100 identifies the product to be purchased corresponding to the marker by analyzing the received image data of the marker. Then, the shopping management server 100 compares the ID of each product listed in the leaflet 300 stored in the leaflet information DB 102 with the ID of the product to be purchased. When there is a matching product, the shopping management server 100 determines whether or not the association between the ID of the planned purchase product and the user is registered in the user information DB 101.
  • the shopping management server 100 transmits the product information of the planned purchase product to the mobile terminal 200 of the user. As described above, it is also possible to easily obtain the product information of the product scheduled for purchase at an arbitrary timing by using the marker corresponding to each product posted on the flyer.
  • the flyer has been described as an example.
  • the present invention can be similarly applied to any advertising medium such as a poster attached to the city and a TV commercial.
  • FIG. 13 is a diagram illustrating an example of a system configuration of an empty space guidance system.
  • the empty space guidance system includes a plurality of sensors 3 installed for each space (car space) in the parking lot, a plurality of wireless communication antennas installed in the parking lot, A plurality of in-site cameras 5, information processing apparatuses 1, and cars 2 in the parking lot are connected via a network.
  • the information processing apparatus 1 receives information on each vacant space in the parking lot from a plurality of sensors 3 via wireless or wired communication.
  • the sensor 3 may transmit a notification that the space is available to the information processing device 1 when the space is available, and may process information on whether or not the space is available at predetermined time intervals. You may transmit to the apparatus 1. Further, the information processing apparatus 1 receives images taken by the in-field camera 5 from a plurality of in-field cameras 5 at any time via wireless or wired communication. The information processing apparatus 1 acquires the position and orientation of the car 2 based on the image received from the on-site camera 5. More specifically, the information processing apparatus 1 has information that associates the on-site camera 5 with the location information on which the on-site camera 5 is installed, and the information processing device 1 can change the information depending on the image from the on-site camera 5.
  • the location information where the camera 5 is installed is specified, and the location of the car 2 shown in the image is specified. Further, the information processing apparatus 1 acquires the direction of the car 2 by analyzing the image.
  • the in-site camera 5 is installed at the entrance of the parking lot, and the in-site camera 5 captures the license plate of the car 2 entering the parking lot.
  • the information processing apparatus 1 can identify the vehicle 2 based on the license plate, extract the license plate from the images of the vehicle 2 sent from the plurality of on-site cameras 5, and track the vehicle 2. That is, it is assumed that the information processing apparatus 1 always knows the current position and direction of the car 2 in the parking lot based on images sent from the plurality of in-place cameras 5.
  • the information processing device 1 is based on the empty space information received from the plurality of sensors 3, the position and orientation of the car 2 in the parking lot, and the parking lot map stored in the storage device 12 or the like described later.
  • the empty space which exists in the 2 traveling direction is specified.
  • the parking lot map is a space ID for identifying each car space in the parking lot, position information of the space identified based on the space ID, information on standards such as the size and height of each space, It is the map data which manages the route information regarding the traveling direction in the hall at least.
  • the empty space information is information indicating the position information of an empty car space. For example, the space ID of the empty car space or the position information of a sensor provided in the empty space, etc.
  • the information processing apparatus 1 generates a virtual space image in the parking lot that includes the empty space object indicating the empty space and indicates the position of the empty space, according to the location (or position) of the specified empty space. .
  • the information processing apparatus 1 transmits the generated virtual space image to the car 2 via a plurality of wireless communication antennas 4 installed in the parking lot.
  • the vehicle 2 projects the virtual space image on a display of the vehicle, and controls the virtual space image to be superimposed on the scenery in the parking lot from the display.
  • FIG. 14 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 1.
  • the information processing apparatus 1 has a configuration in which a control device 11, a storage device 12, and a communication device 13 are connected via a bus 14 as a hardware configuration.
  • the control device 11 is a CPU or the like, and realizes the function of the information processing device 1 by executing processing based on a program stored in the storage device 12 or the like.
  • the storage device 12 is a storage device such as a RAM, a ROM, and an HDD, and stores a program, and stores data used when the control device 11 executes processing based on the program.
  • the communication device 13 controls wired or wireless communication between the information processing device 1 and the plurality of sensors 3 and control of wireless communication with the plurality of antennas 4.
  • the communication device 13 controls wireless communication with the plurality of sensors 3 and the plurality of antennas 4.
  • the information processing apparatus 1 includes a communication apparatus that controls wireless communication between the information processing apparatus 1 and the plurality of sensors 3, a communication apparatus that controls wireless communication between the information processing apparatus 1 and the plurality of antennas 4, A configuration having two communication devices may be employed.
  • FIG. 15 is a diagram illustrating an example of a hardware configuration of the car 2. Note that FIG. 15 shows the hardware configuration according to the present embodiment among the hardware configurations of the car, and the hardware configuration such as a so-called car engine is omitted. As shown in FIG. 15, the car 2 has a configuration in which a control device 21, a storage device 22, a communication device 23, and a projector 24 are connected via a bus 25 as a hardware configuration.
  • the control device 21 is a CPU or the like, and realizes the function according to the present embodiment of the vehicle 2 by executing processing based on a program stored in the storage device 22 or the like.
  • the storage device 22 is a storage device such as a RAM, a ROM, or an HDD, and stores a program or data that is used when the control device 21 executes processing based on the program.
  • the communication device 23 controls wireless communication between the car 2 and the plurality of antennas 4.
  • the projector 24 projects the virtual space image transmitted (or distributed) from the information processing apparatus 1 onto the display of the car 2. This display is Head-Up This is a mechanism called Display (HUD), in which the image projected from the projector 24 is reflected by the windshield of a car and made visible to the driver. As a result, the driver sees the normal scenery seen from the driver's seat through the windshield and the virtual space image projected and reflected by the projector 24 at the same time, and can be regarded as a superimposed image.
  • HUD Display
  • FIG. 16 is a diagram illustrating an example of a software configuration of the information processing apparatus 1 according to the third embodiment.
  • the information processing apparatus 1 includes, as a software configuration (functional configuration), an empty space information acquisition unit 31, a car information acquisition unit 32, an empty space specification unit 33, an image generation unit 34, And a transmission unit 35.
  • the vacant space information acquisition unit 31 acquires vacant space information of a parking lot. More specifically, the vacant space information acquisition unit 31 receives each vacant space information in the parking lot from the plurality of sensors 3 via wireless or wired.
  • the vehicle information acquisition unit 32 acquires the position and orientation of the car in the parking lot. More specifically, the car information acquisition unit 32 receives an image of the car 2 taken by the in-place camera 5.
  • the vehicle information acquisition unit 32 determines whether the image from the on-site camera 5 is based on information associated with the on-site camera 5 stored in the storage device 12 or the like and the location information where the on-site camera 5 is installed.
  • the location information where the on-site camera 5 is installed is specified, and the location of the car 2 shown in the image is specified.
  • the vehicle information acquisition unit 32 acquires the direction of the vehicle 2 by analyzing the image.
  • the empty space specifying unit 33 includes the empty space information acquired by the empty space information acquiring unit 31, the position and orientation of the vehicle 2 acquired by the vehicle information acquiring unit 32, and the parking space stored in the storage device 12 or the like.
  • the empty space existing in the traveling direction of the vehicle 2 is specified based on the parking lot map which is the map information.
  • the space ID obtained from the empty space information acquired from the empty space information acquisition unit 31 or the position information of the empty space is compared with the parking lot map, and the position information of the empty space is specified.
  • specification part 33 is based on the position information and direction of the vehicle 2 acquired by the vehicle information acquisition part 32, and the route information of the parking lot map. Identify free space in the direction of travel.
  • the image generation unit 34 includes an empty space object indicating the empty space according to the position in the parking lot of the empty space existing in the traveling direction of the vehicle 2 specified by the empty space specifying unit 33, and the position of the empty space The virtual space image in the said parking lot which shows is produced
  • the image generation unit 34 identifies the driver's field of view from the vehicle 2 based on the position and orientation of the vehicle 2 acquired by the vehicle information acquisition unit 32, and exists in the traveling direction of the vehicle 2 within the field of view.
  • a virtual space image in the parking lot that includes the empty space object that indicates the empty space and that indicates the position of the empty space may be generated according to the position of the empty space in the parking lot.
  • the transmission unit 35 transmits the virtual space image generated by the image generation unit 34 to the vehicle 2 via the antenna 4 near the position of the vehicle 2.
  • FIG. 17 is a diagram illustrating an example of a software configuration of the vehicle 2 according to the third embodiment.
  • the vehicle 2 includes a receiving unit 41 and a display control unit 42 as a software configuration (functional configuration).
  • the receiving unit 41 receives a virtual space image from the information processing apparatus via the antenna 4.
  • the display control unit 42 controls the projector 24 and projects the virtual space image received by the receiving unit 41 on the display of the car, thereby superimposing and displaying the virtual space image on the scenery in the parking lot from the display. To control.
  • FIG. 18 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the third embodiment.
  • the sensor 3 installed for each space (car space) in the parking lot transmits, for example, information to the information processing apparatus 1 as to whether or not a space is available at predetermined time intervals.
  • the information processing apparatus 1 receives the information, and grasps and manages the empty space information in the parking lot.
  • the on-site camera 5 always transmits the captured image to the information processing apparatus 1 wirelessly or via a wire. Note that the order of the sequence SQ1 and the sequence SQ2 is not limited, and may be reverse to the order shown in FIG. 18 or may be simultaneous.
  • the information processing apparatus 1 receives the image and grasps and manages the position and direction of the car in the parking lot.
  • the information processing apparatus 1 grasps and manages the empty space information, the position and orientation of the car, and the parking lot map stored in the storage device 12 or the like, and Identify free space in the direction of travel.
  • the information processing apparatus 1 includes an empty space object indicating the empty space according to the position in the parking lot of the empty space that exists in the traveling direction of the vehicle that is grasped and managed, and the position of the empty space The virtual space image in the said parking lot which shows is produced
  • the information processing apparatus 1 transmits the virtual space image to the car 2 via the antenna 4 close to the position of the car.
  • the car 2 controls the virtual space image received from the information processing apparatus 1 to be displayed on the display of the car by superimposing the virtual space image on the scenery in the parking lot from the display. .
  • the process shown in FIG. 18 is executed at regular intervals or every predetermined interval (for example, every 0.1 second) until the car enters the parking lot and is parked in the parking space.
  • FIG. 19 is a diagram illustrating an example of superimposed display on the display according to the third embodiment.
  • the display displays a virtual space image including an “empty” object indicating an empty space superimposed on the scenery in the parking lot from the display.
  • the information processing device 1 selects empty space objects having different shapes or colors depending on the distance from the vehicle 2 to each empty space.
  • the virtual space image including is generated.
  • the information processing apparatus 1 varies the size of the empty space object according to the distance. More specifically, the information processing apparatus 1 generates a virtual space image in which the empty space object is enlarged as the empty space is closer to the vehicle 2 among the plurality of specified empty spaces.
  • the driver of the car 2 can intuitively recognize a nearby empty space.
  • a large number of “empty” objects indicating empty spaces as shown in FIG. 19 are displayed on the display, and the visibility for the driver of the car 2 may deteriorate. Conceivable. Therefore, for example, when the distance of the car 2 from the empty space is a predetermined distance or more, the information processing apparatus 1 determines the empty space for the space in the block for each block obtained by dividing the parking lot into a plurality of blocks.
  • a virtual space image is generated that includes an empty space ratio object whose ratio is represented by a color or the like, and indicates the position of each block.
  • the information processing apparatus 1 determines whether the information processing apparatus 1 is less than the predetermined distance. If the information processing apparatus 1 is less than the predetermined distance, the information processing apparatus 1 generates a virtual space image that includes an empty space object that represents an empty space that exists in the traveling direction of the car 2 and that indicates the position of the empty space. May be.
  • a color-coded object indicating the empty space ratio for each block is displayed on the display.
  • an empty space object indicating each empty space as shown in FIG. 19 is expanded and displayed.
  • the driver does not have to update the map information of the car navigation system installed in each car, or the car navigation system is not installed in each car. It is possible to provide a technique capable of finding and reaching a target empty space.
  • FIG. 20 is a diagram illustrating an example of a software configuration of the information processing apparatus 1 according to the fourth embodiment.
  • the software configuration of the information processing apparatus 1 according to the fourth embodiment further includes a course specifying unit 51 as compared with the software configuration of the information processing apparatus 1 according to the third embodiment.
  • the course specifying unit 51 includes the empty space specified by the empty space specifying unit 33, the position and orientation of the car in the parking lot acquired by the vehicle information acquiring unit 32, and the parking lot map stored in the storage device 12. Based on the above, the route from the vehicle to the empty space is specified.
  • the image generation unit 34 of the present embodiment includes an empty space object indicating the empty space according to the position in the parking lot of the empty space that exists in the traveling direction of the vehicle 2 specified by the empty space specifying unit 33, and The virtual space image including the position of the empty space and the guidance object indicating the course specified by the course specifying unit 51 is generated. Further, for example, when the empty space specifying unit 33 specifies a plurality of empty spaces existing in the traveling direction of the vehicle, the course specifying unit 51 is closest to the vehicle among the empty spaces from the vehicle. Identify the path to the empty space.
  • FIG. 21 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the fourth embodiment.
  • a sequence SQ11 is newly added compared to the sequence diagram of the third embodiment shown in FIG.
  • the information processing device 1 performs the sequence from the vehicle based on the empty space information, the position and orientation of the vehicle, and the parking lot map stored in the storage device 12 or the like, which is grasped and managed.
  • the course to the empty space specified in SQ3 is specified.
  • the information processing apparatus 1 includes an empty space object indicating the empty space according to the position in the parking lot of the empty space that exists in the traveling direction of the vehicle that is grasped and managed, and the position of the empty space
  • the virtual space image including the guidance object indicating the specified course is generated.
  • FIG. 22 is a diagram illustrating an example of superimposed display on the display according to the fourth embodiment.
  • an arrow object is added as an example of a guide object indicating a route to an empty space near the car, compared to the superimposed display of the third embodiment shown in FIG. 19. .
  • the driver does not need to update the map information of the car navigation system installed in each car or the car navigation system is not installed in each car.
  • it is possible to provide a technique capable of finding and reaching a target empty space more quickly.
  • FIG. 23 is a diagram illustrating an example of a software configuration of the information processing apparatus 1 according to the fifth embodiment.
  • the software configuration of the information processing apparatus 1 according to the fifth embodiment further includes an equipment specifying unit 61 as compared with the software configuration of the information processing apparatus 1 according to the fourth embodiment.
  • the parking lot map manages parking lot facilities (for example, store entrances, toilets, emergency exits, etc.), location information regarding the location of the facilities, and the like.
  • the facility specifying unit 61 is based on the position and orientation of the vehicle in the parking lot acquired by the vehicle information acquisition unit 32 and the parking lot map stored in the storage device 12, and the parking location existing in the traveling direction of the vehicle. Identify parking facilities (for example, store entrances, toilets, emergency exits, etc.).
  • the image generation unit 34 of the present embodiment includes an empty space object indicating the empty space according to the empty space existing in the traveling direction of the vehicle 2 specified by the empty space specifying unit 33 and the position of the facility in the parking lot, A guidance object indicating a route specified by the route specifying unit 51 and a facility object indicating equipment existing in the traveling direction of the vehicle 2 specified by the facility specifying unit 61, and the position of the empty space and the facility A virtual space image indicating the position is generated.
  • FIG. 24 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the fifth embodiment.
  • a sequence SQ21 is newly added compared to the sequence diagram of the fourth embodiment illustrated in FIG.
  • the information processing apparatus 1 determines the parking lot that exists in the traveling direction of the vehicle based on the position and orientation of the vehicle that is grasped and managed and the parking lot map that is stored in the storage device 12 or the like. Identify the equipment.
  • the order of the sequence SQ11 and the sequence SQ21 is not limited, and may be reverse to the order shown in FIG. 24 or may be simultaneous.
  • sequence SQ4 the information processing apparatus 1 determines an empty space object, a guidance object, and an equipment object in accordance with the parking space of the empty space existing in the traveling direction of the vehicle being grasped and managed and the position of the equipment.
  • a virtual space image including the position of the empty space and the position of the facility is generated.
  • FIG. 25 is a diagram illustrating an example of superimposed display on the display according to the fifth embodiment.
  • an object indicating a store entrance and an object indicating a toilet are added as an example of the facility object as compared to the superimposed display of the fourth embodiment illustrated in FIG. 22.
  • the driver does not have to update the map information of the car navigation system installed in each car, or the car navigation system is not installed in each car.
  • it is possible to provide a technique capable of finding and reaching a target empty space more appropriately. For example, the driver can park in a parking space near the entrance of the store.
  • FIG. 26 is a diagram illustrating an example of a software configuration of the information processing apparatus 1 according to the sixth embodiment.
  • FIG. 27 is a diagram illustrating an example of a software configuration of the car 2 according to the sixth embodiment.
  • the software configuration of the information processing apparatus 1 according to the sixth embodiment does not include the image generation unit 34 as compared with the software configuration of the information processing apparatus 1 according to the third embodiment. Instead, the software configuration of the car 2 according to the sixth embodiment newly includes an image generation unit 34 as compared with the software configuration of the car 2 according to the third embodiment.
  • the information processing apparatus 1 transmits an empty space object or the like to the car 2.
  • the car 2 controls to generate an image including the received empty space object and project it on a display or the like.
  • the transmission unit 35 of the present embodiment transmits an empty space object indicating the empty space specified by the empty space specifying unit 33 and position information indicating the position of the empty space to the vehicle 2.
  • the receiving unit 41 of the present embodiment receives the empty space object and the position information from the information processing apparatus 1.
  • the image generation part 34 of this embodiment displays the virtual space image in the said parking lot which displayed the said empty space object received by the receiving part 41 in the position shown by the said positional information received by the receiving part 41.
  • the display control unit 42 of the present embodiment controls the virtual space image generated by the image generation unit 34 to be displayed on the car display so as to be superimposed on the scenery in the parking lot from the display. .
  • FIG. 28 is a sequence diagram illustrating an example of processing in the empty space guidance system according to the sixth embodiment.
  • the processing from the sequence SQ1 to the sequence SQ3 in the sixth embodiment shown in FIG. 28 is the same as the processing from the sequence SQ1 to the sequence SQ3 in FIG.
  • the information processing apparatus 1 determines the empty space according to the position in the parking lot of the empty space present in the traveling direction of the car that is grasped and managed via the antenna 4 close to the position of the car.
  • An empty space object indicating a space and position information of the empty space are transmitted to the car 2.
  • sequence SQ33 the car 2 generates a virtual space image in the parking lot in which the empty space object received from the information processing device 1 is displayed at the position indicated by the position information.
  • sequence SQ34 the car 2 controls the display so that the generated virtual space image is projected onto the display of the car so as to be superimposed on the scenery in the parking lot from the display.
  • the driver does not need to update the map information of the car navigation system installed in each car or the car navigation system is not installed in each car. It is possible to provide a technique capable of finding and reaching a target empty space.
  • the information processing apparatus 1 When there are a plurality of vehicles in the parking lot, the information processing apparatus 1 is a predetermined time later (for example, 1 minute later) based on guidance contents to a certain vehicle (for example, information on a route to an empty space). You may make it change the guidance destination to the empty space of another vehicle by predicting a parking condition. The information processing apparatus 1 may switch the guidance to the next best guidance destination when there is a vehicle that does not follow the guidance based on the image from the on-site camera 5 or the like. At this time, the information processing apparatus 1 may also change the prediction of the parking situation.
  • a predetermined time later for example, 1 minute later
  • the information processing apparatus 1 may switch the guidance to the next best guidance destination when there is a vehicle that does not follow the guidance based on the image from the on-site camera 5 or the like. At this time, the information processing apparatus 1 may also change the prediction of the parking situation.
  • the information processing apparatus 1 predicts the parking situation based on the parking lot entrance information, the exit information, and / or the guidance history, and compensates for the blind spot. Also good.
  • the information processing apparatus 1 determines the size of the vehicle (height, light vehicle, large vehicle), etc., based on the image of the vehicle (for example, a license plate) taken at the entrance, and manages it with a parking lot map.
  • the empty space information corresponding to the size of the vehicle may be specified by collating with the information regarding the standard of the empty space.
  • the information processing apparatus 1 specifies the position and orientation of the car based on the image from the on-site camera 5, but the antenna 4 that is an example of the wireless access point and the car 2
  • the position and movement (direction) of the car may be specified from wireless communication.
  • the information processing apparatus 1 receives an image captured by the camera of the car 2 via wireless communication or the like, and specifies the position and direction of the car based on the image. You may make it do.
  • the information processing apparatus 1 performs wireless communication.
  • the position information and direction of the vehicle may be acquired from the vehicle 2 via the vehicle, and these may be specified. Further, the information processing apparatus 1 may identify the position and orientation of the vehicle by combining these plural methods.
  • the information processing apparatus 1 has been described so as to perform wireless communication with the vehicle 2 via the antenna 4. However, the information processing device 1 directly performs wireless communication with the vehicle 2 without using the antenna 4. May be. Further, the car 2 may transmit its own speed information to the information processing apparatus 1. In the case of such a configuration, the information processing apparatus 1 specifies an empty space that exists in the traveling direction of the vehicle 2 according to the speed information of the vehicle 2. Note that the information processing apparatus 1 may obtain speed information of the car 2 based on the image of the car 2 from the on-site camera 5.
  • the car 2 When the car 2 has an imaging device such as a camera, the car 2 superimposes the image in the parking lot captured by the imaging device and the virtual space image received from the information processing device 1 and displays
  • the image and the virtual space image may be displayed on a display device of a car navigation system (that is, a non-transmissive display or the like).
  • a display device of a car navigation system that is, a non-transmissive display or the like.
  • the HUD projector 24 has been described as an example, but a transmissive display may be used.
  • a human body-mounted type such as Head Mounted Display, or a non-human body-type such as a windshield with a transmissive liquid crystal film attached thereto may be used.
  • the car 2 can be grasped as an image in which the virtual space image and a landscape in a parking lot from a car windshield are superimposed. Note that the alignment of the virtual space image and the scenery in the parking lot may be performed by the information processing apparatus 1 or the car 2.
  • the information processing apparatus 1 described above is an example of a computer.
  • FIG. 29 is a diagram illustrating an example of a system configuration of the image display system according to the seventh embodiment.
  • the image display system of the seventh embodiment includes a GPS compass (or GPS receiver) 2000 that acquires ship position information, and an information storage device that stores an electronic chart including a seabed shape and a tide table. 5000, an image display device 4000, an image providing device 1000 that provides an image to the image display device 4000, a gyrocompass 7000000 that acquires the direction of the ship, and a navigation control device 6000 that controls the navigation of the ship. Connected through.
  • GPS compass or GPS receiver
  • a GPS compass (or GPS receiver) 2000 which is an example of a position information acquisition device, acquires ship position information (longitude and latitude). Note that, as an example of the position information acquisition device, a GPS compass or a GPS receiver may be used. However, for the sake of simplification of description, a GPS compass will be described below as an example.
  • a gyrocompass 7000 which is an example of a direction acquisition device, acquires the direction of a ship. The image providing apparatus 1000 obtains the depth below the sea level of the position of the ship based on the position information of the ship acquired by the GPS compass 2000, the tide level table and the electronic chart stored in the information storage device 5000. .
  • the tide table is data in which the time in a certain position information is associated with the level of the sea level measured with reference to the basic level surface, and is issued by the Japan Coast Guard and the like.
  • Electronic charts are, for example, digitized sea map data issued by the Japan Coast Guard, etc., and include navigational charts and special maps, basic sea maps, coastal topographic maps, and coastal sea areas. There are various classifications according to purposes, such as land condition maps and marine geological maps.
  • the electronic chart for example, information on the water depth measured with reference to the basic level surface, waterway conditions, currents and tides, signs, coastal conditions, etc. are described.
  • a submarine topographic map showing the submarine topography with contour lines, a three-dimensional overhead map of the submarine topography, and the like are included.
  • the image providing apparatus 1000 may obtain the depth by calculation based on the position information, the tide table, and information on the water depth indicated by the electronic chart, or the position information, the tide table, and the electronic You may obtain
  • the information storage device 5000 stores a three-dimensional bird's-eye view map showing the sea bottom topography, and based on the position information and the depth below the sea surface, a 3D image of the sea bottom topography at the corresponding position and depth.
  • a chart such as a three-dimensional bird's-eye view map to create a virtual space image of the seabed shape below the sea level at the depth of the position of the ship.
  • the image providing apparatus 1000 performs coordinate conversion of the image into an image of a viewpoint from a windshield or the like of a ship described later, and provides the image to the image display apparatus 4000.
  • the image providing apparatus 1000 is also an example of a computer.
  • the image display device 4000 a display device such as a transmissive liquid crystal film is attached to a windshield or the like of a ship, and a virtual space image in a seabed shape provided from the image providing device 1000 is displayed on the front surface. It is displayed superimposed on the sea surface of the scenery from glass.
  • the information storage device 5000 includes own ship information acquired from a predetermined device or the like as disclosed in the above-described prior art documents or calculated based on the predetermined information. It shall be remembered. As an example of own ship information, position information, exercise information including course and speed, draft information, cargo information, number of passengers, time information, and the like are stored.
  • FIG. 30 is a diagram illustrating an example of a hardware configuration of the image providing apparatus 1000.
  • the image providing apparatus 1000 has a configuration in which a control device 1100, a storage device 1200, and a communication device 1300 are connected via a bus 1400 as a hardware configuration.
  • the control device 1100 is a CPU or the like, and realizes the function of the image providing device 1000 by executing processing based on a program stored in the storage device 1200 or the like.
  • the storage device 1200 is a storage device such as a RAM, a ROM, and an HDD, and stores a program, and stores data used when the control device 1100 executes processing based on the program.
  • the communication device 1300 is a device that controls communication between the image providing device 1000 and other devices in the image display system.
  • FIG. 31 is a diagram illustrating an example of a hardware configuration of the image display device 4000.
  • the image display device 4000 has a configuration in which a control device 2100, a storage device 2200, a communication device 2300, and a display device 2400 are connected via a bus 250,000 as a hardware configuration.
  • the control device 2100 is a CPU or the like, and realizes the function of the image display device 4000 by executing processing based on a program stored in the storage device 2200 or the like.
  • the storage device 2200 is a storage device such as a RAM, a ROM, and an HDD, and stores a program, and stores data used when the control device 2100 executes processing based on the program.
  • the communication device 2300 is a device that controls communication between the image display device 4000 and other devices in the image display system.
  • the display device 2400 is a transmissive liquid crystal film or the like attached to a windshield or the like of a ship, and displays an image or the like provided by the image providing device 1000 under the control of the control device 2100.
  • FIG. 32 is a diagram illustrating an example of a software configuration of the image providing apparatus 1000.
  • the image providing apparatus 1000 includes an image provision control unit 3100 as a software configuration (functional configuration).
  • the image provision control unit 3100 Based on the ship position information acquired by the GPS compass 2000, the tide table stored in the information storage device 5000, and the electronic chart, the image provision control unit 3100 has a depth below the sea level of the ship position. Ask for.
  • the information on the tide level at the time and position managed in the tide level table is corrected with respect to the information on the water depth measured on the basis of the basic level in the electronic chart, and the position of the ship is corrected. Find the depth below sea level.
  • the image provision control unit 3100 obtains the seafloor topographic image data at the position information and the depth based on the position information, the obtained depth below the sea level, and the electronic chart stored in the information storage device 5000. By extracting from the seabed topographic map of the electronic chart, a virtual space image of the seabed shape below the sea surface at the depth of the position of the ship is created and provided to the image display device 4000. Note that the image provision control unit 3100 performs coordinate conversion of the image into a viewpoint image from a windshield of a ship, which will be described later, and provides the image to the image display device 4000.
  • the image provision control unit 3100 is an image display device 4000 (more specifically, the display device 2400 of the image display device 4000) that is specified by a relative positional relationship from position information that is a ship reference point acquired by the GPS compass 2000. ), The direction of the ship acquired by the gyrocompass 7000, the size of the display device 2400, and the like, specify the visual field from the display device 2400. Then, the image provision control unit 3100 shows the seafloor topographic map showing the position information and the seafloor topographic image data at the depth specified based on the identified field of view, the depth below the sea level, and the electronic chart.
  • a virtual space image of the seabed shape below the sea surface at the depth in the field of view may be created.
  • the image provision control unit 3100 may create a submarine virtual space image below the sea surface at the depth in the field of view, or the submarine virtual space below the sea surface at the depth of the position of the ship.
  • an image in the visual field may be extracted from the image subjected to the coordinate conversion.
  • the image provision control part 3100 calculates
  • the draft of the ship is obtained by correcting the weight of the cargo in the draft information stored in the information storage device 5000.
  • the image provision control unit 3100 based on the draft, the position information, the depth below the sea level, and the electronic chart, the difference between the depth below the sea level and the draft, that is, the bottom of the hull
  • the distance from the bottom of the ship to the seafloor shape is highlighted, and the distance from the bottom of the hull to the seafloor shape is highlighted.
  • a virtual space image of a seabed shape under the seabed may be created and provided to the image display device.
  • FIG. 33 is a diagram illustrating an example of a software configuration of the image display device 4000.
  • the image display device 4000 includes an image display control unit 4100 as a software configuration (functional configuration).
  • the image display control unit 4100 superimposes and displays the sea-bottom-shaped virtual space image provided by the image providing apparatus 1000 below the sea surface of the landscape from the display apparatus 2400.
  • FIG. 34 is a diagram illustrating an example in which a sea-bottom-shaped virtual space image is superimposed and displayed below the sea surface of the landscape from the display device 2400. For example, in FIG. 34, 5100 and 5200 are displayed as the seabed rocks superimposed on the scenery from the windshield on the windshield of the bow.
  • the seabed rock 5100 when the seabed rock 5100 exists within a predetermined distance from the bottom of the hull, the seabed rock 5100 is highlighted compared to the seabed rock 5200.
  • a character string such as “Danger of collision!” May be displayed near the rock 5200, or the rock 5200 may be outlined in red.
  • FIG. 35 is a diagram illustrating an example of a system configuration of the image display system according to the eighth embodiment.
  • the image display system according to the eighth embodiment includes a radar 8000, which is an example of a radar device, as compared with the image display system according to the seventh embodiment.
  • the image providing apparatus 1000 according to the eighth embodiment compares an undersea image based on the radar echo of the radar 8000 and the electronic chart, and detects an obstacle not on the electronic chart under the sea surface.
  • the virtual space image of the seabed shape including the obstacle is created and provided to the image display device 4000.
  • an obstacle such as a sunken ship or a caisson that is not on the electronic chart can be detected, and the obstacle can be displayed by being superimposed under the sea level of the landscape from the display device 2400.
  • 35 may be a fish finder.
  • a virtual space image of a seabed shape including marine organisms that hinder the navigation of a ship such as a whale is created, and is superimposed and displayed below the sea level of the landscape from the display device 2400. Can do.
  • FIG. 36 is a diagram illustrating an example of a system configuration of the image display system according to the ninth embodiment.
  • the image display system according to the ninth embodiment includes a gyro sensor 9000 that detects the attitude of the ship as an example of a detection device, as compared with the image display system according to the seventh embodiment. It is.
  • the image providing apparatus 1000 according to the ninth embodiment is configured so that the sea level of the created sea-bottom-shaped virtual space image and the sea level of the landscape from the image display apparatus are horizontal based on the attitude of the ship detected by the gyro sensor 9000. Coordinate conversion is performed and provided to the image display device 4000. According to the configuration of the ninth embodiment, even when the ship is shaken, the actual sea surface and the sea surface of the virtual space image of the seabed shape are displayed on the windshield in a consistent manner.
  • FIG. 37 is a diagram illustrating an example of a system configuration of the image display system according to the tenth embodiment.
  • the image display system according to the tenth embodiment includes a receiving device 10000 that receives information, as compared with the image display system according to the seventh embodiment.
  • the receiving device 10000 receives information related to other ships in the sea area where the ship is present from, for example, a maritime traffic center.
  • the image providing apparatus 1000 creates a virtual space image including information on the other ship received by the receiving apparatus 10000 and provides the virtual space image to the image display apparatus 4000.
  • the image display device 4000 superimposes and displays the seabed-shaped virtual space image provided by the image providing device 1000 and the virtual space image including information on the other ships on the landscape from the display device 2400. .
  • sailors and the like can intuitively recognize information about other ships such as the size and movement of other ships even during heavy fog.
  • FIG. 38 is a diagram illustrating an example of a system configuration of the image display system according to the eleventh embodiment.
  • the image display system according to the eleventh embodiment includes a radar 8000 and a receiving device 10000 that receives information, as compared with the image display system according to the seventh embodiment. ing.
  • the receiving device 10000 of the eleventh embodiment receives the radar echo of the other ship acquired by the other ship and the position information where the ship has detected the echo from the other ship.
  • the image providing apparatus 1000 compares the image based on the echo of the radar 8000 and the image based on the echo of the radar of the other ship received by the receiving apparatus 10000, thereby using the echo of the radar 8000.
  • a virtual space image including the detected obstacle and an obstacle that cannot be detected by the echo of the radar 8000 is created, and the created virtual space image is provided to the image display device 4000.
  • the echo image of the radar of another ship is generated based on the position where the ship has detected the echo, it is aligned with the image detected by the own ship's radar 8000 using the received position information. Compare above.
  • the image display device 4000 includes a virtual space image of the seabed shape provided by the image providing device 1000, a virtual space including an obstacle detected by the radar 8000 echo and an obstacle that could not be detected by the radar 8000 echo.
  • the image is superimposed on the landscape from the display device 2400 and displayed.
  • obstacles that could not be captured by the ship (ships) can be obtained by receiving the radar echoes captured by other ships and superimposing the radar echoes of the own ship.
  • a virtual space image including the obstacle can be created and displayed.
  • the preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. ⁇ Change is possible.
  • a so-called non-human transmissive display such as a window having a transmissive liquid crystal film attached thereto has been described as an example.
  • a head mounted transmissive display such as Head Mounted Display is used. May be.
  • the image display device 4000 may be a portable transmissive or non-transmissive display held by a sailor or the like.
  • the non-transmissive display superimposes and displays an image captured by an imaging device and a virtual space image.
  • the image display device 4000 has been described as an example.
  • a projector that projects a virtual space image onto a window or the like on which a low-reflection film is attached may be used.

Abstract

 携帯端末(200)は、ちらし(300)に掲載される商品に係る画像データを撮影により取得し、商品に係る画像データを買物管理サーバ(100)に対して送信する。買物管理サーバ(100)は、携帯端末(200)から商品に係る画像データを受信した場合、商品に係る画像データを解析することにより商品を特定し、商品の在庫情報及び販売情報のうちの少なくとも何れか一方を取得し、商品の在庫情報及び販売情報のうちの少なくとも何れか一方を携帯端末(200)に対して送信する。携帯端末(200)は、買物管理サーバ(100)から送信された商品の在庫情報及び販売情報のうちの少なくとも何れか一方を示すコンピュータグラフィック画像データを、現実空間のちらしの映像と合成して提示することによって課題を解決する。

Description

情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム
 本発明は、情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラムに関する。
 目的地までの道案内や作業時における作業手順の提示等、様々な分野でナビゲーション技術が利用されている。ナビゲーション技術とは、ある行為を遂行し易くするよう支援を行う技術であるため、出来るだけ直感的に理解できるような仕組みが以前から求められている。そのような仕組みの一つとして、文字や画像等のコンピュータで管理されているデータを、現実の環境へ重畳表示させ、現実の環境に補足的な情報を与える拡張現実と呼ばれる技術を利用したナビゲーション技術が存在する。
 例えば、買物する際のナビゲーション技術として、テーマパークやショッピングモールにおいて、お目当てのアトラクションへのルートや店側が推す商品の陳列情報を拡張現実(Augmented Reality、以下AR)を利用して3次元的にナビゲーションする技術が開示されている(例えば、特許文献1参照)。より具体的には、撮影時の携帯情報端末の位置姿勢を演算し、携帯情報端末にて撮影した画像に写っているマーカを用いて、当該マーカに予め関連付けられた所定の情報を撮影した画像上に重畳表示する技術である。なお、ARとは文字、図形、静止画、動画等のコンピュータで管理されたデータ(以下、コンピュータグラフィックス画像データ)を、現実の環境へ重畳表示させ、補足的な情報を与える技術である。
 また、買物予定の商品を予め携帯端末のリストに登録しておき、リストに登録された商品の近くを歩くと、当該商品の商品情報が携帯端末に表示される技術が知られている(例えば、特許文献2参照)。
 同様に、駐車場内の空きスペースをナビゲーションする技術も、いくつか開発されている。ショッピングセンターや、遊園地、公共の大型駐車場では、車の運転手は、どこに空きスペースがあるかを把握することは困難であり、案内情報が必要とされる。したがって、例えば駐車場によって各駐車スペースにセンサーを設けて駐車状況を検知している。そして場内を複数のブロックに分割し、ブロック毎に「満車」「空」等を電光板等で表示して運転手に空きスペースを案内している。
 ところが、各ブロックの入り口に「満車」「空」が表示されているとしても、運転手は、そのブロック近辺まで走行してみないと「満車」「空」の状況はつかめない。或いは、場内が一覧された電光板を取り入れている駐車場もあるが、運転手は、運転しながら電光板を眺めてその目的スペースに辿り着くことは困難である。また、駐車場内は一方通行が設定されているところも多く、運転手が「空」を見つけたとしても、空いている駐車スペースまで辿り着きにくいという問題がある。
 このような課題を解決するために、例えば特許文献3では、カーナビゲーションシステムに駐車場の空き状況を反映させる仕組みが開示されている。先行文献1の方法は、駐車スペースから発車しそうな車を感知し、その状況を他の車のカーナビゲーションシステムに送信することで、近くに存在する空きスペースを案内するというものである。
 同様に、船舶の分野においても、様々なナビゲーション技術が開発されてきている。船舶の運航には、古くは海図を使った航行、現在はレーダー装置やGPS等を利用した航行が行われている。ところで沿岸部を運航する船舶の場合、暗礁への座礁等、海面下の障害物に対するトラブルを避けるために上記機器を駆使することになる。また、沿岸部に限らず、濃霧等により他の船舶との接触を避けるためにも海上では目視だけでなく、機器からの情報を活用している。
 これら機器を活用して座礁や他船との接触を避けることを高めることは可能であるが、より直感的に危険を察知・回避できる仕組みが望まれている。例えば非特許文献1には、船舶自動識別システム(AIS)と電子海図とを組み合わせて3次元表示する仕組みが開示されている。しかしながら、結局のところ船員は非特許文献1の図35のようなグラフ表示を理解して衝突等の判断をすることが求められる。
特開2004-48674号公報 特開平10-198731号公報 特開2006-209429号公報
福戸 淳司、他3名、"フェールセーフとしての衝突座礁回避システムの研究 中間報告"、[online]、[平成22年2月10日検索]、インターネット<http://www.nmri.go.jp/main/publications/paper/pdf/2A/03/00/PNM2A030043-00.pdf>
 しかしながら、常に状況が変化しうる環境において、直感的に理解できるようにするには、情報の得られるタイミングや情報の種類等に関して限りなく現実に近く、即時に知覚できるような状態で提示することが求められていた。
 本発明はこのような問題点に鑑みなされたもので、常に状況が変化しうるナビゲーション対象の現状を踏まえ、拡張現実技術を活用して任意のタイミングでリアルタイムな情報を重畳表示し、より直感的に理解できるよう強化した知覚を提供することを目的とする。
 例えば特許文献1に開示される技術においては、ナビゲーション情報の中には、店側にとってはお勧めの情報であっても、ユーザにとっては必要のない情報が含まれていることもある。これに対して、特許文献2に開示される技術は、予めリストに登録しておいた買物予定の商品の商品情報を携帯端末に表示させることができるが、リスト登録時にすぐに買物に行くとは限らないので、買物に行く時に買物予定の商品の在庫が切れていたり、買物予定の商品の価格が変動していたりする可能性がある。
 更に、商品の価格や在庫状況のような、常に状況が変化しうる環境において、直感的に理解できるようにするには、情報の得られるタイミングや情報の種類等に関して限りなく現実に近く、即時に知覚できるような状態で提示することが求められていた。
 本発明はこのような問題点に鑑みなされたもので、任意のタイミングで買物予定商品の商品情報や案内情報を容易に取得できるように支援することを第一の目的とする。
 その他にも、例えば、特許文献3のような構成の場合、カーナビゲーションシステム等が、駐車場の地図情報を記憶しておかなくてはならず、駐車場の改装等の度に、カーナビゲーションシステムの地図情報を更新する必要がある等の問題があった。
 更に、駐車場の空きスペースの状況のような、常に状況が変化しうる環境において、直感的に理解できるようにするには、情報の得られるタイミングや情報の種類等に関して限りなく現実に近く、即時に知覚できるような状態で提示することが求められていた。
 本発明はこのような問題点に鑑みなされたもので、各車に搭載されているカーナビゲーションシステムの地図情報を更新することなく、又は、各車にカーナビゲーションシステムが搭載されていなくても、運転手が、目的とする空きスペースを見つけ、辿り着くことが可能な技術を提供することを第二の目的とする。
 その他にも、例えば、船舶の運航のように、常に状況が変化しうる環境において、直感的に理解できるようにするには、情報の得られるタイミングや情報の種類等に関して限りなく現実に近く、即時に知覚できるような状態で提示することが求められていた。
 本発明はこのような問題点に鑑みなされたもので、船舶が航行する際に有益な情報を、船員等が直感的に状況を把握可能に提供することを第三の目的とする。
 そこで、本発明の情報処理システムは、現実空間の映像とコンピュータグラフィックス画像データとを合成して表示させることが可能な拡張現実感提示装置と、ちらしに掲載される各商品の在庫情報及び販売情報のうちの少なくとも何れか一方を管理する管理装置とを有する情報処理システムであって、前記拡張現実感提示装置は、前記ちらしに掲載される商品に係る画像データを撮影により取得する撮像手段と、前記撮像手段により取得された前記商品に係る画像データを前記管理装置に対して送信する第1の送信手段とを有し、前記管理装置は、前記拡張現実感提示装置から前記商品に係る画像データを受信した場合、前記商品に係る画像データを解析することにより前記商品を特定し、前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を取得する第1の取得手段と、前記第1の取得手段により取得された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を前記拡張現実感提示装置に対して送信する第2の送信手段とを有し、前記拡張現実感提示装置は、前記管理装置から送信された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を示すコンピュータグラフィック画像データを、現実空間の前記ちらしの映像と合成して提示する提示手段を更に有する。
 そこで、本発明の情報処理装置は、駐車場の空きスペース情報を取得する空きスペース情報取得手段と、駐車場内の車の位置及び向きを取得する車情報取得手段と、前記空きスペース情報取得手段で取得された空きスペース情報と、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定手段と、前記空きスペース特定手段で特定された空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する画像生成手段と、前記画像生成手段で生成された仮想空間画像を前記車に送信する送信手段と、を有する。
 また、本発明の情報処理装置は、駐車場の空きスペース情報を取得する空きスペース情報取得手段と、駐車場内の車の位置及び向きを取得する車情報取得手段と、前記空きスペース情報取得手段で取得された空きスペース情報と、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定手段と、前記空きスペース特定手段で特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を前記車に送信する送信手段と、を有する。
 そこで、本発明は、船舶の位置情報を取得する位置情報取得装置と、海底形状を含む電子海図と潮位表とを記憶する情報記憶装置と、画像表示装置と、前記画像表示装置に画像を提供する画像提供装置と、を含む画像表示システムであって、前記画像提供装置は、前記位置情報取得装置で取得された前記船舶の位置情報と、前記潮位表と、電子海図の示す水深に関する情報と、に基づいて、前記船舶の位置の海面下の深度を求め、前記位置情報と、前記海面下の深度と、前記電子海図の示す海底地形画像データと、に基づいて、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供し、前記画像表示装置は、前記画像提供装置より提供された海底形状の仮想空間画像を前記画像表示装置からの風景に重畳して表示する。
 本発明によれば、常に状況が変化しうる環境におけるナビゲーション技術において、直感的に理解できるようにするに、情報の得られるタイミングや情報の種類等に関して限りなく現実に近く、即時に知覚できるような状態で提示することが可能になる。
 例えば、本発明によれば、任意のタイミングで買物予定商品の商品情報や案内情報を容易に取得できるように支援することができる。
 その他にも、例えば、本発明によれば、各車に搭載されているカーナビゲーションシステムの地図情報を更新することなく、又は、各車にカーナビゲーションシステムが搭載されていなくても、運転手が、容易に、目的とする空きスペースを見つけ、辿り着くことが可能な技術を提供することができる。
 その他にも、例えば、本発明によれば、船舶が航行する際に有益な情報を、船員等が直感的に状況を把握可能に提供することができる。
図1は、実施形態1の買物ナビゲーションシステムの構成を概略的に示す図である。 図2Aは、買物管理サーバのハードウェア構成を示す図である。 図2Bは、携帯端末のハードウェア構成を示す図である。 図3Aは、実施形態1の買物ナビゲーションシステムにおける、購入予定商品の登録処理の流れを示すフローチャートである。 図3Bは、実施形態1の買物ナビゲーションシステムにおける、購入予定商品の商品情報の提示処理と現在地から店舗までのナビゲーション処理とを示すフローチャートである。 図4は、ユーザがちらしに掲載される購入予定商品を指差し、その状態を携帯端末の撮像部の画角に捉えた状態を示す図である。 図5は、商品情報のコンピュータグラフィックス画像データを現実空間の映像と合成した表示例を示す図である。 図6は、ユーザの購入予定商品であるリンゴの商品情報が3店舗分取得できた場合のAR表示の例を示す図である。 図7は、ちらし情報DBのデータベース構造の例を模式的に示す図である。 図8は、ユーザ情報DBのデータベース構造の例を模式的に示す図である。 図9は、商品情報DBのデータベース構造の例を模式的に示す図である。 図10は、実施形態2の買物ナビゲーションシステムの構成を概略的に示す図である。 図11Aは、実施形態2の買物ナビゲーションシステムにおける、購入予定商品の登録処理の流れを示すフローチャートである。 図11Bは、実施形態2の買物ナビゲーションシステムにおける、購入予定商品の商品情報の提示処理と現在地から店舗までのナビゲーション処理とを示すフローチャートである。 図12は、買物リストの例を示す図である。 図13は、空きスペース案内システムのシステム構成の一例を示す図である。 図14は、情報処理装置のハードウェア構成の一例を示す図である。 図15は、車のハードウェア構成の一例を示す図である。 図16は、実施形態3の情報処理装置のソフトウェア構成の一例を示す図である。 図17は、実施形態3の車のソフトウェア構成の一例を示す図である。 図18は、実施形態3の空きスペース案内システムにおける処理の一例を示すシーケンス図である。 図19は、実施形態3のディスプレイにおける重畳表示の一例を示す図である。 図20は、実施形態4の情報処理装置のソフトウェア構成の一例を示す図である。 図21は、実施形態4の空きスペース案内システムにおける処理の一例を示すシーケンス図である。 図22は、実施形態4のディスプレイにおける重畳表示の一例を示す図である。 図23は、実施形態5の情報処理装置のソフトウェア構成の一例を示す図である。 図24は、実施形態5の空きスペース案内システムにおける処理の一例を示すシーケンス図である。 図25は、実施形態5のディスプレイにおける重畳表示の一例を示す図である。 図26は、実施形態6の情報処理装置のソフトウェア構成の一例を示す図である。 図27は、実施形態6の車のソフトウェア構成の一例を示す図である。 図28は、実施形態6の空きスペース案内システムにおける処理の一例を示すシーケンス図である。 図29は、実施形態7の画像表示システムのシステム構成の一例を示す図である。 図30は、画像提供装置のハードウェア構成の一例を示す図である。 図31は、画像表示装置のハードウェア構成の一例を示す図である。 図32は、画像提供装置のソフトウェア構成の一例を示す図である。 図33は、画像表示装置のソフトウェア構成の一例を示す図である。 図34は、海底形状の仮想空間画像を表示装置からの風景の海面下に重畳して表示した一例を示す図である。 図35は、実施形態の画像表示システムのシステム構成の一例を示す図である。 図36は、実施形態9の画像表示システムのシステム構成の一例を示す図である。 図37は、実施形態10の画像表示システムのシステム構成の一例を示す図である。 図38は、実施形態11の画像表示システムのシステム構成の一例を示す図である。
 以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
 図1は、実施形態1の買物ナビゲーションシステムの構成を概略的に示す図である。図1に示すように、本実施形態に係る買物ナビゲーションシステムは、買物管理サーバ100と携帯端末200とを備え、互いに無線通信回線を介して通信可能に接続されている。
 ユーザは、ちらし300を閲覧し、ちらし300に掲載される商品から購入予定商品を選択する。次にユーザは選択した購入予定商品を指差し、その状態を携帯端末200の撮像部の画角に捉えることで、購入予定商品を指差しした状態の画像データが撮像部によって生成される。携帯端末200は、撮像部によって生成された画像データから購入予定商品の画像データを検出する。購入予定商品の画像データの検出方法としては、例えば、指差しした状態における指の形状パターンを幾つか用意しておき、画像データ内にそれらの指の形状パターンと一致又は類似する画像データが検出された場合、当該画像データを指と認識し、その指の向きに当該指から一定の距離以内に存在するオブジェクトを購入予定商品として検出する方法等が考えられる。
 携帯端末200は、購入予定商品の画像データを検出すると、購入予定商品の画像データを買物管理サーバ100に対して送信する。買物管理サーバ100は、携帯端末200から購入予定商品の画像データを受信すると、商品マッチング部106において、ちらし情報DB102に格納される、ちらし300に掲載されている各商品の画像データと、携帯端末200から受信した購入予定商品の画像データとの一致性を判定し、購入予定商品がちらし300に掲載されている商品であるか否かを判定する。購入予定商品がちらし300に掲載されている商品である場合、登録/照会部105は、購入予定商品とユーザとを対応付けてユーザ情報DB101に登録する。これにより、ユーザの購入予定商品が買物管理サーバ100において登録される。
 購入予定商品が買物管理サーバ100において登録された後、ユーザがその購入予定商品の価格情報や在庫情報の推移を知りたい場合には、再度ちらし300に対して携帯端末200をかざし、携帯端末200の撮像部の画角に購入予定商品を捉えるようにする。これにより、携帯端末200から購入予定商品の画像データが買物管理サーバ100に対して送信される。買物管理サーバ100の商品マッチング部106は、携帯端末200から受信される画像データを解析することにより、当該画像データがちらし300に掲載されている商品の画像データであることを検知する。そして登録/照会部105は、その商品がユーザの購入予定商品であると判定する。そして商品情報検索部107は、購入予定商品の最新(現在)の販売価格や在庫情報等の商品情報を取得し、携帯端末200に対して送信する。携帯端末200は、購入予定商品の最新の商品情報を示すコンピュータグラフィックス画像データを現実空間の映像と合成してディスプレイ上に表示する。このとき、商品情報を示すコンピュータグラフィックス画像データは、商品情報が購入予定商品と関連していることを把握しやすくするために、購入予定商品の近傍に表示されるように現実空間の映像との合成が行われる。
 地図情報検索部108は、携帯端末200の現在地情報を取得すると共に購入予定商品を販売している店舗の住所情報を取得し、現在地情報で示される位置と住所情報で示される位置とを含む地図情報を地図情報DB104から取得する。そして、地図情報検索部108は、取得した地図情報を用いて、携帯端末200の現在地から購入予定商品を販売している店舗までの経路を案内するための案内情報を生成し、携帯端末200に対して送信する。携帯端末200は、案内情報を用いて、現在地から購入予定商品を販売している店舗までの経路を案内するコンピュータグラフィックス画像データを現実空間の映像と合成して表示する。これにより、携帯端末200の撮像部の画角に街頭を捉えることにより、ユーザは街頭の現実空間の映像にコンピュータグラフィックス画像データによる経路案内が合成された画像を携帯端末200のディスプレイ上で確認しながら、店舗まで移動することができる。
 本実施形態においては、携帯端末200のディスプレイ上において現実空間の映像に整合する位置にコンピュータグラフィックス画像データを表示することにより、拡張された現実感を提示している。以下では、このような拡張された現実感を与えるコンピュータグラフィックス画像データの表示を、AR(Augmented Reality)表示と称することがある。なお、HMDには、非透過型やビデオ透過型、光学透過型等様々な方式がある。合成表示(AR表示)とは、何れかの方式によってHMDのレンズ部分に映し出される現実空間の映像に対し、整合する位置にコンピュータグラフィックス画像データを重畳表示することであって、例えば、光学透過型方式であれば、シースルーで見る現実空間の映像に対して重畳表示され、ビデオ透過型であれば、ビデオカメラで撮影した現実空間の映像に対して重畳表示される。
 また、上記の携帯端末200は、撮像部によって撮影された現実空間の映像をディスプレイに表示し、表示された現実空間の映像にコンピュータグラフィックス画像データを合成表示する携帯端末型のAR表示デバイスを想定しているが、本実施形態に適用可能なAR表示デバイスはこれに限定されない。例えば、ユーザの頭部に装着される眼鏡型のAR表示デバイスであって、光学的に透過してレンズ部分に映し出される現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データを表示するAR表示デバイス(HMD)であってもよいし、移動車両の運転席の視線方向に設置され、光学的に透過して映し出される現実空間の映像にコンピュータグラフィックス画像データを合成表示するようなヘッドアップディスプレイ型のAR表示デバイスであってもよい。
 また、現実空間の映像に整合させてコンピュータグラフィックス画像データを表示させる際に、現実空間の映像のオブジェクトとコンピュータグラフィックス画像データとの座標合わせが行われる。座標合わせの手法としては、携帯端末200の位置(緯度、経度)と姿勢(方向、仰角)とに基づいて携帯端末200を所持するユーザが撮像部越しに現実空間のどこを見ているかを推定し、推定した位置に整合するようにコンピュータグラフィックス画像データを合成してもよいし、現実空間のオブジェクトにマーカを付けておき、そのマーカを撮像部で撮影し、撮影された画像データから当該マーカの位置を検出し、検出した位置と整合するようにコンピュータグラフィックス画像データを合成してもよい。さらに、撮像部で捉えた現実空間の画像データを解析することにより現実空間のオブジェクトの位置を検出し、検出した位置と整合するようにコンピュータグラフィックス画像データを合成してもよい。
 図2Aは、本実施形態に係る買物管理サーバ100のハードウェア構成を示す図である。CPU1001は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM1003又はHD(ハードディスク)1009には、CPU1001の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム、例えば図3A及び図3Bに示す処理のうちの買物管理サーバ100が実行する処理のプログラム等が記憶されている。
 なお、図2Aの例では、HD1009は買物管理サーバ100の内部に配置された構成としているが、他の実施形態としてHD1009に相当する構成が買物管理サーバ100の外部に配置された構成としてもよい。また、本実施形態に係る例えば図3A及び図3Bに示す処理を行うためのプログラムは、フレキシブルディスク(FD)やCD-ROM等、コンピュータ読み取り可能な記録媒体に記録され、それらの記録媒体から供給される構成としてもよいし、インターネット等の通信媒体を介して供給される構成としてもよい。
 RAM1002は、CPU1001の主メモリ、ワークエリア等として機能する。CPU1001は、処理の実行に際して必要なプログラム等をRAM1002にロードして、プログラムを実行することで各種動作を実現するものである。
 HD1009やFD1008は、外部メモリとして機能する。CPU1001は、処理の実行に際して必要なプログラム等をRAM1002にロードして、プログラムを実行することで各種動作を実現するものである。
 ディスクコントローラ1007は、HD1007やFD1008等の外部メモリへのアクセスを制御する。通信I/Fコントローラ1006は、インターネットやLANと接続し、例えばTCP/IPによって外部との通信を制御するものである。
 ディスプレイコントローラ1010は、ディスプレイ1011における画像表示を制御する。
 KBコントローラ1004は、KB(キーボード)1005からの操作入力を受け付け、CPU1001に対して送信する。なお、図示していないが、KB1005の他に、マウス等のポインティングデバイスもユーザの操作手段として本実施形態に係る買物管理サーバ100に適用可能である。
 図1に示す登録/照会部105、商品マッチング部106、商品情報検索部107、地図情報検索部108は、例えばHD1009内に記憶され、必要に応じてRAM1002にロードされるプログラム及びそれを実行するCPU1001によって実現される構成である。また、ユーザ情報DB101、ちらし情報DB102、商品情報DB103、地図情報DB104は、HD1009における一部記憶領域に相当する構成である。
 図2Bは、本実施形態に係る携帯端末200のハードウェア構成を示す図である。CPU2001は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM2003には、例えば図3A及び図3Bに示す処理のうちの携帯端末200が実行する処理のプログラム等が記憶されている。なお、図3A及び図3Bに示す処理を行うためのプログラムは、インターネット等の通信媒体を介して供給される構成としてもよい。
 RAM2002は、CPU2001の主メモリ、ワークメモリ等として機能する。CPU2001は、処理の実行に際して必要なプログラム等をRAM2002にロードして、プログラムを実行することで各種動作を実現するものである。通信I/Fコントローラ2005は、インターネットやLANと接続し、例えばTCP/IPによって外部との通信を制御するものである。
 撮像部2004は、光学レンズを介して入射され、撮像素子に結像される被写体像を電気信号に変換し、動画像データ又は静止画像データを出力する。ディスプレイコントローラ2006は、ディスプレイ2007における画像表示を制御する。本実施形態においてディスプレイ2007は液晶ディスプレイを採用しているものとする。
 図3Aは、本実施形態に係る買物ナビゲーションシステムにおける、購入予定商品の登録処理の流れを示すフローチャートである。先ずユーザは、ちらし300に掲載される購入予定商品を指差し、その状態を携帯端末200の撮像部2007の画角に捉える。これにより、ステップS101において、撮像部2007は画角に捉えた画像データを生成し、携帯端末200はこの画像データを解析することにより、指差しによって指定された購入予定商品の画像データを検出する。ステップS102において、携帯端末200は、ステップS101にて検出した購入予定商品の画像データを買物管理サーバ100に対して送信する。
 図4は、ユーザがちらし300に掲載される購入予定商品を指差し、その状態を携帯端末200の撮像部2007の画角に捉えた状態を示す図である。ユーザはちらし300に掲載される商品のうち、リンゴを購入予定商品に選択して指差ししており、図4の例では、携帯端末200の撮影部はこの状態を画角に収め、ちらし300上の購入予定商品(リンゴ)をユーザが指差した状態の映像がディスプレイ2007に表示されている。従って、図4の例では、リンゴの画像データが購入予定商品の画像データとして検出されることになる。なお、上述した方法以外に、例えば、ユーザがちらし上のリンゴの周りを囲むように指を動かし、それを撮像部2007の画角に捉えることによって購入予定商品を指定してもよい。この場合、携帯端末200は、ユーザの指の軌道を検知し、その軌道内に収まっている商品を購入予定商品として判定する。以上のような購入予定商品の指定方法を採用することで、簡便に購入予定商品の指定することが可能となる。
 ステップS201において、買物管理サーバ100は、購入予定商品の画像データを携帯端末200から受信する。ステップS202において、商品マッチング部106は、ちらし情報DB102からちらし300に掲載されている各商品の画像データを取得し、携帯端末200から受信した購入予定商品の画像データと比較する。ステップS203において、商品マッチング部106は、購入予定商品の画像データとちらし300に掲載されている商品の画像データとの一致性を判定することにより、購入予定商品はちらし300に掲載されている商品であるか否かを判定する。この一致性の判定は、購入予定商品の画像データとちらし300に掲載されている商品の画像データとのパターンマッチングを行い、双方が一致又は類似していると判定された場合に、購入予定商品はちらし300に掲載されている商品であると判定する。購入予定商品がちらし300に掲載されている商品と判定された場合、処理はステップS204に移行する。一方、購入予定商品がちらし300に掲載されている商品ではないと判定された場合、処理はステップS201に戻り、新たな購入予定商品の画像データの受信を待つ。
 図7は、ちらし情報DB102のデータベース構造の例を模式的に示す図である。図7において、ちらし情報DB102は、ちらし300に掲載されている各商品のID(商品ID)と画像データとを対応付けて管理している。ステップS201において、買物管理サーバ100が例えばリンゴの画像データを携帯端末200から受信した場合、ステップS203において、商品マッチング部106は、購入予定商品の画像データと、ちらし300に掲載されている各商品の画像データと、を比較した結果、購入予定商品の画像データは701のリンゴの画像データと一致又は類似していると判定し、購入予定商品はリンゴであると判定する。
 ステップS204において、登録/照会部105は、購入予定商品と判定された商品の画像データに対応付けてある商品IDを、商品マッチング部106を介してちらし情報DB102から取得する。また、登録/照会部105は、ステップS201で受信された購入予定商品の画像データのヘッダ情報から送信元のユーザIDを取得する。そして、登録/照会部105は、ユーザIDと購入予定商品の商品IDとを対応付けてユーザ情報DB101に対して登録する。
 図8は、ユーザ情報DB101のデータベース構造の例を模式的に示す図である。図8において、ユーザ情報DB101は、ユーザID及び購入予定商品IDを対応付けて管理している。例えば、購入予定商品の商品IDが“1011”であり、購入予定商品の画像データのヘッダ情報からユーザID“aaa”を取得することができた場合、801のレコードに示すように、ユーザID“aaa”及び購入予定商品ID“1011”が対応付けて管理される。
 図3Bは、本実施形態に係る買物ナビゲーションシステムにおける、購入予定商品の商品情報の提示処理と現在地から店舗までのナビゲーション処理とを示すフローチャートである。例えばユーザが既に買物管理サーバ100に登録してある購入予定商品の最新の価格情報や在庫情報等を把握したい場合に、再度ちらし300に掲載される購入予定商品に対して携帯端末200をかざし、撮像部2007の画角に購入予定商品を捉える。これにより、ステップS103において、携帯端末200の撮像部2007は購入予定商品の画像データを生成する。ステップS104において、携帯端末200は、購入予定商品の画像データを買物管理サーバ100に対して送信する。
 ステップS205において、買物管理サーバ100は、携帯端末200から購入予定商品の画像データを受信する。ステップS206において、商品マッチング部106は、ちらし情報DB102からちらし300に掲載されている各商品の画像データを取得し、携帯端末200から受信した購入予定商品の画像データと比較する。ステップS207において、商品マッチング部106は、購入予定商品の画像データとちらし300に掲載されている商品の画像データとの一致性を判定することにより、購入予定商品はちらし300に掲載されている商品であるか否かを判定する。購入予定商品がちらし300に掲載されている商品と判定された場合、処理はステップS213に移行する。一方、購入予定商品がちらし300に掲載されている商品と判定されなかった場合、処理はステップS205に戻る。
 ステップS213において、登録/照会部105は、購入予定商品と判定された商品の画像データに対応付けてある商品IDを、商品マッチング部106を介してちらし情報DB102から取得する。また、登録/照会部105は、ステップS205にて受信された画像データのヘッダ情報から送信元のユーザIDを取得する。ステップS208において、登録/照会部105は、ステップS213にて取得した商品IDが上記ユーザIDと対応付けてユーザ情報DB101で管理されているか否かを判定する。商品IDと上記ユーザIDとが対応付けてあった場合、処理はステップS209に移行する。一方、商品IDと上記ユーザIDとが対応付けてない場合、処理はステップS205に戻る。
 ステップS209において、商品情報検索部107は、ステップS213で取得された商品IDに該当する商品情報を商品情報DB103から検索し、携帯端末200に対して送信する。
 図9は、商品情報DB103のデータベース構造の例を模式的に示す図である。図9において、商品情報DB103は、商品ID、商品名、価格(価格1、価格2、・・・)、店舗、在庫量及び商品属性が対応付けて管理している。商品属性としては、当該商品が食品であれば、生産地、生産日等が管理され、当該商品が衣服であれば、色、サイズ等が管理される。なお、商品情報DB103で管理されるデータは、図1に図示されていないPOSシステム(Point Of Sales system)と連携し、任意のタイミングで更新されていてもよい。例えば、ステップS213において取得された商品IDが“1011”である場合、ステップS209では、図9に示す商品情報DB103から901のレコードが検索され、レコード901に登録される商品情報が携帯端末200に送信される。なお、商品情報に含まれる価格及び在庫量に関しては、最新の情報が携帯端末200に対して送信される。商品情報DB103において、ちらし300に掲載された当該商品の価格が始めの価格(価格1)として登録され、価格が更新される度に価格が追加登録されていく(価格2、価格3、・・・)。ステップS209では、このように登録された価格の履歴から、最後に登録された価格が携帯端末200に対して送信される。これにより、携帯端末200では購入予定商品の最新(現在)の価格が表示されることになる。なお、商品情報DB103において、価格の履歴を管理しておき、価格自体は上書きされ、最新の価格のみが管理される方式でもよい。また、商品情報DB103において、在庫量は所定のタイミングで上書きされ、最新の在庫量のみが管理される。従って、ステップS209においては最新の在庫量が携帯端末200に対して送信される。これにより、携帯端末200では購入予定商品の最新の在庫量が表示されることになる。
 ステップS105において、携帯端末200は、買物管理サーバ100から商品情報を受信する。ステップS106において、携帯端末200は、受信した商品情報のコンピュータグラフィックス画像データを現実空間の映像と合成して表示する。図5は、商品情報のコンピュータグラフィックス画像データを現実空間の映像と合成した表示例を示す図である。図5の例においては、購入予定商品の近傍に、商品情報501を示すコンピュータグラフィックス画像データと経路案内を要求するための操作スイッチであるタグ502を示すコンピュータグラフィックス画像データが表示されている。
 ステップS110において、携帯端末200は、経路案内(ナビゲーション)の要求があったか否かを判定する。即ち、携帯端末200はタグ502が操作されたか否かを判定する。タグ502が操作された場合、処理はステップS107に移行する。一方、タグ502が操作されてない場合、処理は終了する。ステップS107において、携帯端末200は、買物管理サーバ100に対して経路案内の要求を発行する。
 ステップS210において、買物管理サーバ100は、携帯端末200から経路案内の要求を受け付ける。ステップS211において、地図情報検索部108は、携帯端末200の現在地情報を取得すると共に、購入予定商品を販売している店舗情報を商品検索部107から取得する。なお、携帯端末200の現在地はGPS(Global Positioning System)を使用することにより取得することが可能である。また、図9には図示していないが、商品情報DB103は商品を販売している店舗の住所情報を含み、地図情報検索部108は、商品情報検索部107を介して商品情報DB103から購入予定商品を販売している店舗の住所情報を取得するものとする。ステップS211において、地図情報検索部108は、携帯端末200の現在地情報により示される位置と購入予定商品を販売している店舗の住所情報により示される位置とを含む地図情報を検索する。ステップS212において、地図情報検索部108は、検索した地図情報を用いて、携帯端末200の現在地から購入予定商品を販売している店舗までの経路を案内するための案内情報を生成し、携帯端末200に対して送信する。
 ステップS108において、携帯端末200は、案内情報を買物管理サーバ100から受信する。ステップS109において、携帯端末200は、受信した案内情報を用いて、携帯端末200の現在地から購入予定商品を販売している店舗までの経路を案内するコンピュータグラフィックス画像データを現実空間の映像に合成してディスプレイ2007に表示する。
 上述した実施形態においては、ユーザは登録しておいた買物予定商品の商品情報を知りたくなった場合には、ちらし上の買物予定商品に対して所定の指定動作を行い、これを撮像部2004の画角に捉えることで、当該買物予定商品の最新の在庫量や価格等の商品情報を容易に得ることができる。また、ユーザ情報DB801に対してユーザIDと購入予定商品の商品IDとの対応付けが登録される際に、当該購入予定商品の商品情報を携帯端末200に通知できるようにするためには、図3AのステップS204の後に図3BのステップS209を実行すればよい。即ち、買物管理サーバ100は、ステップS204においてユーザIDと購入予定商品の商品IDとの対応付けをユーザ情報DB801に対して登録すると、続くステップS209において当該商品IDに該当する商品情報を商品情報DB103から検索し、携帯端末200に対して送信する。このようにすることで、ユーザIDと購入予定商品の商品IDとの対応付けの登録時に、当該購入予定商品の商品情報を携帯端末200に通知することが可能となる。
 なお、上述した実施形態では、ユーザが購入予定商品の商品情報の提示処理において、再度ちらし300に対して携帯端末200をかざす必要があったが、これに限らない。再度ちらし300に対して携帯端末200をかざす必要がない他の実施形態について、上述した実施形態とは異なる点を中心に説明する。
<実施形態2>
 図10は、実施形態2の買物ナビゲーションシステムの構成を概略的に示す図である。図10に示されるように、本実施形態のシステムは、上述の実施形態のシステムと比較して、ユーザ情報DB101を買物管理サーバ100に備えておらず、代わりに、買物リスト201を携帯端末200に備えている。なお、買物リスト201とは、購入予定の商品の商品IDを記録したファイルであり、例えば図12に示すように、商品画像や商品名等と対応付けて管理されている。
 図11Aは、本実施形態に係る買物ナビゲーションシステムにおける、購入予定商品の登録処理の流れを示すフローチャートである。図3Aと比較して、ステップS1101が追加され、ステップS204が削除された代わりにステップS1201が追加されている。
 ステップS1201において、登録/照会部105は、購入予定商品と判定された商品の画像データに対応付けられた商品IDを、商品マッチング部106を介してちらし情報DB102から取得する。そして、取得した商品IDを携帯端末200へ送信する。
 ステップS1101において、携帯端末200より商品IDを受信する。そして、受信した商品IDをROM2003に記憶する。
 次に、図11Bは、本実施形態に係る買物ナビゲーションシステムにおける、購入予定商品の商品情報の提示処理と現在地から店舗までのナビゲーション処理とを示すフローチャートである。図3Bと比較して、図3BのステップS103及びステップS104が削除された代わりにステップS1102が追加されている。また、図3BのステップS205からステップS208が削除された代わりにステップS1202が追加されている。以下、上述した実施形態との相違点を主眼において本実施形態について説明する。
 例えばユーザが既に図11AのステップS1101にて携帯端末200に登録した購入予定商品の最新の価格情報や在庫情報等を把握したい場合に、図11BのステップS1102において、携帯端末200は、当該商品の商品IDを買物管理サーバ100へ送信する。当該商品の商品IDの特定方法としては、例えば、買物リストが図12に示すように携帯端末200に表示されており、買物リストに表示された商品名をタップすると当該商品名に対応する携帯端末200に登録されている商品IDが選択され、買物管理サーバ100へ送信される。
 ステップS1202において、買物管理サーバ100は、商品IDを取得する。以降は、図3Bと同様のステップS209の処理へと移行する。本実施形態の構成によれば、ユーザは購入予定商品の在庫情報や価格情報を取得する際に、ちらし30を必要としないため、より容易に取得することが可能になる。
 なお、上述した実施形態では、ユーザがちらし300に掲載される商品から購入予定商品を選択すると、その購入予定商品を販売している店舗における当該購入予定商品の商品情報をAR表示するようにしているが、これに限らない。例えば、ユーザの購入予定商品が複数店舗で販売されていることもあり、このような場合、上述のステップS209において、当該商品を販売している複数店舗における商品情報が検索され、それら商品情報をAR表示することもできる。即ち、ちらし情報DB102において、複数店舗のちらしの商品の画像データと商品IDとの対応付けを管理しておき、購入予定商品の画像データと一致又は類似する商品の画像データが複数存在し、それら全ての画像データに対応付けられている各商品IDのうちの何れか一つと、購入予定商品の画像データのヘッダに記録されるユーザIDとの組み合わせがユーザ情報DB101に存在する場合、上記各商品IDに該当する全ての商品情報が商品情報DB103から取得されるようにしてもよい。或いは、ちらし情報DB102より、購入予定商品の画像データと一致又は類似する画像データに対応する商品ID全てを特定する方式でもよい。或いは、図7には図示していないが、ちらし情報DB102において、商品名を管理する列を追加し、購入予定商品の画像データと一致又は類似する商品の商品名と同一或いは類似の商品名が、列“商品名”にて管理されている商品の商品ID全てを特定する方式でもよい。或いは、購入予定商品の画像データではなく、携帯端末200より受信した商品IDに対応付けて管理されている商品名或いは商品の画像データと一致又は類似する商品の商品ID全てを特定する方式でもよい。そして、取得された全ての商品情報が買物管理サーバ100から携帯端末200に対して送信され、携帯端末200では、購入予定商品に関して、複数の店舗の商品情報をAR表示することができる。
 図6は、ユーザの購入予定商品であるリンゴの商品情報が3店舗分取得できた場合のAR表示の例を示す図である。図6において、601、602、603は夫々、A店舗、B店舗、C店舗のリンゴに関する商品情報であり、各店舗における現在のリンゴの価格や在庫量等を示している。これにより、ユーザはちらしを発行したA店舗以外のリンゴの商品情報を参照することができる。例えば、仮にA店舗以外の店舗でA店舗より安い価格でリンゴを販売している場合や、A店舗で在庫がなくなっており、他店舗で在庫が残っていた場合、他店舗でリンゴを買うように買物先を変更してもよい。この場合、ステップS110において、携帯端末200は、商品情報がAR表示された複数店舗のうち、どの店舗の商品に関するタグ604が操作されたか否かを判定し、次に、ステップS107において、携帯端末200は、買物管理サーバ100に対して、当該店舗までの経路案内の要求を発行する。なお、図6には、経路案内を要求するための操作スイッチであるタグ604の店舗の選択形態がプルダウンメニューで表示されているが、これ以外も可能である。例えば、複数店舗夫々のタグを設けてもよいし、ユーザが発声した店舗名を認識する音声認識を用いてもよい。
 また、A店舗で当初リンゴを購入する予定だったが、他店舗でA店舗より安い価格でリンゴを販売している場合や、A店舗では在庫がなくなり、他店舗では在庫がある場合において、買物管理サーバ100が自動的にそれを検知して携帯端末200に対して当該多店舗へナビゲートするための案内情報を生成し、携帯端末200に対して送信するようにしてもよい。このとき、買物物理サーバ100は、ステップS211及びステップS212において、上述のステップS209において検索された複数店舗における商品情報について任意のタイミングで比較し、所定のルールに基づいた案内情報を生成する。当該ルールは、ROM1003又はHD(ハードディスク)1009に記憶されており、例えば、現在地とステップS209において検索された複数店舗のうち、距離が最も近い店舗へのルートを案内する、或いは、ステップS209において検索された複数店舗のうち最も在庫が多い店舗へのルートを案内する、或いは、ステップS209において検索された複数店舗の各ルートにおける人の混雑状況を示す情報を別途取得し、最もスムーズに通りやすいルートを案内する等が考えられる。なお一つのルールを固定的に適用するのではなく、複数のルールを組み合わせて適用させたり、組み合わせを動的に変更して適用させたりしてもよい。例えば、最初は「距離が最も近い店舗へのルートを案内する」というルールを適用することによってA店舗への案内情報が生成され、携帯端末200においてAR表示された情報に基づきユーザがA店舗へ向かっている途中で、買物管理サーバ100が商品情報DB103を参照して商品の在庫が無い事を把握した場合、別のルール「最も在庫が多い店舗へのルートを案内する」に基づいて、買物管理サーバ100が、新たな案内情報を生成し、携帯端末200においてAR表示される。また、現在地から店舗までの経路を案内するだけでなく、店舗内において目当ての商品が陳列されている場所までを案内するようにしてもよい。さらに、ユーザが目当ての商品の周辺まで辿り着いているが商品を見つけられない場合は、携帯端末200の姿勢検知機能によって姿勢を検知し、ユーザが見るべき方向を案内してもよい。
 また、携帯端末200に対してAR表示される情報の他の例として、現在ユーザが見ているちらしに過去に登録した商品が掲載されているというアラーム、当該商品の値引き価格や値引き期間等がある。即ち、ユーザにとって定期的に必要となる例えば粉ミルクやティッシュ等の消耗品を図3Aで説明した方法で一度登録しておくと、以降発行されるちらしにユーザが携帯端末200をかざし、ちらし内に登録した商品が掲載されていると、それを図3Bで説明した方法(ステップS205~S208)で検知し、ステップS209と同様の処理により、アラームと当該商品の値引き価格や値引き期間等を携帯端末200に送信すればよい。これにより、ユーザが携帯端末200越しにちらしを見た状態でアラーム等の情報がAR表示されることになる。
 また、他の実施形態として、買物管理サーバ100がユーザの嗜好に応じた商品をちらしから自動的に選択し、選択した商品や当該商品を扱っている店舗をユーザに対して案内してもよい。より具体的には、買物管理サーバ100に対して、ユーザのマスタ情報を登録しておく。マスタ情報として登録される情報として、個人の趣向(品質重視であるか否か、旬の物重視であるか否か、アレルギーがあるか否か、一週間の目標食費、一日の目標カロリー、同じ材料且つ途中まで同じ料理手順で品数を増やしたいか否か、近場で買い物を済ませたいか否か)、家族の趣向(父:油控え目、子供:肉中心、大人:辛口カレー、子供:甘口カレー)、料理の履歴(料理を成功したか失敗したか、食べ残し履歴、家族の反応)が挙げられる。また、買物管理サーバ100は、各店舗のちらし情報を取得する。ちらし情報の取得方法としては、各店舗のサイトの電子ちらしデータから商品の画像、価格等を取得したり、新聞の折り込みちらしをカメラで撮影し、撮影により得られた画像データから商品の画像、価格等を取得したりする方法が挙げられる。なお、ちらし情報は複数の店舗のちらし情報を取得するようにしてもよい。例えば、スーパーマーケットであるA店舗からはカレーの具材に関するちらし情報を取得し、格安酒店である店舗Bからは調味料に関するちらし情報を取得すること等が考えられる。一方、ユーザは携帯端末200上で料理番組、レストラン紹介番組、料理研究家のブログ、お勧め料理のレシピを見て、画面上で例えば「美味しそう」というボタンを操作すると、携帯端末200は画像認識、音声認識、文字認識等を行い、この解析結果とマスタ情報及びちらし情報とを引き合わせ、食材及び販売店舗を選定する。
 買物管理サーバ100は、このようにして選定された食材及び販売店舗に基づいて、携帯端末200の現在地から販売店舗までの経路を案内するための案内情報を生成し、携帯端末200に対して送信する。携帯端末200では、案内情報を用いて、現在地から販売店舗まで案内するコンピュータグラフィックス画像データを現実空間の映像と合成して表示する。これにより、ユーザの嗜好に合った食材を購入できる店舗までの経路が自動的に案内される。また、販売店舗内にユーザが移動し、携帯端末200を店舗内でかざすと、食材が置いてある棚が写った現実空間の映像に対し、当該食材の価格、在庫量、生産地等の商品情報を示すコンピュータグラフィックス画像データを合成して表示してもよいし、もし、棚の位置を指し示す矢印表示のコンピュータグラフィックス画像データを現実空間の映像に合成表示してもよい。
 また、ユーザが実際に購入した食材の履歴をマスタ情報に登録し、次回の食材の選択の際に利用してもよい。さらに、購入した食材の履歴を家計簿の一部の情報として出力するようにしてもよい。
 上述した実施形態では、購入予定商品の登録時や購入予定商品の商品情報の取得時において、購入予定商品の画像データを撮像部2004で撮影し、当該画像データを携帯端末200から買物管理サーバ100に対して送信するようにしているが、これに限定されない。即ち、ちらし上に商品に対応するマーカが掲載されている場合、撮像部2004でマーカを撮影し、当該マーカの画像データを携帯端末200から買物管理サーバ100に対して送信してもよい。買物管理サーバ100は、マーカと商品との対応付けを管理しており、受信したマーカの画像データを解析することにより、当該マーカに対応する購入予定商品を識別する。そして、買物管理サーバ100は、ちらし情報DB102に格納されるちらし300に掲載されている各商品のIDと購入予定商品のIDとを比較し、一致する商品がある場合、当該購入予定商品はちらしに掲載されている商品であると判定し、ユーザ情報DB101にユーザと購入予定商品とを対応付けて管理する。
 また、当該購入予定商品の商品情報を得たい場合には、同じくユーザは撮像部2004で当該購入予定商品に対応するマーカを撮影し、当該マーカの画像データを携帯端末200から買物管理サーバ100に対して送信する。買物管理サーバ100は、受信したマーカの画像データを解析することにより、当該マーカに対応する購入予定商品を識別する。そして、買物管理サーバ100は、ちらし情報DB102に格納されるちらし300に掲載されている各商品のIDと購入予定商品のIDとを比較する。一致する商品がある場合、買物管理サーバ100は、当該購入予定商品のIDとユーザとの対応付けがユーザ情報DB101に登録されているか否かを判定する。当該購入予定商品のIDとユーザとの対応付けがユーザ情報DB101に登録されている場合、当該購入予定商品は当該ユーザが過去に指定したものであると判定される。従って、買物管理サーバ100は、当該ユーザの携帯端末200に対して当該購入予定商品の商品情報を送信する。以上のように、ちらしに掲載されている各商品に対応するマーカを使用することによっても同様に、任意のタイミングで購入予定商品の商品情報を容易に得ることが可能である。
 なお、上述の実施形態において、ちらしを例に説明したが、街中に貼られたポスターやTVのCM等あらゆる広告媒体についても、同様に実施可能である。
<実施形態3>
 以下、実施形態3を説明する。
 図13は、空きスペース案内システムのシステム構成の一例を示す図である。図13に示されるように、空きスペース案内システムは、駐車場内のスペース(カースペース)毎に設置されている複数のセンサー3と、駐車場内に複数設置されている無線通信用のアンテナと、駐車場内に複数、設置されている場内カメラ5と、情報処理装置1と、駐車場内の車2と、がネットワークを介して接続されている。
 情報処理装置1は、複数のセンサー3より駐車場内の各空きスペース情報を無線、又は有線を介して受信する。なお、センサー3は、スペースが空いたときに空いた旨の通知を情報処理装置1に送信してもよいし、予め定められた時間間隔毎にスペースが空いているか否かの情報を情報処理装置1に送信してもよい。
 また、情報処理装置1は、複数の場内カメラ5より随時、場内カメラ5で撮影された画像を無線、又は有線を介して受信する。情報処理装置1は、場内カメラ5から受信した画像に基づき、車2の位置及び向きを取得する。より具体的に説明すると、情報処理装置1は、場内カメラ5と場内カメラ5が設置されている場所情報とを関連付けた情報を有しており、どの場内カメラ5からの画像かによって、その場内カメラ5が設置されている場所情報を特定し、前記画像に写っている車2の場所を特定する。また、情報処理装置1は、前記画像を解析することにより、車2の向きを取得する。なお、本実施形態の空きスペース案内システムでは、駐車場の入り口に、場内カメラ5が設置されており、この場内カメラ5は、駐車場に入場する車2のナンバープレートを撮影するものとする。情報処理装置1は、このナンバープレートに基づき、車2を識別し、複数の場内カメラ5から送られている車2の画像よりナンバープレートを抽出し、車2を追跡することができる。つまり、情報処理装置1は、複数の場内カメラ5から送られてくる画像に基づき、駐車場内の車2の現在の位置及び向きを常時、把握しているものとする。
 情報処理装置1は、複数のセンサー3より受信した空きスペース情報と、駐車場内の車2の位置及び向きと、後述する記憶装置12等に記憶されている駐車場マップと、に基づいて、車2の進行方向に存在する空きスペースを特定する。なお、駐車場マップとは、駐車場内の各カースペースを識別するスペースIDと、当該スペースIDに基づいて識別されたスペースの位置情報と、各スペースの広さや高さ等規格に関する情報と、駐車場内の進行方向に関する経路情報を、少なくとも管理している地図データである。また、空きスペース情報とは、空いたカースペースの位置情報を示す情報であり、例えば空いたカースペースのスペースIDや、或いは、当該空きスペースに備え付けられたセンサーの位置情報等、駐車場マップと照合して空きスペースの位置を特定できる情報であればよい。そして、情報処理装置1は、特定した空きスペースの場所(又は位置)に応じて、前記空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する。情報処理装置1は、生成した仮想空間画像を、駐車場内に複数設置されている無線通信用のアンテナ4を介して、車2に送信する。
 車2は、前記仮想空間画像を受信すると、前記仮想空間画像を車のディスプレイに投影し、前記仮想空間画像が、前記ディスプレイからの駐車場内の風景に重畳して表示するよう制御する。
 図14は、情報処理装置1のハードウェア構成の一例を示す図である。
 図14に示されるように、情報処理装置1は、ハードウェア構成として、制御装置11と、記憶装置12と、通信装置13と、がバス14を介して接続された構成を有する。制御装置11は、CPU等であって、記憶装置12等に記憶されているプログラムに基づき処理を実行することによって情報処理装置1の機能を実現する。記憶装置12は、RAM、ROM、HDD等の記憶装置であって、プログラムを記憶したり、制御装置11がプログラムに基づき処理を実行する際に利用するデータ等を記憶したりする。通信装置13は、情報処理装置1と複数のセンサー3との有線又は無線通信の制御及び複数のアンテナ4との無線通信の制御を司る。本実施形態を含む以下の実施形態では、通信装置13が複数のセンサー3及び複数のアンテナ4との無線通信の制御を司るものとして説明を行う。しかしながら、情報処理装置1は、情報処理装置1と複数のセンサー3との無線通信の制御を司る通信装置と、情報処理装置1と複数のアンテナ4との無線通信の制御を司る通信装置と、の2つの通信装置を有する構成を採用してもよい。
 図15は、車2のハードウェア構成の一例を示す図である。なお、図15では、車のハードウェア構成のうち、本実施形態に係わるハードウェア構成について示しており、所謂車のエンジン等のハードウェア構成については省略する。
 図15に示されるように、車2は、ハードウェア構成として、制御装置21と、記憶装置22と、通信装置23と、プロジェクタ24と、がバス25を介して接続された構成を有する。制御装置21は、CPU等であって、記憶装置22等に記憶されているプログラムに基づき処理を実行することによって車2の本実施形態に係る機能を実現する。記憶装置22は、RAM、ROM、HDD等の記憶装置であって、プログラムを記憶したり制御装置21がプログラムに基づき処理を実行する際に利用するデータ等を記憶したりする。通信装置23は、車2と複数のアンテナ4との無線通信の制御を司る。プロジェクタ24は、情報処理装置1より送信された(又は配信された)仮想空間画像を車2のディスプレイに投影する。このディスプレイは、Head-Up
Display(HUD)と呼ばれる仕組みであり、プロジェクタ24から投射された画像が、車のフロントガラスなどで反射して運転手に見えるようにしたものである。これにより、運転手は運転席からフロントガラス越しに見える通常の風景と、プロジェクタ24で投影され、反射して見える仮想空間画像とを同時に見ることになり、重畳した画像として捉えることができる。
 図16は、実施形態3の情報処理装置1のソフトウェア構成の一例を示す図である。図16に示されるように、情報処理装置1は、ソフトウェア構成(機能構成)として、空きスペース情報取得部31と、車情報取得部32と、空きスペース特定部33と、画像生成部34と、送信部35と、を含む。
 空きスペース情報取得部31は、駐車場の空きスペース情報を取得する。より具体的には、空きスペース情報取得部31は、複数のセンサー3より駐車場内の各空きスペース情報を無線、又は有線を介して受信する。車情報取得部32は、駐車場内の車の位置及び向きを取得する。より具体的に説明すると、車情報取得部32は、場内カメラ5で撮影された車2の画像を受信する。そして、車情報取得部32は、記憶装置12等に記憶されている場内カメラ5と場内カメラ5が設置されている場所情報とが関連付けた情報より、どの場内カメラ5からの画像かによって、その場内カメラ5が設置されている場所情報を特定し、前記画像に写っている車2の場所を特定する。また、車情報取得部32は、前記画像を解析することにより、車2の向きを取得する。
 空きスペース特定部33は、空きスペース情報取得部31で取得された空きスペース情報と、車情報取得部32で取得された車2の位置及び向きと、記憶装置12等に記憶されている駐車場内の地図情報である駐車場マップと、に基づいて、車2の進行方向に存在する空きスペースを特定する。より具体的には、例えば、空きスペース情報取得部31より取得した空きスペース情報より得られるスペースID或いは空きスペースの位置情報と駐車場マップとを照合し、空きスペースの位置情報を特定する。そして、空きスペース特定部33は、車情報取得部32で取得された車2の位置及び向きと駐車場マップの経路情報より、前記特定した一以上の空きスペースの位置情報のうち、車2の進行方向に存在する空きスペースを特定する。画像生成部34は、空きスペース特定部33で特定された車2の進行方向に存在する空きスペースの駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する。ここで、画像生成部34は、車情報取得部32で取得された車2の位置及び向きに基づき、車2からの運転者の視野を特定し、前記視野内における車2の進行方向に存在する空きスペースの駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成するようにしてもよい。
 送信部35は、画像生成部34で生成された仮想空間画像を、車2の位置近くのアンテナ4を介して車2に送信する。
 図17は、実施形態3の車2のソフトウェア構成の一例を示す図である。なお、図17では、車のソフトウェア構成のうち、本実施形態に係わるソフトウェア構成について示しており、例えば、車のエンジン等の制御に係るソフトウェアの構成については省略する。図17に示されるように車2は、ソフトウェア構成(機能構成)として、受信部41と、表示制御部42と、を含む。
 受信部41は、アンテナ4を介して情報処理装置より仮想空間画像を受信する。表示制御部42は、プロジェクタ24を制御し、受信部41で受信された仮想空間画像を車のディスプレイに投影させることで、前記仮想空間画像を前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する。
 図18は、実施形態3の空きスペース案内システムにおける処理の一例を示すシーケンス図である。
 シーケンスSQ1において、駐車場内のスペース(カースペース)毎に設置されているセンサー3は、例えば、予め定められた時間間隔毎にスペースが空いているか否かの情報を情報処理装置1に送信する。情報処理装置1は、前記情報を受信し、駐車場内の空きスペース情報を把握、管理する。
 シーケンスSQ2において、場内カメラ5は、常時、撮影した画像を無線、又は有線を介して情報処理装置1に送信する。なお、シーケンスSQ1と、シーケンスSQ2と、の順序は問わない、図18に示す順序と逆であってもよいし、同時であってもよい。情報処理装置1は、前記画像を受信し、駐車場内の車の位置及び向きを把握、管理する。
 シーケンスSQ3において、情報処理装置1は、把握、管理している、空きスペース情報と、車の位置及び向きと、記憶装置12等に記憶されている駐車場マップと、に基づいて、車2の進行方向に存在する空きスペースを特定する。
 シーケンスSQ4において、情報処理装置1は、把握、管理している車の進行方向に存在する空きスペースの駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する。
 シーケンスSQ5及びシーケンスSQ6において、情報処理装置1は、車の位置に近いアンテナ4を介して前記仮想空間画像を車2に送信する。
 シーケンスSQ7において、車2は、情報処理装置1より受信した仮想空間画像を車のディスプレイに投影させることで、前記仮想空間画像を前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する。
 図18に示される処理は、車が駐車場内に入場し、駐車スペースに駐車されるまで、常時、又は所定の間隔(例えば、0.1秒間隔)毎に実行される。
 図19は、実施形態3のディスプレイにおける重畳表示の一例を示す図である。図19に示されるように、ディスプレイには、ディスプレイからの駐車場内の風景に重畳して空きスペースを示す「空」のオブジェクトが含まれる仮想空間画像が表示されている。ここで、情報処理装置1は、車2の進行方向に存在する空きスペースが複数、特定された場合、車2から各空きスペースまでの距離に応じて、形状、又は色が異なる空きスペースオブジェクトを含む前記仮想空間画像を生成する。図19の例では、情報処理装置1は、前記距離に応じて、空きスペースオブジェクトの大きさを異ならせている。より具体的に説明すると、情報処理装置1は、特定された複数の空きスペースのうち、車2からの距離が近い空きスペース程、空きスペースオブジェクトを大きくした仮想空間画像を生成している。この様にすることにより、車2の運転手は、近くの空きスペースを直感的に認識することができる。
 ここで、空きスペースが多い場合、図19に示した様な空きスペースを示す「空」のオブジェクトがディスプレイに多数表示されることになり、車2の運転手にとって視界が悪くなるような場合も考えられる。そこで、例えば、情報処理装置1は、空きスペースから車2の距離が所定の距離以上、離れていた場合は、駐車場内を複数のブロック毎に区切ったブロック毎のブロック内のスペースに対する空きスペースの割合を例えば色等で表す空きスペース割合オブジェクトを含み、前記ブロック毎の位置を示す仮想空間画像を生成する。一方、情報処理装置1は、前記所定の距離未満の場合は、車2の進行方向に存在する空きスペースを表す空きスペースオブジェクトを含み、前記空きスペースの位置を示す仮想空間画像を生成するようにしてもよい。このような構成とすることにより、車2が空きスペースから離れた位置にある場合には、ディスプレイには、ブロック毎の空きスペース割合を示す色分けされたオブジェクトが表示される。そして、車2が空きスペースに近づいた場合は、図19に示すような1台毎の空きスペースを示す空きスペースオブジェクトが展開され、表示されるようになる。
 上述したように、本実施形態によれば、各車に搭載されているカーナビゲーションシステムの地図情報を更新することなく、又は、各車にカーナビゲーションシステムが搭載されていなくても、運転手が、目的とする空きスペースを見つけ、辿り着くことが可能な技術を提供することができる。
<実施形態4>
 以下、実施形態4を説明する。実施形態4では、実施形態3とは異なる点を説明する。
 図20は、実施形態4の情報処理装置1のソフトウェア構成の一例を示す図である。図20に示されるように、実施形態4の情報処理装置1のソフトウェア構成は、実施形態3の情報処理装置1のソフトウェア構成に比べて、進路特定部51が更に含まれている。進路特定部51は、空きスペース特定部33で特定された空きスペースと、車情報取得部32で取得された駐車場内の車の位置及び向きと、記憶装置12に記憶されている駐車場マップと、に基づいて、前記車から前記空きスペースまでの進路を特定する。本実施形態の画像生成部34は、空きスペース特定部33で特定された車2の進行方向に存在する空きスペースの駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示すと共に、進路特定部51で特定された進路を示す案内オブジェクトを含む前記仮想空間画像を生成する。
 また、例えば、進路特定部51は、空きスペース特定部33で車の進行方向に存在する空きスペースが複数、特定された場合、前記車から前記複数の空きスペースのうち、最も前記車に近い前記空きスペースまでの進路を特定する。
 図21は、実施形態4の空きスペース案内システムにおける処理の一例を示すシーケンス図である。
 図21に示す実施形態4のシーケンス図は、図18に示した実施形態3のシーケンス図に比べて、シーケンスSQ11が、新たに追加されている。
 シーケンスSQ11において、情報処理装置1は、把握、管理している、空きスペース情報と、車の位置及び向きと、記憶装置12等に記憶されている駐車場マップと、に基づいて、車からシーケンスSQ3において特定した空きスペースまでの進路を特定する。
 シーケンスSQ4において、情報処理装置1は、把握、管理している車の進行方向に存在する空きスペースの駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示すと共に、特定した進路を示す案内オブジェクトを含む前記仮想空間画像を生成する。
 図22は、実施形態4のディスプレイにおける重畳表示の一例を示す図である。図22に示す実施形態4の重畳表示では、図19に示した実施形態3の重畳表示に比べて、車に近い空きスペースまでの進路を示す案内オブジェクトの一例として矢印のオブジェクトが追加されている。
 上述したように、本実施形態によれば、各車に搭載されているカーナビゲーションシステムの地図情報を更新することなく、又は、各車にカーナビゲーションシステムが搭載されていなくても、運転手が、より素早く目的とする空きスペースを見つけ、辿り着くことが可能な技術を提供することができる。
<実施形態5>
 以下、実施形態5を説明する。実施形態5では、上述した実施形態とは異なる点を説明する。
 図23は、実施形態5の情報処理装置1のソフトウェア構成の一例を示す図である。図23に示されるように、実施形態5の情報処理装置1のソフトウェア構成は、実施形態4の情報処理装置1のソフトウェア構成に比べて、設備特定部61が更に含まれている。また、駐車場マップには、上述の情報に加え、駐車場の設備(例えば、店舗の入り口やトイレ、非常出口等)や当該設備の場所に関する位置情報等を管理している。設備特定部61は、車情報取得部32で取得された駐車場内の車の位置及び向きと、記憶装置12に記憶されている駐車場マップと、に基づいて、車の進行方向に存在する駐車場の設備(例えば、店舗の入り口やトイレ、非常出口等)を特定する。本実施形態の画像生成部34は、空きスペース特定部33で特定された車2の進行方向に存在する空きスペース及び設備の駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトと、進路特定部51で特定された進路を示す案内オブジェクトと、設備特定部61で特定された車2の進行方向に存在する設備を示す設備オブジェクトと、を含み、前記空きスペースの位置及び前記設備の位置を示す仮想空間画像を生成する。
 図24は、実施形態5の空きスペース案内システムにおける処理の一例を示すシーケンス図である。
 図24に示す実施形態5のシーケンス図は、図21に示した実施形態4のシーケンス図に比べて、シーケンスSQ21が、新たに追加されている。
 シーケンスSQ21において、情報処理装置1は、把握、管理している車の位置及び向きと、記憶装置12等に記憶されている駐車場マップと、に基づいて、車の進行方向に存在する駐車場の設備を特定する。なお、シーケンスSQ11と、シーケンスSQ21と、の順序は問わない、図24に示す順序と逆であってもよいし、同時であってもよい。
 シーケンスSQ4において、情報処理装置1は、把握、管理している車の進行方向に存在する空きスペースの駐車場内及び設備の位置に応じて、空きスペースオブジェクトと、案内オブジェクトと、設備オブジェクトと、を含み、前記空きスペースの位置及び前記設備の位置を示す仮想空間画像を生成する。
 図25は、実施形態5のディスプレイにおける重畳表示の一例を示す図である。図25に示す実施形態5の重畳表示では、図22に示した実施形態4の重畳表示に比べて、設備オブジェクトの一例として、店舗の入り口を示すオブジェクトと、トイレを示すオブジェクトと、が追加されている。
 上述したように、本実施形態によれば、各車に搭載されているカーナビゲーションシステムの地図情報を更新することなく、又は、各車にカーナビゲーションシステムが搭載されていなくても、運転手が、より適切に目的とする空きスペースを見つけ、辿り着くことが可能な技術を提供することができる。例えば、運転手は、店舗の入り口近くの駐車スペースに駐車することもできる。
<実施形態6>
 以下、実施形態6について説明する。実施形態6では、上述した実施形態とは異なる点を説明する。
 図26は、実施形態6の情報処理装置1のソフトウェア構成の一例を示す図である。また、図27は、実施形態6の車2のソフトウェア構成の一例を示す図である。実施形態6の情報処理装置1のソフトウェア構成は、実施形態3の情報処理装置1のソフトウェア構成に比べて、画像生成部34が含まれていない。その代わり、実施形態6の車2のソフトウェア構成は、実施形態3の車2のソフトウェア構成に比べて画像生成部34が新たに含まれている。本実施形態の構成では、情報処理装置1は、空きスペースオブジェクト等を車2に送信する。車2は、受信した空きスペースオブジェクト等を含む画像を生成し、ディスプレイ等に投影するよう制御する。
 本実施形態の送信部35は、空きスペース特定部33で特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を車2に送信する。そして、本実施形態の受信部41は、情報処理装置1から前記空きスペースオブジェクトと、前記位置情報と、を受信する。そして、本実施形態の画像生成部34は、受信部41で受信された前記空きスペースオブジェクトを受信部41で受信された前記位置情報で示される位置に表示させた前記駐車場内の仮想空間画像を生成する。そして、本実施形態の表示制御部42は、画像生成部34で生成された仮想空間画像を車のディスプレイに投影させることで、前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する。
 図28は、実施形態6の空きスペース案内システムにおける処理の一例を示すシーケンス図である。
 図28に示す実施形態6のシーケンスSQ1からシーケンスSQ3までの処理は、図18のシーケンスSQ1からシーケンスSQ3までの処理と同様であるため、説明を省略する。
 シーケンスSQ31及びシーケンスSQ32において、情報処理装置1は、車の位置に近いアンテナ4を介して、把握、管理している車の進行方向に存在する空きスペースの駐車場内の位置に応じて、前記空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置情報と、を車2に送信する。
 シーケンスSQ33において、車2は、情報処理装置1より受信した前記空きスペースオブジェクトを前記位置情報で示される位置に表示させた前記駐車場内の仮想空間画像を生成する。
 シーケンスSQ34において、車2は、生成された仮想空間画像を車のディスプレイに投影させることで、前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する。
 本実施形態のような構成であっても、各車に搭載されているカーナビゲーションシステムの地図情報を更新することなく、又は、各車にカーナビゲーションシステムが搭載されていなくても、運転手が、目的とする空きスペースを見つけ、辿り着くことが可能な技術を提供することができる。
<その他の実施形態>
 以下、その他の実施形態について説明する。
 情報処理装置1は、駐車場内に複数の車が存在する場合、ある車への誘導内容(例えば、空きスペースまでの進路に関する情報等)を基に、所定時間後(例えば、1分後)の駐車状況を予測し、他の車の空きスペースへの誘導先を変更するようにしてもよい。
 また、情報処理装置1は、場内カメラ5からの画像等に基づき、誘導に従わない車両が存在する場合、次善の誘導先に誘導を切り替えるようにしてもよい。なお、このとき、情報処理装置1は、駐車状況の予測も変更するようにしてもよい。
 また、情報処理装置1は、場内カメラ5に死角等が存在する場合、駐車場の入り口情報、出口情報、及び/又は誘導履歴等に基づいて、駐車状況を予測し、死角を補うようにしてもよい。
 また、情報処理装置1は、入り口で撮影された車の画像(例えば、ナンバープレート等)に基づいて、車両のサイズ(高さや、軽自動車、大型自動車)等を判別し、駐車場マップで管理されている空きスペースの規格に関する情報と照合し、車両のサイズに応じた空きスペース情報を特定するようにしてもよい。
 また、上述した実施形態では、情報処理装置1は、場内カメラ5からの画像等に基づき、車の位置及び向きを特定したが、無線アクセスポイントの一例であるアンテナ4と、車2と、の無線通信から車の位置及び動き(向き)を特定するようにしてもよい。また、情報処理装置1は、車2にカメラが付いている場合、車2のカメラで撮影された画像を、無線通信等を介して受信し、前記画像に基づき、車の位置及び向きを特定するようにしてもよい。また、車2が、車の位置情報(経度、緯度)を取得するGPSコンパス(又はGPSレシーバ)や、車の向きを取得するジャイロコンパスを有している場合、情報処理装置1は、無線通信を介して車2より車の位置情報や向きを取得し、これらを特定するようにしてもよい。また、情報処理装置1は、これら複数の方法を組み合わせて、車の位置及び向きを特定するようにしてもよい。
 また、上述した実施形態では、情報処理装置1は、アンテナ4を介して車2と無線通信をするよう説明を行ったが、アンテナ4を介さず、直接、車2と無線通信を行うようにしてもよい。
 また、車2は、自身の速度情報を、情報処理装置1に送信するようにしてもよい。このような構成の場合、情報処理装置1は、車2の速度情報に応じて、車2の進行方向に存在する空きスペースを特定する。なお、情報処理装置1は、場内カメラ5からの車2の画像に基づき、車2の速度情報を求めるようにしてもよい。
 また、車2がカメラ等の撮像装置を有している場合、車2は、撮像装置で撮像した駐車場内の画像と、情報処理装置1より受信した仮想空間画像と、を重畳して、ディスプレイ等に表示するようにしてもよいし、前記画像と、前記仮想空間画像と、をカーナビゲーションシステムの表示装置(つまり、非透過型のディスプレイ等)に表示するようにしてもよい。
 また、例えば、上述した実施形態では、HUD方式のプロジェクタ24を例に説明を行ったが、透過型のディスプレイであってもよい。例えば、Head Mounted Displayのような人体装着型のものであってもよいし、透過型液晶フィルムを貼り付けたフロントガラス等の人体非装着型のものであってもよい。例えば、車2は、仮想空間画像を透過型液晶フィルムに表示させることで、前記仮想空間画像と、車のフロントガラスからの駐車場内の風景と、が重畳した画像として捉えることができる。
 なお、仮想空間画像と、駐車場内の風景と、の位置合わせは、情報処理装置1で行ってもよいし、車2で行ってもよい。
 なお、上述した実施形態を任意に組み合わせて実施してもよい。
 なお、上述した情報処理装置1は、コンピュータの一例である。
<実施形態7>
 以下、実施形態7を説明する。
 図29は、実施形態7の画像表示システムのシステム構成の一例を示す図である。図29に示されるように、実施形態7の画像表示システムは、船舶の位置情報を取得するGPSコンパス(又はGPSレシーバ)2000と、海底形状を含む電子海図と潮位表とを記憶する情報記憶装置5000と、画像表示装置4000と、画像表示装置4000に画像を提供する画像提供装置1000と、船舶の方位を取得するジャイロコンパス7000000と、船舶の航行を制御する航行制御装置6000と、がネットワークを介して接続されている。
 位置情報取得装置の一例であるGPSコンパス(又はGPSレシーバ)2000は、船舶の位置情報(経度、緯度)を取得する。なお、位置情報取得装置の一例としては、GPSコンパスであってもよいし、GPSレシーバであってもよいが、以下では説明の簡略化のため、GPSコンパスを例に説明を行う。
 向き取得装置の一例であるジャイロコンパス7000は、船舶の向きを取得する。
 画像提供装置1000は、GPSコンパス2000で取得された船舶の位置情報と、情報記憶装置5000に記憶されている潮位表と電子海図と、に基づいて、前記船舶の位置の海面下の深度を求める。なお、潮位表とは、ある位置情報における時刻と基本水準面等を基準に計測した海面の高低とを対応付けて表したデータであり、海上保安庁等より発行されている。また、電子海図とは、例えば、海上保安庁等より発行されている電子化された海の地図データのことであり、航海用海図や特殊図、海の基本図、沿岸海域地形図、沿岸海域土地条件図、海洋地質図等、目的によって種々に分類されている。電子海図には、例えば、基本水準面等を基準に計測した水深に関する情報や、水路の状況、海流や潮流、標識、海岸の状態等が記載されており、例えば、海の基本図には、海底の地形を等深線で表した海底地形図や前記海底地形の3次元俯瞰地図等が含まれている。画像提供装置1000は、前記位置情報と、前記潮位表と、電子海図の示す水深に関する情報とに基づいて、前記深度を計算で求めてもよいし、前記位置情報と、前記潮位表と、電子海図の示す水深に関する情報とが管理されているテーブル等より前記深度を求めてもよい。また、画像提供装置1000は、前記位置情報と、求めた海面下の深度と、情報記憶装置5000に記憶されている電子海図と、に基づいて、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、画像表示装置4000に提供する。例えば、情報記憶装置5000に、海底地形が示された3次元俯瞰地図を記憶しておき、前記位置情報と求めた海面下の深度とに基づいて、該当位置及び深度における海底地形の3次元画像を、3次元俯瞰地図等の海図より抽出したり計算したりして、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成する。なお、画像提供装置1000は、前記画像を、後述する船舶のフロントガラス等からの視点の画像に座標変換し、画像表示装置4000に提供する。画像提供装置1000は、コンピュータの一例でもある。
 画像表示装置4000は、後述するように、透過型の液晶フィルム等の表示装置が船舶のフロントガラス等に貼り付けられており、画像提供装置1000から提供された海底形状の仮想空間画像を前記フロントガラス等からの風景の海面下に重畳して表示する。
 なお、情報記憶装置5000には、上述した情報以外に、上述の先行技術文献等で開示されているように所定の装置等から取得された、又は所定の情報に基づき算出された自船情報が記憶されているものとする。自船情報の一例としては、位置情報や、針路や速力等を含む運動情報、喫水情報、積荷情報、乗客数、時刻情報等が記憶されているものとする。
 図30は、画像提供装置1000のハードウェア構成の一例を示す図である。
 図30に示されるように、画像提供装置1000は、ハードウェア構成として、制御装置1100と、記憶装置1200と、通信装置1300と、がバス1400を介して接続された構成を有する。制御装置1100は、CPU等であって、記憶装置1200等に記憶されているプログラムに基づき処理を実行することによって画像提供装置1000の機能を実現する。記憶装置1200は、RAM、ROM、HDD等の記憶装置であって、プログラムを記憶したり、制御装置1100がプログラムに基づき処理を実行する際に利用するデータ等を記憶したりする。通信装置1300は、画像提供装置1000と画像表示システム内の他の装置との通信の制御を司る装置である。
 図31は、画像表示装置4000のハードウェア構成の一例を示す図である。
 図31に示されるように、画像表示装置4000は、ハードウェア構成として、制御装置2100と、記憶装置2200と、通信装置2300と、表示装置2400と、がバス250000を介して接続された構成を有する。制御装置2100は、CPU等であって、記憶装置2200等に記憶されているプログラムに基づき処理を実行することによって画像表示装置4000の機能を実現する。記憶装置2200は、RAM、ROM、HDD等の記憶装置であって、プログラムを記憶したり、制御装置2100がプログラムに基づき処理を実行する際に利用するデータ等を記憶したりする。通信装置2300は、画像表示装置4000と画像表示システム内の他の装置との通信の制御を司る装置である。表示装置2400は、船舶のフロントガラス等に貼り付けられた透過型の液晶フィルム等であって、制御装置2100の制御の基、画像提供装置1000より提供された画像等を表示する。
 図32は、画像提供装置1000のソフトウェア構成の一例を示す図である。
 図32に示されるように、画像提供装置1000は、ソフトウェア構成(機能構成)として、画像提供制御部3100を含む。画像提供制御部3100は、GPSコンパス2000で取得された船舶の位置情報と、情報記憶装置5000に記憶されている潮位表と、電子海図と、に基づいて、前記船舶の位置の海面下の深度を求める。一般的には、例えば、電子海図にある基本水準面等を基準に計測した水深に関する情報に対して、潮位表で管理された当該時刻及び位置における潮位に関する情報を補正し、前記船舶の位置の海面下の深度を求める。そして、画像提供制御部3100は、前記位置情報と、求めた海面下の深度と、情報記憶装置5000に記憶されている電子海図と、に基づいて、前記位置情報及び深度における海底地形画像データを電子海図の海底地形図より抽出することで、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、画像表示装置4000に提供する。なお、画像提供制御部3100は、前記画像を、後述する船舶のフロントガラス等からの視点の画像に座標変換し、画像表示装置4000に提供する。
 画像提供制御部3100は、GPSコンパス2000で取得された船舶の基準点となる位置情報から相対的な位置関係で特定される画像表示装置4000(より具体的には画像表示装置4000の表示装置2400)の位置と、ジャイロコンパス7000で取得された船舶の向きと、表示装置2400の大きさ等と、に基づき、表示装置2400からの視野を特定する。そして、画像提供制御部3100は、特定した視野と、前記海面下の深度と、前記電子海図と、に基づいて、特定した視野での位置情報及び深度における海底地形画像データを海底地形図が示された3次元俯瞰地図等電子海図より抽出することで、前記視野内の前記深度の海面下の海底形状の仮想空間画像を作成するようにしてもよい。なお、画像提供制御部3100は、視野内の前記深度の海面下の海底形状の仮想空間画像を作成するようにしてもよいし、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、前記座標変換を行った後に、座標変換を行った画像から前記視野内の画像を抽出するようにしてもよい。
 また、画像提供制御部3100は、船舶の積荷及び/又は乗客数に応じて前記船舶の喫水を求める。例えば、情報記憶装置5000に記憶されている喫水情報に積荷の重量等を補正して前記船舶の喫水を求める。そして、画像提供制御部3100は、前記喫水と、前記位置情報と、前記海面下の深度と、前記電子海図と、に基づいて、前記海面下の深度と前記喫水との差分、即ち船体最下部から前記海底形状までの距離を算出し、前記船舶の位置の前記深度の海面下の海底形状で、かつ、船体最下部から前記海底形状までの距離が所定の距離内の海底形状を強調表示した海底下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供するようにしてもよい。このような構成とすることで、衝突の危険がある海底形状を船員等に分かりやすく知らせることができる。
 図33は、画像表示装置4000のソフトウェア構成の一例を示す図である。
 図33に示されるように、画像表示装置4000は、ソフトウェア構成(機能構成)として、画像表示制御部4100を含む。画像表示制御部4100は、画像提供装置1000より提供された前記海底形状の仮想空間画像を表示装置2400からの風景の海面下に重畳して表示する。図34は、海底形状の仮想空間画像を表示装置2400からの風景の海面下に重畳して表示した一例を示す図である。例えば、図34では、海底の岩として5100と、5200と、が船首のフロントガラスに前記フロントガラスからの風景に重畳して表示されている。上述したような強調表示を行う構成とした場合、船体最下部から所定距離内に海底の岩5100が存在した場合、海底の岩5100は、海底の岩5200に比べて強調表示される。なお、強調表示の一例としては、岩5200の近くに「衝突の危険!」等と文字列を表示させてもよいし、岩5200を赤く縁取る等してもよい。
 以上、本実施形態によれば、船舶が航行する際に有益な情報を、船員等が直感的に状況を把握可能に提供することができる。
<実施形態8>
 以下、実施形態8を説明する。実施形態8では、実施形態7とは異なる点を主に説明する。
 図35は、実施形態8の画像表示システムのシステム構成の一例を示す図である。図35に示されるように、実施形態8の画像表示システムは、実施形態7の画像表示システムに比べて、レーダー装置の一例であるレーダー8000が新たに画像表示システムに含まれている。
 実施形態8の画像提供装置1000は、レーダー8000のレーダーのエコーに基づく海面下の画像と、前記電子海図と、を比較し、前記電子海図に載っていない障害物を前記海面下に検知した場合、前記障害物を含む前記海底形状の仮想空間画像を作成し、画像表示装置4000に提供する。
 実施形態8の構成によれば、電子海図に載っていない沈没船やケーソン等の障害物を検知し、前記障害物を表示装置2400からの風景の海面下に重畳して表示することができる。
 なお、図35のレーダー8000は、魚群探知機であってもよい。この様な構成によれば、くじら等、船舶の航行の障害となるような海洋生物を含む海底形状の仮想空間画像を作成し、表示装置2400からの風景の海面下に重畳して表示することができる。
<実施形態9>
 以下、実施形態9を説明する。実施形態9では、上述した実施形態とは異なる点を主に説明する。
 図36は、実施形態9の画像表示システムのシステム構成の一例を示す図である。図36に示されるように、実施形態9の画像表示システムは、実施形態7の画像表示システムに比べて、検知装置の一例として船舶の姿勢を検知するジャイロセンサー9000が新たに画像表示システムに含まれている。
 実施形態9の画像提供装置1000は、ジャイロセンサー9000で検知された船舶の姿勢に基づいて、作成した海底形状の仮想空間画像の海面と前記画像表示装置からの風景の海面とが水平になるよう座標変換を行い、画像表示装置4000に提供する。
 実施形態9の構成によれば、船舶が揺れた状態でも、フロントガラスには実際の海面と前記海底形状の仮想空間画像の海面とが一致して表示される。
<実施形態10>
 以下、実施形態10を説明する。実施形態10では、上述した実施形態とは異なる点を主に説明する。
 図37は、実施形態10の画像表示システムのシステム構成の一例を示す図である。図37に示されるように、実施形態10の画像表示システムは、実施形態7の画像表示システムに比べて、情報を受信する受信装置10000が新たに画像表示システムに含まれている。
 受信装置10000は、船舶が存在する海域の他の船舶に関する情報を例えば海上交通センター等から受信する。
 実施形態10の画像提供装置1000は、受信装置10000で受信された前記他の船舶に関する情報を含む仮想空間画像を作成し、画像表示装置4000に提供する。
 画像表示装置4000は、画像提供装置1000より提供された、前記海底形状の仮想空間画像と、前記他の船舶に関する情報を含む仮想空間画像と、を表示装置2400からの風景に重畳して表示する。
 実施形態10の構成によれば、船員等は、濃霧時等でも他船の大きさや動き等他の船舶に関する情報を直感的に認識することができる。
<実施形態11>
 以下、実施形態11を説明する。実施形態11では、上述した実施形態とは異なる点を主に説明する。
 図38は、実施形態11の画像表示システムのシステム構成の一例を示す図である。図38に示されるように、実施形態11の画像表示システムは、実施形態7の画像表示システムに比べて、レーダー8000と、情報を受信する受信装置10000と、が新たに画像表示システムに含まれている。
 実施形態11の受信装置10000は、他の船舶が取得した前記他の船舶のレーダーのエコーと、その船舶がエコーを検知した位置情報とを前記他の船舶より受信する。
 そして、実施形態11の画像提供装置1000は、レーダー8000のエコーに基づく画像と受信装置10000で受信された前記他の船舶のレーダーのエコーに基づく画像とを比較することで、レーダー8000のエコーで検知した障害物とレーダー8000のエコーでは検知できなかった障害物とを含む仮想空間画像を作成し、作成した仮想空間画像を画像表示装置4000に提供する。この際、他の船舶のレーダーのエコー画像は、当該船舶がエコーを検知した位置に基づいて生成されている為、受信した位置情報を用いて自船のレーダー8000で検知した画像と位置合わせした上で比較する。
 画像表示装置4000は、画像提供装置1000より提供された、前記海底形状の仮想空間画像と、レーダー8000のエコーで検知した障害物とレーダー8000のエコーでは検知できなかった障害物とを含む仮想空間画像と、を表示装置2400からの風景に重畳して表示する。
 実施形態11の構成によれば、他船で捉えたレーダーのエコーを受信し、自船のレーダーのエコーと、を重ね合わせて差異をとることで、自船で捉えられなかった障害物(船舶、岩礁、鯨等の海洋生物等)を識別して、前記障害物を含む仮想空間画像を作成し、表示させることができる。
 上述した各実施形態によれば、船舶が航行する際に有益な情報を、船員等が直感的に状況を把握可能に提供することができる。
 以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 例えば、上述した実施形態では、透過型液晶フィルムを貼り付けた窓等、所謂、人体非装着の透過型ディスプレイを例に説明を行ったが、Head Mounted Display等、人体装着の透過型ディスプレイであってもよい。また、画像表示装置4000は、船員等が保持する携帯型の透過型、又は非透過型のディスプレイであってもよい。なお、非透過型のディスプレイの場合、非透過型のディスプレイは、撮像装置で撮像された画像と、仮想空間画像と、を重畳して表示することになる。
 また、上述した実施形態では、画像表示装置4000を例に説明を行ったが、例えば、低反射フィルムを貼り付けた窓等へ仮想空間画像を投影するプロジェクタであってもよい。
 なお、上述した実施形態を任意に組み合わせて実施してもよい。
 拡張現実と呼ばれる技術に利用される。

Claims (31)

  1.  現実空間の映像とコンピュータグラフィックス画像データとを合成して表示させることが可能な拡張現実感提示装置と、ちらしに掲載される各商品の在庫情報及び販売情報のうちの少なくとも何れか一方を管理する管理装置とを有する情報処理システムであって、
     前記拡張現実感提示装置は、
     前記ちらしに掲載される商品に係る画像データを撮影により取得する撮像手段と、
     前記撮像手段により取得された前記商品に係る画像データを前記管理装置に対して送信する第1の送信手段と、
    を有し、
     前記管理装置は、
     前記拡張現実感提示装置から前記商品に係る画像データを受信した場合、前記商品に係る画像データを解析することにより前記商品を特定し、前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を取得する第1の取得手段と、
     前記第1の取得手段により取得された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を前記拡張現実感提示装置に対して送信する第2の送信手段と、
    を有し、
     前記拡張現実感提示装置は、
     前記管理装置から送信された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を示すコンピュータグラフィック画像データを、現実空間の前記ちらしの映像と合成して提示する提示手段を更に有する情報処理装置。
  2.  前記管理装置は、前記第1の取得手段により、最後に登録された在庫情報及び販売情報のうちの少なくとも何れか一方を取得し、前記第2の送信手段により、当該最後に登録された在庫情報及び販売情報のうちの少なくとも何れか一方を前記拡張現実感提示装置に対して送信する請求項1記載の情報処理装置。
  3.  前記拡張現実感提示装置は、前記提示手段により提示されたコンピュータグラフィック画像の示す商品に対するユーザによる案内情報要求を前記管理装置に対して送信し、
     前記管理装置は、取得した案内情報要求に応じて前記商品の販売店舗に関する情報を前記拡張現実感提示装置に対して送信する第3の送信手段を更に有し、前記拡張現実感提示装置の提示手段は、前記管理装置より取得した前記販売店舗に関する情報を示すコンピュータグラフィック画像データを、現実空間の映像と合成して提示する請求項1記載の情報処理装置。
  4.  前記拡張現実感提示装置は、
     ユーザによる前記商品の指定操作に応じて、前記第1の送信手段により前記商品に係る画像データを前記管理装置に対して送信し、
     前記管理装置は、
     前記拡張現実感提示装置から受信した前記商品に係る画像データに基づいて、前記商品を購入予定商品として登録する登録手段を更に有し、
     前記拡張現実感提示装置から後に受信した前記商品に係る画像データを解析した結果、当該画像データに対応する前記商品が前記登録手段において登録されている場合、前記第1の取得手段により、前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を取得する請求項1記載の情報処理装置。
  5.  前記拡張現実感提示装置は、
     撮像装置の画角に捉えられた前記ちらしに対するユーザによる前記商品の指定動作を検知する検知手段と、
     前記検知手段により検知された指定動作の対象となった前記商品に係る画像データを取得する第2の取得手段と、
    を更に有し、
     前記第1の操作手段は、前記第2の取得手段により取得された前記商品に係る画像データを前記管理装置に対して送信する請求項4記載の情報処理装置。
  6.  現実空間の映像とコンピュータグラフィックス画像データとを合成して表示させることが可能な拡張現実感提示装置と、ちらしに掲載される各商品の在庫情報及び販売情報のうちの少なくとも何れか一方を管理する管理装置とを有する情報処理システムにおける情報処理方法であって、
     前記拡張現実感提示装置が、前記ちらしに掲載される商品に係る画像データを撮影により取得する撮像ステップと、
     前記拡張現実感提示装置が、前記撮像ステップにより取得された前記商品に係る画像データを前記管理装置に対して送信する第1の送信ステップと、
     前記管理装置が、前記拡張現実感提示装置から前記商品に係る画像データを受信した場合、前記商品に係る画像データを解析することにより前記商品を特定し、前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を取得する取得ステップと、
     前記管理装置が、前記取得ステップにより取得された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を前記拡張現実感提示装置に対して送信する第2の送信ステップと、
     前記拡張現実感提示装置が、前記管理装置から送信された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を示すコンピュータグラフィック画像データを、現実空間の前記ちらしの映像と合成して提示する提示ステップと、
    を含む情報処理方法。
  7.  コンピュータに、
     ちらしに掲載される商品に係る画像データを撮影により取得する撮像ステップと、
     前記撮像ステップで取得された前記商品に係る画像データを、ちらしに掲載される各商品の在庫情報及び販売情報のうちの少なくとも何れか一方を管理する管理装置に対して送信する送信ステップと、
     前記管理装置から送信された前記商品の在庫情報及び販売情報のうちの少なくとも何れか一方を示すコンピュータグラフィック画像データを、現実空間の前記ちらしの映像と合成して提示する提示ステップと、
    を実行させるためのプログラム。
  8.  駐車場の空きスペース情報を取得する空きスペース情報取得手段と、
     駐車場内の車の位置及び向きを取得する車情報取得手段と、
     前記空きスペース情報取得手段で取得された空きスペース情報と、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定手段と、
     前記空きスペース特定手段で特定された空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する画像生成手段と、
     前記画像生成手段で生成された仮想空間画像を前記車に送信する送信手段と、
    を有する情報処理装置。
  9.  前記空きスペース特定手段で特定された空きスペースと、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車から前記空きスペースまでの進路を特定する進路特定手段を更に有し、
     前記画像生成手段は、更に、前記進路特定手段で特定された進路を示す案内オブジェクトを含む前記仮想空間画像を生成する請求項8記載の情報処理装置。
  10.  前記進路特定手段は、前記空きスペース特定手段で車の進行方向に存在する空きスペースが複数、特定された場合、前記車から前記複数の空きスペースのうち、最も前記車に近い前記空きスペースまでの進路を特定する請求項9記載の情報処理装置。
  11.  前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップと、に基づいて、車の進行方向に存在する駐車場の設備を特定する設備特定手段を更に有し、
     前記画像生成手段は、更に、前記設備特定手段で特定された前記車の進行方向に存在する設備を示す設備オブジェクトを含み、前記空きスペースの位置及び前記設備の位置を示す前記仮想空間画像を生成する請求項8記載の情報処理装置。
  12.  前記画像生成手段は、前記空きスペース特定手段で前記車の進行方向に存在する空きスペースが複数、特定された場合、前記車から前記空きスペースまでの距離に応じて、形状、又は色が異なる前記空きスペースオブジェクトを含む前記仮想空間画像を生成する請求項8記載の情報処理装置。
  13.  前記画像生成手段は、前記特定手段で特定された車の進行方向に存在する空きスペースと前記車との距離が所定の距離以上の場合は、前記駐車場内を所定のブロック毎に区切ったブロック毎の空きスペースの割合を表す空きスペース割合オブジェクトを含み、前記ブロック毎の位置を示す仮想空間画像を生成し、前記距離が前記所定の距離未満の場合は、前記特定手段で特定された車の進行方向に存在する空きスペースを表す空きスペースオブジェクトを含み、前記空きスペースの位置を示す仮想空間画像を生成する請求項8記載の情報処理装置。
  14.  駐車場の空きスペース情報を取得する空きスペース情報取得手段と、
     駐車場内の車の位置及び向きを取得する車情報取得手段と、
     前記空きスペース情報取得手段で取得された空きスペース情報と、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定手段と、
     前記空きスペース特定手段で特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を前記車に送信する送信手段と、
    を有する情報処理装置。
  15.  情報処理装置と、車と、を含むシステムであって、
     前記情報処理装置は、
     駐車場の空きスペース情報を取得する空きスペース情報取得手段と、
     駐車場内の車の位置及び向きを取得する車情報取得手段と、
     前記空きスペース情報取得手段で取得された空きスペース情報と、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定手段と、
     前記空きスペース特定手段で特定された空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する画像生成手段と、
     前記画像生成手段で生成された仮想空間画像を前記車に送信する送信手段と、
    を有し、
     前記車は、
     前記情報処理装置から仮想空間画像を受信する受信手段と、
     前記受信手段で受信された仮想空間画像を車のディスプレイに投影させることで、前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する表示制御手段と、
    を有するシステム。
  16.  情報処理装置と、車と、を含むシステムであって、
     前記情報処理装置は、
     駐車場の空きスペース情報を取得する空きスペース情報取得手段と、
     駐車場内の車の位置及び向きを取得する車情報取得手段と、
     前記空きスペース情報取得手段で取得された空きスペース情報と、前記車情報取得手段で取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定手段と、
     前記空きスペース特定手段で特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を前記車に送信する送信手段と、
    を有し、
     前記車は、
     前記情報処理装置から前記空きスペースオブジェクトと、前記位置情報と、を受信する受信手段と、
     前記受信手段で受信された前記空きスペースオブジェクトを前記受信手段で受信された前記位置情報で示される位置に表示させた前記駐車場内の仮想空間画像を生成する画像生成手段と、
     前記画像生成手段で生成された仮想空間画像を車のディスプレイに投影させることで、前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する表示制御手段と、
    を有するシステム。
  17.  情報処理装置が実行する情報処理方法であって、
     駐車場の空きスペース情報を取得する空きスペース情報取得ステップと、
     駐車場内の車の位置及び向きを取得する車情報取得ステップと、
     前記空きスペース情報取得ステップで取得された空きスペース情報と、前記車情報取得ステップで取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定ステップと、
     前記空きスペース特定ステップで特定された空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する画像生成ステップと、
     前記画像生成ステップで生成された仮想空間画像を前記車に送信する送信ステップと、
    を有する情報処理方法。
  18.  情報処理装置が実行する情報処理方法であって、
     駐車場の空きスペース情報を取得する空きスペース情報取得ステップと、
     駐車場内の車の位置及び向きを取得する車情報取得ステップと、
     前記空きスペース情報取得ステップで取得された空きスペース情報と、前記車情報取得ステップで取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップとの各空きスペースの位置情報に関する情報、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定ステップと、
     前記空きスペース特定ステップで特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を前記車に送信する送信ステップと、
    を有する情報処理方法。
  19.  情報処理装置と、車と、を含むシステムにおける空きスペース案内方法であって、
     前記情報処理装置が、駐車場の空きスペース情報を取得する空きスペース情報取得ステップと、
     前記情報処理装置が、駐車場内の車の位置及び向きを取得する車情報取得ステップと、
     前記情報処理装置が、前記空きスペース情報取得ステップで取得された空きスペース情報と、前記車情報取得ステップで取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定ステップと、
     前記情報処理装置が、前記空きスペース特定ステップで特定された空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する画像生成ステップと、
     前記情報処理装置が、前記画像生成ステップで生成された仮想空間画像を前記車に送信する送信ステップと、
     前記車が、前記情報処理装置から仮想空間画像を受信する受信ステップと、
     前記車が、前記受信ステップで受信された仮想空間画像を車のディスプレイに投影させることで、前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する表示制御ステップと、
    を有する空きスペース案内方法。
  20.  情報処理装置と、車と、を含むシステムにおける空きスペース案内方法であって、
     前記情報処理装置が、駐車場の空きスペース情報を取得する空きスペース情報取得ステップと、
     前記情報処理装置が、駐車場内の車の位置及び向きを取得する車情報取得ステップと、
     前記情報処理装置が、前記空きスペース情報取得ステップで取得された空きスペース情報と、前記車情報取得ステップで取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定ステップと、
     前記情報処理装置が、前記空きスペース特定ステップで特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を前記車に送信する送信ステップと、
     前記車が、前記情報処理装置から前記空きスペースオブジェクトと、前記位置情報と、を受信する受信ステップと、
     前記車が、前記受信ステップで受信された前記空きスペースオブジェクトを前記受信ステップで受信された前記位置情報で示される位置に表示させた前記駐車場内の仮想空間画像を生成する画像生成ステップと、
     前記車が、前記画像生成ステップで生成された仮想空間画像を車のディスプレイに投影させることで、前記ディスプレイからの駐車場内の風景に重畳して表示させるよう制御する表示制御ステップと、
    を有する空きスペース案内方法。
  21.  コンピュータに、
     駐車場の空きスペース情報を取得する空きスペース情報取得ステップと、
     駐車場内の車の位置及び向きを取得する車情報取得ステップと、
     前記空きスペース情報取得ステップで取得された空きスペース情報と、前記車情報取得ステップで取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定ステップと、
     前記空きスペース特定ステップで特定された空きスペースを示す空きスペースオブジェクトを含み、前記空きスペースの位置を示す前記駐車場内の仮想空間画像を生成する画像生成ステップと、
     前記画像生成ステップで生成された仮想空間画像を前記車に送信する送信ステップと、
    を実行させるプログラム。
  22.  コンピュータに、
     駐車場の空きスペース情報を取得する空きスペース情報取得ステップと、
     駐車場内の車の位置及び向きを取得する車情報取得ステップと、
     前記空きスペース情報取得ステップで取得された空きスペース情報と、前記車情報取得ステップで取得された駐車場内の車の位置及び向きと、記憶装置に記憶されている駐車場マップの各空きスペースの位置情報に関する情報と、に基づいて、前記車の進行方向に存在する空きスペースを特定する空きスペース特定ステップと、
     前記空きスペース特定ステップで特定された空きスペースを示す空きスペースオブジェクトと、前記空きスペースの位置を表す位置情報と、を前記車に送信する送信ステップと、
    を実行させるプログラム。
  23.  船舶の位置情報を取得する位置情報取得装置と、海底形状を含む電子海図と潮位表とを記憶する情報記憶装置と、画像表示装置と、前記画像表示装置に画像を提供する画像提供装置と、を含む画像表示システムであって、
     前記画像提供装置は、前記位置情報取得装置で取得された前記船舶の位置情報と、前記潮位表と、電子海図の示す水深に関する情報と、に基づいて、前記船舶の位置の海面下の深度を求め、前記位置情報と、前記海面下の深度と、前記電子海図の示す海底地形画像データと、に基づいて、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供し、
     前記画像表示装置は、前記画像提供装置より提供された海底形状の仮想空間画像を前記画像表示装置からの風景に重畳して表示する画像表示システム。
  24.  前記画像提供装置は、前記情報記憶装置に記憶されている前記船舶の積荷及び乗客数に関する情報のうち少なくともどちらかに応じて前記船舶の喫水を求め、前記喫水と、前記位置情報と、前記海面下の深度と、前記電子海図と、に基づいて、前記船舶の位置の前記深度の海面下の海底形状で、かつ、船体最下部から前記海底形状までの距離が所定の距離内の海底形状を強調表示した海底下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供する請求項23記載の画像表示システム。
  25.  前記船舶の向きを取得する向き取得装置を更に有し、
     前記画像提供装置は、前記位置情報取得装置で取得された前記船舶の位置情報と、前記向き取得装置で取得された向きと、に基づいて、前記画像表示装置からの視野を特定し、特定した視野と、前記海面下の深度と、前記電子海図の示す海底地形画像データと、に基づいて、前記視野内の前記深度の海面下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供する請求項23記載の画像表示システム。
  26.  レーダー装置を更に有し、
     前記画像提供装置は、前記レーダー装置のエコーに基づく海面下の画像と、前記電子海図の示す海底地形画像データと、を比較し、前記電子海図に載っていない障害物を前記海面下に検知した場合、前記障害物を含む前記海面下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供する請求項23記載の画像表示システム。
  27.  前記船舶の姿勢を検知する検知装置を更に有し、
     前記画像提供装置は、前記検知装置で検知された前記船舶の姿勢に基づいて、前記作成した海底形状の仮想空間画像の海面を前記画像表示装置からの風景の海面と水平になるよう座標変換を行い、前記画像表示装置に提供する請求項23記載の画像表示システム。
  28.  情報を受信する受信装置を更に有し、
     前記受信装置は、前記船舶が存在する海域の他の船舶の情報を海上交通センターから受信し、
     前記画像提供装置は、前記受信装置で受信された前記他の船舶の情報を含む仮想空間画像を作成し、前記画像表示装置に提供し、
     前記画像表示装置は、前記画像提供装置より提供された、前記海底形状の仮想空間画像と、前記他の船舶の情報を含む仮想空間画像と、を前記画像表示装置からの風景に重畳して表示する請求項23記載の画像表示システム。
  29.  レーダー装置と、
     情報を受信する受信装置を更に有し、
     前記受信装置は、他の船舶が取得した前記他の船舶のレーダー装置のエコーを前記他の船舶より受信し、
     前記画像提供装置は、前記レーダー装置のエコーに基づく画像と前記受信装置で受信された前記他の船舶のレーダー装置のエコーに基づく画像とを比較することで、前記レーダー装置のエコーで検知した障害物と前記レーダー装置のエコーでは検知できなかった障害物とを含む仮想空間画像を作成し、作成した仮想空間画像を前記画像表示装置に提供し、
     前記画像表示装置は、前記画像提供装置より提供された、前記海底形状の仮想空間画像と、前記レーダー装置のエコーで検知した障害物と前記レーダー装置のエコーでは検知できなかった障害物とを含む仮想空間画像と、を前記画像表示装置からの風景に重畳して表示する請求項23記載の画像表示システム。
  30.  船舶の位置情報を取得する位置情報取得装置と、海底形状を含む電子海図と潮位表とを記憶する情報記憶装置と、画像表示装置と、前記画像表示装置に画像を提供する画像提供装置と、を含む画像表示システムにおける画像表示方法であって、
     前記画像提供装置が、前記位置情報取得装置で取得された前記船舶の位置情報と、前記潮位表と、電子海図の示す水深に関する情報と、に基づいて、前記船舶の位置の海面下の深度を求め、前記位置情報と、前記海面下の深度と、前記電子海図の示す海底地形画像データと、に基づいて、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、前記画像表示装置に提供するステップと、
     前記画像表示装置が、前記画像提供装置より提供された海底形状の仮想空間画像を前記画像表示装置からの風景に重畳して表示するステップと、
    を含む画像表示方法。
  31.  コンピュータに、
     船舶の位置情報と、潮位表と、電子海図の示す水深に関する情報と、に基づいて、前記船舶の位置の海面下の深度を求める計測ステップと、
     前記位置情報と、前記計測ステップで算出した海面下の深度と、前記電子海図の示す海底地形画像データと、に基づいて、前記船舶の位置の前記深度の海面下の海底形状の仮想空間画像を作成し、画像表示装置に提供するステップと、
    を実行させるためのプログラム。
PCT/JP2011/057972 2010-03-14 2011-03-30 情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム WO2011122654A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP20110762878 EP2544138A4 (en) 2010-03-30 2011-03-30 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM, INFORMATION PROCESSING DEVICE, GUIDING SYSTEM TO VACANT SPACE, GUIDING METHOD AND PROGRAM TO VACANCY SPACE, IMAGE DISPLAY SYSTEM, AND METHOD AND IMAGE DISPLAY PROGRAM
SG2012071809A SG184301A1 (en) 2010-03-30 2011-03-30 Information processing apparatus, information processing method and program, information processing apparatus, vacant space guidance system, vacant space guidance method and program, image display system, image display method and program
US13/635,370 US8896685B2 (en) 2010-03-14 2011-03-30 Method and system for determining information relating to vacant spaces of a parking lot
US14/228,159 US9689688B2 (en) 2010-03-30 2014-03-27 Image display system, image display method and program
US14/228,176 US20140214606A1 (en) 2010-03-30 2014-03-27 Information processing apparatus, information processing method and program, information processing apparatus, vacant space guidance system, vacant space guidance method and program, image display system, image display method and program
US14/228,168 US9395195B2 (en) 2010-03-30 2014-03-27 System, method and program for managing and displaying product information
US14/521,259 US20150112586A1 (en) 2010-03-30 2014-10-22 Method and system for determining information relating to vacant spaces of a parking lot

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2010079446 2010-03-30
JP2010-079446 2010-03-30
JP2010-078973 2010-03-30
JP2010078973 2010-03-30
JP2010081894 2010-03-31
JP2010-081894 2010-03-31
JP2011-055410 2011-03-14
JP2011055410A JP5102886B2 (ja) 2010-03-30 2011-03-14 画像表示システム及び画像表示方法及びプログラム
JP2011-057899 2011-03-16
JP2011057899A JP5054834B2 (ja) 2010-03-30 2011-03-16 情報処理装置、システム、空きスペース案内方法及びプログラム
JP2011-061375 2011-03-18
JP2011061375A JP5280475B2 (ja) 2010-03-31 2011-03-18 情報処理システム、情報処理方法及びプログラム

Related Child Applications (5)

Application Number Title Priority Date Filing Date
US13/635,370 A-371-Of-International US8896685B2 (en) 2010-03-14 2011-03-30 Method and system for determining information relating to vacant spaces of a parking lot
US14/228,159 Division US9689688B2 (en) 2010-03-30 2014-03-27 Image display system, image display method and program
US14/228,176 Division US20140214606A1 (en) 2010-03-30 2014-03-27 Information processing apparatus, information processing method and program, information processing apparatus, vacant space guidance system, vacant space guidance method and program, image display system, image display method and program
US14/228,168 Division US9395195B2 (en) 2010-03-30 2014-03-27 System, method and program for managing and displaying product information
US14/521,259 Continuation US20150112586A1 (en) 2010-03-30 2014-10-22 Method and system for determining information relating to vacant spaces of a parking lot

Publications (1)

Publication Number Publication Date
WO2011122654A1 true WO2011122654A1 (ja) 2011-10-06

Family

ID=47262891

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/057972 WO2011122654A1 (ja) 2010-03-14 2011-03-30 情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム

Country Status (5)

Country Link
US (5) US8896685B2 (ja)
EP (4) EP2544138A4 (ja)
MY (4) MY156130A (ja)
SG (4) SG184301A1 (ja)
WO (1) WO2011122654A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103377189A (zh) * 2012-04-12 2013-10-30 南京财经大学 基于智能移动终端的粮食地面参照信息收集方法
JP2014132718A (ja) * 2013-01-07 2014-07-17 Seiko Epson Corp 表示装置、および、表示装置の制御方法
JP2015019274A (ja) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
EP2791881A4 (en) * 2011-12-16 2015-05-06 Ebay Inc SYSTEMS AND METHODS FOR PROVIDING LOCATION-BASED INFORMATION
JP2015164006A (ja) * 2014-02-28 2015-09-10 日本無線株式会社 情報配信装置、情報配信システム及び情報配信方法
JP2015192153A (ja) * 2014-03-27 2015-11-02 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016028340A (ja) * 2015-10-02 2016-02-25 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2016197342A (ja) * 2015-04-03 2016-11-24 株式会社サイバーウォーカー 拡張現実プログラム、拡張現実提供方法、拡張現実提供装置、及び情報配信方法
US9626806B2 (en) 2011-10-27 2017-04-18 Sony Corporation Image processing apparatus, image processing method, and program
JP2017076411A (ja) * 2016-11-21 2017-04-20 日本無線株式会社 情報配信装置、情報配信システム及び情報配信方法
US9971155B2 (en) 2013-07-11 2018-05-15 Seiko Epson Corporation Head mounted display device and control method for head mounted display device
JP2018518778A (ja) * 2015-06-24 2018-07-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 購入のための拡張現実デバイス、システムおよび方法
JP2019128644A (ja) * 2018-01-22 2019-08-01 トヨタ自動車株式会社 位置探索支援システム

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8150617B2 (en) 2004-10-25 2012-04-03 A9.Com, Inc. System and method for displaying location-specific images on a mobile device
WO2011158336A1 (ja) * 2010-06-15 2011-12-22 株式会社ナビタイムジャパン ナビゲーションシステム、端末装置、ナビゲーションサーバ、ナビゲーション装置、ナビゲーション方法、および、プログラム
EP2583877B1 (en) * 2010-06-16 2018-06-06 Navitime Japan Co., Ltd. Navigation system, terminal device, navigation server, navigation method, and navigation program
JP5334145B1 (ja) 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援システム
DE102012023706A1 (de) * 2012-12-05 2014-06-05 Daimler Ag Fahrzeugseitiges Verfahren und fahrzeugseitige Vorrichtung zum Erfassen und Anzeigen von Parklücken für ein Fahrzeug
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
US20140207613A1 (en) * 2013-01-23 2014-07-24 Laudd, Inc. System and method for reputation-building voluntary digital commerce
CN104036394A (zh) * 2013-03-04 2014-09-10 郭松 全景实景的传统购物方式和网上购物相结合的新型网上购物系统
US9280202B2 (en) 2013-05-10 2016-03-08 Magna Electronics Inc. Vehicle vision system
WO2014196178A1 (ja) 2013-06-04 2014-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 誘導方法及び誘導システム
US20150002539A1 (en) * 2013-06-28 2015-01-01 Tencent Technology (Shenzhen) Company Limited Methods and apparatuses for displaying perspective street view map
US10356459B2 (en) * 2013-07-22 2019-07-16 Sony Corporation Information processing apparatus and method
US9881220B2 (en) * 2013-10-25 2018-01-30 Magna Electronics Inc. Vehicle vision system utilizing communication system
US10318828B2 (en) * 2013-12-19 2019-06-11 Harman International Industries, Incorporated Vehicle behavior analysis
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
US9600720B1 (en) * 2014-03-18 2017-03-21 Amazon Technologies, Inc. Using available data to assist in object recognition
US10225569B2 (en) * 2014-03-31 2019-03-05 Megachips Corporation Data storage control apparatus and data storage control method
JP6177998B2 (ja) * 2014-04-08 2017-08-09 日立マクセル株式会社 情報表示方法および情報表示端末
US11756427B1 (en) 2014-04-15 2023-09-12 Amanda Reed Traffic signal system for congested trafficways
US9424749B1 (en) 2014-04-15 2016-08-23 Amanda Reed Traffic signal system for congested trafficways
US11393019B2 (en) 2014-05-14 2022-07-19 National Institute Of Advanced Industrial Science And Technology Device and method for exchanging trade information
JP2015228009A (ja) * 2014-06-03 2015-12-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報送受信システム、および、コンピュータープログラム
US9799142B2 (en) * 2014-08-15 2017-10-24 Daqri, Llc Spatial data collection
US9830395B2 (en) 2014-08-15 2017-11-28 Daqri, Llc Spatial data processing
US9799143B2 (en) 2014-08-15 2017-10-24 Daqri, Llc Spatial data visualization
FR3026500B1 (fr) * 2014-09-30 2017-12-22 Dcns Systeme integre d'aide a la conduite et a la navigation d'un navire de combat
US9405120B2 (en) 2014-11-19 2016-08-02 Magna Electronics Solutions Gmbh Head-up display and vehicle using the same
US9830724B2 (en) 2014-11-21 2017-11-28 Mastercard International Incorporated Detecting real estate vacancies using satellite imagery
US9541409B2 (en) 2014-12-18 2017-01-10 Nissan North America, Inc. Marker aided autonomous vehicle localization
CN104637138A (zh) * 2014-12-26 2015-05-20 深圳市科漫达智能管理科技有限公司 车辆通行控制方法及系统
US9436183B2 (en) 2015-01-15 2016-09-06 Nissan North America, Inc. Associating passenger docking locations with destinations using vehicle transportation network partitioning
US9519290B2 (en) 2015-01-15 2016-12-13 Nissan North America, Inc. Associating passenger docking locations with destinations
US9625906B2 (en) * 2015-01-15 2017-04-18 Nissan North America, Inc. Passenger docking location selection
US9448559B2 (en) 2015-01-15 2016-09-20 Nissan North America, Inc. Autonomous vehicle routing and navigation using passenger docking locations
US9697730B2 (en) 2015-01-30 2017-07-04 Nissan North America, Inc. Spatial clustering of vehicle probe data
US9151628B1 (en) * 2015-01-30 2015-10-06 Nissan North America, Inc. Associating parking areas with destinations
US9568335B2 (en) 2015-01-30 2017-02-14 Nissan North America, Inc. Associating parking areas with destinations based on automatically identified associations between vehicle operating information and non-vehicle operating information
US9778658B2 (en) 2015-03-13 2017-10-03 Nissan North America, Inc. Pattern detection using probe data
US10120381B2 (en) 2015-03-13 2018-11-06 Nissan North America, Inc. Identifying significant locations based on vehicle probe data
EP3091510B1 (en) * 2015-05-06 2021-07-07 Reactive Reality AG Method and system for producing output images
DE102015115394A1 (de) * 2015-09-11 2017-03-16 3Dqr Gmbh Verfahren und Vorrichtung zum Überlagern eines Abbilds einer realen Szenerie mit einem virtuellen Bild und mobiles Gerät
US20170192091A1 (en) * 2016-01-06 2017-07-06 Ford Global Technologies, Llc System and method for augmented reality reduced visibility navigation
US10140770B2 (en) * 2016-03-24 2018-11-27 Toyota Jidosha Kabushiki Kaisha Three dimensional heads-up display unit including visual context for voice commands
CA3018381A1 (en) * 2016-03-29 2017-10-05 Bossa Nova Robotics Ip, Inc. System and method for locating, identifying and counting items
JP6354804B2 (ja) * 2016-07-26 2018-07-11 マツダ株式会社 視界制御装置
JP6185216B1 (ja) 2016-10-06 2017-08-23 株式会社オプティム 情報提供システム、情報提供装置、情報提供方法、及びプログラム
DE102016121281A1 (de) 2016-11-08 2018-05-09 3Dqr Gmbh Verfahren und Vorrichtung zum Überlagern eines Abbilds einer realen Szenerie mit virtuellen Bild- und Audiodaten und ein mobiles Gerät
CN107016452A (zh) * 2016-11-30 2017-08-04 阿里巴巴集团控股有限公司 基于增强现实的线下交互方法及装置
JP6760114B2 (ja) 2017-01-31 2020-09-23 富士通株式会社 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US11625510B2 (en) 2017-02-22 2023-04-11 Middle Chart, LLC Method and apparatus for presentation of digital content
US11900021B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Provision of digital content via a wearable eye covering
US10824774B2 (en) 2019-01-17 2020-11-03 Middle Chart, LLC Methods and apparatus for healthcare facility optimization
US10268782B1 (en) 2017-02-22 2019-04-23 Middle Chart, LLC System for conducting a service call with orienteering
US10984146B2 (en) 2017-02-22 2021-04-20 Middle Chart, LLC Tracking safety conditions of an area
US11194938B2 (en) 2020-01-28 2021-12-07 Middle Chart, LLC Methods and apparatus for persistent location based digital content
US11481527B2 (en) 2017-02-22 2022-10-25 Middle Chart, LLC Apparatus for displaying information about an item of equipment in a direction of interest
US10740503B1 (en) 2019-01-17 2020-08-11 Middle Chart, LLC Spatial self-verifying array of nodes
US10620084B2 (en) 2017-02-22 2020-04-14 Middle Chart, LLC System for hierarchical actions based upon monitored building conditions
US10628617B1 (en) 2017-02-22 2020-04-21 Middle Chart, LLC Method and apparatus for wireless determination of position and orientation of a smart device
US10949579B2 (en) 2017-02-22 2021-03-16 Middle Chart, LLC Method and apparatus for enhanced position and orientation determination
US10872179B2 (en) 2017-02-22 2020-12-22 Middle Chart, LLC Method and apparatus for automated site augmentation
US10902160B2 (en) 2017-02-22 2021-01-26 Middle Chart, LLC Cold storage environmental control and product tracking
US11900022B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Apparatus for determining a position relative to a reference transceiver
US10740502B2 (en) 2017-02-22 2020-08-11 Middle Chart, LLC Method and apparatus for position based query with augmented reality headgear
US11475177B2 (en) 2017-02-22 2022-10-18 Middle Chart, LLC Method and apparatus for improved position and orientation based information display
US10831945B2 (en) 2017-02-22 2020-11-10 Middle Chart, LLC Apparatus for operation of connected infrastructure
US10671767B2 (en) 2017-02-22 2020-06-02 Middle Chart, LLC Smart construction with automated detection of adverse structure conditions and remediation
US11468209B2 (en) 2017-02-22 2022-10-11 Middle Chart, LLC Method and apparatus for display of digital content associated with a location in a wireless communications area
US10733334B2 (en) 2017-02-22 2020-08-04 Middle Chart, LLC Building vital conditions monitoring
US11436389B2 (en) 2017-02-22 2022-09-06 Middle Chart, LLC Artificial intelligence based exchange of geospatial related digital content
US10762251B2 (en) 2017-02-22 2020-09-01 Middle Chart, LLC System for conducting a service call with orienteering
US10467353B2 (en) 2017-02-22 2019-11-05 Middle Chart, LLC Building model with capture of as built features and experiential data
WO2020068177A1 (en) 2018-09-26 2020-04-02 Middle Chart, LLC Method and apparatus for augmented virtual models and orienteering
CN107123013B (zh) 2017-03-01 2020-09-01 阿里巴巴集团控股有限公司 基于增强现实的线下交互方法及装置
US10922545B2 (en) * 2017-04-06 2021-02-16 Ns Solutions Corporation Information processing device, information processing method, and recording medium
US10347030B2 (en) * 2017-05-15 2019-07-09 Envisics Ltd Adjusting depth of augmented reality content on a heads up display
JP6953865B2 (ja) * 2017-07-28 2021-10-27 富士フイルムビジネスイノベーション株式会社 情報処理システム
US10671868B2 (en) 2017-10-02 2020-06-02 Magna Electronics Inc. Vehicular vision system using smart eye glasses
CN108898408A (zh) * 2018-04-13 2018-11-27 深圳市博鑫创科科技有限公司 一种基于用户随身物品的平衡车导购方法和系统
WO2020016881A1 (en) * 2018-07-15 2020-01-23 Aqua Marina Yachts (1995) Ltd System and method of controlling marine vessels
US10679393B2 (en) * 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US10997415B2 (en) 2018-10-05 2021-05-04 General Electric Company Augmented reality system for asset tracking and visualization using indoor positioning system
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
CN109584574A (zh) * 2018-12-11 2019-04-05 上海东冠通信建设有限公司 生态园区停车泊位智能引导系统
US11631119B2 (en) 2019-01-11 2023-04-18 Target Brands, Inc. Electronic product recognition
US11436826B2 (en) 2019-01-11 2022-09-06 Target Brands, Inc. Augmented reality experience for shopping
JP7103244B2 (ja) * 2019-01-23 2022-07-20 トヨタ自動車株式会社 情報処理装置及び情報処理方法、プログラム
US10535201B1 (en) * 2019-02-15 2020-01-14 Capital One Services, Llc Utilizing machine learning to generate augmented reality vehicle information for a scale model of a vehicle
CN110136477A (zh) * 2019-05-29 2019-08-16 深圳市朗尼科物联网技术开发有限公司 一种基于停车场的联网控制停车管理系统
KR20200143964A (ko) * 2019-06-17 2020-12-28 현대자동차주식회사 차량용 사용자 인터페이스 시스템 및 방법
CN110322730A (zh) * 2019-07-17 2019-10-11 星际(重庆)智能装备技术研究院有限公司 一种基于北斗导航通信的海上监控预警终端
CN111260962B (zh) * 2020-01-19 2021-06-11 青岛海狮网络科技有限公司 一种船舶海上避碰预警方法、系统和海图机
US11507714B2 (en) 2020-01-28 2022-11-22 Middle Chart, LLC Methods and apparatus for secure persistent location based digital content
US11640486B2 (en) 2021-03-01 2023-05-02 Middle Chart, LLC Architectural drawing based exchange of geospatial related digital content
US11244164B2 (en) * 2020-02-03 2022-02-08 Honeywell International Inc. Augmentation of unmanned-vehicle line-of-sight
US11263787B2 (en) * 2020-03-05 2022-03-01 Rivian Ip Holdings, Llc Augmented reality detection for locating autonomous vehicles
EP4246491A4 (en) * 2020-11-27 2023-12-27 Huawei Technologies Co., Ltd. NAVIGATION METHOD, DEVICE AND SYSTEM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225899A (ja) * 1994-02-14 1995-08-22 Shimadzu Corp 駐車位置案内装置
JPH10176928A (ja) * 1996-12-18 1998-06-30 Hitachi Ltd 視点位置測定方法、視点位置測定装置、ヘッドアップディスプレイ装置およびミラー調整装置
JP2004212192A (ja) * 2002-12-27 2004-07-29 Senaa Kk 操船支援システム、操船支援プログラムおよび操船支援のための三次元像生成方法
JP3103420U (ja) * 2004-02-16 2004-08-12 バーダルプランニング株式会社 簡易型エンジン洗浄機器
JP2008510254A (ja) * 2004-08-19 2008-04-03 株式会社ソニー・コンピュータエンタテインメント ポータブル拡張現実感デバイスおよびその方法
WO2008104537A1 (en) * 2007-02-27 2008-09-04 Accenture Global Services Gmbh Remote object recognition

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4730570A (en) * 1986-08-28 1988-03-15 Harris Donald R Variable beam trimaran
JPH0243071A (ja) 1988-08-04 1990-02-13 Fujitsu Ltd 証書折り畳み機構
JP2543711Y2 (ja) 1989-11-30 1997-08-13 株式会社島津製作所 ヘッドアップディスプレイ
US5862388A (en) * 1993-11-24 1999-01-19 Intel Corporation Interrupt-time processing of received signals
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
DE4433982C1 (de) * 1994-09-23 1995-10-19 Bosch Gmbh Robert Vorrichtung zum Auffinden eines verfügbaren Parkplatzes oder Parkhauses
US7386372B2 (en) 1995-06-07 2008-06-10 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
JPH10198731A (ja) 1997-01-08 1998-07-31 Hitachi Ltd 情報処理装置
US5786849A (en) 1997-02-07 1998-07-28 Lynde; C. Macgill Marine navigation I
US5910782A (en) * 1997-02-25 1999-06-08 Motorola, Inc. On-board vehicle parking space finder service
US6259988B1 (en) 1998-07-20 2001-07-10 Lockheed Martin Corporation Real-time mission adaptable route planner
US6285297B1 (en) * 1999-05-03 2001-09-04 Jay H. Ball Determining the availability of parking spaces
US6459941B1 (en) 1999-05-13 2002-10-01 Jolan Fredda Lobb Method for handling estimation/ratioing of adjustment
US6501391B1 (en) 1999-09-28 2002-12-31 Robert Vincent Racunas, Jr. Internet communication of parking lot occupancy
US6816085B1 (en) 2000-01-14 2004-11-09 Michael N. Haynes Method for managing a parking lot
US6812962B1 (en) 2000-05-11 2004-11-02 Eastman Kodak Company System and apparatus for automatically forwarding digital images to a service provider
US6559776B2 (en) * 2001-02-15 2003-05-06 Yoram Katz Parking status control system and method
US6456941B1 (en) * 2001-03-26 2002-09-24 William Gutierrez System and method for aircraft and watercraft control and collision prevention
JP2003005683A (ja) 2001-06-19 2003-01-08 Dainippon Printing Co Ltd チラシ及びチラシを使用した買い忘れ防止方法
US6426708B1 (en) * 2001-06-30 2002-07-30 Koninklijke Philips Electronics N.V. Smart parking advisor
JP2004048674A (ja) 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
JP2004094653A (ja) 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
US6970101B1 (en) 2003-04-21 2005-11-29 James C Squire Parking guidance method and system
JP3931343B2 (ja) 2003-09-30 2007-06-13 マツダ株式会社 経路誘導装置
US20050071082A1 (en) 2003-09-30 2005-03-31 Mazda Motor Corporation Route guidance apparatus, method and program
US6999875B2 (en) 2004-02-06 2006-02-14 Alpine Electronics, Inc Display method and apparatus for navigation system
JP2006072830A (ja) 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
US7516011B1 (en) 2005-01-13 2009-04-07 Garmin Ltd. Navigation with real-time weather
JP2006209429A (ja) 2005-01-27 2006-08-10 Denso Corp 駐車案内ナビゲーションシステム
JP4425840B2 (ja) 2005-09-09 2010-03-03 株式会社ナビタイムジャパン ナビゲーションシステム、情報配信サーバおよび携帯端末
JP2007248308A (ja) 2006-03-16 2007-09-27 Pioneer Electronic Corp 経路探索装置、経路探索方法、経路探索プログラムおよび記録媒体
US8002799B2 (en) 2006-07-21 2011-08-23 Spinefrontier Lls System and method for spine fixation
US20080051996A1 (en) * 2006-08-23 2008-02-28 Dunning Katherine A Apparatus and method for vehicular display of information
JP5072316B2 (ja) 2006-10-24 2012-11-14 有限会社モーメント すりつぶし機能を備えた調理用切断具
US8139115B2 (en) 2006-10-30 2012-03-20 International Business Machines Corporation Method and apparatus for managing parking lots
KR100807822B1 (ko) * 2007-03-22 2008-02-26 이봉주 항만 및 협수로를 위한 전자 선박인도방법 및 시스템
JP4501983B2 (ja) 2007-09-28 2010-07-14 アイシン・エィ・ダブリュ株式会社 駐車支援システム、駐車支援方法、駐車支援プログラム
US8180396B2 (en) 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
TW200919498A (en) 2007-10-19 2009-05-01 Delta Electronics Inc Inductor and core thereof
JP2009116425A (ja) 2007-11-02 2009-05-28 Dainippon Printing Co Ltd 買物支援システムおよび買物支援サーバ
KR20090088210A (ko) 2008-02-14 2009-08-19 주식회사 만도 두 개의 기준점을 이용한 목표주차위치 검출 방법과 장치및 그를 이용한 주차 보조 시스템
KR20110026433A (ko) * 2008-06-25 2011-03-15 톰톰 인터내셔날 비.브이. 주차시설 찾기를 탐지하는 내비게이션 장치 및 방법
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8022859B2 (en) 2009-06-02 2011-09-20 Honeywell International Inc. Systems and methods for using nexrad information to verify weather radar information
US8380333B2 (en) 2009-12-21 2013-02-19 Nokia Corporation Methods, apparatuses and computer program products for facilitating efficient browsing and selection of media content and lowering computational load for processing audio data
US8306734B2 (en) 2010-03-12 2012-11-06 Telenav, Inc. Navigation system with parking space locator mechanism and method of operation thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225899A (ja) * 1994-02-14 1995-08-22 Shimadzu Corp 駐車位置案内装置
JPH10176928A (ja) * 1996-12-18 1998-06-30 Hitachi Ltd 視点位置測定方法、視点位置測定装置、ヘッドアップディスプレイ装置およびミラー調整装置
JP2004212192A (ja) * 2002-12-27 2004-07-29 Senaa Kk 操船支援システム、操船支援プログラムおよび操船支援のための三次元像生成方法
JP3103420U (ja) * 2004-02-16 2004-08-12 バーダルプランニング株式会社 簡易型エンジン洗浄機器
JP2008510254A (ja) * 2004-08-19 2008-04-03 株式会社ソニー・コンピュータエンタテインメント ポータブル拡張現実感デバイスおよびその方法
WO2008104537A1 (en) * 2007-02-27 2008-09-04 Accenture Global Services Gmbh Remote object recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2544138A4 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10902682B2 (en) 2011-10-27 2021-01-26 Sony Corporation Image processing apparatus, image processing method, and program
US9626806B2 (en) 2011-10-27 2017-04-18 Sony Corporation Image processing apparatus, image processing method, and program
US10068382B2 (en) 2011-10-27 2018-09-04 Sony Corporation Image processing apparatus, image processing method, and program
US10453266B2 (en) 2011-10-27 2019-10-22 Sony Corporation Image processing apparatus, image processing method, and program
US11468647B2 (en) 2011-10-27 2022-10-11 Sony Corporation Image processing apparatus, image processing method, and program
US9704297B2 (en) 2011-10-27 2017-07-11 Sony Corporation Image processing apparatus, image processing method, and program
US11941766B2 (en) 2011-10-27 2024-03-26 Sony Group Corporation Image processing apparatus, image processing method, and program
US10134056B2 (en) 2011-12-16 2018-11-20 Ebay Inc. Systems and methods for providing information based on location
EP2791881A4 (en) * 2011-12-16 2015-05-06 Ebay Inc SYSTEMS AND METHODS FOR PROVIDING LOCATION-BASED INFORMATION
CN103377189A (zh) * 2012-04-12 2013-10-30 南京财经大学 基于智能移动终端的粮食地面参照信息收集方法
JP2014132718A (ja) * 2013-01-07 2014-07-17 Seiko Epson Corp 表示装置、および、表示装置の制御方法
US9971155B2 (en) 2013-07-11 2018-05-15 Seiko Epson Corporation Head mounted display device and control method for head mounted display device
JP2015019274A (ja) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015164006A (ja) * 2014-02-28 2015-09-10 日本無線株式会社 情報配信装置、情報配信システム及び情報配信方法
JP2015192153A (ja) * 2014-03-27 2015-11-02 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016197342A (ja) * 2015-04-03 2016-11-24 株式会社サイバーウォーカー 拡張現実プログラム、拡張現実提供方法、拡張現実提供装置、及び情報配信方法
JP2018518778A (ja) * 2015-06-24 2018-07-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 購入のための拡張現実デバイス、システムおよび方法
US11164227B2 (en) 2015-06-24 2021-11-02 Magic Leap, Inc. Augmented reality devices, systems and methods for purchasing
JP2016028340A (ja) * 2015-10-02 2016-02-25 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2017076411A (ja) * 2016-11-21 2017-04-20 日本無線株式会社 情報配信装置、情報配信システム及び情報配信方法
JP2019128644A (ja) * 2018-01-22 2019-08-01 トヨタ自動車株式会社 位置探索支援システム
JP7143592B2 (ja) 2018-01-22 2022-09-29 トヨタ自動車株式会社 位置探索支援システム

Also Published As

Publication number Publication date
SG10201400952WA (en) 2014-05-29
US20150112586A1 (en) 2015-04-23
US9689688B2 (en) 2017-06-27
US20140214606A1 (en) 2014-07-31
US20140210853A1 (en) 2014-07-31
EP2752362B1 (en) 2016-12-21
MY156130A (en) 2016-01-15
EP2752805A1 (en) 2014-07-09
US20130010103A1 (en) 2013-01-10
SG10201400956YA (en) 2014-05-29
EP2752362A2 (en) 2014-07-09
US8896685B2 (en) 2014-11-25
SG10201400949SA (en) 2014-05-29
EP2757517A1 (en) 2014-07-23
US9395195B2 (en) 2016-07-19
EP2544138A4 (en) 2013-09-25
EP2544138A1 (en) 2013-01-09
EP2752362A3 (en) 2014-08-13
MY174604A (en) 2020-04-29
MY173040A (en) 2019-12-20
US20140210859A1 (en) 2014-07-31
SG184301A1 (en) 2012-11-29
US20170140653A9 (en) 2017-05-18
MY174603A (en) 2020-04-29

Similar Documents

Publication Publication Date Title
WO2011122654A1 (ja) 情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム
CN111065891B (zh) 基于增强现实的室内导航系统
US20210025729A1 (en) Street-Level Guidance Via Route Path
JP5280475B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2008217775A (ja) 障害物回避状況表示ジェネレータ
WO2010012310A1 (en) Method of displaying navigation data in 3d
WO2010012311A1 (en) Computer arrangement and method for displaying navigation data in 3d
CN102589542A (zh) 用于增强导航的方法和系统
GB2611003A (en) Video sensor fusion and model based virtual and augmented reality systems and methods
CN111325849B (zh) 虚拟内容显示方法、装置、终端设备及存储介质
Narzt et al. A new visualization concept for navigation systems
US20230252689A1 (en) Map driven augmented reality
US20230314156A1 (en) Information presentation method, information presentation system, and computer-readable medium
JP6345381B2 (ja) 拡張現実システム
KR20220012212A (ko) 인터렉티브 랜드마크 기반 위치 파악
JP2007309823A (ja) 車載用ナビゲーション装置
US11656089B2 (en) Map driven augmented reality
CN114842172A (zh) 显示控制方法、装置、介质、抬头显示系统和车辆
US20240119843A1 (en) Ship navigation display system and ship navigation display method
Templin et al. Using Augmented and Virtual Reality (AR/VR) to Support Safe Navigation on Inland and Coastal Water Zones. Remote Sens. 2022, 14, 1520
CN117296310A (zh) 航海信息显示装置、航海信息显示方法、以及程序
KR20010107266A (ko) 선대관리시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11762878

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13635370

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011762878

Country of ref document: EP