WO2015125210A1 - 情報表示装置及び情報表示プログラム - Google Patents

情報表示装置及び情報表示プログラム Download PDF

Info

Publication number
WO2015125210A1
WO2015125210A1 PCT/JP2014/053765 JP2014053765W WO2015125210A1 WO 2015125210 A1 WO2015125210 A1 WO 2015125210A1 JP 2014053765 W JP2014053765 W JP 2014053765W WO 2015125210 A1 WO2015125210 A1 WO 2015125210A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
display device
information display
target feature
unit
Prior art date
Application number
PCT/JP2014/053765
Other languages
English (en)
French (fr)
Inventor
吉澤 和彦
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to JP2016503805A priority Critical patent/JP6145563B2/ja
Priority to PCT/JP2014/053765 priority patent/WO2015125210A1/ja
Priority to US15/114,992 priority patent/US20160343156A1/en
Priority to CN201480073172.XA priority patent/CN105917329B/zh
Publication of WO2015125210A1 publication Critical patent/WO2015125210A1/ja
Priority to US17/529,638 priority patent/US20220076469A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to an information display apparatus and an information display program, and more particularly to an apparatus for displaying related information on a “target feature”.
  • GPS Global Positioning System
  • Portable information terminals such as smart phones and tablet terminals are also equipped with a GPS reception function and can use various navigation services.
  • Patent Document 1 includes a position information acquisition device, a position measurement unit, an orientation information acquisition device, an orientation measurement unit, a distance information acquisition device, a distance measurement unit, and a map information storage unit, and further obtains information obtained by each unit.
  • a portable map display device provided with a target feature specifying means that uses and specifies the position of an actual target feature.
  • the map display device described in Patent Document 1 is a feature on a map corresponding to an actual target feature based on the position of the actual target feature specified by the user using the target feature specifying means of the map display device.
  • the attribute information can be displayed on the display device.
  • Patent Document 2 discloses a pointing system that processes information related to an object addressed by a user.
  • a user points a handheld device (portable terminal) to an object to be addressed
  • the device measures the position and orientation of the portable terminal, searches a database on the network, The information about the object is presented on the user interface.
  • the map display device described in Patent Document 1 itself is provided with a position measurement means, an orientation measurement means, and a display device.
  • the map display device is directed to a destination feature, and the position information and orientation of the display device itself are obtained. Information is acquired, further, distance information between the display device and the target feature is acquired by the distance measuring means, and position information of the target feature is calculated from each acquired information. Furthermore, by referring to the map information based on the calculated location information of the destination feature, the map display device needs to acquire the attribute information of the destination feature and measure the distance between the display device and the destination feature. .
  • Patent Document 2 discloses a pointing system in which an object is addressed with a mobile terminal or the like and information related to the object is manipulated.
  • the invention of Patent Document 2 discloses an example in which components such as a position determination unit and a posture determination unit are not physically confined to a mobile terminal, but are distributed on a wireless network together with a database.
  • the record in the database includes a geometric descriptor that defines a discontinuous spatial range, and the search means is defined by the instantaneous position and the instantaneous posture measured by the mobile terminal. Search the database by determining whether the address state crosses the spatial range.
  • the address state of the mobile terminal is compared with the geometric descriptor of the database record, and when it is determined that the mobile terminal is crossed, the multimedia information of the database record is called. Intersection judgment is performed.
  • the geometric intersection determination in the space expressed by the three-dimensional coordinates is performed, not only the position of the mobile terminal but also the attitude of the mobile terminal are necessary for specifying the object. In addition, complicated geometric calculation processing based on such information is required.
  • An object of the present invention is to display the information on the target feature when the user points the display device to a nearby target feature with a simpler configuration in consideration of the problems of the prior art. Is to provide a device.
  • an information display device capable of displaying related information of a feature, and acquiring current position information of the information display device
  • a target feature specifying execution unit that specifies the target feature as a target feature by referring to the map information using the current position information and the direction information, and a specific information for acquiring specific information about the target feature
  • the feature specifying execution unit is directed to the information display device from the current position of the information display device on the map obtained from the map information based on the current position information and the direction information of the information display device.
  • a feature on the map whose direction intersects at a position closest to the information display device is specified as the target feature.
  • FIG. 1 is a block diagram of an information display apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 is a software configuration diagram of the information display apparatus according to the first embodiment. 1 is a front external view and a back external view of an information display device according to Embodiment 1.
  • FIG. 1 is a configuration diagram of an information display system including an information display device according to Embodiment 1.
  • FIG. 3 is a screen display diagram of a basic screen of the information display device according to the first embodiment.
  • 5 is a flowchart of an information display operation of the information display apparatus according to the first embodiment.
  • the screen display figure of the feature information display screen (during information acquisition) of an information display device.
  • FIG. 10 is a screen display diagram of a basic screen of the information display apparatus according to the second embodiment. 10 is a flowchart of an information display operation of the information display apparatus according to the second embodiment. The screen display figure of the live view display screen of the information display apparatus which concerns on Example 2.
  • FIG. 10 is a conceptual diagram illustrating the format of an image data file in the information display apparatus according to the second embodiment.
  • FIG. 1 is a block diagram of the information display apparatus according to the first embodiment.
  • the information display apparatus 100 includes a main control unit 101, a system bus 102, a ROM 103, a RAM 104, a storage unit 110, an image processing unit 120, an audio processing unit 130, an operation unit 140, a communication processing unit 150, a sensor unit 160, and an expansion interface unit 170.
  • Etc. are configured by a computer.
  • the information display apparatus 100 may be configured based on a terminal having a communication function, for example, a mobile terminal such as a mobile phone, a smart phone, or a tablet terminal. You may comprise based on PDA (Personal Digital Assistants) and notebook type PC (Personal Computer). Further, a digital still camera, a video camera capable of shooting a movie, a portable game machine, or other portable digital devices may be used as a base.
  • a mobile terminal such as a mobile phone, a smart phone, or a tablet terminal.
  • PDA Personal Digital Assistants
  • notebook type PC Personal Computer
  • a digital still camera, a video camera capable of shooting a movie, a portable game machine, or other portable digital devices may be used as a base.
  • the main control unit 101 is a microprocessor unit that controls the entire information display device 100 according to a predetermined program.
  • a system bus 102 is a data communication path for transmitting and receiving data between the main control unit 101 and each unit in the information display apparatus 100.
  • a ROM (Read Only Memory) 103 is a memory in which a basic operation program such as an operating system and other application programs are stored. For example, a rewritable ROM such as an EEPROM (Electrically Erasable Programmable ROM) or a flash ROM is used. .
  • a RAM (Random Access Memory) 104 serves as a work area for executing a basic operation program and other application programs.
  • the ROM 103 and the RAM 104 may be integrated with the main control unit 101. Further, the ROM 103 may not use an independent configuration as shown in FIG. 1 but may use a partial storage area in the storage unit 110.
  • the storage unit 110 stores each operation setting value of the information display device 100, information of the user of the information display device 100, and the like in the various information / data storage areas.
  • the various information / data storage areas also function as a map information storage unit that holds a map information group downloaded from the network. Still image data and moving image data captured by the information display device 100 can also be stored.
  • the storage unit 110 can also store new application programs downloaded from the network. As one of the application programs, there is an “information display program” that realizes main functions of the information display apparatus of the present embodiment. The configuration and function of the “information display program” will be described in detail with reference to FIG.
  • the whole or a part of the functions of the ROM 103 may be replaced by a partial area of the storage unit 110.
  • the storage unit 110 needs to hold stored information even when power is not supplied to the information display apparatus 100. Therefore, for example, devices such as flash ROM, SSD (Solid State Drive), HDD (Hard Disc Drive) and the like are used.
  • the image processing unit 120 includes a display unit 121, an image signal processing unit 122, a first image input unit 123, and a second image input unit 124.
  • the display unit 121 is a display device such as a liquid crystal panel, for example, and provides the image data processed by the image signal processing unit 122 to the user of the information display apparatus 100.
  • the image signal processing unit 122 includes a video RAM (not shown), and the display unit 121 is driven based on the image data input to the video RAM.
  • the image signal processing unit 122 has a function of performing format conversion, a menu or other OSD (On Screen Display) signal superimposing processing, if necessary.
  • OSD On Screen Display
  • the first image input unit 123 and the second image input unit 124 convert light input from the lens into an electrical signal using an electronic device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • an electronic device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • a camera unit for inputting image data of surroundings and objects.
  • the audio processing unit 130 includes an audio output unit 131, an audio signal processing unit 132, and an audio input unit 133.
  • the audio output unit 131 is a speaker, and provides the audio signal processed by the audio signal processing unit 132 to the user of the information display apparatus 100.
  • the voice input unit 133 is a microphone, which converts a user's voice and the like into voice data and inputs the voice data. Note that the voice input unit 133 is separate from the information display device 100 and may be connected to the information display device 100 by wired communication or wireless communication.
  • the operation unit 140 is an instruction input unit that inputs an operation instruction to the information display apparatus 100.
  • the operation unit 140 includes a touch panel 140t arranged on the display unit 121 and an operation key 140k in which button switches are arranged. Shall. Either one may be sufficient. You may operate the information display apparatus 100 using the keyboard etc. which were connected to the below-mentioned expansion interface part 170.
  • FIG. The information display apparatus 100 may be operated using a separate information terminal device connected by wired communication or wireless communication.
  • the touch panel function may be provided in the display unit 121.
  • the communication processing unit 150 includes a LAN (Local Area Network) communication unit 151, a mobile telephone network communication unit 152, and a proximity wireless communication unit 153.
  • the LAN communication unit 151 transmits and receives data by connecting to the wireless communication access point 202 of the Internet 201 by wireless communication.
  • the mobile telephone network communication unit 152 performs telephone communication (call) and data transmission / reception by wireless communication with the base station 203 of the mobile telephone communication network.
  • the close proximity wireless communication unit 153 performs wireless communication when close to the corresponding reader / writer.
  • the LAN communication unit 151, the mobile telephone network communication unit 152, and the close proximity wireless communication unit 153 are each provided with a coding circuit, a decoding circuit, an antenna, and the like. You may further provide other communication parts, such as an infrared communication part.
  • the sensor unit 160 is a sensor group for detecting the state of the information display device 100.
  • These sensor groups include a position information acquisition unit that acquires the current position information of the information display device 100, and direction information acquisition that acquires the direction information of the information display device when the information display device 100 is directed to a target feature. Parts.
  • the information display device 10 may further include other sensors such as an atmospheric pressure sensor.
  • the extended interface unit 170 is an interface group for extending the functions of the information display device 100.
  • the extended interface unit 170 is configured by an image / audio interface, a USB (Universal Serial Bus) interface, a memory interface, and the like.
  • the image / audio interface performs input of image signals / audio signals from external image / audio output devices, output of image signals / audio signals to external image / audio input devices, and the like.
  • the USB interface is connected to a PC to transmit and receive data, and to connect a keyboard and other USB devices.
  • the memory interface transmits and receives data by connecting a memory card and other memory media.
  • the configuration example of the information display apparatus 100 shown in FIG. 1 includes many configurations that are not essential to the present embodiment, such as the audio processing unit 140, but the present embodiment is implemented even if these configurations are not provided. The effect of the example is not compromised.
  • a configuration not shown in the figure such as a digital television broadcast receiving function and an electronic money settlement function, may be further added.
  • FIG. 2 is a software configuration diagram of the information display apparatus 100 according to the present embodiment, and shows a software configuration in the ROM 103, the RAM 104, and the storage unit 110.
  • the basic operation program 103 a and other programs are stored in the ROM 103
  • the “information display program” 110 b and other programs are stored in the storage unit 110.
  • the basic operation program 103a stored in the ROM 103 is expanded in the RAM 104, and the main control unit 101 executes the expanded basic operation program to constitute the basic operation execution unit 104a.
  • the “information display program” 110b stored in the storage unit 110 is expanded in the RAM 104, and the main control unit 101 executes the expanded “information display program”.
  • the azimuth acquisition execution unit 104b1, the target feature identification execution unit 104b2, and the related information acquisition execution unit 104b3 are configured.
  • the RAM 104 includes a temporary storage area that temporarily holds data as necessary when various application programs are executed.
  • the position / orientation acquisition execution unit 104b1 includes a position information acquisition unit that acquires current position information of the information display device 100 from GPS information (latitude, longitude, etc.) received by the GPS reception unit 161, a gyro sensor 162, a geomagnetic sensor 163, and the like. From the output, the function of the azimuth information acquisition unit that acquires the azimuth information of the information display device when the information display device 100 is directed to the target feature is provided.
  • the target feature specifying execution unit 104b2 refers to the map information downloaded from the network by using the position information and the direction information calculated by the position / orientation acquisition execution unit 104b1, thereby identifying the target feature as “target feature. It has the function specified as.
  • the “target feature” is, for example, a high-rise building or a complex building, there are one or a plurality of tenants on each floor.
  • the related information acquisition execution unit 104b3 refers to the downloaded map information, and from the additional data accompanying the map information, the specific information (address information, store name information, building name) of the target feature ("target feature")
  • the communication processing unit 150 in FIG. 1 transmits the specific information acquired by the related information acquisition execution unit 104b3 by the specific information acquisition unit to the search server on the network, receives the related information from the search server, and acquires the related information. It functions as a communication part for making the relevant information of the part.
  • FIG. 3 is an external view of the information display apparatus 100 of the present embodiment. This external view is an example when the information display device 100 is an information terminal device such as a smart phone.
  • FIG. 3A is a front view of the information display device 100
  • FIG. 3 is a rear (back) view of the display device 100.
  • FIG. The illustration of the left and right side surfaces and the ceiling is omitted.
  • the first image input unit 123 is located on the same surface (front surface) as the display unit 121
  • the second image input unit 124 is the opposite surface (back surface) of the display unit 121.
  • the first image input unit 123 positioned on the same plane as the display unit 121 may be referred to as “in camera”, and the second image input unit 124 positioned on the opposite side of the display unit 121 may be referred to as “out camera”.
  • the position of the second image input unit 124 may not be the back surface as long as it is not flush with the display unit 121.
  • the second image input unit 124 may be separate from the information display device 100 and may be connected to the information display device 100 by wired communication or wireless communication. Further, only one of the camera units may be provided. Further, when the information display device 100 is a digital still camera, it may have a shape different from those shown in FIGS.
  • FIG. 4 is a configuration diagram of an information display system including the information display device 100 of the present embodiment.
  • the information display system includes an information display device 100, a wide-area public network 201 such as the Internet and its wireless communication access point 202, a mobile telephone communication network base station 203, an application server 211, a map data server 212, and mobile telephone communication. Server 213. Needless to say, a large number of various server devices, terminal devices, etc., not shown, are connected on the Internet 201.
  • the map data server 212 stores commercially available map information, for example, Google ⁇ Maps (registered trademark), in which the longitude and latitude on the ground are assigned to the values of the XY coordinates on the plane.
  • Google ⁇ Maps registered trademark
  • the information display apparatus 100 can be expanded in function by downloading a new application program from the application server 211 via the Internet 201 and the wireless communication access point 202 or the base station 203 of the mobile telephone communication network. To do. At this time, the downloaded new application program is stored in the storage unit 110. When the main control unit 101 expands the new application program stored in the storage unit 110 in the RAM 104 and executes the expanded new application program, the information display apparatus 100 can realize various new functions. Shall.
  • the information display apparatus 100 uses so-called cloud computing that uses computing resources (software and hardware, in other words, these processing functions, storage areas, and data) on the cloud through a network. Since it is configured as a premise, it is possible to provide an information display device capable of displaying information on a destination feature with a simple configuration.
  • the information display operation in the information display apparatus 100 is mainly executed by the main control unit 101 by expanding the information display program 110 b stored in the storage unit 110 into the RAM 104.
  • the information display execution unit 104b, the position / orientation acquisition execution unit 104b1, the target feature identification execution unit 104b2, the related information acquisition execution unit 104b3, and the basic operation execution unit 104a configured by Or each hardware block which implement
  • the information display device 100 further includes an information display execution unit 104b, a position / orientation acquisition execution unit 104b1, a target feature identification execution unit 104b2, and a related information acquisition execution unit 104b3. It may control the operation of the apparatus 100.
  • the position / orientation acquisition execution unit 104b1 of the information display device 100 acquires the map information around the current position from the map data server 212 using the GPS information (latitude, longitude, etc.) received by the GPS reception unit 161, and displays it. The current position and its surroundings are displayed on the map of the unit 121.
  • FIG. 5 is a screen display diagram illustrating a basic screen 121a displayed on the display unit 121 of the information display apparatus 100.
  • the basic screen 121a is displayed when the power of the information display device 100 is turned on by pressing the power key 140k1, or when the home key 140k2 is pressed during execution of an arbitrary application program.
  • the icon group (APP-A to N, “feature information”) displayed in the area 121a1 of the basic screen 121a is a collection of icons associated with each application program that can be executed by the information display apparatus 100.
  • the “feature information” icon 121a2 is an icon associated with an “information display program” that executes an information display process that characterizes the information display apparatus 100 of the present embodiment. By selecting any icon APP, a predetermined application program associated with the selected icon is executed.
  • the icon may be selected by performing a tap operation on a predetermined area on the touch panel 140t corresponding to the position on the display unit 121 where the target icon is displayed.
  • the operation may be performed by operating operation keys such as a cross cursor key and an enter key (not shown).
  • the user's line of sight of the information display device 100 may be detected using the first image input unit 123, and the icon may be selected based on the detected line-of-sight information.
  • the information display device 100 that operates based on the control of the basic operation execution unit 104a, when the user selects the icon 121a2 on the basic screen 121a by a tap operation or the like, an “information display program” is executed, and the basic operation execution unit 104a The information display execution unit 104b is activated and the control subject is transferred to the information display execution unit 104b.
  • the information display execution unit 104b that has received the control subject's delegation from the basic operation execution unit 104a first displays on the display unit 121 a feature information display screen (initial state) 121b as shown in FIG. (S101).
  • the feature information display screen (initial state) 121b includes a navigation mark 121b1 such as “arrow”, an information display area 121b2, and an “end” icon 121b3. Further, a guidance display 121b4 is displayed in the information display area 121b2. . In the guidance display 121b4, for example, guidance such as “Please hold the upper arrow in the direction of the object for which information is to be displayed for a while” is presented.
  • the information display execution unit 104b sets the control subject as a basic operation execution unit (although not shown in the flowchart of FIG. 6). It returns to 104a and the operation
  • the user follows the guidance on the guidance display 121b4 so that the tip side of the arrow of the navigation mark 121b1 is directed toward the feature for which information is to be acquired (hereinafter referred to as the destination feature).
  • the body posture of the information display device 100 is adjusted. That is, for example, when a store where detailed information is to be acquired is found while walking in a shopping street, the user may hold the information display device 100 so that the arrow of the navigation mark 121b1 is directed toward the target store. Further, it is determined whether or not the user holds the housing posture of the information display terminal 100 for a predetermined time or more with the arrow of the navigation mark 121b1 facing the target store (S102: Yes).
  • the predetermined time may be a time length that allows the information display apparatus 100 to determine whether or not the user intentionally holds the posture. For example, 0.5 seconds or 1 second is preset as the predetermined time.
  • the processes after S103 are started. That is, when it is not determined that the body posture has been held for a predetermined time or longer, such as when the body is continuously moved by the user (S102: No), the processing after S103 is not started.
  • the state in which the body posture is maintained refers to a state in which the spatial position of the body is substantially fixed.
  • the spatial position of the housing does not need to be completely fixed, and it is determined that the housing posture is maintained by allowing a slight change in position due to camera shake or the like.
  • the process of determining the “body posture” in S102 is omitted and triggered by the selection of an “information acquisition” icon (not shown) prepared separately on the feature information display screen (initial state) 121b or later.
  • the process may be started.
  • the information display execution unit 104b displays the display on the display unit 121 as a feature information display screen (information (Acquiring) 121c.
  • a message 121c5 is displayed in the information display area 121c2.
  • the position / orientation acquisition execution unit 104b1 calculates the position information of the information display device 100 from the signal received by the GPS reception unit 161 based on the control of the information display execution unit 104b, and the gyro sensor 162, the geomagnetic sensor 163, and the like.
  • Direction information of the information display device 100 is calculated from the output of (S103).
  • the position information and azimuth information may be calculated without using the GPS receiver 161, the gyro sensor 162, the geomagnetic sensor 163, and the like.
  • the information display execution unit 104b obtains the current position of the information display device 100 and its surrounding map information from the map data server 212 on the Internet based on the position information calculated by the position / orientation acquisition execution unit 104b1 in the process of S103. 201 and downloaded via the LAN communication unit 151 or the mobile telephone network communication unit 152 and stored in the temporary storage area of the RAM 104 (S104).
  • a map data group is downloaded in advance from the map data server 212 to various information / data storage areas of the storage unit 110, and map data (map information) around the current position of the information display device 100 is downloaded from the downloaded map data group. ) May be loaded into the temporary storage area of the RAM 104.
  • the target feature identification execution unit 104b2 uses the position information and the direction information calculated by the position / orientation acquisition execution unit 104b1 in the process of S103 based on the control of the information display execution unit 104b.
  • the destination feature that is, the feature that the user points to the tip of the arrow of the navigation mark 121b1 is displayed.
  • a target feature specifying process for specifying is performed (S105).
  • the target feature specifying process in S105 will be described with reference to FIGS. 9A to 9C.
  • the user who owns the information display device 100 is located near the intersection where the main road 301 and the side road 302 cross each other in a shopping street where the stores 311 to 315 etc. are lined up. Assume that
  • the current position 321 of the information display device 100 based on the position information calculated in the process of S103 is determined on the map data 300 downloaded in the process of S104 (FIG. 9A). .
  • FIG. 9A shows the current position 321 of the user based on the position information calculated by the position / orientation acquisition execution unit 104b1 in the target feature specifying process in S105, and the map is downloaded from the map data server 212 and stored in the temporary storage area of the RAM 104.
  • the map data 300 is displayed in a superimposed manner on a common two-dimensional coordinate plane.
  • the displayed two-dimensional map data 300 includes the current position 321 of the user, the target feature to which the user is pointing the information display device 100, the surrounding buildings (stores 311 to 315, etc.), and the surrounding area. Roads (main road 301, side road 302) are included.
  • the target features displayed on the two-dimensional coordinate plane and the surrounding buildings are uniformly located outside of them as seen from above, regardless of their height, number of layers, and internal structure. It is displayed as a plane figure showing the contour (position). Similarly, the road is displayed as a plane figure viewed from above.
  • the map data may be three-dimensional data that can use GPS as long as information on the outline (position) of the outside of the feature can be obtained.
  • a straight line 323 is drawn from the current position 321 of the information display device 100 on the map data 300 in the direction of the angle (azimuth angle) 322 indicated by the azimuth information calculated in S103 (FIG. 9B).
  • the north is used as the angle reference, but another direction may be used as the angle reference.
  • the feature stored 313) located at the closest position (intersection 324) from the current position 321 of the information display device 100 is displayed.
  • the target feature is specified (FIG. 9C). Since the straight line 323 and the feature on which the user points the information display device are on the same two-dimensional coordinate plane, if the current position 321 and the azimuth angle 322 are known, it is easy to identify the intersecting feature. .
  • the algorithm of the target feature specifying process of the present embodiment has been described with the graphic depiction using FIG. 9A to FIG. 9C. All may be performed by computation on the RAM 104.
  • the same display as in FIGS. 9A to 9C is displayed on the display unit 121. You may make it let it.
  • distance information between the information display device 100 and the destination feature is not necessary for specifying the destination feature, and therefore hardware and / or software for acquiring the distance information is required. Do not need.
  • the feature to be intersected is simply determined by finding a point 324 at which the contour line outside the feature intersects with the straight line 323 at the azimuth angle 322 on the map data. No geometric processing is required.
  • the target feature that is the target of information display by the information display device 100 is a feature in the vicinity of the user, as is apparent from FIGS. 9A to 9C.
  • the user is located on the main road 301 immediately before the stores 313, 314, etc., but the current position of the user may be anywhere as long as the stores 313, 314, etc. can be seen.
  • the environment may be such that the user is on the sidewalk or store on the opposite side across the traffic lane of the main road 301 and the stores 313, 314, etc. can be seen from there.
  • the user's current position 321 is not directly visible, for example, if the user wants to know information about another store behind the store 313, the user moves to the side street 302 and points the store at the information display device 100. It ’s fine.
  • the target feature specifying execution unit 104b2 is downloaded from the map data server 212 in the process of S104 and temporarily stored in the RAM 104 based on the control of the information display executing unit 104b.
  • unique information address information, store name information, building name information, etc.
  • the information display execution unit 104b transfers the acquired unique information of the destination feature to the related information acquisition execution unit 104b3.
  • the related information acquisition execution unit 104b3 performs a network search using the unique information of the target feature as a keyword based on the control of the information display execution unit 104b, and acquires related information related to the target feature (S107). ).
  • a known technique / technology may be used as a technique for performing a network search using a specific keyword.
  • the unique information of the destination feature acquired in the process of S106 is transmitted to a search server (not shown) via the LAN communication unit 151 or the mobile telephone network communication unit 152, and the search result is the search result.
  • the related information related to the destination feature is received by the LAN communication unit 151 or the mobile telephone network communication unit 152.
  • the information display execution unit 104b displays an error message to that effect. Is displayed on the display unit 121 (S108).
  • the information display execution unit 104b displays the related information related to the acquired target feature. Information is displayed on the display unit 121 (S109).
  • FIG. 10A and 10B show an example of a screen display diagram of a feature information display screen (result display) 121d displayed on the display unit 121 of the information display device 100.
  • FIG. In the feature information display screen (result display) 121d, the related information related to the destination feature acquired by the keyword search performed in the process of S107 is displayed in the format of the search result list display 121d6 as shown in FIG. The information is displayed in the information display area 121d2 in the form of a homepage display 121d7 as shown.
  • the search result list display 121d6 is a format that displays a list of link information to a plurality of homepages and the like that the search engine of the related information acquisition execution unit 104b3 determines to match the keyword condition in the keyword search performed in the process of S107. is there.
  • the search engine of the related information acquisition execution unit 104b3 determines to match the keyword condition in the keyword search performed in the process of S107. is there.
  • the information such as the homepage as the related information of the destination feature is simply displayed on the display unit 121. It can be displayed.
  • the homepage display 121d7 is a format for directly displaying one of information such as a homepage that the search engine of the related information acquisition execution unit 104b3 determines to meet the keyword condition in the keyword search performed in the process of S107. In this case, the user can immediately confirm information such as a home page as related information of the destination feature.
  • the feature information display screen (result display) 121d of the information display apparatus 100 may be set by the user as to which of the above-mentioned formats the relevant information of the target feature is displayed. .
  • the search result is displayed in a homepage display format, and when there are a plurality of search results having a degree of match with the keyword equal to or more than a predetermined value.
  • the related information of the destination feature may be displayed in the form of a list. Further, the related information of the destination feature may be displayed on the display unit 121 in a format different from the above.
  • the unique information of the adjacent feature adjacent to the destination feature (store 312 and store 314 in the example shown in FIG. 9C) is also acquired.
  • related information regarding the adjacent feature may be acquired in the process of S107.
  • as much related information regarding each feature located around the target feature as possible may be acquired as long as the processing capability of the information display terminal 100 allows.
  • the arrow of the navigation mark 121b1 does not point correctly at the destination feature (store 313) due to the shift of the holding angle of the information display device 100.
  • information different from the related information related to the destination feature may be displayed in the process of S109.
  • related information related to the adjacent feature is also acquired in advance, a flick in the left-right direction on the feature information display screen (result display) 121d shown in FIGS. 10A and 10B.
  • the current position 321 of the user has been described as a fixed point, but may be a moving point including at least two different points under certain conditions. Since the user does not request “stop” on the display screen of FIG. 7, the user may operate while moving. Even when the user is walking or riding a low-speed moving body and the current position 321 of the user changes with time, the map display device of this embodiment can be used. During the movement of the user, the azimuth angle between the user and the destination feature 313 changes slightly but continuously. However, the information required within a predetermined time is only information on the current position and azimuth of the information display terminal 100 itself.
  • the position closest to the straight line (intersection 324) at each time point within a predetermined time is the location of the destination feature 313. It is on the contour line.
  • the spatial position (relative position) of the frame is fixed Can be determined.
  • the information display apparatus 100 of the present embodiment it is possible to provide an information display apparatus and method that can display information on nearby destination features to the user with a simpler configuration. That is, since the information display device 100 effectively uses computing resources on the cloud, hardware for acquiring distance information between the information display device 100 and the target feature for specifying the target feature and / or It is possible to acquire and display related information of the destination feature with a simpler configuration that does not require software.
  • the related information of the destination feature is acquired from a public network such as the Internet through a network search using the unique information (address information, store name information, building name information, etc.) of the destination feature as a keyword. It is possible to efficiently collect the latest information.
  • the information necessary for determining the body posture is the current position and the azimuth angle of the information display terminal itself in the real space. Even if there are cars, there is no problem. Even if the map display device of the present embodiment is used in an environment such as a downtown area where many buildings and stores are lined up and many people and cars frequently move between the user and the destination feature, It is possible to properly provide and display information on nearby destination features.
  • the information display apparatus of the present embodiment can be easily realized simply by downloading an “information display program” as an application program to a commercially available mobile terminal having a communication function.
  • FIG. 11 is a software configuration diagram of the information display apparatus 100 of the present embodiment.
  • the information display program 110b, the camera function program 110c, and other programs are stored in the storage unit 110. That is, in the second embodiment, a digital camera is assumed as a specific example of the mobile terminal, and in addition to the configuration of the first embodiment, a camera function program 110c is provided.
  • the information display program 110b stored in the storage unit 110 is expanded in the RAM 104 in the same manner as in the first embodiment, and the main control unit 101 executes the expanded information display program, whereby the information display execution unit 104b. And a position / orientation acquisition execution unit 104b1, a target feature identification execution unit 104b2, and a related information acquisition execution unit 104b3.
  • the camera function program 110c is expanded in the RAM 104, and the main control unit 101 executes the expanded camera function program 110c, thereby configuring the camera function execution unit 104c and the target feature extraction execution unit 104c1.
  • Control of the information display operation of the information display apparatus 100 of the present embodiment is mainly performed by the information display execution unit 104b, the position / orientation acquisition execution unit 104b1, the target feature identification execution unit 104b2, the related information acquisition execution unit 104b3, and the basic operation execution.
  • Unit 104a camera function execution unit 104c, and target feature extraction execution unit 104c1.
  • the information display device 100 further includes hardware blocks that are realized by hardware, and includes an information display execution unit 104b, a position / orientation acquisition execution unit 104b1, a target feature identification execution unit 104b2, and a related information acquisition execution.
  • the hardware blocks may control the operation of the information display device 100.
  • FIG. 12 is a screen display diagram for explaining the basic screen 121a of the information display apparatus 100 of the present embodiment.
  • the icon group (APP-A to N) displayed in the area 121a1 of the basic screen 121a is a collection of icons associated with each application program that can be executed by the information display apparatus 100.
  • the “information camera” icon 121a3 is an icon associated with an “information display program” that executes an information display process that characterizes the information display apparatus 100 of the present embodiment.
  • the basic operation execution unit 104a executes information display execution of the “information display program”.
  • the unit 104b is activated, and the control subject is transferred to the information display execution unit 104b.
  • the information display execution unit 104b which has been delegated the control subject from the basic operation execution unit 104a, first activates the camera function execution unit 104c and validates the second image input unit 124 (out camera) (S201). Next, the camera function execution unit 104c starts input of image data from the second image input unit 124 based on the control of the information display execution unit 104b, and the input image data is shown in FIG. It is displayed on the live view display screen 121e (S202).
  • the live view display screen 121e includes a live view window 121e1, a “shutter” icon 121e2, a “flash” icon 121e3, a “function setting” icon 121e4, and an “end” icon 121e5.
  • the live view window 121e1 displays the image data input by the second image input unit 124.
  • the user of the information display apparatus 100 can adjust the composition of the subject to be photographed while confirming the display of the live view window 121e1. It should be noted that by performing an operation such as pinch out / in on the touch panel 140t (see FIG. 12) corresponding to the position on the display unit 121 where the live view window 121e1 is displayed, the second image input unit 124 is zoomed in / out. Can be controlled.
  • the camera function execution unit 104c When it is detected that the user has selected the “shutter” icon 121e2, the camera function execution unit 104c starts a recording sequence. In this recording sequence, the camera function execution unit 104c executes a process for converting the output of an electronic device such as a CCD / CMOS sensor into digital image data in addition to control of focusing, exposure, and the like. Image data is input from the input unit 124. Further, the camera function execution unit 104c performs signal processing such as gamma correction and noise removal on the input image data, and stores the image data subjected to the above processing in various information / data storage areas of the storage unit 110. .
  • signal processing such as gamma correction and noise removal
  • the “flash” icon 121e3 switches between enabling / disabling the flash function by selecting this.
  • the “function setting” icon 121e4 By selecting the “function setting” icon 121e4, various settings of the camera function of the information display apparatus 100 according to the present embodiment can be changed.
  • the signal processing such as focusing, exposure, gamma correction, noise removal, etc., the flash function, and the function for changing various settings are not configurations that make the features of the present invention. The detailed explanation is omitted.
  • the information display execution unit 104b When the user selects the “end” icon 121e5 or presses the home key 140k2, the information display execution unit 104b operates the camera function execution unit 104c (although not shown in the flowchart of FIG. 13). And the second image input unit 124 is invalidated, and the control subject is returned to the basic operation execution unit 104a to end the operation of the information display execution unit 104b. Further, the basic operation execution unit 104a displays a basic screen 121a.
  • the user adjusts the body posture of the information display device 100 so that the second image input unit 124 can capture the feature (target feature) for which information is desired to be acquired. That is, for example, when a store for which detailed information is to be acquired is found while walking in a shopping street, the user has the information display device 100 so that the second image input unit 124 faces the target store, and a live view display screen The target store may be displayed in the live view window 121e1 of 121e. Further, the housing posture of the information display terminal 100 is held for a predetermined time or more in a state where the target store is displayed in the live view window 121e1 (S203: Yes).
  • the processes after S204 are started. That is, when it is not determined that the chassis posture has been held for a predetermined time or longer, such as when the image displayed in the live view window 121e1 continues to change (S203: No), the processing after S204 is not started.
  • the state in which the above-described body posture is maintained refers to a state in which the spatial position of the body is substantially fixed.
  • the spatial position of the housing does not need to be completely fixed, and it is determined that the housing posture is maintained by allowing a slight change in position due to camera shake or the like.
  • the processing from S204 onward may be started with the selection of an “information acquisition” icon (not shown) separately prepared on the live view display screen 121e as a trigger.
  • the information display execution unit 104b performs the processes of S204 to S208. Since this is the same as the processing of S103 to S107 of the first embodiment, description thereof is omitted. However, the orientation information acquired in the processing of S204 is appropriately corrected in consideration of the fact that the second image input unit 124 is directed to the destination feature as compared with the case of the first embodiment. Needless to say, there is a need.
  • the camera function execution unit 104c is based on the control of the information display execution unit 104b.
  • a gaze mark (see FIG. 16: 121e6) indicating that there is displayable related information related to the destination feature is superimposed on a position in the live view window 121e1 where the relationship with the destination feature becomes clear.
  • Are displayed (S209).
  • the unique information of the destination feature cannot be acquired in the process of S207, or when the related information regarding the destination feature cannot be acquired in the process of S208, the superimposing process is not performed.
  • FIG. 15 is an enlarged view of the live view window 121e1 on the live view display screen 121e, and the user directs the second image input unit 124 to the store 313 on the current position 321 on the map shown in FIG. This is an example when the apparatus 100 is held.
  • the live view window 121e1 the adjacent store 312 and store 314 are imaged and displayed with the store 313 at the center.
  • the relationship with the store 313 in the live view window 121e1 is as shown in FIG.
  • a gaze mark 121e6 is superimposed and displayed at a clear position.
  • the vicinity of the center of the store 313 in the live view window is selected as the display position of the gaze mark 121e6 that clearly shows the relationship with the store 313.
  • the display position of the gaze mark 121e6 that makes the relationship with the store 313 clear is not limited to the vicinity of the center of the store 313 in the live view window, but may be an arbitrary position overlapping the store 313, for example.
  • the processing is acquired in S208.
  • Related information related to the store 313 may be displayed on the display unit 121 in the form of the search result list display 121d6 shown in FIG. 10A or the form of the home page display 121d7 shown in FIG. 10B.
  • the target feature extraction execution unit 104c1 when the target feature extraction execution unit 104c1 performs a tap operation or the like on the region 121e8 indicating the store 313 input from the second image input unit 124 and extracted from the image data displayed on the live view window 121e1, You may make it display the relevant information regarding the shop 313 acquired by the process of S208.
  • the display shape (color, shape, size, presence / absence of blinking, etc.) of the related information related to the store 313 acquired in the process of S208 is displayed. You may make it change.
  • the gaze mark when the gaze mark is a triangle, it indicates that the related information has been acquired in the form of a search result list display, and as shown in FIG.
  • the gaze mark when the gaze mark is a star shape, it indicates that the related information has been acquired in a homepage display format.
  • related information regarding the store 314 is not displayed even if a tap operation or the like is performed on the area indicating the store 314. That is, whether or not related information regarding each store can be displayed may be confirmed by the presence or absence of a gaze mark in the live view window 121e1. If the related information cannot be acquired, the gaze mark may not be displayed as described above. However, as shown in FIG. 17C, the gaze indicating that there is no related information. A mark may be displayed.
  • the related information display window 121e9 for displaying the related information regarding the destination feature is superimposed and displayed in the live view window 121e1 in the format of PinP (Picture in Picture). You may make it do.
  • the format of the search result list display 121d6 shown in FIG. 10A Alternatively, the display may be switched to the format of the home page display 121d7 shown in FIG. 10B.
  • a reference marker 121e10 as shown in FIG. 19 may be displayed inside the live view window 121e1.
  • the reference marker 121e10 serves as a reference position for the focusing process in the recording sequence when the “shutter” icon 121e2 is pressed by the user, and an aiming position for target object orientation in the information display process of the present embodiment. In this way, if the reference marker 121e10 is displayed inside the live view window 121e1, the process of directing the information display device 100 to the target feature becomes easier.
  • the “shutter” icon 121e2 is selected in a state where the related information regarding the destination feature has been acquired by the processing of the flowchart shown in FIG. 13, the unique information and the related information are used as the extended data in the recording sequence. You may make it record on an image data file with data.
  • the recording destination may be various information / data recording areas of the storage unit 110, various storage media connected to the expansion interface unit 170, or a network storage connected via the communication processing unit 150. good.
  • FIG. 20 shows an example of the file structure of the image data file 300 recorded in various information / data recording areas of the storage unit 110.
  • the image data file 300 of the present embodiment includes image data 310 and extended data 330.
  • the extended data 330 is a shooting date / time, shutter speed, aperture, etc. of the image data 310, and GPS information of the shooting location.
  • the shooting condition information 331 indicating the conditions, the unique information 332 of the target feature acquired in the process of S207, and the URL (Uniform Resource Locator) 333 of related information related to the target feature acquired in the process of S208 are assumed to be included. .
  • the user's current position is within a predetermined time. If the relationship between the position and the specific destination feature 313 is substantially constant, it may be determined that the chassis posture has been held for a predetermined time or more.
  • the distance information between the information display device 100 for specifying the destination feature and the destination feature is possible to acquire and display the relevant information of the destination feature with a simpler configuration that does not require hardware and / or software for acquiring.
  • the destination feature can be displayed and confirmed on the display unit 121, and further, it can be easily confirmed whether or not there is related information regarding the destination feature. Since the relevant information of the destination feature is acquired from a public network such as the Internet by performing a network search using the unique information of the destination feature (address information, store name information, building name information, etc.) as a keyword, As in the first embodiment, it is possible to efficiently collect the latest information. Further, the image of the destination feature and the related information related to the destination feature can be stored in the storage as an image data file, and the destination feature and the related information can be reviewed at a later date.
  • the embodiments of the present invention have been described using the first and second embodiments. Needless to say, the configuration for realizing the technology of the present invention is not limited to the above-described embodiments, and various modifications may be considered. It is done. For example, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. These all belong to the category of the present invention.
  • numerical values, messages, and the like appearing in sentences and drawings are merely examples, and the use of different ones does not impair the effects of the present invention.
  • the functions and the like of the present invention described above may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • the microprocessor unit or the like may be realized by software by interpreting and executing a program that realizes each function or the like. Hardware and software may be used together.
  • the software may be stored in advance in the ROM 103 or the storage unit 110 of the information display device 100 at the time of product shipment. After product shipment, it may be acquired from the application server 211 on the Internet 201 via the LAN communication unit 151 or the mobile telephone network communication unit 152. Further, the software stored in a memory card, an optical disk, or the like may be acquired via the expansion interface unit 170 or the like.
  • control lines and information lines shown in the figure are those that are considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • Information display device 101 Main control unit 102: System bus 103: ROM 104: RAM 104a: Basic operation execution unit 104b: Information display execution unit 104b1: Position / orientation acquisition execution unit 104b2: Target feature identification execution unit, 104b3: related information acquisition execution unit, 104c: camera function execution unit, 110: storage unit, 110b: information display program, 110c: camera function program, 120: image processing unit, 121a: basic screen, 121a1: Application program icon group, 121a2: Feature information icon, 130: Audio processing unit, 140: Operation unit, 150: Communication processing unit, 160: Sensor unit, 161: GPS receiving unit, 162: Gyro sensor, 163: Geomagnetic sensor, 170: expansion interface, 300: map data , 301-302: Road, 311-315: store, 321: current location of the user, 322: azimuth of the straight line, 323: a straight line, 324: intersection.

Abstract

 より簡易な構成で目的地物の情報を表示可能な情報表示装置を提供する。 情報表示装置の現在位置情報を取得する位置情報取得部と、情報表示装置を目的の地物に指向させた際の前記情報表示装置の方位情報を取得する方位情報取得部と、地図情報を記憶する地図情報記憶部と、前記現在位置情報及び前記方位情報を用い前記地図情報を参照して前記目的の地物を対象地物として特定する対象地物特定実行部と、前記対象地物に関する固有情報を取得する固有情報取得部と、前記固有情報に基づいた検索処理により、前記目的の地物の前記関連情報を取得する関連情報取得部とを備え、前記対象地物特定実行部は、前記情報表示装置の前記現在位置情報及び前記方位情報を基に、前記地図情報で得られる地図上の前記情報表示装置の現在位置から該情報表示装置が向けられている方向が該情報表示装置から最も近い位置で交差する前記地図上の地物を前記対象地物として特定する。

Description

情報表示装置及び情報表示プログラム
 本発明は、情報表示装置及び情報表示プログラムに係り、特に、「目的の地物」の関連情報を表示させる装置に関する。
 GPS(Global Positioning System)や地図情報を活用したナビゲーションシステムが普及している。スマートホンやタブレット端末等の携帯型情報端末もGPS受信機能を搭載し、種々のナビゲーションサービスを利用できるようになっている。
 例えば、特許文献1には、位置情報取得装置、位置計測手段、方位情報取得装置、方位計測手段、距離情報取得装置、距離計測手段、及び地図情報格納手段を備え、さらに各手段で求まる情報を用いて実際の目的地物の位置を特定する目的地物特定手段を備えた、携帯可能な地図表示装置が開示されている。特許文献1に記載の地図表示装置は、ユーザが地図表示装置の目的地物特定手段で特定した実際の目的地物の位置に基づいて、当該実際の目的地物に対応する地図上の地物を特定することで属性情報を表示装置に表示できる。
 また、特許文献2には、ユーザによりアドレスされた物に関する情報を処理する、ポインティング・システムが開示されている。特許文献2の発明において、ユーザが、手持ち式装置(携帯端末)をアドレスしたい物へ指向すると、この装置は、当該携帯端末の位置及び姿勢を測定し、ネットワーク上のデータベースを検索して、いずれの物がアドレスされているのかを判断し、対象物に関する情報をユーザ・インターフェースに提示する。
特開2005-49500号公報 特開2010-205281号公報
 特許文献1に記載された地図表示装置はそれ自体で、位置計測手段、方位計測手段、表示装置を備えて得おり、地図表示装置を目的地物に指向させ、表示装置自体の位置情報と方位情報を取得し、さらに、距離計測手段により当該表示装置と目的地物との距離情報を取得し、取得した各情報から目的地物の位置情報を算出する。更に、算出した目的地物の位置情報に基づいて地図情報を参照することにより、地図表示装置が目的地物の属性情報を取得して表示装置と目的地物との距離を計測する必要がある。そのため、地図表示装置を例えば繁華街等で使用した場合、目的地物との間の人波や車列等が障害物となり、地図表示装置と目的地物の間の距離情報を正しく取得できない可能性がある。即ち、繁華街等においては、人波等が障害となり、目的地物の属性情報を正しく表示できない可能性がある。また、距離情報取得のためのハードウェアの追加が地図表示装置の生産コストを増大させることは言うまでもない。
 特許文献2には、携帯端末等で物をアドレスし該物に関する情報を操作するポインティング・システムが開示されている。特許文献2の発明では、位置決定手段や姿勢決定手段等の構成要素を、物理的に携帯端末だけに閉じ込めず、データベースと共に、無線ネットワーク上に分散させる例が開示されている。ただ、特許文献2の発明では、データベース内のレコードは不連続な空間的範囲を定義する幾何学的記述子を含み、検索手段は、携帯端末によって測定された瞬間位置及び瞬間姿勢によって定義されるアドレス状態が空間的範囲を横切るか否かを判断することによってデータベースを検索する。
 特許文献2の発明では、携帯端末のアドレス状態をデータベース・レコードの幾何学的記述子と比較し、交差していると判断された場合に当該データベース・レコードのマルチメディア情報を呼び出すという幾何学的交差判定を行っている。この発明では、3次元座標で表現された空間内における幾何学的交差判定を行っているため、対象物の特定のために携帯端末の位置の判断のみならず携帯端末の姿勢の判断も必要であり、かつ、それらの情報に基づいた複雑な幾何学的演算処理が必要となる。
 本発明の目的は、前記従来技術の課題を考慮し、より簡易な構成で、ユーザが表示装置を近傍の目的地物に指向させた場合に、その目的地物の情報を表示可能な情報表示装置を提供することである。
 前記課題を解決するための手段として、本発明の情報表示装の一例を挙げるならば、地地物の関連情報を表示可能な情報表示装置であって、前記情報表示装置の現在位置情報を取得する位置情報取得部と、前記情報表示装置を目的の地物に指向させた際の前記情報表示装置の方位情報を取得する方位情報取得部と、地図情報を記憶する地図情報記憶部と、前記現在位置情報及び前記方位情報を用いて、前記地図情報を参照することにより前記目的の地物を対象地物として特定する対象地物特定実行部と、前記対象地物に関する固有情報を取得する固有情報取得部と、前記固有情報に基づいた検索処理により、前記目的の地物の前記関連情報を取得する関連情報取得部と、前記目的の地物の前記関連情報を表示する表示部と、を備え、前記対象地物特定実行部は、前記情報表示装置の前記現在位置情報及び前記方位情報を基に、前記地図情報で得られる地図上の前記情報表示装置の現在位置から該情報表示装置が向けられている方向が該情報表示装置から最も近い位置で交差する前記地図上の地物を前記対象地物として特定することを特徴とする。
 本発明の技術を用いることにより、より簡易な構成で、近傍の目的地物の情報をユーザに表示可能な情報表示装置を提供することができる。
本発明の実施例1に係る情報表示装置のブロック図。 実施例1に係る情報表示装置のソフトウェア構成図。 実施例1に係る情報表示装置の正面外観図及び背面外観図。 実施例1に係る情報表示装置を含む、情報表示システムの構成図。 実施例1に係る情報表示装置の、基本画面の画面表示図。 実施例1に係る情報表示装置の、情報表示動作のフローチャート。 情報表示装置の地物情報表示画面(初期状態)の画面表示図。 情報表示装置の地物情報表示画面(情報取得中)の画面表示図。 情報表示装置の対象地物特定処理を説明する概念図。 情報表示装置の対象地物特定処理を説明する概念図。 情報表示装置の対象地物特定処理を説明する概念図。 実施例1に係る情報表示装置の地物情報表示画面(結果表示)の画面表示図。 実施例1に係る情報表示装置の地物情報表示画面(結果表示)の画面表示図。 本発明の実施例2に係る情報表示装置のソフトウェア構成図。 実施例2に係る情報表示装置の基本画面の画面表示図。 実施例2に係る情報表示装置の、情報表示動作のフローチャート。 実施例2に係る情報表示装置の、ライブビュー表示画面の画面表示図。 実施例2に係る情報表示装置の、ライブビューウィンドウの拡大図。 情報表示装置の注視マークを説明する概念図。 情報表示装置の注視マーク形状に関して説明する概念図。 情報表示装置の関連情報表示ウィンドウを説明する概念図。 情報表示装置の基準マーカを説明する概念図。 実施例2に係る情報表示装置の、画像データファイルの書式を説明する概念図。
 以下、本発明の実施形態の例を、図面を用いて詳細に説明する。
 まず、本発明の実施例1に関して、図1~図10を参照しながら説明する。  
 図1は、実施例1の情報表示装置のブロック図である。情報表示装置100は、主制御部101、システムバス102、ROM103、RAM104、ストレージ部110、画像処理部120、音声処理部130、操作部140、通信処理部150、センサ部160、拡張インタフェース部170、等を構成要素とするコンピュータで構成される。
 情報表示装置100は、通信機能を備えた端末、例えば、携帯電話やスマートホン、タブレット端末等の携帯端末をベースにして構成しても良い。PDA(Personal Digital Assistants)やノート型PC(Personal Computer)をベースにして構成しても良い。また、デジタルスチルカメラや動画撮影可能なビデオカメラ、携帯型ゲーム機等、またはその他の携帯用デジタル機器をベースにして構成しても良い。
 主制御部101は、所定のプログラムに従って情報表示装置100全体を制御するマイクロプロセッサユニットである。システムバス102は主制御部101と情報表示装置100内の各部との間でデータ送受信を行うためのデータ通信路である。
 ROM(Read Only Memory)103は、オペレーティングシステムなどの基本動作プログラムやその他のアプリケーションプログラムが格納されたメモリであり、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられる。RAM(Random Access Memory)104は基本動作プログラムやその他のアプリケーションプログラム実行時のワークエリアとなる。ROM103及びRAM104は主制御部101と一体構成であっても良い。また、ROM103は、図1に示したような独立構成とはせず、ストレージ部110内の一部記憶領域を使用するようにしても良い。
 ストレージ部110は、その各種情報/データ記憶領域に情報表示装置100の各動作設定値や情報表示装置100のユーザの情報等を記憶する。各種情報/データ記憶領域は、ネットワーク上からダウンロードした地図情報群を保持する地図情報記憶部としても機能する。また、情報表示装置100で撮影した静止画像データや動画像データ等も記憶可能である。また、ストレージ部110は、ネットワーク上からダウンロードした新規アプリケーションプログラム等も記憶可能である。このアプリケーションプログラムの1つとして、本実施例の情報表示装置の主要な機能を実現する「情報表示プログラム」がある。なお、この「情報表示プログラム」の構成・機能に関しては、図2以下で詳細に説明する。
 ストレージ部110の一部領域を以って、ROM103の機能の全部または一部を代替しても良い。また、ストレージ部110は、情報表示装置100に電源が供給されていない状態であっても記憶している情報を保持する必要がある。したがって、例えばフラッシュROMやSSD(Solid State Drive)、HDD(Hard Disc Drive)等のデバイスが用いられる。
 画像処理部120は、表示部121、画像信号処理部122、第一画像入力部123、第二画像入力部124、で構成される。表示部121は、例えば液晶パネル等の表示デバイスであり、画像信号処理部122で処理した画像データを情報表示装置100のユーザに提供する。画像信号処理部122は図示を省略したビデオRAMを備え、前記ビデオRAMに入力された画像データに基づいて表示部121が駆動される。また、画像信号処理部122は、必要に応じてフォーマット変換、メニューやその他のOSD(On Screen Display)信号の重畳処理等を行う機能を有するものとする。第一画像入力部123及び第二画像入力部124は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の電子デバイスを用いてレンズから入力した光を電気信号に変換することにより、周囲や対象物の画像データを入力するカメラユニットである。
 音声処理部130は、音声出力部131、音声信号処理部132、音声入力部133、で構成される。音声出力部131はスピーカであり、音声信号処理部132で処理した音声信号を情報表示装置100のユーザに提供する。音声入力部133はマイクであり、ユーザの声などを音声データに変換して入力する。なお、音声入力部133は情報表示装置100と別体であり、有線通信または無線通信により情報表示装置100と接続されるものであっても良い。
 操作部140は、情報表示装置100に対する操作指示の入力を行う指示入力部であり、本実施例では、表示部121に重ねて配置したタッチパネル140t及びボタンスイッチを並べた操作キー140kで構成されるものとする。何れか一方のみであっても良い。後述の拡張インタフェース部170に接続したキーボード等を用いて情報表示装置100の操作を行っても良い。有線通信または無線通信により接続された別体の情報端末機器を用いて情報表示装置100の操作を行っても良い。また、前記タッチパネル機能は表示部121が備え持っているものであっても良い。
 通信処理部150は、LAN(Local Area Network)通信部151、移動体電話網通信部152、近接無線通信部153、で構成される。LAN通信部151はインターネット201の無線通信用アクセスポイント202と無線通信により接続してデータの送受信を行う。移動体電話網通信部152は移動体電話通信網の基地局203との無線通信により、電話通信(通話)及びデータの送受信を行う。近接無線通信部153は対応するリーダ/ライタとの近接時に無線通信を行う。LAN通信部151、移動体電話網通信部152、近接無線通信部153は、それぞれ符号回路や復号回路、アンテナ等を備えるものとする。赤外線通信部等、他の通信部を更に備えていても良い。
 センサ部160は、情報表示装置100の状態を検出するためのセンサ群であり、本実施例では、GPS受信部161、ジャイロセンサ162、地磁気センサ163、加速度センサ164、照度センサ165、近接センサ166、で構成される。これらのセンサ群は、情報表示装置100の現在位置情報を取得する位置情報取得部と、情報表示装置100を目的の地物に指向させた際の情報表示装置の方位情報を取得する方位情報取得部を構成する。この位置情報取得部や方位情報取得部を含むセンサ群により、情報表示装置100の位置、傾き、方角、動き、及び周囲の明るさ、周囲物の近接状況、等を検出することが可能となる。情報表示装置10は、気圧センサ等、他のセンサを更に備えていても良い。
 拡張インタフェース部170は、情報表示装置100の機能を拡張するためのインタフェース群であり、本実施例では、画像/音声インタフェース、USB(Universal Serial Bus)インタフェース、メモリインタフェース等で構成されるものとする。画像/音声インタフェースは、外部画像/音声出力機器からの画像信号/音声信号の入力、外部画像/音声入力機器への画像信号/音声信号の出力、等を行う。USBインタフェースは、PCと接続してデータの送受信を行ったり、キーボードやその他のUSB機器の接続を行う。メモリインタフェースはメモリカードやその他のメモリ媒体を接続してデータの送受信を行う。
 なお、図1に示した情報表示装置100の構成例は、音声処理部140等、本実施例に必須ではない構成も多数含んでいるが、これらが備えられていない構成であっても本実施例の効果を損なうことはない。また、デジタルテレビ放送受信機能や電子マネー決済機能等、図示していない構成が更に加えられていても良い。
 図2は、本実施例の情報表示装置100のソフトウェア構成図であり、ROM103、RAM104、及びストレージ部110におけるソフトウェア構成を示す。本実施例においては、ROM103に基本動作プログラム103a及びその他のプログラムが記憶されており、ストレージ部110に「情報表示プログラム」110b及びその他のプログラムが記憶されている。
 ROM103に記憶された基本動作プログラム103aはRAM104に展開され、更に主制御部101が前記展開された基本動作プログラムを実行することにより、基本動作実行部104aを構成する。また、ストレージ部110に記憶された「情報表示プログラム」110bはRAM104に展開され、更に主制御部101が前記展開された「情報表示プログラム」を実行することにより、情報表示実行部104b及び位置/方位取得実行部104b1と対象地物特定実行部104b2と関連情報取得実行部104b3を構成する。また、RAM104は、各種アプリケーションプログラム実行時に、必要に応じてデータを一時的に保持する一時記憶領域を備えるものとする。
 位置/方位取得実行部104b1は、GPS受信部161が受信したGPS情報(緯度、経度等)から情報表示装置100の現在位置情報を取得する位置情報取得部と、ジャイロセンサ162や地磁気センサ163等の出力から、情報表示装置100を目的の地物に指向させた際の情報表示装置の方位情報を取得する方位情報取得部の機能を有する。
 対象地物特定実行部104b2は、位置/方位取得実行部104b1が算出した位置情報及び方位情報を用いて、ネットワーク上からダウンロードした地図情報を参照することにより、目的の地物を「対象地物」として特定する機能を有する。この「対象地物」が例えば高層ビルや複合ビルであった場合、その中には、各階毎に一つあるいは複数のテナントが存在する。
 関連情報取得実行部104b3は、ダウンロードした地図情報を参照し、地図情報に付随する付加データから、目的とする地物(「目的地物」)の固有情報(住所情報、店舗名情報、建物名称情報、等)を取得する固有情報取得部の機能と、目的地物の固有情報をキーワードとしたネットワーク検索を行い、前記目的地物に関する関連情報の取得を行う関連情報取得部の機能を有する。ユーザの目的とする「対象地物」が正しく特定されれば、その「対象地物」内の各テナントに関する情報を、ネットワーク上のウエブサイトあるいは地図情報サービスアプリから得ることは容易である。これにより、ユーザは、目的とする店舗名等を選択し、その店舗等の関連情報を取得することができる。
 なお、図1の通信処理部150は、関連情報取得実行部104b3が固有情報取得部で取得した固有情報をネットワーク上の検索サーバに送信し、この検索サーバから関連情報を受信して関連情報取得部の関連情報とするための、通信部として機能する。
 なお、以下では、説明を簡単にするために、主制御部101がROM103に格納された基本動作プログラム103aをRAM104に展開して実行することにより各部の制御を行う処理を、基本動作実行部104aが各部の制御を行うものとして記述する。他のアプリケーションプログラムに関しても同様の記述を行うものとする。
 図3は、本実施例の情報表示装置100の外観図である。なお、この外観図は、情報表示装置100がスマートホン等の情報端末機器である場合の例であり、図3の(A)は情報表示装置100の表面図、図3の(B)は情報表示装置100の背面(裏面)図である。左右側面及び天地面等に関しては図示を省略する。同図に示したように、本実施例においては、第一画像入力部123は表示部121と同一面(表面)に位置し、第二画像入力部124は表示部121の反対面(背面)に位置するものとする。以下では、表示部121と同一面に位置する第一画像入力部123を『インカメラ』、表示部121と反対面に位置する第二画像入力部124を『アウトカメラ』と称する場合がある。
 なお、第二画像入力部124の位置は、表示部121と同一面でなければ背面でなくとも良い。また、第二画像入力部124は情報表示装置100と別体であり、有線通信または無線通信により情報表示装置100と接続されるものであっても良い。また、何れか一方のカメラユニットのみが備えられた構成であっても良い。また、情報表示装置100がデジタルスチルカメラである場合等、図3の(A)、(B)と異なる形状を有していても良い。
 図4は、本実施例の情報表示装置100を含む情報表示システムの構成図である。情報表示システムは、情報表示装置100と、インターネット等の広域公衆ネットワーク201及びその無線通信用アクセスポイント202、移動体電話通信網の基地局203、アプリケーションサーバ211、地図データサーバ212、移動体電話通信サーバ213、で構成される。なお、言うまでもないが、インターネット201上には、図示を省略された各種サーバ装置や端末装置等が多数接続される。地図データサーバ212には、地上の経度・緯度を平面上のXY座標の値等に割り当てた市販の地図情報、例えば、Google Maps(登録商標)が格納されている。
 情報表示装置100は、アプリケーションサーバ211から、インターネット201及び無線通信用アクセスポイント202若しくは移動体電話通信網の基地局203を介して新規アプリケーションプログラムをダウンロードすることにより、機能拡張が可能であるものとする。この際、ダウンロードした前記新規アプリケーションプログラムは、ストレージ部110に記憶される。主制御部101が、ストレージ部110に記憶された前記新規アプリケーションプログラムをRAM104に展開し、更に前記展開した新規アプリケーションプログラムを実行することにより、情報表示装置100は多種の新規機能を実現可能であるものとする。
 また、ROM103に格納されたプログラムを前記ダウンロードしたアプリケーションプログラムで更新することにより、基本動作プログラムやその他のアプリケーションプログラムのバージョンアップや機能拡張が可能であるものとする。
 本実施例によれば、情報表示装置100は、クラウド上のコンピューティング資源(ソフトウェアやハードウェア、換言するとこれらの処理機能や記憶領域及びデータ等)を、ネットワークを通じて利用する、いわゆるクラウドコンピューティングを前提として構成されているため、簡易な構成で目的地物の情報を表示可能な情報表示装置を提供することができる。
 以下では、本実施例の情報表示装置100の動作に関して説明する。  
 本実施例の情報表示装置100における情報表示動作は、図2に示したように、主として、ストレージ部110に記憶された情報表示プログラム110bがRAM104に展開されて主制御部101により実行されることによって構成された、情報表示実行部104b及び位置/方位取得実行部104b1と対象地物特定実行部104b2と関連情報取得実行部104b3、また、基本動作実行部104aによって制御される。或いは、前述の情報表示実行部104b、位置/方位取得実行部104b1、対象地物特定実行部104b2、関連情報取得実行部104b3と同等の動作をハードウェアで実現する各ハードウェアブロックを本実施例の情報表示装置100が更に備え、情報表示実行部104b、位置/方位取得実行部104b1、対象地物特定実行部104b2、関連情報取得実行部104b3に代替して、前記各ハードウェアブロックが情報表示装置100の動作を制御するものであっても良い。情報表示装置100の位置/方位取得実行部104b1は、GPS受信部161で受信したGPS情報(緯度、経度等)を利用して、地図データサーバ212から現在位置周辺の地図情報を取得し、表示部121の地図上に現在位置及びその周辺を表示する。
 図5は、情報表示装置100の表示部121に表示される基本画面121aを説明する画面表示図である。基本画面121aは、電源キー140k1の押下により情報表示装置100の電源がオンされた際に、若しくは、任意のアプリケーションプログラムの実行中にホームキー140k2が押下された際に表示される。基本画面121aの領域121a1に表示されるアイコン群(APP-A~N,「地物情報」)は、情報表示装置100で実行可能な各アプリケーションプログラムに関連付けられたアイコンの集まりであり、特に「地物情報」アイコン121a2は、本実施例の情報表示装置100の特徴を為す情報表示処理を実行する「情報表示プログラム」に関連付けられたアイコンである。何れかのアイコンAPPを選択することにより、選択されたアイコンに関連付けられた所定のアプリケーションプログラムが実行される。
 なお、前記アイコンの選択は、目的のアイコンが表示された表示部121上の位置に対応するタッチパネル140t上の所定の領域をタップ操作する、等により行えば良い。或いは、図示を省略した十字カーソルキー及び決定キー等の操作キーを操作して行っても良い。第一画像入力部123を用いて情報表示装置100のユーザの視線を検知し、前記検知した視線情報に基づいて前記アイコンの選択を実行しても良い。  
 基本動作実行部104aの制御に基づいて動作する情報表示装置100において、ユーザが基本画面121a上のアイコン121a2をタップ操作等により選択すると、「情報表示プログラム」が実行され、基本動作実行部104aは情報表示実行部104bを起動し、制御主体を情報表示実行部104bに委譲する。
 以下、図6のフローチャートを用いて、「情報表示プログラム」の起動に伴う、情報表示実行部104bの制御による情報表示動作の例を説明する。
 基本動作実行部104aから制御主体の委譲を受けた情報表示実行部104bは、先ず、表示部121上に、図7に一例を示すような、地物情報表示画面(初期状態)121bを表示する(S101)。地物情報表示画面(初期状態)121bは、「矢印」等のナビゲーションマーク121b1、情報表示領域121b2、『終了』アイコン121b3で構成され、更に、情報表示領域121b2には案内表示121b4が表示される。案内表示121b4には、例えば、「上の矢印を、情報を表示させる対象物の方向に向けて、しばらく保持してください。」等のガイダンスを提示する。あるいは、「立ち止った状態で対象物の方向に向ける。」旨のガイダンスを提示しても良い。ユーザが『終了』アイコン121b3を選択した場合、或いはホームキー140k2を押下した場合、(図6のフローチャートにおいては図示を省略しているが、)情報表示実行部104bは制御主体を基本動作実行部104aに返却して情報表示実行部104bの動作を終了する。更に、基本動作実行部104aが基本画面121aを表示する。
 一方、情報表示処理を継続する場合、ユーザは、案内表示121b4のガイダンスに従い、情報を取得したい地物(以下、目的地物と称する)に対してナビゲーションマーク121b1の矢印の突端側が指向するように、情報表示装置100の筺体姿勢を調整する。即ち、例えば、商店街を歩行中に詳細情報を取得したい店舗を発見した場合、ユーザは前記対象店舗に対してナビゲーションマーク121b1の矢印を向けるようにして情報表示装置100を持てば良い。更に、前記対象店舗に対してナビゲーションマーク121b1の矢印を向けた状態で、ユーザが情報表示端末100の筺体姿勢を所定時間以上保持したか(S102:Yes)否かを判定する。所定時間は、ユーザが意図的に姿勢を保持したか否かを情報表示装置100が判定できる時間長であれば良い。例えば、所定時間として、0.5秒、あるいは1秒が予め設定される。
 本実施例の情報表示端末100では、S102の処理において、筺体姿勢が所定時間以上保持されたと判断された場合に、S103以降の処理を開始する。即ち、ユーザにより筺体が動かされ続けた場合等、筺体姿勢が所定時間以上保持されたと判断されない場合(S102:No)、S103以降の処理は開始されない。
 なお、筺体姿勢が保持された状態とは、筺体の空間的位置が略固定された状態を指す。但し、筺体の空間的位置が完全に固定である必要は無く、手振れ等による若干の位置変更等は許容して、筺体姿勢が保持されているものとして判断する。
 または、S102の「筺体姿勢」の判定の処理を省略し、地物情報表示画面(初期状態)121bに別途用意した『情報取得』アイコン(図示省略)が選択されたことをトリガとして、S103以降の処理を開始するようにしても良い。
 S102の処理において、筺体姿勢が所定時間以上保持されたと判断された場合、情報表示実行部104bは、表示部121上の表示を、図8に一例を示すような、地物情報表示画面(情報取得中)121cに変更する。地物情報表示画面(情報取得中)121cでは、情報表示領域121c2にメッセージ121c5が表示される。更に、位置/方位取得実行部104b1が、情報表示実行部104bの制御に基づいて、GPS受信部161が受信した信号から情報表示装置100の位置情報を算出し、ジャイロセンサ162や地磁気センサ163等の出力から情報表示装置100の方位情報を算出する(S103)。なお、GPS受信部161、ジャイロセンサ162、地磁気センサ163、等を用いての位置情報及び方位情報の算出方法に関しては公知の技術を用いれば良く、したがって、ここでは詳細な説明を省略する。GPS受信部161、ジャイロセンサ162、地磁気センサ163、等を用いずに位置情報及び方位情報の算出を行っても良い。
 次に、情報表示実行部104bは、S103の処理で位置/方位取得実行部104b1が算出した位置情報に基づき、地図データサーバ212から情報表示装置100の現在位置及びその周辺の地図情報を、インターネット201及びLAN通信部151若しくは移動体電話網通信部152を介してダウンロードし、RAM104の一時記憶領域に記憶させる(S104)。予め地図データサーバ212からストレージ部110の各種情報/データ記憶領域に地図データ群をダウンロードしておき、前記ダウンロードしておいた地図データ群から情報表示装置100の現在位置周辺の地図データ(地図情報)をRAM104の一時記憶領域にロードするようにしても良い。
 次に、対象地物特定実行部104b2が、情報表示実行部104bの制御に基づいて、S103の処理で位置/方位取得実行部104b1が算出した位置情報及び方位情報を用いて、S104の処置で地図データサーバ212からダウンロードしてRAM104の一時記憶領域に記憶させておいた地図データを参照することにより、前記目的地物、即ちユーザがナビゲーションマーク121b1の矢印の突端側を指向させた地物を特定するための対象地物特定処理を行う(S105)。
 図9A~図9Cを用いて、S105の対象地物特定処理の一例に関して説明する。  
なお、本実施例においては、実空間において、情報表示装置100を所有するユーザが、店舗311~315等の立ち並ぶ商店街の、主幹道路301と脇道302が丁字交差する交差路付近に位置するものと仮定する。
 本実施例の対象地物特定処理では、先ず、S103の処理で算出した位置情報に基づいた情報表示装置100の現在位置321を、S104の処理でダウンロードした地図データ300上で定める(図9A)。
 図9Aは、S105の対象地物特定処理において、位置/方位取得実行部104b1が算出した位置情報に基づくユーザの現在位置321と、地図データサーバ212からダウンロードしてRAM104の一時記憶領域に記憶させておいた地図データ300とを、共通の2次元の座標平面上に、重ね合わせて表示したものである。表示される2次元の地図データ300には、ユーザの現在位置321と、このユーザが情報表示装置100を向けている対象地物やその周辺の建物(店舗311~315等)、及びその周辺の道路(主幹道路301、脇道路302)が含まれている。2次元の座標平面上に表示される対象地物やその周辺の建物は、当然のことながら、それらの高さや階層数、内部の構成に関係なく、一律に、上空から見たそれらの外側の輪郭(位置)を示す平面図形として表示される。道路についても、同様に、上空から見た平面図形として表示される。地物の外側の輪郭(位置)の情報が得られるものであれば、地図データがGPSを利用できる3次元のデータであっても良い。
 次に、地図データ300上の情報表示装置100の現在位置321から、S103の処理で算出した方位情報で示される角度(方位角)322の方向に直線323を描く(図9B)。なお、本実施例では、北方を角度基準としているが他の方位を角度基準としても良い。更に、直線323が交差する地物(図9Bにおいては、店舗311~313等)のうち、情報表示装置100の現在位置321から最も近い位置(交点324)にある地物(店舗313)を、前記目的地物として特定する(図9C)。ユーザが情報表示装置を向けている直線323と地物とは、同じ2次元の座標平面上にあるので、現在位置321と方位角322とが分かれば、交差する地物の特定は容易である。
 なお、ユーザが主幹道路301の現在位置321に立って店舗313を注視した場合、当然ながらユーザの視線が店舗313を透過して店舗312や店舗311を視認することはあり得ない。このため、前述のように直線323が交差する地物のうち、現在位置321から最も近い位置にある地物(店舗313)を前記目的地物と判断しても問題は無い。
 また、前述においては理解を容易にするため、本実施例の対象地物特定処理のアルゴリズムを、図9A~図9Cを用いた図形描写で説明したが、実際には、前記アルゴリズムに基づく処理は全てRAM104上の演算により行われるものであって良い。ユーザに本実施例の対象地物特定処理のアルゴリズムで特定した地物が前記目的地物で間違いないかを確認させるために、あえて図9A~図9Cと同様の表示を表示部121上に表示させるようにしても良い。
 上記アルゴリズムによれば、前記目的地物を特定するために、情報表示装置100と前記目的地物の間の距離情報は必要なく、したがって、前記距離情報を取得するためのハードウェア及び/またはソフトウェアを必要としない。また、交差する地物の特定は、地図データ上で、単に、地物の外側の輪郭線と方位角322の直線323とが交差する点324を求めるだけなので、簡単な演算処理で足り、複雑な幾何学的演算処理は不要である。
 なお、情報表示装置100が情報表示の対象としている目的地物は、図9A~図9Cから明らかな通り、ユーザの近傍の地物である。図9A~図9Cの例では、店舗313,314等の直ぐ前の主幹道路301にユーザが位置しているが、ユーザの現在位置は、店舗313,314等を見通せる場所であればどこでも良い。例えば、主幹道路301の車の通行レーンを挟んだ反対側の歩道や店舗にユーザが居て、そこから店舗313,314等を見通せる環境でも良い。一方、ユーザの現在位置321からは直接見通せない、例えば、店舗313の背後の別の店舗の情報を知りたい場合には、ユーザが脇道302まで移動し、情報表示装置100でその店舗を指向すれば良い。
 S105の処理で対象地物特定処理を終えると、対象地物特定実行部104b2は、情報表示実行部104bの制御に基づいて、S104の処理で地図データサーバ212からダウンロードしてRAM104の一時記憶領域に記憶させておいた地図データを参照し、前記地図データに付随する付加データから、前記目的地物の固有情報(住所情報、店舗名情報、建物名称情報、等)を取得する(S106)。次に、情報表示実行部104bが前記取得した目的地物の固有情報を関連情報取得実行部104b3に転送する。更に、関連情報取得実行部104b3が、情報表示実行部104bの制御に基づいて、前記目的地物の固有情報をキーワードとしたネットワーク検索を行い、前記目的地物に関する関連情報の取得を行う(S107)。なお、特定のキーワードを用いてネットワーク検索を行う手法に関しては、公知の手法/技術を用いれば良い。一例をあげれば、S106の処理で取得した前記目的地物の固有情報を、LAN通信部151または移動体電話網通信部152を介して図示を省略した検索サーバに送信し、検索結果としての前記目的地物に関する関連情報をLAN通信部151または移動体電話網通信部152で受信するようにする。
 S106の処理で前記目的地物の固有情報を取得できなかった場合、或いは、S107の処理で前記目的地物に関する関連情報を取得できなかった場合、情報表示実行部104bは、その旨のエラーメッセージを表示部121に表示する(S108)。一方、S106の処理で前記目的地物の固有情報を取得し、更に、S107の処理で前記目的地物に関する関連情報を取得した場合、情報表示実行部104bは、前記取得した目的地物に関する関連情報を表示部121に表示する(S109)。
 図10A、図10Bに、情報表示装置100の表示部121に表示される地物情報表示画面(結果表示)121dの画面表示図の一例を示す。地物情報表示画面(結果表示)121dでは、S107の処理で行ったキーワード検索により取得した前記目的地物に関する関連情報を、図10Aに示すような検索結果一覧表示121d6の形式や、図10Bに示すようなホームページ表示121d7の形式で、情報表示領域121d2に表示する。
 検索結果一覧表示121d6は、S107の処理で行ったキーワード検索において関連情報取得実行部104b3の検索エンジンが前記キーワードの条件に合致すると判断した複数のホームページ等へのリンク情報を一覧で表示する形式である。この場合、ユーザが前記一覧で表示された複数のホームページ等へのリンク情報のうちの一つを選択することにより、前記目的地物の関連情報としてのホームページ等の情報を表示部121に簡便に表示させることが可能となる。
 ホームページ表示121d7は、S107の処理で行ったキーワード検索において関連情報取得実行部104b3の検索エンジンが前記キーワードの条件に合致すると判断したホームページ等の情報のうちの一つを直接表示する形式である。この場合、ユーザは前記目的地物の関連情報としてのホームページ等の情報を即時に確認することが可能となる。
 なお、本実施例の情報表示装置100の地物情報表示画面(結果表示)121dにおいて、上記何れの形式で前記目的地物の関連情報を表示するかは、ユーザにより設定可能であるものとして良い。或いは、前記キーワードとの合致度が所定以上である検索結果が一つである場合にはホームページ表示の形式で、前記キーワードとの合致度が所定以上である検索結果が複数ある場合には検索結果一覧の形式で、前記目的地物の関連情報を表示するようにしても良い。また、上記と異なる形式で前記目的地物の関連情報を表示部121に表示するようにしても良い。
 また、S106の処理で前記目的地物の固有情報を取得する際に、前記目的地物に隣接する隣接地物(図9Cに示した例では店舗312及び店舗314)の固有情報も併せて取得しておき、更に、S107の処理で前記隣接地物に関する関連情報も取得しておくようにしても良い。或いは、S106及びS107の処理で、前記目的地物の周辺に位置する各地物に関する関連情報を、情報表示端末100の処理能力が許容する範囲で、できるだけ多く取得しておくようにしても良い。
 例えば、S102の処理で情報表示装置100の筺体姿勢を保持した際に、情報表示装置100の保持角度のずれによりナビゲーションマーク121b1の矢印が前記目的地物(店舗313)を正しく指向せず、その結果、前記目的地物に関する関連情報と異なる情報(例えば、店舗312に関する関連情報)がS109の処理で表示されてしまう場合がある。このような場合、前述のように、予め前記隣接地物に関する関連情報も取得しておけば、図10A、図10Bに示した地物情報表示画面(結果表示)121d上での左右方向のフリック操作等により、地物情報表示画面(結果表示)121dに表示されている前記目的地物に関する関連情報とは異なる情報の表示を前記目的地物に関する関連情報の表示に即時切り換えることが可能となり、使い勝手が更に向上する。
 また、前述の処理によれば、前記目的地物に関する関連情報の確認を終えたユーザが、引き続き隣接地物の情報を確認したいと考えた場合にも、即時対応可能となる。
 なお、上記実施例1では、ユーザの現在位置321は固定点として説明したが、一定の条件下では、少なくとも2つの異なる地点を含む移動点であってもよい。図7の表示画面ではユーザに「停止」を要求していないので、ユーザが移動しながら操作することもある。仮にユーザが歩行中あるいは低速度の移動体に乗っておりユーザの現在位置321が時間的に変化する場合にも、本実施例の地図表示装置は利用可能である。ユーザの移動中、ユーザと目的地物313との間の方位角は僅かながら連続的に変化する。しかし、所定時間内において必要な情報は、情報表示端末100自体の現在位置と方位角の情報のみである。この間にユーザが意図的に特定の目的地物313に情報表示装置100を向けていれば、所定時間内の各時点での直線上に最も近い位置(交点324)は、その目的地物313の輪郭線上にある。ユーザが歩行中の各現在位置から延びる直線が、地図上の特定の地物の輪郭線とのみ交差している場合は、筺体の空間的位置(相対的な位置)が固定された状態にあると判定すれば良い。
 以上説明したように、本実施例の情報表示装置100によれば、より簡易な構成で、ユーザに近傍の目的地物の情報を表示可能な情報表示装置、方法を提供することができる。すなわち、情報表示装置100は、クラウド上のコンピューティング資源を有効に利用するので、目的地物を特定するための情報表示装置100と目的地物の間の距離情報を取得するハードウェア及び/またはソフトウェアを必要としない、より簡易な構成で、前記目的地物の関連情報を取得して表示することが可能である。
 また、目的地物の関連情報の取得には、目的地物の固有情報(住所情報、店舗名情報、建物名称情報、等)をキーワードとしたネットワーク検索により、インターネット等の公共ネットワーク上から行うため、最新の情報を効率よく収集することが可能である。
 さらに、交差する地物の特定には、地図データ、例えば2次元の座標平面上で、地物の輪郭線と情報表示装置の向きを示す直線とが交差する点を求めるだけなので、簡単な演算処理で足りる。本実施例において、筺体姿勢の判定に必要な情報は、現実の空間における情報表示端末自体の現在位置とその方位角であり、現実の空間において、情報表示端末と目的地物の間に人や車等が存在することが有っても、何ら支障はない。本実施例の地図表示装置を、多くのビルや店舗が立ち並びしかもユーザと目的地物の間には多くの人や車等が頻繁に移動する繁華街等の環境下で使用しても、ユーザに近傍の目的地物の情報を適切に提供・表示可能である。
 また、本実施例の情報表示装置は、通信機能を備えた市販の携帯端末にアプリケーションプログラムとしての「情報表示プログラム」をダウンロードするのみで、容易に実現できる。
 以下では、本発明の実施例2に関して、図11~図20を参照しながら説明する。なお、本実施例の特徴的な構成及び効果等は、特に断りのない限り、実施例1と同様であるものとする。このため、以下では、本実施例と実施例1との相違点を主に説明し、共通する点については重複を避けるため極力説明を省略する。
 図11は、本実施例の情報表示装置100のソフトウェア構成図である。本実施例においては、ストレージ部110に情報表示プログラム110bとカメラ機能プログラム110c及びその他のプログラムが記憶される。すなわち、実施例2では、携帯端末の具体例としてデジタルカメラを想定しており、実施例1の構成に加えて、カメラ機能プログラム110cを備えている。
 ストレージ部110に記憶された情報表示プログラム110bは、実施例1の場合と同様にRAM104に展開され、更に主制御部101が前記展開された情報表示プログラムを実行することにより、情報表示実行部104b及び位置/方位取得実行部104b1と対象地物特定実行部104b2と関連情報取得実行部104b3を構成する。また、カメラ機能プログラム110cはRAM104に展開され、更に主制御部101が前記展開されたカメラ機能プログラム110cを実行することにより、カメラ機能実行部104cと対象地物抽出実行部104c1を構成する。
 本実施例の情報表示装置100の情報表示動作の制御は、主として、情報表示実行部104b、位置/方位取得実行部104b1、対象地物特定実行部104b2、関連情報取得実行部104b3、基本動作実行部104a、及び、カメラ機能実行部104cと対象地物抽出実行部104c1により行われる。
 或いは、前述の情報表示実行部104b、位置/方位取得実行部104b1、対象地物特定実行部104b2、関連情報取得実行部104b3、カメラ機能実行部104c、対象地物抽出実行部104c1と同等の動作を、ハードウェアで実現する各ハードウェアブロックを本実施例の情報表示装置100が更に備え、情報表示実行部104b、位置/方位取得実行部104b1、対象地物特定実行部104b2、関連情報取得実行部104b3、カメラ機能実行部104c、対象地物抽出実行部104c1に代替して、前記各ハードウェアブロックが情報表示装置100の動作を制御するものであっても良い。
 図12は、本実施例の情報表示装置100の基本画面121aを説明する画面表示図である。基本画面121aの領域121a1に表示されるアイコン群(APP-A~N)は、情報表示装置100で実行可能な各アプリケーションプログラムに関連付けられたアイコンの集まりである。また、「情報カメラ」アイコン121a3は、本実施例の情報表示装置100の特徴を為す情報表示処理を実行する「情報表示プログラム」に関連付けられたアイコンである。基本動作実行部104aの制御に基づいて動作する情報表示装置100において、ユーザが基本画面121a上のアイコン121a3をタップ操作等により選択すると、基本動作実行部104aは「情報表示プログラム」の情報表示実行部104bを起動し、制御主体を情報表示実行部104bに委譲する。
 以下、情報表示実行部104bの制御による情報表示動作の例を、図13のフローチャートを用いて説明する。
 基本動作実行部104aから制御主体の委譲を受けた情報表示実行部104bは、先ず、カメラ機能実行部104cを起動すると共に第二画像入力部124(アウトカメラ)を有効化する(S201)。次に、カメラ機能実行部104cが、情報表示実行部104bの制御に基づいて、第二画像入力部124から画像データの入力を開始し、前記入力した画像データを、図14に一例を示すような、ライブビュー表示画面121eに表示する(S202)。
 ライブビュー表示画面121eは、ライブビューウィンドウ121e1、『シャッタ』アイコン121e2、『フラッシュ』アイコン121e3、『機能設定』アイコン121e4、及び『終了』アイコン121e5で構成される。
 ライブビューウィンドウ121e1は、第二画像入力部124が入力した画像データを表示する。情報表示装置100のユーザは、ライブビューウィンドウ121e1の表示を確認しながら、撮影を行おうとする被写体の構図等を調整することが可能である。なお、ライブビューウィンドウ121e1が表示された表示部121上の位置に対応するタッチパネル140t(図12参照)上でピンチアウト/イン等の操作を行うことにより、第二画像入力部124のズームイン/アウトの制御が可能であるものとする。
 ユーザが『シャッタ』アイコン121e2を選択したことを検知した場合、カメラ機能実行部104cは記録シーケンスを開始する。この記録シーケンスでは、カメラ機能実行部104cが、合焦、露光等の制御の他、CCD/CMOSセンサ等の電子デバイスの出力をデジタル画像データに変換する処理等を実行することにより、第二画像入力部124から画像データの入力を行う。更に、カメラ機能実行部104cは、前記入力した画像データに対するガンマ補正、ノイズ除去、等の信号処理を行い、前記各処理を施した画像データをストレージ部110の各種情報/データ記憶領域に記憶させる。
 『フラッシュ』アイコン121e3は、これを選択することによりフラッシュ機能の有効化/無効化を切り換える。『機能設定』アイコン121e4は、これを選択することにより本実施例の情報表示装置100のカメラ機能の各種設定の変更が可能となる。
 なお、前記合焦、露光、ガンマ補正、ノイズ除去、等の信号処理や、フラッシュ機能、各種設定の変更機能に関しては、本願発明の特徴を為す構成ではなく、公知技術を用いれば良いため、詳細な説明を省略する。
 ユーザが『終了』アイコン121e5を選択した場合、或いはホームキー140k2を押下した場合、(図13のフローチャートにおいては図示を省略しているが、)情報表示実行部104bはカメラ機能実行部104cの動作を終了させて第二画像入力部124を無効化するともに、制御主体を基本動作実行部104aに返却して情報表示実行部104bの動作を終了する。更に、基本動作実行部104aが基本画面121aを表示する。
 情報表示処理を継続する場合、ユーザは情報を取得したい地物(目的地物)を第二画像入力部124で撮像可能なように情報表示装置100の筺体姿勢を調整する。即ち、例えば、商店街を歩行中に詳細情報を取得したい店舗を発見した場合、ユーザは前記対象店舗に対して第二画像入力部124を向けるように情報表示装置100を持ち、ライブビュー表示画面121eのライブビューウィンドウ121e1に前記対象店舗が表示されるようにすれば良い。更に、前記対象店舗がライブビューウィンドウ121e1に表示された状態で、情報表示端末100の筺体姿勢を所定時間以上保持する(S203:Yes)。
 本実施例の情報表示端末100では、S203の処理において、筺体姿勢が所定時間以上保持されたと判断された場合に、S204以降の処理を開始する。即ち、ライブビューウィンドウ121e1に表示された画像が変化し続けた場合等、筺体姿勢が所定時間以上保持されたと判断されない場合(S203:No)、S204以降の処理は開始されない。なお、前述における筺体姿勢が保持された状態とは、筺体の空間的位置が略固定された状態を指す。但し、筺体の空間的位置が完全に固定である必要は無く、手振れ等による若干の位置変更等は許容して、筺体姿勢が保持されているものとして判断する。または、ライブビュー表示画面121eに別途用意した『情報取得』アイコン(図示省略)が選択されたことをトリガとして、S204以降の処理を開始するようにしても良い。
 S203の処理において、前記目的地物(対象店舗)がライブビューウィンドウ121e1に表示された状態が所定時間以上保持されたと判断された場合、情報表示実行部104bはS204~S208の処理を行うが、これは実施例1のS103~S107の処理と同様のため説明を省略する。但し、S204の処理で取得した方位情報に関しては、前記第一の実施例の場合と比較して、第二画像入力部124が前記目的地物を指向していることを考慮した補正を適宜行う必要があることは言うまでもない。
 S207の処理で前記目的地物の固有情報を取得し、更に、S208の処理で前記目的地物に関する関連情報を取得した場合、カメラ機能実行部104cは、情報表示実行部104bの制御に基づき、前記目的地物に関連する表示可能な関連情報が有る旨を示す注視マーク(図16:121e6 参照)を、ライブビューウィンドウ121e1内の前記目的地物との関連性が明確となる位置に重畳して表示する(S209)。一方、S207の処理で前記目的地物の固有情報を取得できなかった場合、或いは、S208の処理で前記目的地物に関する関連情報を取得できなかった場合、前記重畳処理は行わない。
 図15は、ライブビュー表示画面121eにおけるライブビューウィンドウ121e1の拡大図であり、ユーザが図9に示した地図上の現在位置321上で店舗313に第二画像入力部124を指向させて情報表示装置100を保持した場合の例である。この場合ライブビューウィンドウ121e1には、店舗313を中央に、隣接する店舗312及び店舗314が撮像されて表示される。
 前記表示状態でユーザが情報表示端末100の筺体姿勢を所定時間以上保持し、店舗313に関する関連情報を取得した場合、図16に示すように、ライブビューウィンドウ121e1内の店舗313との関連性が明確となる位置に、注視マーク121e6が重畳表示される。なお、図16においては、店舗313との関連性が明確となる注視マーク121e6の表示位置として、ライブビューウィンドウ内における店舗313の中央付近を選択している。店舗313との関連性が明確となる注視マーク121e6の表示位置としては、前記ライブビューウィンドウ内における店舗313の中央付近のみならず、例えば、店舗313と重なる任意の位置としても良い。
 また、ユーザがライブビューウィンドウ121e1内の注視マーク121e6の表示された表示部121上の位置に対応するタッチパネル140t上の所定の領域121e7をタップ操作等で選択した場合に、S208の処理で取得した店舗313に関する関連情報を、図10Aに示した検索結果一覧表示121d6の形式や図10Bに示したホームページ表示121d7の形式で、表示部121に表示することができるようにしても良い。或いは、対象地物抽出実行部104c1が第二画像入力部124から入力してライブビューウィンドウ121e1に表示する画像データから抽出した店舗313を示す領域121e8に対してタップ操作等を行った場合に、S208の処理で取得した店舗313に関する関連情報を表示するようにしても良い。
 また、注視マークをライブビューウィンドウ121e1に表示する際、S208の処理で取得した店舗313に関する関連情報の表示形式に応じて、その表示形状(色、形、大きさ、点滅の有無、等)を変更するようにしても良い。
 例えば、図17の(A)に示すように、注視マークが三角形の場合には前記関連情報が検索結果一覧表示の形式で取得できたことを表し、図17の(B)に示すように、注視マークが星型の場合には前記関連情報がホームページ表示の形式で取得できたことを表すようにする。
 なお、図16に示した例では、店舗314を示す領域に対してタップ操作等を行っても店舗314に関する関連情報は表示されない。即ち、各店舗に関する関連情報を表示可能か否かは、ライブビューウィンドウ121e1内の注視マークの有無で確認することができるようにしても良い。また、前記関連情報を取得できなかった場合には、前述のように注視マークを表示しないようにしても良いが、図17の(C)に示すような、前記関連情報が無いことを示す注視マークを表示するようにしても良い。
 また、S209の処理において、図18に示すように、前記目的地物に関する関連情報を表示するための関連情報表示ウィンドウ121e9をPinP(Picture in Picture)の形式で、ライブビューウィンドウ121e1内に重畳表示するようにしても良い。この場合、関連情報表示ウィンドウ121e9が表示された表示部121上の位置に対応するタッチパネル140t上の所定の領域をタップ操作等で選択した場合に、図10Aに示した検索結果一覧表示121d6の形式や図10Bに示したホームページ表示121d7の形式に表示を切り換えるようにして良い。
 また、ライブビュー表示画面121eを表示する際、ライブビューウィンドウ121e1の内部に、図19に示すような、基準マーカ121e10を表示するようにしても良い。基準マーカ121e10は、ユーザによる『シャッタ』アイコン121e2押下時の記録シーケンスにおける合焦処理の際の基準位置となるとともに、本実施例の情報表示処理における対象地物指向の際の照準位置となる。このように、基準マーカ121e10をライブビューウィンドウ121e1の内部に表示するようにすれば、情報表示装置100を前記対象地物に対して指向させる処理がより容易になる。
 また、図13に示したフローチャートの処理により、目的地物に関する関連情報を取得できた状態で『シャッタ』アイコン121e2を選択した場合、その記録シーケンスにおいて、前記固有情報や関連情報を拡張データとして画像データと共に画像データファイルに記録するようにしても良い。なお、記録先としては、ストレージ部110の各種情報/データ記録領域でも良いし、拡張インタフェース部170に接続された各種記憶媒体でも良いし、通信処理部150を介して接続されたネットワークストレージ上でも良い。
 図20に、ストレージ部110の各種情報/データ記録領域等に記録される画像データファイル300のファイル構成の一例を示す。本実施例の画像データファイル300は、画像データ310と拡張データ330を含み、特に、拡張データ330は、前記画像データ310の撮影日時やシャッタ速度、絞り等、また撮影場所のGPS情報等の撮影条件を示す撮影条件情報331と、S207の処理で取得した目的地物の固有情報332、S208の処理で取得した目的地物に関する関連情報のURL(Uniform Resource Locator)333で構成されるものとする。
 このように、画像データファイルの拡張データとして、図13に示したフローチャートの処理で取得した目的地物に関する関連情報のURLを、画像データと関連付けて保存しておくことにより、後日、前記画像データを見直した際に、前記画像データに記録されている地物の関連情報を再度確認することが可能となる。
 なお、S203の処理においては、実施例1と同様に、ユーザの現在位置が変化し、ライブビューウィンドウ121e1に表示される画像に変化がある場合であっても、所定時間内において、ユーザの現在位置と特定の目的地物313との関係がほぼ一定であれば、筺体姿勢が所定時間以上保持されたと判断すれば良い。
 以上説明したように、本実施例の情報表示装置100によれば、実施例1の場合と同様に、前記目的地物を特定するための情報表示装置100と前記目的地物の間の距離情報を取得するハードウェア及び/またはソフトウェアを必要としない、より簡易な構成で、前記目的地物の関連情報を取得して表示することが可能となる。
 また、前記目的地物を表示部121に表示して確認することが可能であり、更には、前記目的地物に関する関連情報があるか否かを簡単に確認することが可能となる。前記目的地物の関連情報の取得は、前記目的地物の固有情報(住所情報、店舗名情報、建物名称情報、等)をキーワードとしたネットワーク検索により、インターネット等の公共ネットワーク上から行うため、最新の情報を効率よく収集することが可能であることも実施例1と同様である。また、前記目的地物の画像と前記目的地物に関する関連情報を画像データファイルとしてストレージに記憶させることができ、後日、前記目的地物とその関連情報を見直すことが可能となる。
 以上、本発明の実施形態の例を実施例1~2を用いて説明したが、言うまでもなく、本発明の技術を実現する構成は前記実施例に限られるものではなく、様々な変形例が考えられる。例えば、ある実施例の構成の一部を他の実施例の構成と置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。また、文中や図中に現れる数値やメッセージ等もあくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。
 前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、マイクロプロセッサユニット等がそれぞれの機能等を実現するプログラムを解釈して実行することによりソフトウェアで実現しても良い。ハードウェアとソフトウェアを併用しても良い。前記ソフトウェアは、製品出荷の時点で、予め情報表示装置100のROM103若しくはストレージ部110等に格納された状態であっても良い。製品出荷後に、インターネット201上のアプリケーションサーバ211等からLAN通信部151若しくは移動体電話網通信部152等を介して取得するものであっても良い。また、メモリカードや光ディスク等に格納された前記ソフトウェアを、拡張インタフェース部170等を介して取得しても良い。
 また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えても良い。
100:情報表示装置、101:主制御部、102:システムバス、103:ROM、104:RAM、104a:基本動作実行部、104b:情報表示実行部、104b1:位置/方位取得実行部、104b2:対象地物特定実行部、104b3:関連情報取得実行部、104c:カメラ機能実行部、110:ストレージ部、110b:情報表示プログラム、110c:カメラ機能プログラム、120:画像処理部、121a:基本画面、121a1:アプリケーションプログラムのアイコン群、121a2:地物情報アイコン、130:音声処理部、140:操作部、150:通信処理部、160:センサ部、161:GPS受信部、162:ジャイロセンサ、163:地磁気センサ、170:拡張インタフェース部、300:地図データ、301~302:道路、311~315:店舗、321:ユーザの現在位置、322:直線の方位角、323:直線、324:交点。

Claims (15)

  1.  地物の関連情報を表示可能な情報表示装置であって、
     前記情報表示装置の現在位置情報を取得する位置情報取得部と、
     前記情報表示装置を目的の地物に指向させた際の前記情報表示装置の方位情報を取得する方位情報取得部と、
     地図情報を記憶する地図情報記憶部と、
     前記現在位置情報及び前記方位情報を用いて、前記地図情報を参照することにより前記目的の地物を対象地物として特定する対象地物特定実行部と、
     前記対象地物に関する固有情報を取得する固有情報取得部と、
     前記固有情報に基づいた検索処理により、前記目的の地物の前記関連情報を取得する関連情報取得部と、
     前記目的の地物の前記関連情報を表示する表示部と、
    を備え、
     前記対象地物特定実行部は、
     前記情報表示装置の前記現在位置情報及び前記方位情報を基に、前記地図情報で得られる地図上の前記情報表示装置の現在位置から該情報表示装置が向けられている方向が該情報表示装置から最も近い位置で交差する前記地図上の地物を前記対象地物として特定する
    ことを特徴とする情報表示装置。
  2.  地物の関連情報を表示可能な情報表示装置であって、
     前記情報表示装置の現在位置情報を取得する位置情報取得部と、
     前記情報表示装置を目的の地物に指向させた際の前記情報表示装置の方位情報を取得する方位情報取得部と、
     地図情報を記憶する地図情報記憶部と、
     前記現在位置情報及び前記方位情報を用いて、前記地図情報記憶部に記憶されている前記地図情報を参照することにより、前記目的の地物を対象地物として特定する対象地物特定実行部と、
     前記対象地物に関する固有情報を取得する固有情報取得部と、
     前記固有情報を検索サーバに送信し、前記検索サーバから前記目的の地物の前記関連情報を受信する通信部と、
     前記通信部で受信した前記目的の地物の前記関連情報を表示する表示部と、
    を備え、
     前記対象地物特定実行部は、
     前記情報表示装置の前記現在位置情報及び前記方位情報を基に、前記地図情報で得られる地図上の前記情報表示装置の現在位置から該情報表示装置が向けられている方向が該情報表示装置から最も近い位置で交差する前記地図上の地物を前記対象地物として特定する
    ことを特徴とする情報表示装置。
  3.  前記地図情報は、2次元の地図情報であり、
     前記対象地物特定実行部は、
     前記現在位置情報及び前記方位情報を基に、前記2次元の座標平面上で、前記情報表示装置が向けられている方向が前記最も近い位置で交差する前記地物の輪郭線と交差する点を求め、該地物を前記対象地物として特定する
    ことを特徴とする請求項1または請求項2に記載の情報表示装置。
  4.  前記情報表示装置は、更に、
     前記目的の地物の画像情報を入力する画像入力部を備え、
     前記表示部は、前記目的の地物の前記関連情報の有無を示す注視マークを前記画像入力部で入力した前記目的の地物の前記画像情報と重畳して表示する
    ことを特徴とする請求項1または請求項2に記載の情報表示装置。
  5.  前記情報表示装置は、更に、
     ユーザの操作指示を入力する指示入力部を備え、
     前記表示部は、前記指示入力部により前記注視マークを選択する指示が入力された場合に前記目的の地物の前記関連情報を表示する
    ことを特徴とする請求項4に記載の情報表示装置。
  6.  前記情報表示装置において、
     前記注視マークは、前記指示入力部により前記注視マークを選択する指示が入力された場合に表示する前記目的の地物の前記関連情報の表示書式に応じて表示形状が異なる
    ことを特徴とする請求項5に記載の情報表示装置。
  7.  前記情報表示装置は、更に、
     画像データファイルを記憶媒体に記録する記録処理部を備え、
     前記画像データファイルは、少なくとも前記画像入力部から入力した前記画像情報と前記目的の地物の前記関連情報とを含む
    ことを特徴とする請求項4に記載の情報表示装置。
  8.  前記目的の地物の前記固有情報を取得するために、前記表示部に初期状態として表示される地物情報表示画面に、前記情報表示装置を前記目的の地物方向に向けて保持するガイダンスを提示する
    ことを特徴とする請求項1または請求項2に記載の情報表示装置。
  9.  前記情報表示装置において、
     前記固有情報取得部における前記目的の地物の前記固有情報を取得する処理は、前記情報表示装置を前記目的の地物に指向させた状態が所定時間以上継続した場合に開始される
    ことを特徴とする請求項8に記載の情報表示装置。
  10.  前記情報表示装置において、
     前記固有情報取得部における前記目的の地物の前記固有情報を取得する処理は、前記初期状態の表示画面に設けられた情報取得アイコンが選択されたことをトリガとして開始される
    ことを特徴とする請求項8に記載の情報表示装置。
  11.  前記地図情報は、2次元の地図情報であり、
     前記固有情報取得部における前記目的の地物の前記固有情報を取得する処理は、前記情報表示装置を前記目的の地物に指向させた状態が所定時間以上継続した場合、若しくは、前記情報表示装置を前記目的の地物に指向させた状態が所定時間以上継続した場合に開始され、
     前記対象地物特定実行部は、
     前記現在位置情報及び前記方位情報を基に、前記2次元の地図上において、前記情報表示装置が向けられている方向が、前記最も近い位置で交差する前記地物を前記対象地物として特定する
    ことを特徴とする請求項1または請求項2に記載の情報表示装置。
  12.  地物の関連情報を表示可能な情報表示装置の情報表示プログラムであって、
     前記情報表示装置は、主制御部及び記憶領域を備えたコンピュータを備えており、
     前記情報表示装置の現在位置情報を取得する位置情報取得ステップと、
     前記情報表示装置を目的の地物に指向させた際の前記情報表示装置の方位情報を取得する方位情報取得ステップと、
     地図情報を前記記憶領域に記憶する地図情報記憶ステップと、
     前記現在位置情報及び前記方位情報を用いて、前記地図情報を参照することにより前記目的の地物を対象地物として特定する対象地物特定ステップと、
     前記地図情報を参照することにより、前記対象地物に関する固有情報を取得する固有情報取得ステップと、
     前記固有情報に基づいた検索処理により前記目的の地物の前記関連情報を取得する関連情報取得ステップと、
     前記目的の地物の前記関連情報を表示する表示ステップと、
    をコンピュータに実行させ、
     前記対象地物特定実行ステップにおいて、
     前記情報表示装置の前記現在位置情報及び前記方位情報を基に、前記地図情報で得られる地図上の前記情報表示装置の現在位置から該情報表示装置が向けられている方向が該情報表示装置から最も近い位置で交差する前記地図上の地物を前記対象地物として特定する
    ことを特徴とする情報表示プログラム。
  13.  前記関連情報取得ステップにおいて、
     前記目的地物の固有情報をキーワードとしたネットワーク検索を行い、前記目的地物に関する前記関連情報の取得を行う
    ことを特徴とする請求項12に記載の情報表示プログラム。
  14.  前記関連情報取得ステップは、
     前記固有情報取得ステップで取得した前記固有情報を検索サーバに送信し、前記検索サーバから前記目的の地物の前記関連情報を受信する通信ステップと、
     前記目的の地物の前記関連情報を表示する表示ステップと、
    をコンピュータに実行させることを特徴とする請求項12に記載の情報表示プログラム。
  15.  前記情報表示プログラムは、更に、
     前記目的の地物の画像情報を入力する画像入力ステップを備え、
     前記表示ステップは、前記目的の地物の前記関連情報の有無を示す注視マークを前記画像入力部で入力した前記目的の地物の前記画像情報と重畳して表示する
    ことを特徴とする請求項12に記載の情報表示プログラム。
PCT/JP2014/053765 2014-02-18 2014-02-18 情報表示装置及び情報表示プログラム WO2015125210A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016503805A JP6145563B2 (ja) 2014-02-18 2014-02-18 情報表示装置
PCT/JP2014/053765 WO2015125210A1 (ja) 2014-02-18 2014-02-18 情報表示装置及び情報表示プログラム
US15/114,992 US20160343156A1 (en) 2014-02-18 2014-02-18 Information display device and information display program
CN201480073172.XA CN105917329B (zh) 2014-02-18 2014-02-18 信息显示装置和信息显示程序
US17/529,638 US20220076469A1 (en) 2014-02-18 2021-11-18 Information display device and information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/053765 WO2015125210A1 (ja) 2014-02-18 2014-02-18 情報表示装置及び情報表示プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/114,992 A-371-Of-International US20160343156A1 (en) 2014-02-18 2014-02-18 Information display device and information display program
US17/529,638 Continuation US20220076469A1 (en) 2014-02-18 2021-11-18 Information display device and information display program

Publications (1)

Publication Number Publication Date
WO2015125210A1 true WO2015125210A1 (ja) 2015-08-27

Family

ID=53877751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053765 WO2015125210A1 (ja) 2014-02-18 2014-02-18 情報表示装置及び情報表示プログラム

Country Status (4)

Country Link
US (2) US20160343156A1 (ja)
JP (1) JP6145563B2 (ja)
CN (1) CN105917329B (ja)
WO (1) WO2015125210A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170046891A1 (en) * 2015-08-12 2017-02-16 Tyco Fire & Security Gmbh Systems and methods for location identification and tracking using a camera
USD806743S1 (en) * 2016-08-01 2018-01-02 Facebook, Inc. Display screen with animated graphical user interface
CN108255046B (zh) 2016-12-28 2020-06-09 卡西欧计算机株式会社 电子设备、显示控制方法以及记录介质
CN109974733A (zh) * 2019-04-02 2019-07-05 百度在线网络技术(北京)有限公司 用于ar导航的poi显示方法、装置、终端和介质
WO2023091506A1 (en) * 2021-11-16 2023-05-25 Figma, Inc. Commenting feature for graphic design systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004531791A (ja) * 2001-01-24 2004-10-14 ジオベクター コーポレーション 物をアドレスするポインティング・システム
WO2010150643A1 (ja) * 2009-06-22 2010-12-29 兵庫県 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム
JP2012141768A (ja) * 2010-12-28 2012-07-26 Dainippon Printing Co Ltd 携帯用端末装置、情報閲覧用プログラム、サーバ装置及び、閲覧情報提供用プログラム
JP2013080326A (ja) * 2011-10-03 2013-05-02 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013142956A (ja) * 2012-01-10 2013-07-22 Pasuko:Kk 撮影対象検索システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3918813B2 (ja) * 2001-10-23 2007-05-23 ソニー株式会社 データ通信システム、データ送信装置、並びにデータ受信装置
US8275394B2 (en) * 2008-03-20 2012-09-25 Nokia Corporation Nokia places floating profile
US9736368B2 (en) * 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
EP2500814B1 (en) * 2011-03-13 2019-05-08 LG Electronics Inc. Transparent display apparatus and method for operating the same
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004531791A (ja) * 2001-01-24 2004-10-14 ジオベクター コーポレーション 物をアドレスするポインティング・システム
WO2010150643A1 (ja) * 2009-06-22 2010-12-29 兵庫県 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム
JP2012141768A (ja) * 2010-12-28 2012-07-26 Dainippon Printing Co Ltd 携帯用端末装置、情報閲覧用プログラム、サーバ装置及び、閲覧情報提供用プログラム
JP2013080326A (ja) * 2011-10-03 2013-05-02 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013142956A (ja) * 2012-01-10 2013-07-22 Pasuko:Kk 撮影対象検索システム

Also Published As

Publication number Publication date
JP6145563B2 (ja) 2017-06-14
US20160343156A1 (en) 2016-11-24
CN105917329B (zh) 2019-08-30
US20220076469A1 (en) 2022-03-10
CN105917329A (zh) 2016-08-31
JPWO2015125210A1 (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
KR102021050B1 (ko) 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
US20220076469A1 (en) Information display device and information display program
KR102627612B1 (ko) 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치
US10194273B2 (en) Positioning information processing method and apparatus
EP3748533B1 (en) Method, apparatus, and storage medium for obtaining object information
KR101769852B1 (ko) 드론을 이용한 부동산 거래 중개 시스템
JP2021520540A (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
CN110457571B (zh) 获取兴趣点信息的方法、装置、设备及存储介质
US20230284000A1 (en) Mobile information terminal, information presentation system and information presentation method
CN110865756A (zh) 图像标注方法、装置、设备及存储介质
US20140292636A1 (en) Head-Worn Infrared-Based Mobile User-Interface
CN112149659B (zh) 定位方法及装置、电子设备和存储介质
CN112818240A (zh) 评论信息的展示方法、装置、设备及计算机可读存储介质
CN110532474B (zh) 信息推荐方法、服务器、系统以及计算机可读存储介质
CN111754564B (zh) 视频展示方法、装置、设备及存储介质
CN110990728A (zh) 兴趣点信息的管理方法、装置、设备及存储介质
CN111008083A (zh) 页面通信方法、装置、电子设备及存储介质
JP2008111693A (ja) 移動体装置および目標物情報検索方法
JP2016133701A (ja) 情報提供システム、及び情報提供方法
JP2006047147A (ja) 情報提供装置
CN109582200B (zh) 一种导航信息显示方法及移动终端
CN111984755A (zh) 确定目标停车点的方法、装置、电子设备及存储介质
CN112804481B (zh) 监控点位置的确定方法、装置及计算机存储介质
JP2019174548A (ja) 制御装置、電子機器、制御方法、及び制御プログラム
WO2021200187A1 (ja) 携帯端末および情報処理方法、並びに記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14883271

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016503805

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15114992

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14883271

Country of ref document: EP

Kind code of ref document: A1