WO2010150643A1 - 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム - Google Patents

情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2010150643A1
WO2010150643A1 PCT/JP2010/059600 JP2010059600W WO2010150643A1 WO 2010150643 A1 WO2010150643 A1 WO 2010150643A1 JP 2010059600 W JP2010059600 W JP 2010059600W WO 2010150643 A1 WO2010150643 A1 WO 2010150643A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
terminal device
shooting
output
Prior art date
Application number
PCT/JP2010/059600
Other languages
English (en)
French (fr)
Inventor
龍 李
角谷 和俊
Original Assignee
兵庫県
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 兵庫県 filed Critical 兵庫県
Priority to JP2011519730A priority Critical patent/JP5357966B2/ja
Publication of WO2010150643A1 publication Critical patent/WO2010150643A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Definitions

  • the present invention relates to an information system for recognizing an object photographed by a camera and displaying object information on a screen.
  • Patent Document 1 Conventionally, information distribution type landscape labeling in which geographical information on a computer is associated with each part in a landscape image of a real scene and presented to the user, and various information (advertisement information, guidance information, etc.) is sent to the user.
  • Patent Document 1 There was a device (Patent Document 1).
  • Patent Document 2 There was a map-related information distribution system that can be used (Patent Document 2).
  • Patent Document 3 JP-A-11-66347 JP 2008-158583 A JP 2002-152713 A
  • the conventional system does not assume that a large number of objects are registered. That is, when a very large number of objects are registered, it takes a lot of time to specify the object currently being shot, and a great amount of CPU power is required. Therefore, for example, it cannot be used for a navigation system.
  • the information system is an information system including a server device and a terminal device, and the server device includes an object identifier for identifying an object and region information indicating a region where the object exists.
  • An object information storage unit that can store one or more pieces of information, and a server reception unit that receives terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing from the terminal device; Applying the position information included in the terminal information, the direction information included in the terminal information, and the viewing angle stored in advance or included in the terminal information to the area information of each object information in the object information storage unit.
  • a shooting object determination unit that determines one or more objects being shot, and one or more determined by the shooting object determination unit Among the one or more object information corresponding to each object, one or more shooting object information including area information is acquired from the object information storage unit, and the shooting object information is transmitted to the terminal device.
  • a server transmission unit, and the terminal device acquires a terminal information acquisition unit for acquiring terminal information including position information indicating a position of the terminal device and direction information indicating a direction in which the terminal device is facing;
  • output unit having camera video output means for outputting video acquired by the camera unit, transmission unit for transmitting terminal information acquired by the terminal information acquisition unit to the server device
  • a receiving unit that receives one or more shooting object information, and one or more area information included in the one or more shooting object information received by the receiving unit
  • An output information acquisition unit that acquires output information including the output information, and the output unit outputs region information included in the one or more output information acquired by the output information acquisition unit, overlaid on the video output by the output unit
  • the shooting object information determination unit inspects the objects in order from the shortest distance from the terminal device, and becomes invisible by shooting the object previously determined that the terminal device is shooting. This is an information system for registering area information as an invisible area and ending the inspection of whether or not an object is photographed by the terminal device when the visible area disappears.
  • the area information includes two-dimensional area information indicating a two-dimensional area on the map and height information indicating the height of the object.
  • the shooting object determination unit acquires the shooting area on the three-dimensional space using the position information and direction information included in the terminal information and the viewing angle stored in advance or included in the terminal information, This is an information system that is applied to the area information included in each object information of the object information storage unit and determines one or more objects that are photographed by the terminal device.
  • the object being photographed with the camera can be captured in three dimensions. Therefore, for example, it is possible to recognize a building that is higher than the previous building and is reflected in the camera image, and output information related to the building. In addition, high-speed processing is possible by appropriately terminating the processing for detecting a shooting object. Therefore, it can also be used for navigation systems.
  • the region output means has a region corresponding to the region information included in the one or more pieces of output information acquired by the output information acquisition unit. Is an information system that outputs the image on the video output by the output unit so that it can be visually distinguished from other regions.
  • the server device determines the distance between each object determined by the shooting object determination unit and the terminal device and the object information of each object.
  • the camera further includes a distance calculation unit that calculates each object determined by the shooting object determination unit from the position information included in the terminal information, and the shooting object information acquisition unit corresponds to one or more objects determined by the shooting object determination unit.
  • An information system that obtains information including area information from one or more object information from the object information storage unit and configures one or more shooting object information including the information including area information and the distance calculated by the distance calculation unit It is.
  • the output information acquisition unit outputs output information including one or more area information and one or more distances included in the shooting object information received by the receiving unit.
  • the acquisition and output unit is an information system further comprising distance output means for outputting a distance included in the one or more pieces of output information acquired by the output information acquisition unit.
  • the region output means corresponds to the distance as the distance included in the one or more pieces of output information acquired by the output information acquisition unit increases. An information system that outputs an object with a smaller area.
  • the information system of the seventh invention further comprises one or more web server devices for any of the first to sixth, and the web server device stores object related information that is information about the object.
  • An object-related information storage unit an object-related information acquisition unit that acquires object-related information in response to an external instruction, and an object-related information transmission unit that transmits object-related information.
  • the information system further includes an object related information receiving unit that receives related information, and the output unit further includes an object related information output unit that outputs the object related information received by the object related information receiving unit.
  • the terminal device in contrast to the seventh, includes a first display unit and a second display unit which are two separated display units, and the camera image output unit includes: The video acquired by the camera unit is displayed on the first display unit, and the object-related information output unit is an information system that displays the object-related information received by the object-related information receiving unit on the second display unit.
  • the area output means does not output the area information of another object, but only the area information of one object is output to the other area.
  • This is an information system that outputs the image superimposed on the video output by the output unit so that it can be visually distinguished from the information.
  • the object related information output means does not output the object related information of other objects, but only the object related information of one object. Is an information system that outputs
  • the shooting object determination unit is a shooting object of an object that is present at the closest position in the video shot by the camera unit, Or an information system for determining the shooting object of the object located closest to the center in the video shot by the camera unit or the shooting object of the object having the largest area in the video shot by the camera unit is there.
  • the terminal device outputs a first receiving means for receiving a user instruction, and an output when the receiving section receives the instruction.
  • the information system further includes an image being output by the unit and an output fixing unit for fixing the area.
  • the shooting object information includes an object identifier
  • the terminal device includes a second receiving unit that receives an input to the fixed area, An object identifier acquisition unit that acquires an object identifier for an area corresponding to the input received by the reception unit; and an object identifier transmission unit that transmits the object identifier acquired by the object identifier acquisition unit to one of the one or more web server devices.
  • the object related information receiving unit is an information system that receives object related information in response to transmission of an object identifier, and the transmission of the object identifier is performed by an instruction from the outside.
  • the terminal device has a camera layer, which is a layer for outputting video acquired by the camera unit, and an area corresponding to the object.
  • a current layer storage unit that can store a current layer that is a current layer among a plurality of layers including an object identification layer that is an output layer and a web search layer that is a layer that outputs object-related information, and a current layer
  • a third receiving means for receiving an input to be set; and a current layer changing section for changing the current layer of the current layer storage section according to the input received by the third receiving means, and when the current layer is a camera layer,
  • the camera video output means outputs the video acquired by the camera unit, and the current layer is the object.
  • the camera video output means outputs the video acquired by the camera section, and the area output means outputs the video output by the output section so that the area can be visually distinguished from other areas.
  • the camera video output means outputs the video acquired by the camera unit, and the area output means can visually distinguish the area from other areas.
  • the object related information output means is an information system that outputs the object related information by superimposing it on the video output by the output unit.
  • the object related information is one or more information of a web page, a symbol image of the object, or sound information related to the object. Is an information system.
  • the information system of the sixteenth invention is an information system comprising a server device and a terminal device, wherein the server device includes an object identifier for identifying an object, region information indicating a region where the object exists, A server that receives, from the terminal device, terminal information having position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing.
  • a shooting object determination unit that determines one or more objects that the terminal device is shooting and a shooting object determination unit determine Of the one or more pieces of object information corresponding to each of the one or more objects, the shooting object information acquisition unit that acquires one or more shooting object information including the object identifier from the object information storage unit, and the shooting object information
  • a terminal information acquisition unit for acquiring terminal information including position information indicating a position of the terminal device and direction information indicating a direction in which the terminal device is directed,
  • a camera unit that acquires video; an output unit that includes a camera video output unit that outputs video acquired by the camera unit; a transmission unit that transmits terminal information acquired by the terminal information acquisition unit to the server device; and Corresponding to transmission, a receiving unit for receiving shooting object information and an output unit for outputting shooting object information received by the receiving unit are provided.
  • the information system according to the seventeenth aspect of the present invention further comprises at least one web server device as compared with the sixteenth, and the web server device can store object related information that is information related to an object.
  • An information storage unit, an object-related information acquisition unit that acquires object-related information in response to an instruction from the outside, and an object-related information transmission unit that transmits object-related information, and the server transmission unit of the server device includes:
  • the shooting object information is an information system that transmits the shooting object information to the terminal device or one or more web server devices, and is received by the receiving unit of the terminal device.
  • the terminal device includes an object information storage unit capable of storing one or more object information having an object identifier for identifying an object and region information indicating a region in which the object exists, and a terminal device Terminal information acquisition unit for acquiring terminal information having position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing, position information included in the terminal information acquired by the terminal information acquisition unit, and terminal information
  • Terminal information acquisition unit for acquiring terminal information having position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing, position information included in the terminal information acquired by the terminal information acquisition unit, and terminal information
  • a shooting object determination unit that applies the direction information and the viewing angle stored in advance to the area information of each object information in the object information storage unit, and determines one or more objects being shot by the terminal device;
  • the area information is included in one or more object information corresponding to one or more objects determined by the shooting object determination unit.
  • a shooting object information acquisition unit that acquires one or more shooting object information from the object information storage unit, a camera unit that acquires a video, a camera video output unit that outputs a video acquired by the camera unit, An output unit including an area output unit that outputs area information included in one or more pieces of shooting object information.
  • the terminal device in contrast to the eighteenth aspect, has region information including two-dimensional region information indicating a two-dimensional region on a map and height information indicating the height of an object. Then, the shooting object determination unit acquires the shooting area in the three-dimensional space by using the position information and direction information included in the terminal information and the pre-stored viewing angle, and stores the shooting area in the object information.
  • This is a terminal device that is applied to the area information included in each piece of object information and determines one or more objects being photographed by the terminal device.
  • the object being photographed with the camera can be captured in three dimensions.
  • the region output means has a size corresponding to region information included in one or more pieces of output information acquired by the output information acquisition unit. This is a terminal device that superimposes the area on the video output by the output unit so that it can be visually distinguished from other areas.
  • the terminal device provides the distance between each object determined by the shooting object determination unit and the terminal device with respect to any one of the eighteenth to the second, the object information of each object, and the terminal.
  • the camera further includes a distance calculation unit that calculates each object determined by the shooting object determination unit from position information included in the information, and the shooting object information acquisition unit corresponds to one or more objects determined by the shooting object determination unit.
  • a terminal device that obtains information including area information from one or more pieces of object information from the object information storage unit and constitutes one or more shooting object information including information including area information and the distance calculated by the distance calculation unit. is there.
  • the output unit is a terminal device further including a distance output unit that outputs a distance included in one or more pieces of shooting object information.
  • the region output means indicates the object corresponding to the distance as the distance included in the one or more shooting object information is larger. It is a terminal device that outputs an area with a smaller size.
  • the terminal device further comprises an object-related information receiving unit that receives object-related information from an external device with respect to any of the eighteenth to second-third.
  • the terminal device further comprises object related information output means for outputting the object related information received by the object related information receiving unit.
  • the terminal device of the twenty-fifth aspect of the present invention further comprises a first display means and a second display means, which are two separated display parts, with respect to the second, and the camera video output means is The video acquired by the camera unit is displayed on the first display unit, and the object-related information output unit is a terminal device that displays the object-related information received by the object-related information receiving unit on the second display unit.
  • the area output means does not output the area information of other objects, but only the area information of one object, for any of the 18th to 25th Is superimposed on the video output by the output unit so that it can be visually distinguished from other area information.
  • the object related information output means does not output the object related information of other objects to any one of the second to the sixth, but instead of the object related information of one object. It is a terminal device that outputs only object related information.
  • the shooting object determining unit determines the object that is present at the closest position in the video shot by the camera unit.
  • the shooting object or the shooting object of the object located closest to the center in the video shot by the camera unit or the shooting object of the object having the largest area in the video shot by the camera unit is determined. It is a terminal device.
  • the terminal device in response to any one of the eighteenth to the twenty-eighth, receives a user's instruction, a first receiving unit, and a receiving unit receives the instruction
  • the terminal device further includes a video output by the output unit and an output fixing unit that fixes the area.
  • the photographing object information includes an object identifier, and is accepted by a second accepting unit that accepts an input to a fixed area, and a second accepting unit.
  • An object identifier acquisition unit that acquires an object identifier for an area corresponding to the input, and an object identifier transmission unit that transmits the object identifier acquired by the object identifier acquisition unit to one of the one or more web server devices,
  • the object related information receiving unit is a terminal device that receives object related information in response to the transmission of the object identifier, and the transmission of the object identifier is performed according to an instruction from the outside.
  • the terminal device provides a camera layer, which is a layer for outputting video acquired by the camera unit, or a layer for outputting an area corresponding to an object.
  • a camera layer which is a layer for outputting video acquired by the camera unit, or a layer for outputting an area corresponding to an object.
  • the plurality of layers including the object identification layer, the web search layer that outputs the object related information, and the current layer storage unit that can store the current layer that is the current layer, and the input that sets the current layer
  • a current layer changing unit for changing the current layer of the current layer storage unit according to the input received by the third receiving unit, and when the current layer is a camera layer, the camera video output
  • the means outputs the video acquired by the camera unit, and the current layer is the object identification layer.
  • the camera video output means outputs the video acquired by the camera unit, and the area output means superimposes the area on the video output by the output unit so that the area can be visually distinguished from other areas.
  • the camera video output means outputs the video acquired by the camera unit, and the area output means outputs the area so that the area can be visually distinguished from other areas.
  • the object related information output means is a terminal device that outputs the object related information.
  • the terminal device includes an object information storage unit capable of storing one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists, and a terminal A terminal information acquisition unit for acquiring terminal information including position information indicating the position of the device and direction information indicating a direction in which the terminal device is facing; position information included in the terminal information acquired by the terminal information acquisition unit; and a terminal A shooting object determination unit that applies the direction information included in the information and the pre-stored viewing angle to the area information of each object information in the object information storage unit, and determines one or more objects being shot by the terminal device Among the one or more pieces of object information corresponding to each of the one or more objects determined by the shooting object determination unit.
  • a shooting object information acquisition unit that acquires one or more shooting object information including an identifier from the object information storage unit, a camera unit that acquires a video, and a video acquired by the camera unit are output to output one or more shooting object information.
  • a terminal device including an output unit for outputting.
  • the information system according to the present invention can recognize an object photographed with a camera and output information related to the object.
  • an information system 1 for recognizing an object shown in a video obtained by photographing with a camera and outputting information related to the object will be described.
  • Information related to the object includes the object area, the web page related to the object, the symbol image of the object, symbolic music and sound information, and guidance information (images, character strings, audio) Etc.).
  • FIG. 1 is a conceptual diagram of the information system 1 in the present embodiment.
  • the information system 1 includes a server device 11, one or more web server devices 12, and a terminal device 13.
  • the terminal device 13 is a terminal having a two-screen display in FIG. 1, but may be a terminal having a one-screen display.
  • the terminal device 13 has a camera function, and can output an area of an object (building, etc.) in the image being taken, information related to the object, etc. when shooting an external landscape, a building, or the like. .
  • the server apparatus 11, the web server apparatus 12, and the terminal device 13 are normally communicable.
  • the information system 1 may be realized only by the server device 11 and the terminal device 13.
  • the server device 11 may have the function of a web server device.
  • the web server device 12 is a device that stores a so-called web page on the web, but the stored information may be other information such as advertisement information instead of the web page.
  • the format and content of the information stored in the web server device 12 are not limited.
  • FIG. 2 is a block diagram of the information system 1 in the present embodiment.
  • the server device 11 includes an object information storage unit 111, a server reception unit 112, a shooting object determination unit 113, a distance calculation unit 114, a shooting object information acquisition unit 115, and a server transmission unit 116.
  • the web server device 12 includes an object related information storage unit 121, an object related information acquisition unit 122, and an object related information transmission unit 123.
  • the terminal device 13 includes a current layer storage unit 1301, a reception unit 1302, a terminal information acquisition unit 1303, a camera unit 1304, a transmission unit 1305, a reception unit 1306, an object related information reception unit 1307, an output information acquisition unit 1308, an output unit 1309, A current layer changing unit 1310, an output fixing unit 1311, an object identifier acquiring unit 1312, an object identifier transmitting unit 1313, and a display unit 1314 are provided.
  • the reception unit 1302 includes a first reception unit 13021, a second reception unit 13022, and a third reception unit 13023.
  • the terminal information acquisition unit 1303 includes position information acquisition means 13031 and direction information acquisition means 13032.
  • the output unit 1309 includes camera video output means 13091, area output means 13092, distance output means 13093, and object related information output means 13094.
  • the display unit 1314 includes first display means 13141 and second display means 13142.
  • the object information storage unit 111 can store one or more pieces of object information.
  • the object information is information having an object identifier and area information indicating an area where the object exists.
  • An object is a geographic object that is usually an object that appears on a map or on a geography.
  • the object is, for example, a building, a mountain, a river, a scenic spot, a park, or the like.
  • the object may be, for example, a store or a company in a building.
  • the content of the object is not limited as long as it appears on the map or the geography.
  • the object information storage unit 111 may store map information. In such a case, the map information includes one or more object information.
  • the object identifier is information for identifying an object, such as an object name, an ID for identifying the object, a URL of a web page in which information about the object is stored, a URI, and the like.
  • the area information is usually information on a two-dimensional area. However, information of a three-dimensional region or one-dimensional information (point information) may be used. That is, the area information may be position information (X, Y) that specifies the position (point) of the object. This (X, Y) is, for example, (latitude, longitude), and is information indicating the center of gravity of the object region, for example.
  • the area information is, for example, information on position information (longitude, latitude) of the upper left point and lower right point of the rectangle. Furthermore, the area information includes, for example, a set of points (eight points) constituting the vertex of a three-dimensional object solid figure (for example, hexahedron) or four points having the height of the solid figure (for example, hexahedron). And so on.
  • the object information storage unit 111 is preferably a nonvolatile recording medium, but can also be realized by a volatile recording medium.
  • the process in which the object information is stored in the object information storage unit 111 does not matter.
  • object information may be stored in the object information storage unit 111 via a recording medium, and object information transmitted via a communication line or the like is stored in the object information storage unit 111.
  • the object information input via the input device may be stored in the object information storage unit 111.
  • the server reception unit 112 receives terminal information from the terminal device 13.
  • the terminal information includes position information indicating the position of the terminal device 13 and direction information indicating the direction in which the terminal device 13 is facing.
  • the terminal information usually has a terminal identifier that identifies the terminal device 13.
  • the position information is usually (latitude, longitude) information, but may be information indicating a position in space.
  • the information indicating the position in the space is, for example, (latitude, longitude, altitude).
  • the direction information may include direction information such as east, west, south, and north.
  • the direction information may include the orientation of the terminal (upward, downward, etc.).
  • the direction information is, for example, 56.2 ° (an orientation in which north is 0 ° and east is 90 °), south-southwest, and the like.
  • the direction information may include, for example, an angle in the height direction.
  • the direction information may be, for example, (Yaw, Pitch, Roll). “Yaw” of (Yaw, Pitch, Roll) is the angle with respect to the vertical axis and the degree of horizontal shaking of the tip (length, etc.), “Pitch” is the angle with respect to the horizontal axis and the degree of vertical shaking of the tip, “Roll” Is the angle with respect to the vertical axis and the degree of lateral shaking of the entire terminal device 13.
  • the position information is acquired by, for example, a GPS receiver.
  • the direction information is acquired by, for example, a compass or a compass and a gyro.
  • the terminal information preferably includes a terminal identifier for identifying the terminal device 13 (for example, an IP address, a telephone number, an ID, a MAC address, etc. used for transmission / reception of information).
  • the server receiving unit 112 is usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.
  • the shooting object determination unit 113 applies the position information included in the terminal information, the direction information included in the terminal information, and the viewing angle to the area information of each object information in the object information storage unit 111, and the terminal device 13 performs shooting. Determine one or more objects.
  • the viewing angle is an angle at which the camera unit 1304 can shoot, and may be an angle on a plane or a three-dimensional angle including a height direction.
  • the three-dimensional angle is obtained, for example, by a plane angle ( ⁇ 1) and a height direction angle ( ⁇ 2).
  • the viewing angle may be stored in advance by the shooting object determination unit 113 or may be included in the terminal information.
  • determining an object may be to acquire an object identifier, to acquire all or part of object information, or to acquire a record ID of a table that manages object information It may be to do. In other words, “determining an object” only needs to acquire information for specifying an object.
  • the shooting object determination unit 113 may be the shooting object of the object that is closest to the terminal device 13 in the video shot by the camera unit 1304 or the center of the video shot by the camera unit 1304.
  • a shooting object of an object located closer to the object or an object having the largest area (on a plane or a solid) in a video shot by the camera unit 1304 may be determined.
  • the shooting object determination unit 113 determines the distance between the terminal device 13 and the object from the position information included in the terminal information and the object position information indicating the position of the object acquired from the area information of each object information in the object information storage unit 111. , And a predetermined number of objects may be determined as shooting objects from the distance within the predetermined distance or closer to the distance. In such a case, the shooting object acquisition algorithm is not accurate, but high-speed processing is possible. Needless to say, the distance calculation may be performed by the distance calculation unit 114.
  • the shooting object determination unit 113 determines one or more objects being shot by the terminal device 13 with an algorithm as shown in a flowchart of FIG.
  • the photographing object determination unit 113 can be usually realized by an MPU, a memory, or the like.
  • the processing procedure of the shooting object determination unit 113 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the distance calculation unit 114 determines the distance between each object determined by the shooting object determination unit 113 and the terminal device 13 for each object determined by the shooting object determination unit 113 from the object information of each object and the position information included in the terminal information. To calculate.
  • the distance is the distance between the center of gravity of the area and the position indicated by the position information, the distance between any point in the area and the position indicated by the position information, and the point in the area closest to the position indicated by the position information. It may be distance. That is, there can be various distance calculation criteria.
  • the position information may be information generated from the area information. The position information is obtained, for example, by acquiring the center of gravity of the area obtained from the area information.
  • the distance calculation unit 114 can usually be realized by an MPU, a memory, or the like.
  • the processing procedure of the distance calculation unit 114 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the shooting object information acquisition unit 115 receives, from the object information storage unit 111, one or more shooting object information including area information among one or more object information corresponding to one or more objects determined by the shooting object determination unit 113. get.
  • the shooting object information acquisition unit 115 may include any information as shooting object information.
  • the shooting object information acquisition unit 115 may include the distance calculated by the distance calculation unit 114 for each shooting object.
  • the shooting object information acquisition unit 115 can usually be realized by an MPU, a memory, or the like.
  • the processing procedure of the shooting object information acquisition unit 115 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the server transmission unit 116 transmits the shooting object information acquired by the shooting object information acquisition unit 115 to the terminal device 13.
  • the server transmission unit 116 is usually realized by a wireless or wired communication unit, but may be realized by a broadcasting unit.
  • the object related information storage unit 121 can store object related information that is information related to an object.
  • the object-related information is a web page, in particular, an e-commerce or reservation web page, a symbol image of the object, or sound information (including music information) about the object, advertising information for advertising the object, and reaching the object. Any information related to the object can be used, such as route guidance information (sound, image, text, etc.), a game program that recalls the object.
  • the object-related information storage unit 121 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.
  • the object related information may be stored in the object-related information storage unit 121 via a recording medium, and the object-related information transmitted via a communication line or the like is stored in the object-related information storage unit 121.
  • the object related information input via the input device may be stored in the object related information storage unit 121.
  • the object related information acquisition unit 122 acquires object related information according to an instruction from the outside.
  • the instruction from the outside is, for example, an instruction generated when the user points to an area (an object area, a frame, or the like) output to the terminal device 13. Such an instruction may arrive directly from the terminal device 13 or may arrive via the server device 11.
  • the object related information may be a part of information constituting the object related information.
  • the object related information acquisition unit 122 can be usually realized by an MPU, a memory, or the like.
  • the processing procedure of the object related information acquisition unit 122 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the object related information transmitting unit 123 transmits the object related information acquired by the object related information acquiring unit 122.
  • the object-related information transmission unit 123 is usually realized by a wireless or wired communication unit, but may be realized by a broadcasting unit.
  • the current layer storage unit 1301 can store the current layer.
  • the current layer is the current layer.
  • a layer is a hierarchy of processing performed by the terminal device 13.
  • the terminal device 13 usually has a plurality of layers.
  • the layers include, for example, a camera layer that outputs a video acquired by the camera unit 1304, an object identification layer that outputs a region corresponding to an object, and a web search layer that outputs object-related information. is there.
  • the terminal device 13 has layers of a camera layer, an object identification layer, and a web search layer from the bottom.
  • the terminal device 13 may have a layer indicating another application such as a navigation layer, a game layer, a music layer, or a photo layer.
  • the navigation layer is a layer for outputting route guidance to an object.
  • the game layer is a layer that outputs a game program and provides an environment where a game can be played.
  • the music layer is a layer that outputs music.
  • a photo layer is a layer that outputs one or
  • the current layer storage unit 1301 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.
  • the process of storing the current layer in the current layer storage unit 1301 does not matter.
  • the current layer may be stored in the current layer storage unit 1301 via a recording medium, and the current layer transmitted via a communication line or the like is stored in the current layer storage unit 1301.
  • the current layer input via the input device may be stored in the current layer storage unit 1301.
  • the accepting unit 1302 accepts input of instructions, data, and the like from the user. Any means such as a keyboard, a mouse, a numeric keypad, or a menu screen may be used for inputting instructions and data.
  • the accepting unit 1302 can be realized by a device driver for input means such as a keyboard, control software for a menu screen, or the like.
  • the first accepting means 13021 constituting the accepting unit 1302 accepts user instructions.
  • the second accepting unit 13022 accepts an input for the fixed area.
  • the third receiving unit 13023 receives an input for setting the current layer.
  • Input means such as user instructions, input to a fixed area, and input for setting the current layer may be the same means or different means.
  • the terminal information acquisition unit 1303 acquires terminal information having position information indicating the position of the terminal device 13 and direction information indicating the direction in which the terminal device 13 is facing.
  • the position information acquisition unit 13031 constituting the terminal information acquisition unit 1303 acquires position information indicating the position of the terminal device 13.
  • the position information acquisition unit 13031 is configured by, for example, a GPS receiver.
  • the position information acquisition unit 13031 is, for example, a radio wave reception unit and a processing unit (for example, an MPU or a memory) that acquires position information from the intensity of three or more radio waves received from three or more base stations. It is also possible to configure the device.
  • the method by which the position information acquisition unit 13031 acquires position information does not matter.
  • the position information may be a two-dimensional position or a position in a three-dimensional space.
  • Direction information acquisition means 13032 acquires direction information indicating the direction in which the terminal device 13 is facing.
  • the direction information may be information indicating a two-dimensional direction or information indicating a three-dimensional direction (including the vertical direction).
  • the direction information acquisition unit 13032 is realized by a compass, for example.
  • the direction information acquisition unit 13032 is realized by, for example, a compass and a gyro.
  • the terminal information may include the viewing angle of the camera unit 1304.
  • the viewing angle is synonymous with viewing angle information.
  • the terminal information acquisition unit 1303 stores the viewing angle of the camera unit 1304 in advance.
  • the viewing angle may be a two-dimensional angle or a three-dimensional angle.
  • the terminal information is information for specifying an area to be photographed by the camera unit 1304.
  • the area to be imaged is preferably a three-dimensional area, but may be a two-dimensional area.
  • the terminal information may include a terminal identifier.
  • the viewing angle and the terminal identifier are stored in a storage medium (not shown) included in the terminal information acquisition unit 1303, for example.
  • the terminal identifier is information for identifying a terminal, such as a telephone number, an IP address, or a MAC address.
  • the camera unit 1304 acquires a video.
  • the camera unit 1304 is a so-called camera.
  • the camera unit 1304 normally acquires an image currently displayed in the viewfinder.
  • the camera unit 1304 can be realized by, for example, a CCD camera.
  • the transmission unit 1305 transmits the terminal information acquired by the terminal information acquisition unit 1303 to the server device 11.
  • the transmission unit 1305 is usually realized by wireless or wired communication means, but may be realized by broadcasting means.
  • the receiving unit 1306 receives the shooting object information in response to the transmission of the terminal information.
  • the shooting object information usually includes an object identifier.
  • the shooting object information may include a distance from the terminal device 13 to the object.
  • the receiving unit 1306 is usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.
  • the object related information receiving unit 1307 receives object related information.
  • the object related information receiving unit 1307 may receive the object related information in response to the transmission of the object identifier.
  • the object related information receiving unit 1307 receives object related information from the web server device 12 or the server device 11.
  • the object related information receiving unit 1307 may receive object related information from the web server device 12 via the server device 11.
  • the object-related information receiving unit 1307 is usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.
  • the output information acquisition unit 1308 acquires output information including one or more area information included in the shooting object information received by the reception unit 1306. In general, the output information acquisition unit 1308 acquires output information having a pair of region information and an object identifier. The output information acquisition unit 1308 may acquire output information including one or more area information and one or more distances included in the shooting object information received by the reception unit 1306. Note that the output information acquisition unit 1308 does not perform any processing when simply passing the shooting object information to another element such as the output unit 1309. In such a case, the output information acquisition unit 1308 is not necessary.
  • the output information acquisition unit 1308 may or may not include an output device such as a display or a speaker.
  • the output information acquisition unit 1308 can be implemented by output device driver software, or output device driver software and an output device.
  • the output unit 1309 outputs one or more pieces of information such as video, audio, character string, and image.
  • the output unit 1309 may be considered as including or not including an output device such as a display or a speaker.
  • the output unit 1309 may be realized by output device driver software, or output device driver software and an output device.
  • the camera video output means 13091 outputs the video acquired by the camera unit 1304.
  • the camera video output unit 13091 preferably displays the video acquired by the camera unit 1304 on the first display unit 13141.
  • the region output unit 13092 outputs region information included in one or more pieces of output information acquired by the output information acquisition unit 1308 so as to be superimposed on the video output by the camera video output unit 13091.
  • region information for example, a frame
  • the area output means 13092 is a camera video output means so that an area having a size corresponding to the area information included in the one or more pieces of output information acquired by the output information acquisition unit 1308 can be visually distinguished from other areas.
  • the image is output by being overlaid on the video output by 13091.
  • the area output unit 13092 outputs an object corresponding to the distance with a smaller size as the distance included in the one or more pieces of output information acquired by the output information acquisition unit 1308 is larger.
  • the area output means 13092 does not output the area of the other object, and superimposes only the area of one object on the video output by the camera video output means 13091 so that it can be visually distinguished from the other areas. It is preferable to output. “Only one object area” is intended not to output other areas, and is not intended to output other types of information (information other than area information).
  • the area information included in the one or more pieces of output information acquired by the output information acquisition unit 1308 may be the area information included in one or more shooting objects.
  • the region output means 13092 may or may not include an output device such as a display.
  • the area output means 13092 can be realized by output device driver software, or output device driver software and an output device.
  • Distance output means 13093 outputs the distance included in one or more shooting objects.
  • the distance output unit 13093 is preferably output in association with the region output by the region output unit 13092.
  • the distance output unit 13093 outputs the distance so as to be superimposed on the video output by the output unit 1309.
  • “corresponding to the region” is preferably output of the distance within the region, but may be output of the distance outside the region.
  • the distance output unit 13093 may or may not include an output device such as a display or a speaker.
  • the distance output means 13093 can be implemented by output device driver software, or output device driver software and an output device.
  • the object related information output unit 13094 outputs the object related information received by the object related information receiving unit 1307.
  • the object related information output unit 13094 displays the object related information received by the object related information receiving unit 1307 on the second display unit 13142.
  • the video acquired by the camera unit 1304 is displayed on the first display unit 13141, and the object related information is displayed on the second display unit 13142.
  • the object related information output means 13094 preferably outputs only the object related information of one object without outputting the object related information of other objects.
  • “output only the object-related information of one object” means that the object-related information of another object is not output, and does not mean that other types of information are not output.
  • the object related information output unit 13094 may be considered as including or not including an output device such as a display or a speaker.
  • the object-related information output unit 13094 can be realized by output device driver software, or output device driver software and output device.
  • the current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 according to the input received by the third receiving unit 13023. It is assumed that the input received by the third receiving unit 13023 includes information for specifying the current layer (current layer or information for advancing the current layer (when the layers are in order)).
  • the current layer changing unit 1310 can usually be realized by an MPU, a memory, or the like.
  • the processing procedure of the current layer changing unit 1310 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the output fixing unit 1311 fixes the video and the region being output by the output unit 1309.
  • “fixed” refers to Pause and Resume. In other words, “fixed” means that even if the angle of the camera is moved, the image or area information output on the screen does not move.
  • the output fixing unit 1311 records the video and area being output by the output unit 1309 at least temporarily on a storage medium (not shown).
  • a technique for fixing an image being output is the same as a function of a so-called video movie, and is a known technique.
  • the output fixing unit 1311 can be usually realized by an MPU, a memory, or the like.
  • the processing procedure of the output fixing unit 1311 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the object identifier acquisition unit 1312 acquires an object identifier for the area corresponding to the input received by the second receiving unit 13022.
  • the object identifier acquisition unit 1312 acquires, for example, an object identifier that is paired with the area information.
  • the object identifier acquisition unit 1312 acquires area information specified by the designated frame (area) from one or more pieces of shooting object information, and acquires an object identifier paired with the area information.
  • the object identifier may be any information that identifies an object, and may be, for example, a URL or an object name.
  • the object identifier acquired by the object identifier acquisition unit 1312 and the object identifier processed by another component may be different types of information (for example, object ID and URL).
  • the object identifier acquisition unit 1312 can usually be realized by an MPU, a memory, or the like.
  • the processing procedure of the object identifier acquisition unit 1312 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • the object identifier transmission unit 1313 transmits the object identifier acquired by the object identifier acquisition unit 1312 to one of the one or more web server devices 12.
  • the object identifier transmission unit 1313 may transmit the object identifier to the server device 11.
  • the object identifier transmission unit 1313 may transmit an object-related information transmission instruction to the web server device 12 that can be specified by the object identifier. In such a case, it is also assumed that the object identifier is transmitted.
  • the object identifier transmission unit 1313 is usually realized by a wireless or wired communication unit, but may be realized by a broadcasting unit.
  • the display unit 1314 is a device that displays information.
  • the first display unit 13141 is a first device that displays information.
  • the second display unit 13142 is a second device that displays information.
  • the first display unit 13141 and the second display unit 13142 are preferably physically separated, but each display may be divided into two windows.
  • Step S401 The server reception unit 112 determines whether or not terminal information has been received from the terminal device 13. If terminal information is received, it will go to step S402, and if terminal information is not received, it will return to step S401.
  • Step S402 Using the terminal information received in step S401, the shooting object determination unit 113 uses the position information and / or direction information of the terminal information as region information of each object information in the object information storage unit 111. Apply one or more objects that are captured by the terminal device 13 (shown on the display of the terminal device 13). Such a process is called a shooting object determination process. Note that it is preferable that the shooting object determination unit 113 determines one or more objects being shot by the terminal device 13 also using a pre-stored viewing angle. Note that an object being photographed by the terminal device 13 is also referred to as a photographing object. The shooting object determination process will be described with reference to the flowchart of FIG.
  • Step S403 The distance calculation unit 114 acquires the position information included in the terminal information received in Step S401.
  • Such position information is information indicating the position of the terminal device 13.
  • Step S404 The distance calculation unit 114 substitutes 1 for the counter i.
  • Step S405 The distance calculation unit 114 determines whether or not the i-th shooting object exists. If the i-th shooting object exists, the process goes to step S406, and if the i-th shooting object does not exist, the process goes to step S410.
  • Step S406 The distance calculation unit 114 acquires the position information of the i-th shooting object from the object information storage unit 111. Note that the position information of the i-th shooting object is included in the object information of the i-th shooting object.
  • Step S407 The distance calculation unit 114 calculates the distance between the point indicated by the position information acquired in Step S403 and the point indicated by the position information acquired in Step S406.
  • a technique for calculating the distance between the two points from each position information of the two points is a known technique.
  • the distance calculated here is the distance between the terminal device 13 and the shooting object.
  • the shooting object information acquisition unit 115 acquires information including the area information of the i-th shooting object from the object information storage unit 111.
  • the shooting object information acquisition unit 115 configures shooting object information having the i-th shooting object information acquired from the object information storage unit 111 and the distance acquired in step S407.
  • the shooting object information acquisition unit 115 temporarily stores the i-th shooting object information in the buffer.
  • Step S409 The distance calculation unit 114 increments the counter i by one. The process returns to step S405.
  • Step S410 The server transmission unit 116 transmits one or more pieces of shooting object information temporarily stored in the buffer in Step S408 to the terminal device 13. The process returns to step S401.
  • the distance between the terminal device 13 and the shooting object may be calculated only once. That is, when the distance between the terminal device 13 and the shooting object is calculated and stored in step S402, the processing of steps S406 to S407 is not necessary.
  • step S402 the shooting object determination process in step S402 will be described with reference to the flowchart of FIG.
  • Step S501 The shooting object determining unit 113 acquires the position information included in the terminal information received in step S401.
  • the shooting object determination unit 113 may acquire and register the shooting angle (the angle of the visible region). That is, it is assumed that the registration of the angle of the visible region is equivalent to the registration of the angle of the invisible region.
  • Step S503 The shooting object determination unit 113 sorts the object information in the object information storage unit 111 in the order of objects closer to the terminal device 13, using the position information acquired in step S501. Such processing is called object sort processing.
  • object sort processing The object sort process will be described with reference to the flowchart of FIG.
  • Step S504 The shooting object determining unit 113 substitutes 1 for the counter i.
  • Step S505 The shooting object determination unit 113 determines whether or not the i-th object exists in the object information storage unit 111. If the i-th object exists, the process proceeds to step S506, and if the i-th object does not exist, the process returns to the upper process.
  • Step S506 The shooting object determination unit 113 acquires area information included in the object information of the i-th object from the object information storage unit 111.
  • Step S507 The shooting object determination unit 113 uses the position information acquired in step S501 and the region information acquired in step S505 to display the i-th object on the shooting object (display of the terminal device 13). ) Or not. Such a determination is referred to as a visual determination process.
  • the visibility determination process will be described with reference to the flowcharts of FIGS.
  • Step S508 As a result of the determination in step S506, the shooting object determination unit 113 goes to step S509 if the i-th object is a shooting object, and goes to step S510 if it is not a shooting object.
  • Step S509 The shooting object determination unit 113 stores at least the object identifier of the i-th object in a storage medium (not shown).
  • Step S510 The shooting object information determination unit 113 determines whether a visible area exists from the registered invisible area or visible area. If the visible area exists, the process goes to step S511, and if not, the process returns to the upper process. Such determination may be performed in a two-dimensional plane or may be performed in a three-dimensional space.
  • Step S511 The photographing object determination unit 113 increments the counter i by one. The process returns to step S505.
  • the angle of the invisible region is registered.
  • the angle of the visible region may be registered, and only objects that fall within this angle may be processed.
  • the shooting object information determination unit 113 is arranged in the order of the short distance from the terminal device 13 (the order may be the closest in the set of objects in which the range and angle are divided).
  • the visible area disappears (all become invisible areas). In this case, it is explained that the inspection of whether or not the object is photographed on the terminal device 13 is terminated.
  • step S510 is as follows.
  • the shooting object information determination unit 113 inspects the objects in the order from the terminal device 13, and information on an area that becomes invisible by shooting of the object previously determined that the terminal device 13 is shooting (here, normally, A minimum angle ( ⁇ 1 ) and a maximum angle ( ⁇ 2 ), which will be described later, are registered as an invisible region, information on a region that becomes an invisible region is acquired by the object to be inspected next and the terminal device 13, and the minimum angle ( ⁇ 3 ) It is determined whether all the areas specified by the maximum angle ( ⁇ 4 ) have already been registered as invisible areas, and if not registered as invisible areas, the terminal device 13 determines the object to be inspected next. The area determined by the minimum angle ( ⁇ 3 ) and the maximum angle ( ⁇ 4 ) is registered as an invisible area. This process is repeated, and the inspection of the object is terminated when all the viewing angles of the terminal information are invisible.
  • step S510 may be omitted. Furthermore, in the flowchart of FIG. 5, when the visible region no longer exists, the detection processing of the object being photographed is terminated. However, the object detection process may be terminated depending on other conditions, such as when an object in the visible region corresponding to the threshold number is found, or an object that matches a predetermined condition is found.
  • step S502 the object sort processing in step S502 will be described using the flowchart of FIG.
  • Step S601 The shooting object determining unit 113 substitutes 1 for the counter i.
  • Step S602 The shooting object determination unit 113 determines whether or not the i-th object exists in the object information storage unit 111. If the i-th object exists, the process goes to step S603, and if the i-th object does not exist, the process goes to step S607.
  • Step S603 The shooting object determination unit 113 acquires the position information of the i-th object from the object information storage unit 111. Note that the position information of the i-th object is included in the object information of the i-th object.
  • Step S604 The shooting object determining unit 113 calculates the distance between the point indicated by the position information acquired in Step S403 and the point indicated by the position information acquired in Step S603.
  • Step S605 The shooting object determination unit 113 pairs the distance acquired in Step S604 and the object information (or part of the information) of the i-th object and temporarily stores them in a recording medium (not shown). .
  • Step S606 The shooting object determining unit 113 increments the counter i by 1. The process returns to step S602.
  • Step S607 The shooting object determination unit 113 sorts the object information in the order from the closest (smallest) distance using the distance as a key. Return to upper process.
  • the visibility determination process here is a first visibility determination process.
  • the first visibility determination process is a process for determining whether or not the object is output on the display of the terminal device 13 using only the planar information of the object.
  • Step S701 The photographing object determining unit 113 substitutes 1 for the counter i.
  • Step S702 The shooting object determination unit 113 determines whether or not the i-th point exists in the area information of the object to be determined. If the i-th point exists, the process goes to step S703, and if the i-th point does not exist, the process goes to step S705.
  • the region information is assumed to be composed of points indicating the outer shape, for example.
  • the points indicating the outer shape include four points if the region indicated by the region information is a tetragon, and eight points if the region is an octagon.
  • the point is usually indicated by (latitude, longitude) or (x coordinate, y coordinate).
  • the shooting object determination unit 113 calculates an angle ( ⁇ ) between the i-th point and the position information, and temporarily stores the angle ( ⁇ ) in the buffer.
  • the reference for the angle ( ⁇ ) is, for example, true north. However, the standard only needs to be constant and is not necessarily true north.
  • the position information is information indicating the position of the terminal device 13.
  • Step S704 The photographing object determining unit 113 increments the counter i by 1. The process returns to step S702.
  • Step S705 The shooting object determining unit 113 acquires the minimum angle ( ⁇ 1 ) and the maximum angle ( ⁇ 2 ) from the angle ( ⁇ ) temporarily stored in the buffer in step S703.
  • Step S706 The shooting object determining unit 113 determines whether or not all the areas of the minimum angle ( ⁇ 1 ) and the maximum angle ( ⁇ 2 ) acquired in step S705 are already registered angle areas. To do. If it is an area of an already registered angle, go to step S710, and if it does not include any of the already registered angle areas, go to step S707.
  • Step S707 The shooting object determination unit 113 determines that this object is a shooting object.
  • Information for example, “1” indicating that the object is a shooting object is substituted as a return value.
  • Step S708 Since the shooting object determining unit 113 determines that this object is a shooting object, in addition to the angle currently registered as the invisible region, the shooting object determination unit 113 sets the minimum angle ( ⁇ 1 ) and the maximum angle ( ⁇ 2 ). Acquires the width (region) of the angle that makes the region an invisible region. For example, if “30 to 40 degrees” is currently registered, the minimum angle ( ⁇ 1 ) is 35 degrees, and the maximum angle ( ⁇ 2 ) is 45 degrees, the shooting object determination unit 113 Acquires “30 degrees to 45 degrees”. Also, for example, when “30 to 40 degrees” is currently registered, the minimum angle ( ⁇ 1 ) is 55 degrees, and the maximum angle ( ⁇ 2 ) is 60 degrees, “55 to 60 degrees”. Get "degree”.
  • Step S709 The shooting object determination unit 113 registers the angle acquired in step S708. For example, in the above, “30 degrees to 45 degrees” is overwritten with the information “30 degrees to 40 degrees”. For example, in the above, “55 degrees to 60 degrees” is additionally written. Return to upper process. At this time, a return value is also returned.
  • Step S710 The shooting object determination unit 113 determines that the shooting object determination unit 113 is a non-shooting object.
  • Information indicating that the object is a non-photographing object (for example, “0”) is substituted as a return value. Return to upper process. At this time, a return value is also returned.
  • the visibility determination process here is a second visibility determination process.
  • the second visibility determination process is a process for determining whether or not the object is output on the display of the terminal device 13 using only the three-dimensional information of the object.
  • the description of the same steps as those of the flowchart of FIG. 7 is omitted.
  • Step S801 The shooting object determination unit 113 calculates the angle ( ⁇ h ) in the height direction between the i-th point (x1, y1, z1) and the position information (x0, y0, z0), and stores it in the buffer. To do.
  • Step S802 The shooting object determining unit 113 acquires the angle ( ⁇ 3 ) in the height direction from the viewpoint (position information).
  • ⁇ 3 is the maximum angle among ⁇ h stored in step S801.
  • Step S803 The photographic object determination unit 113 determines whether or not an angle equal to or greater than the angle ( ⁇ 3 ) in the height direction has already been registered in the region of the minimum angle ( ⁇ 1 ) and the maximum angle ( ⁇ 2 ). Judging. If it is registered, the process goes to Step S710, and if not registered, the process goes to Step S707. If an angle equal to or higher than the angle ( ⁇ 3 ) in the height direction has already been registered, it indicates that the target object is in the invisible region and is not a shooting object.
  • Step S804 Since the shooting object determination unit 113 determines that this object is a shooting object, a plane having a minimum angle ( ⁇ 1 ) and a maximum angle ( ⁇ 2 ) in addition to the angle currently registered as the invisible region. Acquires the width (region) of the angle that makes the region an invisible region. For example, if “30 to 40 degrees” is currently registered, the minimum angle ( ⁇ 1 ) is 35 degrees, and the maximum angle ( ⁇ 2 ) is 45 degrees, the shooting object determination unit 113 Acquires “30 degrees to 45 degrees”.
  • the shooting object determination unit 113 acquires the angle ( ⁇ 3 ) in the height direction because this object is a shooting object. For example, when the height angle “30 degrees” is registered in the plane area of the minimum angle ( ⁇ 1 ) and the maximum angle ( ⁇ 2 ), the acquired angle in the height direction ( ⁇ 3 ) Is “35 degrees”, “35 degrees” is acquired.
  • Step S806 The shooting object determining unit 113 associates the angle of the planar area (for example, “30 degrees to 45 degrees”) acquired in Step S804 with the angle in the height direction (for example, “35 degrees”). Accumulate (register). Return to upper process. At this time, a return value is also returned. Note that the shooting object determination unit 113 determines that the angle in the height direction currently registered as the invisible area in the plane area of the minimum angle ( ⁇ 1 ) and the maximum angle ( ⁇ 2 ) is the angle in the height direction ( ⁇ 3) determines the whether or, if the height direction of the angle (theta 3) above, do not accumulate angle (theta 3) in the height direction.
  • the object related information acquisition unit 122 of the web server device 12 acquires object related information from the object related information storage unit 121 in response to an instruction from the outside (usually the terminal device 13 or the server device 11). Then, the object related information transmission unit 123 transmits the object related information acquired by the object related information acquisition unit 122 to the terminal device 13 or the server device 11.
  • Step S901 The receiving unit 1302 determines whether an instruction or the like has been received. If an instruction or the like is accepted, the process goes to step S902. If an instruction or the like is not accepted, the process returns to step S901.
  • Step S902 The first receiving unit 13021 determines whether or not the instruction received in step S901 is an object acquisition instruction.
  • the object acquisition instruction is an instruction to acquire information regarding the object being photographed. If it is an object acquisition instruction, the process proceeds to step S903, and if it is not an object acquisition instruction, the process proceeds to step S909.
  • Step S903 The position information acquisition unit 13031 of the terminal information acquisition unit 1303 acquires the position information of the terminal device 13.
  • Step S904 The direction information acquisition unit 13032 acquires direction information indicating the direction in which the terminal device 13 is facing.
  • the terminal information acquisition unit 1303 configures terminal information including the position information acquired in Step S903 and the direction information acquired in Step S904. In addition, it is suitable for the terminal information acquisition part 1303 to comprise the terminal information containing the viewing angle stored beforehand.
  • Step S906 The transmission unit 1305 transmits the terminal information configured in step S905 to the server device 11.
  • Step S907 The receiving unit 1306 determines whether or not the shooting object information has been received in response to the transmission of the terminal information. If the shooting object information is received, the process proceeds to step S908. If the shooting object information is not received, the process returns to step S907.
  • Step S908 The output unit 1309 and the like perform processing for outputting the shooting object information received in step S907. Such processing is called shooting object information output processing. The process returns to step S901.
  • Step S909 The second receiving unit 13022 determines whether or not the input received in Step S901 is an input to the area.
  • the input to the area is an instruction to display an area (frame) indicating the object. If the input is for an area, the process goes to step S910, and if not, the process goes to step S911.
  • Step S910 The output unit 1309 and the like perform a process of outputting information related to the object for the designated area. Such processing is called object-related information output processing. The process returns to step S901.
  • Step S911 The third receiving unit 13023 determines whether or not the input received in Step S901 is an input for setting the current layer. If the input is for setting the current layer, the process goes to step S912. If the input is not for setting the current layer, the process goes to step S913.
  • Step S912 The current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 in accordance with the input received in step S911.
  • Step S913 Each component performs an operation corresponding to the received instruction. For example, if the received instruction is a shooting start instruction, the camera unit 1304 is activated to acquire a video, and the camera video output unit 13091 outputs the video acquired by the camera unit 1304. Further, for example, when the received instruction is an output fixing instruction, the output fixing unit 1311 fixes the video and the region being output by the output unit 1309.
  • step S908 the shooting object information output process in step S908 will be described with reference to the flowchart of FIG.
  • Step S1001 The output unit 1309 reads the current layer from the current layer storage unit 1301.
  • Step S1002 The output information acquisition unit 1308 substitutes 1 for the counter i.
  • Step S1003 The output information acquisition unit 1308 determines whether or not the i-th shooting object exists in the shooting object information to be output. If the i-th shooting object exists, the process proceeds to step S1004. If the i-th shooting object does not exist, the process returns to the upper process.
  • Step S1004 The output information acquisition unit 1308 acquires area information of the i-th shooting object.
  • the output unit 1309 determines the frame size from the area information of the i-th shooting object.
  • the frame size is usually a frame (usually a rectangle) having a size corresponding to the area information.
  • Step S1006 The output unit 1309 determines whether or not the current layer read in step S1001 is an object identification layer. If it is the object identification layer, go to step S1007, and if it is not the object identification layer, go to step S1010.
  • Step S1007 The area output means 13092 configures a frame that matches the frame size determined in Step S1005.
  • the frame is, for example, a rectangular area window, object, figure, or the like.
  • the region output means 13092 outputs the frame configured in step S1007 to the region indicated by the region information.
  • the region output unit 13092 normally outputs a frame in a manner that overlaps the video output by the camera video output unit 13091. This frame can also be said to be area information included in one or more pieces of output information acquired by the output information acquisition unit 1308.
  • the distance output unit 13093 also outputs a distance included in one or more pieces of output information acquired by the output information acquisition unit 1308. It is more preferable to output the distance in association with the frame or the frame.
  • Step S1009 The output information acquisition unit 1308 increments the counter i by one. The process returns to step S1003.
  • Step S1010 The output unit 1309 determines whether or not the current layer read in step S1001 is a web search layer. If it is the web search layer, go to step S1007, and if it is not the web search layer, go to step S1009.
  • Step S1011 The output unit 1309 performs an object related information output process. Go to step S1009.
  • the output of area information (for example, a frame) is not essential.
  • the output of distance is not essential.
  • the output unit 1309 may output any information of the shooting object information.
  • step S101 the object related information output processing in step S101 will be described with reference to the flowchart of FIG.
  • Step S1101 The object identifier acquisition unit 1312 acquires an object identifier for an area corresponding to the input received by the second receiving unit 13022.
  • Step S1102 The object identifier transmission unit 1313 transmits the object identifier acquired in Step S1101 to one of the one or more web server devices 12.
  • the object identifier transmission unit 1313 transmits the object identifier to the web server device 12 corresponding to the URL.
  • the transmission of the object identifier includes transmission of some information for obtaining the object related information.
  • Step S1103 In response to the transmission of the object identifier in step S1102, the object-related information receiving unit 1307 determines whether or not the object-related information has been received. If the object related information is received, the process proceeds to step S1104. If the object related information is not received, the process returns to step S1103.
  • Step S1104 The output unit 1309 determines whether or not the object related information received in step S1103 is symbol information. If it is symbol information, go to step S1105, and if it is not symbol information, go to step S1106.
  • the symbol information is an image or icon that identifies an object.
  • the symbol information is, for example, a symbol image or symbol music (particularly an icon) described later.
  • Step S1105 The object related information output unit 13094 reduces or enlarges the object related information received by the object related information receiving unit 1307 according to the area.
  • Step S1106 The object related information output means 13094 outputs object related information. Return to upper process.
  • FIG. 1 A conceptual diagram of the information system 1 is shown in FIG.
  • the information system 1 has a concept as shown in FIG. 12, for example.
  • the information system 1 can realize extended web browsing (Augmented Web Browsing). That is, the information system 1 superimposes information related to an object included in an image captured by the camera (a frame indicating a region, a web page, a symbol image, etc.) on the object or another region (another window or another). Display).
  • extended web browsing Algmented Web Browsing
  • the terminal device 13 of the information system 1 has a plurality of layers as shown in FIG.
  • a layer is a hierarchy of processing performed by the terminal device 13. Examples of layers include camera layers (cameracamlayer), map sensing layers (Geospatial Sensing layer), object identification layers (Object-identification layer), web search layers (Web search API layer), touch-control layers (Touch-control layer) ) Etc.
  • the structure possessed by the plurality of layers is referred to as Layer-based “Media Integration” Platform.
  • the map sensing layer is a processing layer for detecting map information.
  • the touch control layer is a layer that accepts an instruction (usually touch) from the user and shifts to processing corresponding to the instruction.
  • the camera layer, the object identification layer, and the web search layer are layers that can distinguish output information and perform processing.
  • the map sensing layer and the touch control layer are layers for performing processing.
  • the current layer when the current layer is a camera layer, only the video acquired by the camera unit 1304 is output.
  • the current layer is an object identification layer
  • the video acquired by the camera unit 1304 and information (for example, a frame) about the object included in the video are output.
  • the current layer is a web search layer
  • the video acquired by the camera unit 1304, information about objects included in the video (for example, a frame), and information acquired from the web server device 12 are output. If the current layer is a web search layer, only the video acquired by the camera unit 1304 and information acquired from the web server device 12 may be output.
  • the information system 1 may have various layers in addition to the above layers (see FIG. 13).
  • the various layers include, for example, a media superimposing layer and a navigation layer.
  • the media superposition layer is a layer that superimposes and outputs various media.
  • the navigation layer is a layer for navigating the way to the object.
  • Specific example 1 is a mode in which an object included in a captured video is recognized in consideration of only planar information of the object without considering the height of the object, and information related to the object is output. is there.
  • Specific example 2 is an aspect in which the height of the object is also taken into account, the object included in the video being captured is recognized, and information related to the object is output.
  • the object information storage unit 111 of the server apparatus 11 holds the object information management table shown in FIG.
  • the object information management table is a table that manages object information on the map.
  • the object information management table manages one or more records having attribute values such as “object identifier”, “object name”, “URL”, “location information”, and “region information”.
  • the “object identifier” is an ID of an object.
  • “Object name” indicates the name of the object.
  • the URL is information indicating a location where a web page (object-related information here) describing the object exists.
  • “Position information” is information for specifying the position of an object, and here is (latitude, longitude).
  • “Area information” is information indicating a two-dimensional area in which an object is arranged, and here indicates three or more vertices of an object that is a polygon. The vertex is also (latitude, longitude) here.
  • the object related information storage unit 121 of the web server device 12 has, for example, object related information shown in FIG.
  • the object-related information includes a symbol image, symbol music, and a web page.
  • the symbol image is an image (icon) that symbolizes an object.
  • the symbol music is music that symbolizes an object and an image (icon) indicating the music.
  • the symbol music may be only music that symbolizes an object.
  • a web page is a type of explanation information that describes an object.
  • the web page may be a page that simply describes the object, advertisement information of the object, or a page that generates some action on the object (for example, order or reservation of goods or services). That is, the explanation information may be information that realizes processing that can be performed using a web page.
  • the web page may include a symbol image, symbol music, and the like.
  • the terminal device 13 is a terminal having two displays.
  • the terminal device 13 may be a terminal having one display or a terminal having three or more displays.
  • the accepting unit 1302 accepts an activation instruction.
  • the third receiving unit 13023 determines that the received input is an input for setting the current layer.
  • the current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 to the object identification layer according to the received input.
  • the user inputs an object acquisition instruction to obtain information on the object in the video from the state of the terminal device 13 shown in FIG.
  • the object acquisition instruction is preferably input by touching, but may be input by selection from a menu, input by an input means such as a keyboard, or the like.
  • the first receiving unit 13021 receives an object acquisition instruction.
  • the position information acquisition unit 13031 (here, for example, a GPS receiver) of the terminal information acquisition unit 1303 acquires the position information (X, Y) of the terminal device 13.
  • the direction information acquisition unit 13032 acquires direction information ( ⁇ A) indicating the direction in which the terminal device 13 is facing.
  • the direction information ( ⁇ A) indicates, for example, a clockwise angle from true north (90 degrees for true east).
  • the terminal information acquisition unit 1303 reads the information on the viewing angle that the camera unit 1304 has (simply referred to as “viewing angle”). Here, it is assumed that the viewing angle is “ ⁇ a”.
  • the camera unit 1304 stores a viewing angle “ ⁇ a” in advance.
  • the terminal information acquisition unit 1303 obtains terminal information (X, Y, ⁇ A, ⁇ a) having the acquired position information (X, Y), the acquired direction information ( ⁇ A), and the viewing angle ( ⁇ a). Constitute.
  • the transmission unit 1305 transmits the configured terminal information (X, Y, ⁇ A, ⁇ a) to the server device 11.
  • the server receiving unit 112 receives terminal information (X, Y, ⁇ A, ⁇ a) from the terminal device 13.
  • the server reception unit 112 determines a shooting object as follows. That is, the shooting object determination unit 113 acquires position information (X, Y) included in the received terminal information.
  • the shooting object determination unit 113 calculates an angle that becomes an invisible region by using the direction information ( ⁇ A) and the viewing angle ( ⁇ a) included in the terminal information.
  • the shooting object determination unit 113 sorts the object information in the object information storage unit 111 in the order of objects closer to the terminal device 13 using the acquired position information (X, Y).
  • the sort process is performed by the process described with reference to FIG.
  • the shooting object determination unit 113 acquires an object temporary management table as shown in FIG.
  • Each record of the object temporary management table has an object identifier and a distance. The distance is the distance between the point indicated by the position information (X, Y) and the point indicated by the object position information.
  • the shooting object determination unit 113 determines whether or not the shooting object is a shooting object from a higher-order record in the object temporary management table.
  • the shooting object determination unit 113 reads the object identifier “1” of the first record in the temporary object management table. Then, the object information management table is searched using the object identifier “1” as a key, and region information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 ) ”.
  • the shooting object determination unit 113 receives the received terminal information (X, Y, ⁇ A, ⁇ a) and the acquired area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 ) ”to determine whether or not the first object is a shooting object.
  • the shooting object determination unit 113 acquires the first point (x 1 , y 1 ) in the area information of the object to be determined (object with the object identifier “1”).
  • the shooting object determination unit 113 calculates an angle ( ⁇ 1) between the first point (x 1 , y 1 ) and the position information (X, Y), and temporarily stores the angle ( ⁇ 1) in the buffer. . Similarly, the shooting object determination unit 113 sets each point from the second point to the position information (X, Y) in the region information of the object to be determined (object having the object identifier “1”). The angles ( ⁇ 2, ⁇ 3, ⁇ 4) are calculated, and the angles ( ⁇ 2, ⁇ 3, ⁇ 4) are also temporarily stored in the buffer. ( ⁇ 1, ⁇ 2, ⁇ 3, ⁇ 4) is stored in the buffer.
  • the shooting object determination unit 113 acquires the minimum angle (for example, ( ⁇ 1)) and the maximum angle (for example, ( ⁇ 4)) from the angles ( ⁇ 1, ⁇ 2, ⁇ 3, ⁇ 4) temporarily stored in the buffer. To do.
  • the shooting object determination unit 113 stores the object identifier “1” of the first object in a storage medium (not shown). Next, the shooting object information determination unit 113 determines that a visible area exists from the registered invisible area or visible area.
  • the shooting object determination unit 113 acquires the second object identifier “17” of the temporary object management table, searches the object information management table using the identifier “17” as a key, and obtains the object identifier “17”.
  • the paired region information (for example, “(x 101 , y 101 ) (x 102 , y 102 ) (x 103 , y 103 ) (x 103 , y 103 )”) is acquired.
  • the shooting object determination unit 113 receives the received terminal information (X, Y, ⁇ A, ⁇ a) and the acquired area information “(x 101 , y 101 ) (x 102 , y 102 ) (x 103 , y). 103 ) (x 103 , y 103 ) ”is used to determine whether or not the second object is a shooting object.
  • the shooting object determination unit 113 acquires the first point (x 101 , y 101 ) in the area information of the object to be determined (object with the object identifier “17”).
  • the shooting object determination unit 113 calculates an angle ( ⁇ 101) between the first point (x 101 , y 101 ) and the position information (X, Y), and temporarily stores the angle ( ⁇ 101) in the buffer. .
  • the shooting object determining unit 113 sets each of the fourth point from the second point in the area information of the object to be determined (object having the object identifier “17”) and the position information (X, Y).
  • the angles ( ⁇ 102, ⁇ 103, ⁇ 104) are calculated, and the angles ( ⁇ 102, ⁇ 103, ⁇ 104) are also temporarily stored in the buffer. ( ⁇ 101, ⁇ 102, ⁇ 103, ⁇ 104) is stored in the buffer.
  • the shooting object determination unit 113 acquires the minimum angle (for example, ( ⁇ 101)) and the maximum angle (for example, ( ⁇ 103)) from the angles ( ⁇ 101, ⁇ 102, ⁇ 103, ⁇ 104) temporarily stored in the buffer. To do.
  • the shooting object determination unit 113 determines whether or not all of the acquired areas of the minimum angle ( ⁇ 101) and the maximum angle ( ⁇ 103) are already registered angle areas. Then, it is assumed that the shooting object determination unit 113 determines that all the areas of the minimum angle ( ⁇ 101) and the maximum angle ( ⁇ 103) are already registered angle areas. Therefore, the shooting object determination unit 113 determines that the object with the object identifier “17” is not a shooting object. Next, the shooting object information determination unit 113 determines that a visible area exists from the registered invisible area or visible area.
  • the shooting object determining unit 113 acquires the third object identifier “3” of the temporary object management table, searches the object information management table using the identifier “3” as a key, and sets the object identifier “17” as “17”.
  • the paired region information “(x 11 , y 11 ) (x 12 , y 12 ) (x 13 , y 13 ) (x 14 , y 14 )” is acquired.
  • the shooting object determination unit 113 receives the received terminal information (X, Y, ⁇ A, ⁇ a) and the acquired area information “(x 11 , y 11 ) (x 12 , y 12 ) (x 13 , y). 13 ) (x 14 , y 14 ) ”, it is determined whether or not the third object is a shooting object.
  • the shooting object determination unit 113 obtains the first point (x 11 , y 11 ) in the area information of the object to be determined (object with the object identifier “3”).
  • the shooting object determination unit 113 calculates an angle ( ⁇ 11) between the first point (x 11 , y 11 ) and the position information (X, Y), and temporarily stores the angle ( ⁇ 11) in the buffer. .
  • the shooting object determination unit 113 sets each point from the second point to the position information (X, Y) in the region information of the object to be determined (object with the object identifier “3”).
  • the angles ( ⁇ 12, ⁇ 13, ⁇ 14) are calculated, and the angles ( ⁇ 12, ⁇ 13, ⁇ 14) are also temporarily stored in the buffer. ( ⁇ 11, ⁇ 12, ⁇ 13, ⁇ 14) is stored in the buffer.
  • the shooting object determination unit 113 acquires the minimum angle (for example, ( ⁇ 11)) and the maximum angle (for example, ( ⁇ 14)) from the angles ( ⁇ 11, ⁇ 12, ⁇ 13, ⁇ 14) temporarily stored in the buffer. To do.
  • the shooting object determination unit 113 determines whether or not all of the acquired areas of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) are already registered angle areas.
  • the shooting object determination unit 113 compares the acquired area of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) with the angle of the already registered invisible area. Then, it is assumed that the shooting object determination unit 113 determines that the acquired area of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) is a visible area. Then, the shooting object determination unit 113 determines that the object with the object identifier “3” is a shooting object.
  • the shooting object determination unit 113 stores the object identifier “3” of the third object in a storage medium (not shown). Next, the shooting object information determination unit 113 determines that a visible area exists from the registered invisible area or visible area.
  • the shooting object information determination unit 113 determines that there is no visible area from the registered invisible area or visible area. Suppose that Finally, it is assumed that a set “1, 3, 25” of identifiers of shooting objects is obtained.
  • the shooting object information with the object identifier “1” is configured. That is, the shooting object information acquisition unit 115 obtains the object name “coffee shop A” of the object identifier “1”, the URL “http://www.coffee-A.co.jp”, the position information (from the object information management table). xa, ya) and area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” are read out. Next, the shooting object information acquisition unit 115 reads the distance “100 m” from the object temporary management table.
  • the shooting object information acquisition unit 115 has the object name “coffee shop A” of the object identifier “1”, the URL “http://www.coffee-A.co.jp”, the position information (xa, ya), the area.
  • the photographing object information having the information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” and the distance “100 m” is configured and temporarily stored in the buffer. .
  • the shooting object information acquisition unit 115 configures shooting object information with the object identifier “3” and the object identifier “25” and adds the shooting object information to the buffer. Then, the shooting object information acquisition unit 115 obtains a shooting object information management table shown in FIG.
  • the server transmission unit 116 transmits one or more pieces of shooting object information (shooting object information management table shown in FIG. 19) temporarily stored in the buffer to the terminal device 13.
  • the receiving unit 1306 receives one or more pieces of shooting object information in response to transmission of terminal information.
  • the output information acquisition unit 1308 includes shooting object information (object identifier “1”, object name “coffee shop A”, URL “http: // www. coffee-A.co.jp ", the position information (xa, ya), the area information" (x 1, y 1) ( x 2, y 2) (x 3, y 3) (x 4, y 4) ", Distance "100 m”).
  • the area output unit 13092 of the output unit 1309 uses the area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” of the shooting object, Determine the frame size.
  • the area output means 13092 configures a frame that matches the determined frame size. Then, the region output unit 13092 outputs the configured frame to the region indicated by the region information.
  • the distance output means 13093 outputs the distance “100 m” included in the shooting object information in association with the frame.
  • An example of such output is shown in FIG.
  • the frame is a rectangle.
  • the height of the frame matches the height of the display. That is, the height of the frame of all objects is constant.
  • the shooting object information includes shooting object direction information (the middle angle (average) between the maximum angle and the minimum angle). Then, the shooting object having the smallest difference between the direction information of the shooting object and the direction information included in the terminal information is selected, and the information of the shooting object is output. Furthermore, it goes without saying that the area output unit 13092 may output information on all the shooting objects. An output example in such a case is shown in FIG. In FIG. 21, only the distance of the shooting object with the shortest distance (or closest to the center) is output, but it goes without saying that the distances of all the shooting objects may be output.
  • the output fixing unit 1311 fixes the video and area (screen in FIG. 20) being output by the output unit 1309.
  • This screen fixing process is a known technique. Further, the screen fixing process is performed by, for example, a process in which the image of the VRAM is not changed and the operation of the camera unit 1304 is stopped.
  • the user inputs (touches) an instruction to the frame of the shooting object (object on which the frame is displayed) with the object identifier “1” while the screen is fixed.
  • the second accepting unit 13022 accepts an input for an area (here, a rectangular frame). Since the screen is fixed, even if the terminal device 13 is moved, the display on the screen does not change and the user can easily operate.
  • the object identifier acquisition unit 1312 acquires the object identifier for the area corresponding to the input received by the second receiving unit 13022 from the shooting object information.
  • the object identifier here is assumed to be “URL”. That is, the object identifier acquisition unit 1312 acquires the URL “http://www.coffee-A.co.jp”.
  • the current layer in the current layer storage unit 1301 may be changed to the web search layer. good.
  • the object identifier transmission unit 1313 changes the URL “http://www.coffee-A.co.jp” to the URL “http://www.coffee-A.co.jp” using the acquired URL “http://www.coffee-A.co.jp”.
  • the corresponding web server device 12 is accessed.
  • the object related information acquisition unit 122 of the web server device 12 acquires object related information corresponding to the URL “http://www.coffee-A.co.jp”.
  • the acquired object related information is the object related information shown in FIG.
  • the object related information transmission unit 123 of the web server device 12 transmits the object related information shown in FIG. 15 to the terminal device 13.
  • the object related information receiving unit 1307 of the terminal device 13 receives the object related information shown in FIG.
  • the output unit 1309 reduces the symbol image to the size of the frame size. Then, the object-related information output unit 13094 arranges the reduced symbol image in the frame area.
  • FIG. 22 shows an example of such output.
  • the reduced symbol image is 2201.
  • the output unit 1309 displays the video acquired by the camera unit 1304 on the first screen (first display unit 13141), and the object related information output unit 13094 receives the received object related information (here, symbol It is preferable to display the image) on the second display means 13142.
  • An example of such output is shown in FIG. In FIG. 23, the object related information output unit 13094 displays a frame and a distance on the first display unit 13141 and displays a symbol image on the second display unit 13142.
  • the terminal device 13 is in the display state of FIG. Next, it is assumed that the user inputs an instruction to set the current layer as the web search layer. Then, the third receiving unit 13023 determines that the received input is an input for setting the current layer. Next, the current layer changing unit 1310 changes the current layer in the current layer storage unit 1301 to the web search layer according to the received input.
  • the user inputs an object acquisition instruction to obtain information on the object in the video from the state of the terminal device 13 shown in FIG.
  • the terminal information acquisition unit 1303 forms terminal information (X, Y, ⁇ A, ⁇ a) by the processing described above.
  • the transmission unit 1305 transmits the configured terminal information (X, Y, ⁇ A, ⁇ a) to the server device 11.
  • the server receiving unit 112 receives terminal information (X, Y, ⁇ A, ⁇ a) from the terminal device 13.
  • the server receiving unit 112 determines the shooting object (ID [1, 3, 25]) by the processing described above. Then, the shooting object information acquisition unit 115 obtains a shooting object information management table shown in FIG.
  • the server transmission unit 116 transmits one or more pieces of shooting object information (shooting object information management table shown in FIG. 19) temporarily stored in the buffer to the terminal device 13.
  • the receiving unit 1306 receives one or more pieces of shooting object information in response to transmission of terminal information.
  • the output information acquisition unit 1308 includes shooting object information (object identifier “1”, object name “coffee shop A”, URL “http: // www. coffee-A.co.jp ", the position information (xa, ya), the area information" (x 1, y 1) ( x 2, y 2) (x 3, y 3) (x 4, y 4) ", Distance "100 m”).
  • the area output unit 13092 of the output unit 1309 uses the area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” of the shooting object, Determine the frame size.
  • the area output means 13092 configures a frame that matches the determined frame size. Then, the region output unit 13092 outputs the configured frame to the region indicated by the region information.
  • the distance output means 13093 outputs the distance “100 m” included in the shooting object information in association with the frame.
  • the object related information output unit 13094 displays the received object related information (here, a symbol image) on the second display unit 13142.
  • An example of such output is shown in FIG.
  • the object-related information output unit 13094 may output as shown in FIG. 22 instead of FIG. That is, the output mode of the object related information is not limited.
  • the frame is a full-sized frame.
  • the size of the object region may be calculated by a decreasing function using the distance as a parameter, and the frame may be output. That is, the larger the distance, the smaller the area of the object corresponding to the distance may be output.
  • the output is a frame as shown in FIG. In FIG. 24, the height of the frame is inversely proportional to the distance.
  • the object information storage unit 111 of the server apparatus 11 holds the object information management table shown in FIG.
  • the object information management table is a table that manages object information on the map.
  • the object information management table manages one or more records having attribute values such as “object identifier”, “object name”, “URL”, “location information”, and “region information”.
  • attribute values such as “object identifier”, “object name”, “URL”, “location information”, and “region information”.
  • each point constituting the area information has height information (z).
  • the object related information storage unit 121 of the web server device 12 has, for example, object related information shown in FIG.
  • the terminal device 13 is a terminal having two displays.
  • the terminal device 13 may be a terminal having one display or a terminal having three or more displays.
  • the accepting unit 1302 accepts an activation instruction.
  • the third receiving unit 13023 determines that the received input is an input for setting the current layer.
  • the current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 to the object identification layer according to the received input.
  • the user inputs an object acquisition instruction to obtain information on the object in the video from the state of the terminal device 13 shown in FIG.
  • the object acquisition instruction is preferably input by touching, but may be input by selection from a menu, input by an input means such as a keyboard, or the like.
  • the first receiving unit 13021 receives an object acquisition instruction.
  • the position information acquisition unit 13031 (here, for example, a GPS receiver) of the terminal information acquisition unit 1303 acquires the position information (X, Y, Z) of the terminal device 13.
  • Z is the height.
  • the direction information acquisition unit 13032 acquires direction information ( ⁇ A, ⁇ B) indicating the direction in which the terminal device 13 is facing.
  • ⁇ A is an angle on a plane
  • ⁇ B is an angle in the height direction.
  • the terminal information acquisition unit 1303 reads the information on the viewing angle that the camera unit 1304 has (simply referred to as “viewing angle”).
  • viewing angle it is assumed that the viewing angles are ( ⁇ a, ⁇ b).
  • the camera unit 1304 stores the viewing angles ( ⁇ a, ⁇ b) in advance.
  • ⁇ a is an angle on the plane
  • ⁇ b is an angle in the height direction.
  • the viewing angles ( ⁇ a, ⁇ b) are shown in FIG.
  • the terminal information acquisition unit 1303 acquires terminal information (X, Y) having the acquired position information (X, Y, Z), the acquired direction information ( ⁇ A, ⁇ B), and the viewing angle ( ⁇ a, ⁇ b). , Z, ⁇ A, ⁇ B, ⁇ a, ⁇ b).
  • the transmission unit 1305 transmits the configured terminal information (X, Y, Z, ⁇ A, ⁇ B, ⁇ a, ⁇ b) to the server device 11.
  • the server receiving unit 112 receives terminal information (X, Y, Z, ⁇ A, ⁇ B, ⁇ a, ⁇ b) from the terminal device 13.
  • the shooting object determination unit 113 determines the shooting object as follows. That is, the shooting object determination unit 113 acquires position information (X, Y, Z) included in the received terminal information.
  • the shooting object determination unit 113 calculates a three-dimensional angle that becomes an invisible region by using the direction information ( ⁇ A, ⁇ B) and the viewing angle ( ⁇ a, ⁇ b) included in the terminal information.
  • the area that is not the visible area is accumulated as an invisible area.
  • the shooting object determination unit 113 sorts the object information in the object information storage unit 111 in the order of objects closer to the terminal device 13 using the acquired position information (X, Y, Z).
  • the sort process is performed by the process described with reference to FIG.
  • the shooting object determination unit 113 acquires an object temporary management table as shown in FIG.
  • Each record of the object temporary management table has an object identifier and a distance.
  • the distance is a distance between a point indicated by the position information (X, Y, Z) (however, Z is not used) and a point indicated by the position information of the object.
  • the shooting object determination unit 113 determines whether or not the shooting object is a shooting object from a higher-order record in the object temporary management table.
  • the shooting object determination unit 113 reads the object identifier “1” of the first record in the temporary object management table. Then, the object information management table is searched using the object identifier “1” as a key, and region information “(x 1 , y 1 , z 1 ) (x 2 , y 2 , z) paired with the object identifier“ 1 ”is searched. 2 ) (x 3 , y 3 , z 3 ) (x 4 , y 4 , z 4 ) ”.
  • the shooting object determination unit 113 receives the received terminal information (X, Y, Z, ⁇ A, ⁇ B, ⁇ a, ⁇ b) and the acquired area information “(x 1 , y 1 , z 1 ) (x 2 ). , Y 2 , z 2 ) (x 3 , y 3 , z 3 ) (x 4 , y 4 , z 4 ) ”is used to determine whether or not the first object is a shooting object.
  • the shooting object determination unit 113 acquires the first point (x 1 , y 1 , z 1 ) in the area information of the object to be determined (object with the object identifier “1”).
  • the shooting object determination unit 113 calculates an angle ( ⁇ 11) on the plane between the first point (x 1 , y 1 , z 1 ) and the position information (X, Y, Z), and the angle ( ⁇ 11) is temporarily stored in the buffer.
  • the shooting object determination unit 113 calculates an angle ( ⁇ 12) in the height direction between the first point (x 1 , y 1 , z 1 ) and the position information (X, Y, Z), and calculates the angle ( ⁇ 12) is temporarily stored in the buffer.
  • the shooting object determination unit 113 and the fourth point from the second point in the area information of the object to be determined (object with the object identifier “1”) and position information (X, Y, Z) Are calculated on the plane ( ⁇ 12, ⁇ 13, ⁇ 14), and the angles ( ⁇ 12, ⁇ 13, ⁇ 14) are also temporarily stored in the buffer. ( ⁇ 11, ⁇ 12, ⁇ 13, ⁇ 14) is stored in the buffer.
  • the shooting object determination unit 113 sets each of the fourth point from the second point in the area information of the object to be determined (object having the object identifier “1”) and the position information (X, Y, The angle ( ⁇ 22, ⁇ 23, ⁇ 24) in the height direction with respect to Z) is calculated, and the angles ( ⁇ 22, ⁇ 23, ⁇ 24) are also temporarily stored in the buffer. ( ⁇ 21, ⁇ 22, ⁇ 23, ⁇ 24) is stored in the buffer.
  • the shooting object determining unit 113 determines the minimum angle (for example, ( ⁇ 11)) and the maximum angle (for example, ( ⁇ 14)) on the plane from the angles ( ⁇ 11, ⁇ 12, ⁇ 13, ⁇ 14) temporarily stored in the buffer. And get.
  • the shooting object determination unit 113 acquires the maximum angle ( ⁇ 24) in the height direction from the angles ( ⁇ 21, ⁇ 22, ⁇ 23, ⁇ 24) temporarily stored in the buffer.
  • the shooting object determination unit 113 determines whether or not all the acquired areas of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) on the plane are already registered areas. Here, it is assumed that the shooting object determination unit 113 determines that the acquired area of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) is a visible area. Then, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object.
  • the shooting object determining unit 113 may determine that a part of the acquired area of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) on the plane is not an already registered area. It is determined that it is in the visible region. That is, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object.
  • the shooting object determination unit 113 determines that all of the acquired areas of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) on the plane are already registered angle areas.
  • the maximum angle ( ⁇ 24) in the vertical direction is larger than the registered maximum angle in the height direction, it is determined that the region is the visible region in the region of the minimum angle ( ⁇ 11) and the maximum angle ( ⁇ 14) on the plane. That is, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object.
  • the shooting object determination unit 113 stores the object identifier “1” of the first object in a storage medium (not shown). Next, it is assumed that the shooting object information determination unit 113 determines that there is a visible area from the registered invisible area or visible area.
  • the above processing is also performed on the second and subsequent objects in FIG. 18 to determine the shooting object.
  • the shooting object information determination unit 113 repeats the above inspection (inspection for determining a shooting object) until it is determined from the registered invisible area or visible area that there is no visible area.
  • the shooting object information acquisition unit 115 has acquired object identifiers “1”, “3”, and “25” of the shooting object.
  • the shooting object information acquisition unit 115 has obtained the shooting object information management table shown in FIG.
  • the server transmission unit 116 transmits one or more pieces of shooting object information (shooting object information management table shown in FIG. 19) temporarily stored in the buffer to the terminal device 13.
  • the receiving unit 1306 receives the shooting object information in response to the transmission of the terminal information.
  • the output information acquisition unit 1308 includes shooting object information (object identifier “1”, object name “coffee shop A”, URL “http: // www. coffee-A.co.jp ", the position information (xa, ya), the area information" (x 1, y 1, z 1) (x 2, y 2, z 2) (x 3, y 3, z 3) (X 4 , y 4 , z 4 ) ”, distance“ 100 m ”).
  • the area output unit 13092 of the output unit 1309 displays the area information “(x 1 , y 1 , z 1 ) (x 2 , y 2 , z 2 ) (x 3 , y 3 , z 3 ) ( x 4 , y 4 , z 4 ) ”determines the frame size including the height.
  • the area output means 13092 configures a frame that matches the determined frame size. Then, the region output unit 13092 outputs the configured frame to the region indicated by the region information.
  • the distance output means 13093 outputs the distance “100 m” included in the shooting object information in association with the frame.
  • An example of such output is shown in FIG.
  • the frame is a rectangle.
  • the shooting object information includes shooting object direction information (the middle angle (average) between the maximum angle and the minimum angle). Then, the shooting object having the smallest difference between the direction information of the shooting object and the direction information included in the terminal information is selected, and the information of the shooting object is output. Furthermore, it goes without saying that the area output unit 13092 may output information on all the shooting objects. An example of output in such a case is shown in FIG. In FIG. 28, only the distance of the shooting object having the shortest distance (or closest to the center) is output, but it is needless to say that the distances of all the shooting objects may be output.
  • the subsequent processing may be the same as the processing described in the specific example 1.
  • the present embodiment it is possible to recognize an object photographed by a camera and output information related to the object. Therefore, the user can very easily obtain information such as buildings, landmarks, and parks viewed with his / her own eyes. Further, according to the present embodiment, high-speed processing can be performed by appropriately terminating the processing for detecting a shooting object. Therefore, the terminal device can be used for a navigation system.
  • the height of the object is also taken into account, for example, information on a building that is visible behind a certain building can be obtained.
  • the output object information is reduced or enlarged in accordance with the size of the display area (frame) on the camera, so that the size of the object can be easily understood.
  • the distance from the camera to the object is calculated and output, so that the distance to the object being photographed by the camera can be easily grasped and whether or not to go there It becomes support of the action.
  • the object being photographed by the camera can be recognized and information related to the object can be output.
  • appropriate information on an object can be obtained by acquiring and outputting object related information from a web server device.
  • the object related information is output on one of the two screens, so that the user can view the object related information without disturbing the video of the camera.
  • the user can operate the terminal device 13 with an easy posture when it is desired to obtain object related information.
  • the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CD-ROM and distributed. Needless to say, this software or a recording medium storing this software may be distributed as a computer program product. This also applies to other embodiments in this specification.
  • achieves the server apparatus 11 in this Embodiment is the following programs. That is, this program stores at least one piece of object information having an object identifier for identifying an object and area information indicating an area in which the object exists in a storage medium.
  • a server reception unit that receives terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing, position information included in the terminal information, and a direction included in the terminal information
  • a shooting object that applies information and a viewing angle stored in advance or possessed by the terminal information to region information of each object information of the storage medium to determine one or more objects being shot by the terminal device
  • a determination unit and one or more objects corresponding to the one or more objects determined by the shooting object determination unit To obtain one or more shooting object information including area information from the storage medium, and to function as a server transmission unit that transmits the shooting object information to the terminal device.
  • the area information includes two-dimensional area information indicating a two-dimensional area on a map and height information indicating the height of an object.
  • a shooting area in a three-dimensional space is acquired, and the shooting area is set as each object information of the storage medium. It is preferable to apply to the area information that the terminal device has and determine one or more objects that the terminal device is photographing.
  • the shooting object determination unit determines the distance between each object determined by the shooting object determination unit and the terminal device from the object information of each object and the position information of the terminal information.
  • a distance calculation unit that calculates for each object is further included, and the shooting object information acquisition unit includes area information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit. Is acquired from the storage medium, and it is preferable to configure one or more shooting object information including information including the region information and the distance calculated by the distance calculation unit.
  • the shooting object determination unit is the shooting object of the object that is present at the closest position in the video shot by the camera unit, or the most of the video shot by the camera unit. It is preferable to determine the shooting object of the object located closer to the center or the shooting object of the object having the largest area in the video shot by the camera unit.
  • the server transmission unit transmits the shooting object information to the terminal device or one or more of the web server devices.
  • the server transmission unit transmits the shooting object information to one or more web server devices
  • the object related information is transmitted from the web server device (directly or indirectly) to the terminal device.
  • the software that realizes the terminal device 13 in the present embodiment is the following program.
  • this program uses a computer to acquire terminal information including position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing, and a camera that acquires video.
  • An output unit including a camera video output unit that outputs video acquired by the camera unit, a transmission unit that transmits the terminal information acquired by the terminal information acquisition unit to the server device, and transmission of the terminal information Corresponding to the receiving unit that receives the one or more shooting object information, and an output information acquisition unit that acquires output information including one or more region information included in the one or more shooting object information received by the receiving unit; And the output unit outputs region information included in the one or more pieces of output information acquired by the output information acquisition unit, superimposed on the video output by the output unit.
  • the area output means can visually distinguish an area having a size corresponding to the area information included in the one or more pieces of output information acquired by the output information acquisition unit from other areas.
  • the output information acquisition unit acquires output information including one or more area information and one or more distances included in the shooting object information received by the reception unit, and the output unit includes the output It is preferable to further include distance output means for outputting a distance included in the one or more pieces of output information acquired by the information acquisition unit.
  • the area output unit outputs the object area corresponding to the distance smaller as the distance included in the one or more pieces of output information acquired by the output information acquisition unit is larger. It is.
  • the program further includes an object related information receiving unit that receives object related information
  • the output unit further includes an object related information output unit that outputs the object related information received by the object related information receiving unit. It is preferable to do.
  • the program includes a first display unit and a second display unit which are two separate display units, and the camera video output unit sends the video acquired by the camera unit to the first display unit. It is preferable that the object related information output means displays the object related information received by the object related information receiving unit on the second display means.
  • the output unit outputs the area information so that only the area information of one object can be visually distinguished from the other area information without outputting the area information of the other object. It is preferable to output the image superimposed on the current image.
  • the object related information output means outputs only the object related information of one object without outputting the object related information of another object.
  • the shooting object information includes an object identifier, and obtains an object identifier for an area corresponding to the input received by the second receiving means and a second receiving means for receiving an input to the fixed area.
  • An object identifier acquisition unit that transmits the object identifier acquired by the object identifier acquisition unit to any one of the one or more web server devices, the object related information reception unit, Corresponding to the transmission of the object identifier, it is preferable that the object-related information is received, and the transmission of the object identifier is performed by an instruction from the outside.
  • a camera layer that is a layer that outputs the video acquired by the camera unit
  • an object identification layer that is a layer that outputs an area corresponding to an object
  • a web search layer that is a layer that outputs object-related information
  • the camera video output means outputs the video acquired by the camera unit, and the current layer If it is an object identification layer, the camera video output Outputs the image acquired by the camera unit, and the region output means outputs the image superimposed on the image output by the output unit so that the region can be visually distinguished from other regions,
  • the camera video output means outputs the video acquired by the camera unit, and the area output means can visually distinguish the area from other areas. It is preferable that the video output by the output unit is superimposed on the video and the object related information output means outputs the object related information.
  • this program acquires a video from a terminal information acquisition unit that acquires terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing.
  • FIG. 29 is a conceptual diagram of the information system 2.
  • the information system 2 includes a web server device 12 and a terminal device 23.
  • the terminal device 23 may be a terminal having a single-screen display or a terminal having a multi-screen display.
  • the terminal device 23 has a camera function and can output an area of an object (such as a building) in the captured video, information related to the object, or the like when shooting an external landscape or a building.
  • the web server apparatus 12 and the terminal device 23 are normally communicable.
  • FIG. 30 is a block diagram of the information system 2 in the present embodiment.
  • the terminal device 23 includes an object information storage unit 111, a shooting object determination unit 113, a distance calculation unit 114, a shooting object information acquisition unit 115, a current layer storage unit 1301, a reception unit 1302, a terminal information acquisition unit 1303, a camera unit 1304, an object A related information receiving unit 1307, an output information acquiring unit 1308, an output unit 1309, a current layer changing unit 1310, an output fixing unit 1311, an object identifier acquiring unit 1312, an object identifier transmitting unit 1313, and a display unit 1314 are provided.
  • Step S3101 The shooting object information acquisition unit 115 acquires information including area information of the i-th shooting object from the object information storage unit 111. Then, the shooting object information acquisition unit 115 acquires the calculated distance of the i-th shooting object. Next, the shooting object information acquisition unit 115 configures the i-th shooting object information acquired from the object information storage unit 111 and shooting object information having a distance.
  • the specific operation of the information system 2 in the present embodiment is the same as the operation of the information system 1.
  • the terminal device and the server device do not communicate with each other, and the terminal device 23 is stand-alone and recognizes the object being photographed by the camera. And the terminal device 23 can acquire the information relevant to the object currently image
  • the terminal device 23 indicates an object information storage unit that can store one or more object information having an object identifier for identifying an object and region information indicating a region where the object exists, and indicates the position of the terminal device.
  • a terminal information acquisition unit that acquires terminal information including position information and direction information indicating a direction in which the terminal device is facing; a position information included in terminal information acquired by the terminal information acquisition unit; and the terminal information
  • a shooting object determination unit that applies the direction information and the viewing angle stored in advance to the area information of each object information in the object information storage unit and determines one or more objects being shot by the terminal device And one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit.
  • a shooting object information acquisition unit that acquires one or more shooting object information including area information from the object information storage unit, a camera unit that acquires a video, and a camera video that outputs a video acquired by the camera unit
  • a terminal device comprising: an output unit including an output unit and a region output unit that outputs region information included in the one or more pieces of shooting object information superimposed on the video.
  • the shooting object information determination unit inspects the objects in order from the shortest distance from the terminal device 23, and sets information on an area that becomes invisible by shooting the object previously determined that the terminal apparatus 23 is shooting. It is preferable to end the inspection as to whether or not the object has been photographed by the terminal device when the visible region runs out.
  • the terminal device 23 indicates an object information storage unit that can store one or more object information including an object identifier for identifying an object and region information indicating a region in which the object exists, and indicates the position of the terminal device.
  • a terminal information acquisition unit that acquires terminal information including position information and direction information indicating a direction in which the terminal device is facing; a position information included in terminal information acquired by the terminal information acquisition unit; and the terminal information
  • a shooting object determination unit that applies the direction information and the viewing angle stored in advance to the area information of each object information in the object information storage unit and determines one or more objects being shot by the terminal device And one or more pieces of object information corresponding to one or more objects decided by the shooting object decision unit Among them, one or more shooting object information including an object identifier is acquired from the object information storage unit, a shooting object information acquisition unit, a camera unit that acquires a video, and a video acquired by the camera unit is output.
  • a terminal device including an output unit that outputs the above-described shooting object information may be used.
  • the shooting object information determination unit inspects the objects in order from the shortest distance from the terminal device 23, and sets information on an area that becomes invisible by shooting the object previously determined that the terminal apparatus 23 is shooting. It is preferable to end the inspection as to whether or not the object has been photographed by the terminal device when the visible region runs out.
  • the terminal device can be used for a navigation system.
  • the software that realizes the terminal device in the present embodiment is the following program. That is, this program stores one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists in the storage medium, and the computer stores the position of the terminal device.
  • Terminal information acquisition unit that acquires terminal information including position information indicating the direction of the terminal device, direction information indicating the direction in which the terminal device is facing, position information included in the terminal information acquired by the terminal information acquisition unit, and the terminal
  • a shooting object determination unit that applies direction information included in information and a pre-stored viewing angle to region information of each object information of the storage medium, and determines one or more objects being shot by the terminal device And one or more pieces of object information corresponding to each of the one or more objects determined by the shooting object determination unit
  • a shooting object information acquisition unit that acquires one or more shooting object information including area information from the storage medium; a camera unit that acquires a video; a camera video output unit that outputs a video acquired by the camera unit;
  • the area information includes two-dimensional area information indicating a two-dimensional area on a map and height information indicating the height of an object.
  • a shooting area in a three-dimensional space is acquired, and the shooting area is compared with the area information included in each object information of the storage medium It is preferable to determine one or more objects being photographed by the terminal device.
  • the area output means can visually distinguish an area having a size corresponding to the area information included in the one or more pieces of output information acquired by the output information acquisition unit from other areas.
  • the shooting object determination unit determines the distance between each object determined by the shooting object determination unit and the terminal device from the object information of each object and the position information of the terminal information.
  • a distance calculation unit that calculates for each object is further included, and the shooting object information acquisition unit includes area information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit. Is acquired from the storage medium, and it is preferable to configure one or more shooting object information including information including the region information and the distance calculated by the distance calculation unit.
  • the output unit further includes distance output means for outputting a distance included in the one or more pieces of shooting object information.
  • the area output unit outputs the object area corresponding to the distance with a smaller distance as the distance included in the one or more shooting object information is larger.
  • the program further includes an object related information receiving unit that receives object related information from an external device, and the output unit outputs object related information that is output by the object related information receiving unit. It is preferable to further comprise means.
  • the terminal device includes a first display unit and a second display unit which are two separated display units, and the camera video output unit displays the video acquired by the camera unit, It is preferable that the object related information output means displays the object related information received by the object related information receiving unit on the second display means.
  • the output unit outputs the area information so that only the area information of one object can be visually distinguished from the other area information without outputting the area information of the other object. It is preferable to output the image superimposed on the current image.
  • the object related information output means outputs only the object related information of one object without outputting the object related information of another object.
  • the shooting object determination unit is the shooting object of the object that is present at the closest position in the video shot by the camera unit, or the most of the video shot by the camera unit. It is preferable to determine the shooting object of the object located closer to the center or the shooting object of the object having the largest area in the video shot by the camera unit.
  • the shooting object information includes an object identifier, and obtains an object identifier for an area corresponding to the input received by the second receiving means and a second receiving means for receiving an input to the fixed area.
  • An object identifier acquisition unit that transmits the object identifier acquired by the object identifier acquisition unit to any one of the one or more web server devices, the object related information reception unit, Corresponding to the transmission of the object identifier, it is preferable that the object-related information is received, and the transmission of the object identifier is performed by an instruction from the outside.
  • the storage layer is a camera layer that outputs a video acquired by the camera unit, an object identification layer that outputs a region corresponding to an object, and a layer that outputs object-related information.
  • the current layer that is the current layer is stored, and the third receiving unit that receives an input for setting the current layer, and the input received by the third receiving unit, A current layer changing unit for changing a current layer of the storage medium, and when the current layer is a camera layer, the camera video output means outputs the video acquired by the camera unit, and the current layer If it is an object identification layer, the camera video output Outputs the image acquired by the camera unit, and the region output means outputs the image superimposed on the image output by the output unit so that the region can be visually distinguished from other regions,
  • the camera video output means outputs the video acquired by the camera unit, and the area output means can visually distinguish the area from other areas. It is preferable that the video output by the output unit
  • this program stores one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists in the storage medium, and the computer stores the position of the terminal device.
  • Terminal information acquisition unit that acquires terminal information including position information that indicates and direction information that indicates a direction in which the terminal device is facing, position information that the terminal information acquired by the terminal information acquisition unit includes, and the terminal information
  • a shooting object determining unit that applies the direction information included in the image and the viewing angle stored in advance to the area information of each object information of the storage medium, and determines one or more objects being shot by the terminal device; Of the one or more pieces of object information corresponding to the one or more objects determined by the shooting object determination unit, A shooting object information acquisition unit that acquires one or more shooting object information including a project identifier from the storage medium; a camera unit that acquires a video; and a video acquired by the camera unit; and the one or more shooting objects A program for causing a computer to function as an output unit that outputs information.
  • the terminal device is a device having two screens.
  • the terminal device may be a one-screen device as shown in FIG.
  • the terminal device is a UMPC (Ultra-Mobile PC) with a camera.
  • the terminal device also has a pseudo see-through screen (Pseudo See-through Screen (touchable)).
  • the terminal device includes an accelerometer.
  • the terminal device includes a GPS receiver.
  • the geographical object included in the video captured by the camera is recognized by the method shown in FIG.
  • the entire area is made a visible area (target-field) and an invisible area. (No-distance specified).
  • an object close to view-point was inspected, and a shooting object was determined.
  • the inspection was performed while adding the area already determined to be a shooting object to the invisible area.
  • an object 3303 is determined as a shooting object.
  • the objects 3304 and 3305 that enter the invisible region by the object 3303 are not shooting objects.
  • the object 3306 is determined as a shooting object. That is, in FIG. 33, objects 3303 and 3306 are determined as shooting objects. In addition, as described above, it is determined whether or not a visible area exists from a registered invisible area or a visible area. When it is determined that a visible area does not exist, a geographic object included in a video is recognized. Processing was canceled.
  • the terminal device may be for vehicle use, that is, for example, the terminal device may be a so-called navigation terminal.
  • FIG. 34 shows the external appearance of a computer that executes the program described in this specification to realize the information system or the like of the above-described embodiment.
  • the above-described embodiments can be realized by computer hardware and a computer program executed thereon.
  • FIG. 34 is a general view of the computer system 340
  • FIG. 35 is a diagram showing an internal configuration of the computer system 340. As shown in FIG.
  • the computer system 340 includes a computer 341 including an FD drive 3411 and a CD-ROM drive 3412, a keyboard 342, a mouse 343, and a monitor 344.
  • the computer 341 stores an MPU 3413, a bus 3414 connected to the CD-ROM drive 3412 and the FD drive 3411, and a program such as a bootup program.
  • ROM 3415 for storing, RAM 3416 for temporarily storing application program instructions and providing a temporary storage space, and hard disk 3417 for storing application programs, system programs, and data.
  • the computer 341 may further include a network card that provides connection to the LAN.
  • a program that causes the computer system 340 to execute functions such as the information system of the above-described embodiment is stored in the CD-ROM 3501 or the FD 3502, inserted into the CD-ROM drive 3412 or the FD drive 3411, and further stored in the hard disk 3417. May be forwarded.
  • the program may be transmitted to the computer 341 via a network (not shown) and stored in the hard disk 3417.
  • the program is loaded into the RAM 3416 at the time of execution.
  • the program may be loaded directly from the CD-ROM 3501, the FD 3502, or the network.
  • the program does not necessarily include an operating system (OS) or a third-party program that causes the computer 341 to execute functions such as the information system of the above-described embodiment.
  • the program only needs to include an instruction portion that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 340 operates is well known and will not be described in detail.
  • processing performed by hardware for example, processing performed by a modem or an interface card in the transmission step (only performed by hardware). Not included) is not included.
  • the computer that executes the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • two or more communication means (server reception unit, server transmission unit, etc.) existing in one device may be physically realized by one medium.
  • each process may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.
  • the information system according to the present invention has an effect of recognizing an object photographed by a camera and outputting information related to the object, and is useful as an information system or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影オブジェクトを特定することに多大な時間を要する。 【解決手段】オブジェクト識別子とオブジェクトの領域情報とを有するオブジェクト情報を1以上格納し、映像を取得するカメラ部と、位置情報と方向情報とを有する端末情報を取得する端末情報取得部と、端末情報と視野角とを各オブジェクト情報の領域情報に適用し、装置からの距離が近い順に撮影オブジェクトを検査し、オブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に検査を終了する撮影オブジェクト決定部と、決定した1以上の撮影オブジェクト情報を取得する撮影オブジェクト情報取得部と、映像と1以上の撮影オブジェクト情報とを出力する出力部とを具備する端末装置により、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。

Description

情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム
 本発明は、カメラで撮影されているオブジェクトを認識し、オブジェクトの情報を画面上に表示する情報システム等に関するものである。
 従来、コンピュータ上の地理的情報と実風景の景観画像中の各部分とを対応付けて利用者に提示するとともに、各種情報(広告情報、案内情報等)を利用者に流す情報発信型景観ラベリング装置があった(特許文献1)。
 また、ホストコンピュータでの背景データの処理、データ転送、端末表示の時間を大幅に削減し、最新の背景地図を用いた三次元地図情報を端末装置上で構成し、軽快な操作を行うことができる地図関連情報配信システムがあった(特許文献2)。
 さらに、カメラ装置で撮影される映像に、被写体の情報を自動的に埋め込む被写体情報処理装置および被写体情報処理方法があった(特許文献3)。
特開平11-66347号公報 特開2008-158583号公報 特開2002-152713号公報
 しかしながら、従来のシステムにおいては、多数のオブジェクトが登録されていることを想定していない。つまり、非常に多くのオブジェクトが登録されている場合、現在、撮影されているオブジェクトを特定することに多大な時間を要する、とともに多大なCPUパワーが必要となる。したがって、例えば、ナビゲーションシステムに利用できない。
 本第一の発明の情報システムは、サーバ装置と端末装置とを具備する情報システムであって、サーバ装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置から、端末装置の位置を示す位置情報と端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されているまたは端末情報が有する視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、撮影オブジェクト情報を、端末装置に送信するサーバ送信部とを具備し、端末装置は、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、端末情報取得部が取得した端末情報をサーバ装置に送信する送信部と、端末情報の送信に対応して、1以上の撮影オブジェクト情報を受信する受信部と、受信部が受信した1以上の撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する出力情報取得部とを具備し、出力部は、出力部が出力している映像に重ねて、出力情報取得部が取得した1以上の出力情報に含まれる領域情報を出力する領域出力手段を具備し、前記撮影オブジェクト情報決定部は、前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する情報システムである。
 かかる構成により、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、ナビゲーションシステムにも利用できる。
 また、本第二の発明の情報システムは、第一に対して、領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、撮影オブジェクト決定部は、端末情報が有する位置情報および方向情報と、予め格納されているまたは端末情報が有する視野角とを用いて、三次元空間上での撮影領域を取得し、撮影領域を、オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、端末装置が撮影している1以上のオブジェクトを決定する情報システムである。
 かかる構成により、カメラで撮影しているオブジェクトを三次元で捕らえることができる。したがって、例えば、前のビルより高いビルであり、カメラ画像に写っているビルを認識し、当該ビルに関する情報を出力できる。また、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、ナビゲーションシステムにも利用できる。
 また、本第三の発明の情報システムは、第一または第二に対して、領域出力手段は、出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する情報システムである。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて出力できる。
 また、本第四の発明の情報システムは、第一から第三いずれかに対して、サーバ装置は、撮影オブジェクト決定部が決定した各オブジェクトと端末装置との距離を、各オブジェクトのオブジェクト情報と端末情報が有する位置情報とから、撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、撮影オブジェクト情報取得部は、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報をオブジェクト情報格納部から取得し、領域情報を含む情報と距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成する情報システムである。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を取得できる。
 また、本第五の発明の情報システムは、第四に対して、出力情報取得部は、受信部が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得し、出力部は、出力情報取得部が取得した1以上の出力情報に含まれる距離を出力する距離出力手段をさらに具備する情報システムである。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を出力できる。
 また、本第六の発明の情報システムは、第四または第五に対して、領域出力手段は、出力情報取得部が取得した1以上の出力情報に含まれる距離が大きいほど、距離に対応するオブジェクトの領域を小さくして出力する情報システムである。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて、端末装置に出力できる。
 また、本第七の発明の情報システムは、第一から第六いずれかに対して、1以上のウェブサーバ装置をさらに具備し、ウェブサーバ装置は、オブジェクトに関する情報であるオブジェクト関連情報を格納し得るオブジェクト関連情報格納部と、外部からの指示に応じて、オブジェクト関連情報を取得するオブジェクト関連情報取得部と、オブジェクト関連情報を送信するオブジェクト関連情報送信部とを具備し、端末装置は、オブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、出力部は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備する情報システムである。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトに関連する情報を出力できる。
 また、本第八の発明の情報システムは、第七に対して、端末装置は、2つの分離された表示部である第一表示手段および第二表示手段を具備し、カメラ映像出力手段は、カメラ部が取得した映像を、第一表示手段に表示し、オブジェクト関連情報出力手段は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を、第二表示手段に表示する情報システムである。
 かかる構成により、カメラで撮影している映像と、映像内のオブジェクトに関連する情報との両方を、適切な領域にそれぞれ出力できる。
 また、本第九の発明の情報システムは、第一から第八いずれかに対して、領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する情報システムである。
 かかる構成により、カメラで撮影している映像内のオブジェクトの領域を適切に出力できる。
 また、本第十の発明の情報システムは、第七から第九いずれかに対して、オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力する情報システムである。
 かかる構成により、カメラで撮影している映像内のオブジェクトに関連する情報を適切に出力できる。
 また、本第十一の発明の情報システムは、第九または第一に対して、撮影オブジェクト決定部は、カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定する情報システムである。
 かかる構成により、カメラで撮影している映像内の一つのオブジェクトに関連する情報、または領域を出力できる。
 また、本第十二の発明の情報システムは、第一から第一一いずれかに対して、端末装置は、ユーザの指示を受け付ける第一受付手段と、受付部が指示を受け付けた場合、出力部が出力中の映像と領域を固定する出力固定部とをさらに具備する情報システムである。
 かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。
 また、本第十三の発明の情報システムは、第一二に対して、撮影オブジェクト情報は、オブジェクト識別子を含み、端末装置は、固定された領域に対する入力を受け付ける第二受付手段と、第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、オブジェクト識別子取得部が取得したオブジェクト識別子を1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、オブジェクト関連情報受信部は、オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、オブジェクト識別子の送信は、外部からの指示により行われる情報システムである。
 かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。
 また、本第十四の発明の情報システムは、第八から第一三いずれかに対して、端末装置は、カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納し得るカレントレイヤ格納部と、カレントレイヤを設定する入力を受け付ける第三受付手段と、第三受付手段で受け付けた入力に従って、カレントレイヤ格納部のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、カレントレイヤがカメラレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、カレントレイヤがオブジェクト識別レイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、カレントレイヤがウェブサーチレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、かつ、オブジェクト関連情報出力手段はオブジェクト関連情報を出力する情報システムである。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 また、本第十五の発明の情報システムは、第七から第一三いずれかに対して、オブジェクト関連情報は、ウェブページ、オブジェクトのシンボル画像、またはオブジェクトに関する音情報のうちの1以上の情報である情報システムである。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 また、本第十六の発明の情報システムは、サーバ装置と端末装置とを具備する情報システムであって、サーバ装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置から、端末装置の位置を示す位置情報と端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されているまたは端末情報が有する視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、撮影オブジェクト情報を、端末装置に送信するサーバ送信部とを具備し、端末装置は、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、端末情報取得部が取得した端末情報をサーバ装置に送信する送信部と、端末情報の送信に対応して、撮影オブジェクト情報を受信する受信部と、受信部が受信した撮影オブジェクト情報を出力する出力部とを具備する情報システムである。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 また、本第十七の発明の情報システムは、第一六に対して、1以上のウェブサーバ装置をさらに具備し、ウェブサーバ装置は、オブジェクトに関する情報であるオブジェクト関連情報を格納し得るオブジェクト関連情報格納部と、外部からの指示に応じて、オブジェクト関連情報を取得するオブジェクト関連情報取得部と、オブジェクト関連情報を送信するオブジェクト関連情報送信部とを具備し、サーバ装置のサーバ送信部は、撮影オブジェクト情報を、端末装置または1以上のいずれかのウェブサーバ装置に送信し、端末装置の受信部が受信する撮影オブジェクト情報は、オブジェクト関連情報である情報システムである。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 また、本第十八の発明の端末装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、端末情報取得部が取得した端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されている視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力するカメラ映像出力手段と、映像に重ねて、1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備する端末装置である。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。また、サーバ装置との通信なしに、簡易に適切な情報が表示できる。
 また、本第十九の発明の端末装置は、第一八に対して、領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、撮影オブジェクト決定部は、端末情報が有する位置情報および方向情報と、予め格納されている視野角とを用いて、三次元空間上での撮影領域を取得し、撮影領域を、オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、端末装置が撮影している1以上のオブジェクトを決定する端末装置である。
 かかる構成により、カメラで撮影しているオブジェクトを三次元で捕らえることができる。
 また、本第二十の発明の端末装置は、第一八または第一九に対して、領域出力手段は、出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する端末装置である。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて出力できる。
 また、本第二十一の発明の端末装置は、第一八から第二いずれかに対して、撮影オブジェクト決定部が決定した各オブジェクトと端末装置との距離を、各オブジェクトのオブジェクト情報と端末情報が有する位置情報とから、撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、撮影オブジェクト情報取得部は、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報をオブジェクト情報格納部から取得し、領域情報を含む情報と距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成する端末装置である。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を取得できる。
 また、本第二十二の発明の端末装置は、第二一に対して、出力部は、1以上の撮影オブジェクト情報に含まれる距離を出力する距離出力手段をさらに具備する端末装置である。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を出力できる。
 また、本第二十三の発明の端末装置は、第二一または第二二に対して、領域出力手段は、1以上の撮影オブジェクト情報に含まれる距離が大きいほど、距離に対応するオブジェクトの領域を小さくして出力する端末装置である。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて、端末装置に出力できる。
 また、本第二十四の発明の端末装置は、第一八から第二三いずれかに対して、外部の装置からオブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、出力部は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備する端末装置である。
 かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトに関連する情報を出力できる。
 また、本第二十五の発明の端末装置は、第二四に対して、2つの分離された表示部である第一表示手段および第二表示手段をさらに具備し、カメラ映像出力手段は、カメラ部が取得した映像を、第一表示手段に表示し、オブジェクト関連情報出力手段は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を、第二表示手段に表示する端末装置である。
 かかる構成により、カメラで撮影している映像と、映像内のオブジェクトに関連する情報との両方を、適切な領域にそれぞれ出力できる。
 また、本第二十六の発明の端末装置は、第一八から第二五いずれかに対して、領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する端末装置である。
 かかる構成により、カメラで撮影している映像内のオブジェクトの領域を適切に出力できる。
 また、本第二十七の発明の端末装置は、第二四から第二六いずれかに対して、オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力する端末装置である。
 かかる構成により、カメラで撮影している映像内のオブジェクトに関連する情報を適切に出力できる。
 また、本第二十八の発明の端末装置は、第二六または第二七に対して、撮影オブジェクト決定部は、カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定する端末装置である。
 かかる構成により、カメラで撮影している映像内の一つのオブジェクトに関連する情報、または領域を出力できる。
 また、本第二十九の発明の端末装置は、第一八から第二八いずれかに対して、端末装置は、ユーザの指示を受け付ける第一受付手段と、受付部が指示を受け付けた場合、出力部が出力中の映像と領域を固定する出力固定部とをさらに具備する端末装置である。
 かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。
 また、本第三十の発明の端末装置は、第二九に対して、撮影オブジェクト情報は、オブジェクト識別子を含み、固定された領域に対する入力を受け付ける第二受付手段と、第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、オブジェクト識別子取得部が取得したオブジェクト識別子を1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、オブジェクト関連情報受信部は、オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、オブジェクト識別子の送信は、外部からの指示により行われる端末装置である。
 かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。
 また、本第三十一の発明の端末装置は、第二五から第三いずれかに対して、カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納し得るカレントレイヤ格納部と、カレントレイヤを設定する入力を受け付ける第三受付手段と、第三受付手段で受け付けた入力に従って、カレントレイヤ格納部のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、カレントレイヤがカメラレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、カレントレイヤがオブジェクト識別レイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、カレントレイヤがウェブサーチレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、かつ、オブジェクト関連情報出力手段はオブジェクト関連情報を出力する端末装置である。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 また、本第三十二の発明の端末装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、端末情報取得部が取得した端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されている視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力し、1以上の撮影オブジェクト情報を出力する出力部とを具備する端末装置である。
 かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 本発明による情報システムによれば、カメラで撮影したオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。
 以下、情報システム等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 (実施の形態1)
 本実施の形態において、カメラで撮影して取得した映像に映っているオブジェクトを認識し、オブジェクトに関連する情報を出力する情報システム1について説明する。
 オブジェクトに関連する情報とは、オブジェクトの領域や、オブジェクトに関連するウェブページや、オブジェクトのシンボル画像やシンボル的な音楽や音情報や、オブジェクトに到達するまでの案内情報(画像、文字列、音声など問わない)などである。
 図1は、本実施の形態における情報システム1の概念図である。情報システム1は、サーバ装置11、1以上のウェブサーバ装置12、端末装置13を具備する。端末装置13は、図1においては2画面のディスプレイを有する端末であるが、1画面のディスプレイを有する端末でも良い。端末装置13は、カメラ機能を有し、外部の風景、建物などを撮影している際に、撮影している映像内のオブジェクト(建物など)の領域や、オブジェクトに関連する情報などを出力できる。また、サーバ装置11、ウェブサーバ装置12、および端末装置13は、通常、通信可能である。
 なお、情報システム1は、サーバ装置11と端末装置13のみにより実現されても良い。また、かかる場合、サーバ装置11は、ウェブサーバ装置の機能を有していても良い。また、ウェブサーバ装置12は、いわゆるウェブ上のウェブページを格納している装置であるが、格納している情報は、ウェブページでなく、広告情報など、他の情報でも良い。ウェブサーバ装置12が格納している情報の形式や内容は問わない。
 図2は、本実施の形態における情報システム1のブロック図である。サーバ装置11は、オブジェクト情報格納部111、サーバ受信部112、撮影オブジェクト決定部113、距離算出部114、撮影オブジェクト情報取得部115、サーバ送信部116を具備する。
 ウェブサーバ装置12は、オブジェクト関連情報格納部121、オブジェクト関連情報取得部122、オブジェクト関連情報送信部123を具備する。
 端末装置13は、カレントレイヤ格納部1301、受付部1302、端末情報取得部1303、カメラ部1304、送信部1305、受信部1306、オブジェクト関連情報受信部1307、出力情報取得部1308、出力部1309、カレントレイヤ変更部1310、出力固定部1311、オブジェクト識別子取得部1312、オブジェクト識別子送信部1313、表示部1314を具備する。
 受付部1302は、第一受付手段13021、第二受付手段13022、第三受付手段13023を具備する。端末情報取得部1303は、位置情報取得手段13031、方向情報取得手段13032を有する。出力部1309は、カメラ映像出力手段13091、領域出力手段13092、距離出力手段13093、オブジェクト関連情報出力手段13094を具備する。表示部1314は、第一表示手段13141、第二表示手段13142を具備する。
 オブジェクト情報格納部111は、1以上のオブジェクト情報を格納し得る。オブジェクト情報とは、オブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有する情報である。オブジェクトとは、通常、地図上または地理上に現れるオブジェクトである地理オブジェクトである。オブジェクトは、例えば、建物、山、川、名勝、公園などである。オブジェクトは、例えば、ビルの中の店舗や会社などでも良い。オブジェクトは、地図上または地理上に現れるものであれば、内容は問わない。オブジェクト情報格納部111は、地図情報を格納していても良い。かかる場合、地図情報は1以上のオブジェクト情報を含む。オブジェクト識別子とはオブジェクトを識別する情報であり、例えば、オブジェクトの名称、オブジェクトを識別するID、オブジェクトについての情報が格納されているウェブページのURL、URIなどである。領域情報とは、通常、二次元の領域の情報である。ただし、三次元の領域の情報でも、一次元の情報(点の情報)でも良い。つまり、領域情報はオブジェクトの位置(点)を特定する位置情報(X,Y)でも良い。この(X,Y)は、例えば、(緯度,経度)であり、例えば、オブジェクトの領域の重心点を示す情報である。領域が矩形であるとする場合、領域情報は、例えば、矩形の左上点、右下点の位置情報(経度,緯度)の情報である。さらに、領域情報は、例えば、三次元のオブジェクトの立体図形(例えば、6面体)の頂点を構成する点(8点)の集合や、立体図形(例えば、6面体)の高さを有する4点の集合などである。
 オブジェクト情報格納部111は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。オブジェクト情報格納部111にオブジェクト情報が記憶される過程は問わない。例えば、記録媒体を介してオブジェクト情報がオブジェクト情報格納部111で記憶されるようになってもよく、通信回線等を介して送信されたオブジェクト情報がオブジェクト情報格納部111で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたオブジェクト情報がオブジェクト情報格納部111で記憶されるようになってもよい。
 サーバ受信部112は、端末装置13から、端末情報を受信する。端末情報は、端末装置13の位置を示す位置情報と端末装置13が向いている方向を示す方向情報とを有する。端末情報は、通常、端末装置13を識別する端末識別子を有する。位置情報とは、通常、(緯度,経度)の情報であるが、空間内の位置を示す情報でも良い。空間内の位置を示す情報は、例えば、(緯度,経度、高度)である。方向情報は、東西南北などの方位の情報を含んでも良い。また、方向情報は、端末の向き(上向き、下向きなど)を含んでも良い。方向情報は、例えば、56.2°(北を0°、東を90°とする方位)や、南南西などである。方向情報は、例えば、高さ方向の角度を含んでも良い。また、方向情報は、例えば、(Yaw,Pitch,Roll)などでも良い。(Yaw,Pitch,Roll)の「Yaw」は垂直軸に対する角度や先端の左右の揺れの度合い(長さなど)、「Pitch」は横軸に対する角度や先端の上下の揺れの度合い、「Roll」は縦軸に対する角度や端末装置13全体の左右の揺れの度合いである。なお、位置情報とは、例えば、GPS受信機により取得される。また、方向情報とは、例えば、コンパス、またはコンパスとジャイロにより取得される。方向情報や位置情報を取得する手段は問わない。さらに、端末情報は、端末装置13を識別する端末識別子(例えば、情報の送受信に用いられるIPアドレスや、電話番号や、IDや、MACアドレスなど)も含むことは好適である。
 サーバ受信部112は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
 撮影オブジェクト決定部113は、端末情報が有する位置情報と、端末情報が有する方向情報と、視野角とを、オブジェクト情報格納部111の各オブジェクト情報の領域情報に適用し、端末装置13が撮影している1以上のオブジェクトを決定する。視野角とは、カメラ部1304が撮影可能な角度であり、平面上の角度でも良いし、高さ方向を含めた立体的な角度でも良い。立体的な角度とは、例えば、平面上の角度(θ1)と高さ方向の角度(θ2)とにより得られる。また、視野角は、撮影オブジェクト決定部113が予め格納していても良いし、端末情報に含まれていても良い。ここで、「オブジェクトを決定する」とは、オブジェクト識別子を取得することでも良いし、オブジェクト情報の全部または一部を取得することでも良いし、オブジェクト情報を管理しているテーブルのレコードIDを取得すること等でも良い。つまり、「オブジェクトを決定する」とは、オブジェクトを特定する情報を取得することであれば良い。
 撮影オブジェクト決定部113は、例えば、カメラ部1304が撮影した映像の中で、端末装置13から最も距離が近い位置に存在するオブジェクトの撮影オブジェクト、またはカメラ部1304が撮影した映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、またはカメラ部1304が撮影した映像の中で最も大きい領域(平面上または立体上)を有するオブジェクトの撮影オブジェクトを決定しても良い。
 撮影オブジェクト決定部113は、端末情報が有する位置情報と、オブジェクト情報格納部111の各オブジェクト情報の領域情報等から取得されるオブジェクトの位置を示すオブジェクト位置情報とから、端末装置13とオブジェクトの距離を算出し、当該距離が予め決められた距離以内、または、当該距離が近い方から、予め決められた数のオブジェクトを、撮影オブジェクトとして決定しても良い。かかる場合、撮影オブジェクトの取得アルゴリズムとしては正確ではないが、高速な処理が可能となる。のあ、距離の算出は、距離算出部114が行っても良いことは言うまでもない。
 撮影オブジェクト決定部113は、さらに具体的には、例えば、後述する図5のフローチャートに示すようなアルゴリズムで、端末装置13が撮影している1以上のオブジェクトを決定することは好適である。
 撮影オブジェクト決定部113は、通常、MPUやメモリ等から実現され得る。撮影オブジェクト決定部113の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 距離算出部114は、撮影オブジェクト決定部113が決定した各オブジェクトと端末装置13との距離を、各オブジェクトのオブジェクト情報と端末情報が有する位置情報とから、撮影オブジェクト決定部113が決定したオブジェクトごとに算出する。ここで、距離とは、領域の重心と位置情報が示す位置との距離、領域のいずれかの点と位置情報が示す位置との距離、位置情報が示す位置に最も近い領域内の点との距離などでも良い。つまり、距離の算出基準は種々あり得る。また、位置情報は、領域情報から生成された情報でも良い。位置情報は、例えば、領域情報から得られる領域の重心を取得されることにより得られる。距離算出部114は、通常、MPUやメモリ等から実現され得る。距離算出部114の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 撮影オブジェクト情報取得部115は、撮影オブジェクト決定部113が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部111から取得する。撮影オブジェクト情報取得部115は、撮影オブジェクト情報として、どのような情報を含んでも良い。撮影オブジェクト情報取得部115は、例えば、撮影オブジェクトごとに、距離算出部114が算出した距離を含んでも良い。撮影オブジェクト情報取得部115は、通常、MPUやメモリ等から実現され得る。撮影オブジェクト情報取得部115の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 サーバ送信部116は、撮影オブジェクト情報取得部115が取得した撮影オブジェクト情報を、端末装置13に送信する。サーバ送信部116は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
 オブジェクト関連情報格納部121は、オブジェクトに関する情報であるオブジェクト関連情報を格納し得る。オブジェクト関連情報とは、ウェブページ、特に、電子商取引や予約のウェブページ、前記オブジェクトのシンボル画像、または前記オブジェクトに関する音情報(音楽情報を含む)、オブジェクトを宣伝広告する広告情報、オブジェクトに到達するための道案内情報(音声、画像、テキストなど)、オブジェクトを想起させるゲームのプログラムなど、オブジェクトに関連する情報であれば何でも良い。オブジェクト関連情報格納部121は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
 オブジェクト関連情報格納部121にオブジェクト関連情報が記憶される過程は問わない。例えば、記録媒体を介してオブジェクト関連情報がオブジェクト関連情報格納部121で記憶されるようになってもよく、通信回線等を介して送信されたオブジェクト関連情報がオブジェクト関連情報格納部121で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたオブジェクト関連情報がオブジェクト関連情報格納部121で記憶されるようになってもよい。
 オブジェクト関連情報取得部122は、外部からの指示に応じて、オブジェクト関連情報を取得する。外部からの指示とは、例えば、端末装置13に出力された領域(オブジェクトの領域、枠など)を、ユーザがポイントすることにより発生した指示である。かかる指示は、端末装置13から直接届いても良いし、サーバ装置11経由で届いても良い。オブジェクト関連情報とは、オブジェクト関連情報を構成する一部の情報でも良い。オブジェクト関連情報取得部122は、通常、MPUやメモリ等から実現され得る。オブジェクト関連情報取得部122の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 オブジェクト関連情報送信部123は、オブジェクト関連情報取得部122が取得したオブジェクト関連情報を送信する。オブジェクト関連情報送信部123は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
 カレントレイヤ格納部1301は、カレントレイヤを格納し得る。カレントレイヤとは、現在のレイヤである。レイヤとは、端末装置13が行う処理の階層である。端末装置13は、通常、複数のレイヤを有する。レイヤには、例えば、カメラ部1304が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤがある。そして、例えば、端末装置13は、下から、カメラレイヤ、オブジェクト識別レイヤ、ウェブサーチレイヤというレイヤを有する。また、例えば、端末装置13は、ナビゲーションレイヤやゲームレイヤや音楽レイヤや写真レイヤなどの他のアプリケーションを示すレイヤを有しても良い。ナビゲーションレイヤとは、オブジェクトまでの道案内を出力するためのレイヤである。ゲームレイヤとは、ゲームプログラムを出力し、ゲームを行える環境を提供するレイヤである。音楽レイヤとは、音楽を出力するレイヤである。写真レイヤとは、1以上の写真を出力するレイヤである。
 カレントレイヤ格納部1301は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。カレントレイヤ格納部1301にカレントレイヤが記憶される過程は問わない。例えば、記録媒体を介してカレントレイヤがカレントレイヤ格納部1301で記憶されるようになってもよく、通信回線等を介して送信されたカレントレイヤがカレントレイヤ格納部1301で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたカレントレイヤがカレントレイヤ格納部1301で記憶されるようになってもよい。
 受付部1302は、ユーザから、指示やデータ等の入力を受け付ける。指示やデータ等の入力手段は、キーボードやマウスやテンキーやメニュー画面によるもの等、何でも良い。受付部1302は、キーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 受付部1302を構成する第一受付手段13021は、ユーザの指示を受け付ける。また、第二受付手段13022は、固定された領域に対する入力を受け付ける。さらに、第三受付手段13023は、カレントレイヤを設定する入力を受け付ける。ユーザの指示や、固定された領域に対する入力や、カレントレイヤを設定する入力などの入力手段は同じ手段でも良いし、異なる手段でも良い。
 端末情報取得部1303は、端末装置13の位置を示す位置情報と、端末装置13が向いている方向を示す方向情報とを有する端末情報を取得する。
 端末情報取得部1303を構成する位置情報取得手段13031は、端末装置13の位置を示す位置情報を取得する。位置情報取得手段13031は、例えば、GPS受信機により構成される。また、位置情報取得手段13031は、例えば、無線電波の受信手段と、3つ以上の基地局から受信した3つ以上の電波の強度から位置情報を取得する処理手段(例えば、MPUやメモリ等で構成される手段)とから構成されても良い。位置情報取得手段13031が位置情報を取得する方法は問わない。また、位置情報は、二次元上の位置でも良いし、三次元空間における位置でも良い。
 方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報を取得する。方向情報は、2次元上の向きを示す情報でも良いし、3次元上の方向(上下方向も含む)を示す情報でも良い。方向情報取得手段13032は、例えば、コンパスで実現される。また、方向情報取得手段13032は、例えば、コンパスとジャイロで実現される。
 また、端末情報は、カメラ部1304の視野角を含んでも良い。視野角とは、視野角の情報と同意義である。かかる場合、例えば、端末情報取得部1303は、カメラ部1304の視野角を予め格納している、とする。視野角は、二次元の角度でも三次元の角度でも良い。なお、端末装置13(カメラ部1304)の位置、方向、視野角が分かれば、撮影できる領域が分かる。つまり、端末情報は、カメラ部1304が撮影する領域を特定する情報である。撮影する領域は、三次元の領域であることが好適であるが、二次元の領域でも良い。
 また、端末情報は、端末識別子を含んでも良い。視野角や端末識別子は、例えば、端末情報取得部1303が有する図示しない記憶媒体に格納されている。端末識別子とは、端末を識別する情報であり、例えば、電話番号、IPアドレス、MACアドレスなどである。
 カメラ部1304は、映像を取得する。カメラ部1304は、いわゆるカメラである。カメラ部1304は、通常、現在、ファインダーに映っている映像を取得する。カメラ部1304は、例えば、CCDカメラにより実現され得る。
 送信部1305は、端末情報取得部1303が取得した端末情報をサーバ装置11に送信する。送信部1305は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
 受信部1306は、端末情報の送信に対応して、撮影オブジェクト情報を受信する。撮影オブジェクト情報は、通常、オブジェクト識別子も含む。撮影オブジェクト情報は、端末装置13から当該オブジェクトまでの距離を含んでも良い。受信部1306は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
 オブジェクト関連情報受信部1307は、オブジェクト関連情報を受信する。オブジェクト関連情報受信部1307は、オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信しても良い。また、オブジェクト関連情報受信部1307は、オブジェクト関連情報を、ウェブサーバ装置12、またはサーバ装置11から受信する。また、オブジェクト関連情報受信部1307は、オブジェクト関連情報を、ウェブサーバ装置12からサーバ装置11経由で受信しても良い。オブジェクト関連情報受信部1307は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
 出力情報取得部1308は、受信部1306が受信した撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する。なお、通常、出力情報取得部1308は、領域情報とオブジェクト識別子とを対に有する出力情報を取得する。出力情報取得部1308は、受信部1306が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得しても良い。なお、出力情報取得部1308は、撮影オブジェクト情報を出力部1309などの他の要素に、単に渡す場合は、何ら処理を行わない。かかる場合、出力情報取得部1308は、不要である。出力情報取得部1308は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力情報取得部1308は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 出力部1309は、映像、音声、文字列、画像などのうちの一以上の情報を出力する。出力部1309は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部1309は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 カメラ映像出力手段13091は、カメラ部1304が取得した映像を出力する。カメラ映像出力手段13091は、カメラ部1304が取得した映像を、第一表示手段13141に表示することは好適である。
 領域出力手段13092は、カメラ映像出力手段13091が出力している映像に重ねて、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報を出力する。かかる場合、領域情報が示すオブジェクトの領域が視覚的に判断できるように、領域情報(例えば、枠)を出力する。領域出力手段13092は、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、カメラ映像出力手段13091が出力している映像に重ねて出力する。領域出力手段13092は、出力情報取得部1308が取得した1以上の出力情報に含まれる距離が大きいほど、距離に対応するオブジェクトの領域を小さくして出力することは好適である。領域出力手段13092は、他のオブジェクトの領域は出力せず、一のオブジェクトの領域のみを他の領域と視覚的に区別可能なように、カメラ映像出力手段13091が出力している映像に重ねて出力することは好適である。「一のオブジェクトの領域のみ」とは、他の領域を出力しない意図であり、他の種類の情報(領域情報以外の情報)を出力しない意図ではない。なお、上記において、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報は、1以上の撮影オブジェクトに含まれる領域情報でも良い。
 領域出力手段13092は、ディスプレイ等の出力デバイスを含むと考えても含まないと考えても良い。領域出力手段13092は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 距離出力手段13093は、1以上の撮影オブジェクトに含まれる距離を出力する。距離出力手段13093は、領域出力手段13092が出力した領域に対応付けて出力することは好適である。また、距離出力手段13093は、出力部1309が出力している映像に重ねて、距離を出力することは好適である。ここで、「領域に対応付けて」とは、領域内に距離を出力することが好適であるが、領域外への距離の出力でも良い。距離出力手段13093は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。距離出力手段13093は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 オブジェクト関連情報出力手段13094は、オブジェクト関連情報受信部1307が受信したオブジェクト関連情報を出力する。
 オブジェクト関連情報出力手段13094は、オブジェクト関連情報受信部1307が受信したオブジェクト関連情報を、第二表示手段13142に表示することは好適である。かかる場合、カメラ部1304が取得した映像が第一表示手段13141に表示され、オブジェクト関連情報が第二表示手段13142に表示される。オブジェクト関連情報出力手段13094は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力することは好適である。ここで、「一のオブジェクトのオブジェクト関連情報のみを出力する」とは、他のオブジェクトのオブジェクト関連情報は出力しないことであり、他の種類の情報を出力しないことではない。オブジェクト関連情報出力手段13094は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。オブジェクト関連情報出力手段13094は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 カレントレイヤ変更部1310は、第三受付手段13023で受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤを変更する。第三受付手段13023で受け付けた入力には、カレントレイヤを特定する情報(カレントレイヤまたは、カレントレイヤを進める情報(レイヤに順序がある場合))が含まれる、とする。カレントレイヤ変更部1310は、通常、MPUやメモリ等から実現され得る。カレントレイヤ変更部1310の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 出力固定部1311は、受付部1302が指示を受け付けた場合、出力部1309が出力中の映像と領域を固定する。ここで、固定とは、Pause、Resumeのことである。つまり、固定とは、カメラのアングルを動かしても、画面上に出力されている映像や領域情報などは動かない、という意味である。そして、出力固定部1311は、出力部1309が出力中の映像と領域を、少なくとも一時的に、図示しない記憶媒体に記録する。なお、出力中の映像などを固定する技術は、いわゆるビデオムービーなどの機能と同様であり、公知技術である。出力固定部1311は、通常、MPUやメモリ等から実現され得る。出力固定部1311の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 オブジェクト識別子取得部1312は、第二受付手段13022で受け付けた入力に対応する領域に対するオブジェクト識別子を取得する。オブジェクト識別子取得部1312は、例えば、領域情報と対になっているオブジェクト識別子を取得する。オブジェクト識別子取得部1312は、例えば、指示された枠(領域)で特定される領域情報を、1以上の撮影オブジェクト情報から取得し、当該領域情報と対になるオブジェクト識別子を取得する。なお、ここで、オブジェクト識別子とは、オブジェクトを識別する情報であれば良く、例えば、URLやオブジェクト名などでも良い。また、オブジェクト識別子取得部1312が取得するオブジェクト識別子と、他の構成要素が処理するオブジェクト識別子とが異なった種類の情報(例えば、オブジェクトIDとURLなど)でも良い。オブジェクト識別子取得部1312は、通常、MPUやメモリ等から実現され得る。オブジェクト識別子取得部1312の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 オブジェクト識別子送信部1313は、オブジェクト識別子取得部1312が取得したオブジェクト識別子を1以上のウェブサーバ装置12のいずれかに送信する。オブジェクト識別子送信部1313は、オブジェクト識別子をサーバ装置11に送信しても良い。オブジェクト識別子送信部1313は、オブジェクト識別子により特定できるウェブサーバ装置12に、オブジェクト関連情報の送信指示を送信しても良い。かかる場合も、オブジェクト識別子の送信である、とする。オブジェクト識別子送信部1313は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
 表示部1314は、情報を表示するデバイスである。第一表示手段13141は、情報を表示する第一のデバイスである。第二表示手段13142は、情報を表示する第二のデバイスである。第一表示手段13141と第二表示手段13142とは、例えば、物理的に分離されていることは好適であるが、それぞれ、一ディスプレイを2分割したウィンドウでも良い。
 次に、情報システム1の動作について説明する。まず、サーバ装置11の動作について、図4のフローチャートを用いて説明する。
 (ステップS401)サーバ受信部112は、端末装置13から、端末情報を受信したか否かを判断する。端末情報を受信すればステップS402に行き、端末情報を受信しなければステップS401に戻る。
 (ステップS402)撮影オブジェクト決定部113は、ステップS401で受信された端末情報を用いて、当該端末情報が有する位置情報および/または方向情報を、オブジェクト情報格納部111の各オブジェクト情報の領域情報に適用し、端末装置13が撮影している(端末装置13のディスプレイに映っている)1以上のオブジェクトを決定する。かかる処理を撮影オブジェクト決定処理という。なお、撮影オブジェクト決定部113は、予め格納されている視野角をも用いて、端末装置13が撮影している1以上のオブジェクトを決定することは好適である。なお、端末装置13が撮影しているオブジェクトを撮影オブジェクトとも言う。撮影オブジェクト決定処理について、図5のフローチャートを用いて説明する。
 (ステップS403)距離算出部114は、ステップS401で受信された端末情報が有する位置情報を取得する。かかる位置情報は、端末装置13の位置を示す情報である。
 (ステップS404)距離算出部114は、カウンタiに1を代入する。
 (ステップS405)距離算出部114は、i番目の撮影オブジェクトが存在するか否かを判断する。i番目の撮影オブジェクトが存在すればステップS406に行き、i番目の撮影オブジェクトが存在しなければステップS410に行く。
 (ステップS406)距離算出部114は、i番目の撮影オブジェクトの位置情報を、オブジェクト情報格納部111から取得する。なお、i番目の撮影オブジェクトの位置情報は、i番目の撮影オブジェクトのオブジェクト情報に含まれる。
 (ステップS407)距離算出部114は、ステップS403で取得した位置情報が示す地点と、ステップS406で取得した位置情報が示す地点との距離を算出する。2地点の各位置情報から、両地点の距離を算出する技術は公知技術である。なお、ここで算出された距離は、端末装置13と撮影オブジェクトとの距離である。
 (ステップS408)撮影オブジェクト情報取得部115は、i番目の撮影オブジェクトの領域情報を含む情報をオブジェクト情報格納部111から取得する。そして、撮影オブジェクト情報取得部115は、オブジェクト情報格納部111から取得したi番目の撮影オブジェクトの情報と、ステップS407で取得した距離を有する撮影オブジェクト情報を構成する。次に、撮影オブジェクト情報取得部115は、i番目の撮影オブジェクト情報をバッファに一時格納する。
 (ステップS409)距離算出部114は、カウンタiを1、インクリメントする。ステップS405に戻る。
 (ステップS410)サーバ送信部116は、ステップS408でバッファに一時格納された1以上の撮影オブジェクト情報を、端末装置13に送信する。ステップS401に戻る。
 なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 また、図4のフローチャートにおいて、端末装置13と撮影オブジェクトとの距離の算出は、一度だけで良いことは言うまでもない。つまり、ステップS402の中で、端末装置13と撮影オブジェクトとの距離を算出し、格納した場合には、ステップS406からS407の処理は不要となる。
 次に、ステップS402の撮影オブジェクト決定処理について、図5のフローチャートを用いて説明する。
 (ステップS501)撮影オブジェクト決定部113は、ステップS401で受信された端末情報が有する位置情報を取得する。
 (ステップS502)撮影オブジェクト決定部113は、ステップS401で受信された端末情報が有する方向情報と、視野角とを用いて、撮影されない角度を取得する。そして、撮影オブジェクト決定部113は、かかる角度(不可視領域の角度)を記録媒体に登録(記録)する。例えば、方向情報が90度(例えば、真東)であり、視野角が40度である場合、撮影される角度は「70度から110度」である。したがって、撮影オブジェクト決定部113は、「0<=不可視領域の角度<70」および「110<不可視領域の角度<=360」を登録する。なお、ここで、撮影オブジェクト決定部113は、撮影される角度(可視領域の角度)を取得し、登録しても良い。つまり、可視領域の角度の登録も、不可視領域の角度の登録と同意義である、とする。
 (ステップS503)撮影オブジェクト決定部113は、ステップS501で取得した位置情報を用いて、端末装置13から近いオブジェクトの順に、オブジェクト情報格納部111のオブジェクト情報をソートする。かかる処理をオブジェクトソート処理という。オブジェクトソート処理について、図6のフローチャートを用いて説明する。
 (ステップS504)撮影オブジェクト決定部113は、カウンタiに1を代入する。
 (ステップS505)撮影オブジェクト決定部113は、オブジェクト情報格納部111に、i番目のオブジェクトが存在するか否かを判断する。i番目のオブジェクトが存在すればステップS506に行き、i番目のオブジェクトが存在しなければ上位処理にリターンする。
 (ステップS506)撮影オブジェクト決定部113は、オブジェクト情報格納部111から、i番目のオブジェクトのオブジェクト情報が有する領域情報を取得する。
 (ステップS507)撮影オブジェクト決定部113は、ステップS501で取得した位置情報と、ステップS505で取得した領域情報とを用いて、i番目のオブジェクトが、撮影オブジェクト(端末装置13のディスプレイに映っている)か否かを判断する。かかる判断を、可視判断処理という。可視判断処理について、図7、図8のフローチャートを用いて説明する。
 (ステップS508)撮影オブジェクト決定部113は、ステップS506における判断の結果、i番目のオブジェクトが撮影オブジェクトであればステップS509に行き、撮影オブジェクトでなければステップS510に行く。
 (ステップS509)撮影オブジェクト決定部113は、少なくとも、i番目のオブジェクトのオブジェクト識別子を図示しない記憶媒体に格納する。
 (ステップS510)撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在するか否かを判断する。可視領域が存在すればステップS511に行き、存在しなければ上位処理にリターンする。なお、かかる判断は、二次元平面において行われても良いし、三次元空間において行われても良い。
 (ステップS511)撮影オブジェクト決定部113は、カウンタiを1、インクリメントする。ステップS505に戻る。
 なお、図5のフローチャートにおいて、不可視領域の角度を登録したが、可視領域の角度を登録し、以後、かかる角度に入いるオブジェクトのみを処理対象としても良い。
 また、図5のフローチャートのステップS510において、撮影オブジェクト情報決定部113は、端末装置13からの距離が近い順(範囲や角度を区切った中のオブジェクトの集合の中での近い順でも良い)にオブジェクトを検査し、端末装置13が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合(すべてが不可視領域になった場合と同意義)に、オブジェクトが端末装置13に撮影されているか否かの検査を終了することを説明した。
 さらに、具体的には、ステップS510の処理は、以下である。つまり、撮影オブジェクト情報決定部113は、端末装置13から近い順にオブジェクトを検査し、端末装置13が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報(ここでは、通常、後述の最小角度(θ)および最大角度(θ))を不可視領域として登録し、次に検査するオブジェクトと端末装置13とにより不可視領域となる領域の情報を取得し、前記最小角度(θ)および最大角度(θ)により特定される領域のすべてが既に不可視領域として登録されているか否かを判断し、不可視領域として登録されていなければ前記次に検査するオブジェクトを端末装置13が撮影しているとして決定し、当該最小角度(θ)および最大角度(θ)により特定される領域を不可視領域として登録する処理を繰り返し、端末情報が有する視野角すべての領域が不可視領域となった場合に、オブジェクトの検査を終了することである。
 また、図5のフローチャートにおいて、ステップS510の処理は無くても良い。
 さらに、図5のフローチャートにおいて、可視領域が存在しなくなった場合に、撮影されているオブジェクトの検知処理を終了した。しかし、閾値の数だけ、可視領域内のオブジェクトが見つかった場合、予め決められた条件に合致するオブジェクトが見つかった場合など、他の条件により、オブジェクトの検知処理を終了しても良い。
 次に、ステップS502のオブジェクトソート処理について、図6のフローチャートを用いて説明する。
 (ステップS601)撮影オブジェクト決定部113は、カウンタiに1を代入する。
 (ステップS602)撮影オブジェクト決定部113は、オブジェクト情報格納部111に、i番目のオブジェクトが存在するか否かを判断する。i番目のオブジェクトが存在すればステップS603に行き、i番目のオブジェクトが存在しなければステップS607に行く。
 (ステップS603)撮影オブジェクト決定部113は、i番目のオブジェクトの位置情報を、オブジェクト情報格納部111から取得する。なお、i番目のオブジェクトの位置情報は、i番目のオブジェクトのオブジェクト情報に含まれる。
 (ステップS604)撮影オブジェクト決定部113は、ステップS403で取得した位置情報が示す地点と、ステップS603で取得した位置情報が示す地点との距離を算出する。
 (ステップS605)撮影オブジェクト決定部113は、ステップS604で取得した距離とi番目のオブジェクトのオブジェクト情報(またはそのうちの一部の情報)とを対にして、図示しない記録媒体に一時的に格納する。
 (ステップS606)撮影オブジェクト決定部113は、カウンタiを1、インクリメントする。ステップS602に戻る。
 (ステップS607)撮影オブジェクト決定部113は、距離をキーとして、距離の近い(小さい)順に、オブジェクト情報をソートする。上位処理にリターンする。
 次に、ステップS506の可視判断処理について、図7のフローチャートを用いて説明する。なお、ここでの可視判断処理は、第一の可視判断処理である。第一の可視判断処理は、オブジェクトの平面的な情報のみを用いて、オブジェクトが端末装置13のディスプレイに出力されているか否かを判断する処理である。
 (ステップS701)撮影オブジェクト決定部113は、カウンタiに1を代入する。
 (ステップS702)撮影オブジェクト決定部113は、判断対象となるオブジェクトの領域情報の中にi番目の点が存在するか否かを判断する。i番目の点が存在すればステップS703に行き、i番目の点が存在しなければステップS705に行く。なお、領域情報は、例えば、その外形を示す点から構成されるとする。外形を示す点とは、領域情報が示す領域が4角形であれば4点存在し、8角形であれば8点存在する。点とは、通常、(緯度,経度)または(x座標、y座標)などで示される。
 (ステップS703)撮影オブジェクト決定部113は、i番目の点と位置情報との角度(θ)を算出し、当該角度(θ)をバッファに一時記憶する。角度(θ)の基準は、例えば、真北である。ただし、基準は一定であれば良く、真北であるとは限らない。なお、位置情報とは、端末装置13の位置を示す情報である。
 (ステップS704)撮影オブジェクト決定部113は、カウンタiを1、インクリメントする。ステップS702に戻る。
 (ステップS705)撮影オブジェクト決定部113は、ステップS703でバッファに一時格納された角度(θ)から、最小の角度(θ)と最大角度(θ)とを取得する。
 (ステップS706)撮影オブジェクト決定部113は、ステップS705で取得した最小の角度(θ)と最大角度(θ)の領域すべてが、既に登録されている角度の領域であるか否かを判断する。既に登録されている角度の領域であればステップS710に行き、既に登録されている角度の領域を一部でも含まない場合はステップS707に行く。
 (ステップS707)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであると判断する。リターン値として、撮影オブジェクトである旨の情報(例えば、「1」)を代入する。
 (ステップS708)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであるとしたために、現在、不可視領域として登録されている角度に加え、最小の角度(θ)と最大角度(θ)の領域を不可視領域とする角度の幅(領域)を取得する。なお、例えば、現在、「30度から40度」が登録されており、最小の角度(θ)が35度であり、最大角度(θ)が45度である場合、撮影オブジェクト決定部113は、「30度から45度」を取得する。また、例えば、現在、「30度から40度」が登録されており、最小の角度(θ)が55度であり、最大角度(θ)が60度である場合、「55度から60度」を取得する。
 (ステップS709)撮影オブジェクト決定部113は、ステップS708で取得した角度を登録する。なお、例えば、上記において、「30度から45度」は、「30度から40度」の情報に上書きされる。また、例えば、上記において、「55度から60度」が追記される。上位処理にリターンする。このとき、リターン値も返される。
 (ステップS710)撮影オブジェクト決定部113は、撮影オブジェクト決定部113は、このオブジェクトを非撮影オブジェクトであると判断する。リターン値として、非撮影オブジェクトである旨の情報(例えば、「0」)を代入する。上位処理にリターンする。このとき、リターン値も返される。
 次に、ステップS506の可視判断処理について、図8のフローチャートを用いて説明する。なお、ここでの可視判断処理は、第二の可視判断処理である。第二の可視判断処理は、オブジェクトの立体的な情報のみを用いて、オブジェクトが端末装置13のディスプレイに出力されているか否かを判断する処理である。図8のフローチャートにおいて、図7のフローチャートと同様のステップについて、説明を省略する。
 (ステップS801)撮影オブジェクト決定部113は、i番目の点(x1,y1,z1)と位置情報(x0,y0,z0)との高さ方向の角度(θ)を算出し、バッファに格納する。
 (ステップS802)撮影オブジェクト決定部113は、視点(位置情報)からの高さ方向の角度(θ)を取得する。θは、ステップS801で格納したθのうち、最大の角度である。
 (ステップS803)撮影オブジェクト決定部113は、最小の角度(θ)と最大角度(θ)の領域において、高さ方向の角度(θ)以上の角度が既に、登録されているか否かを判断する。登録されていればステップS710に行き、登録されていなければステップS707に行く。高さ方向の角度(θ)以上の角度が既に登録されている場合は、対象となるオブジェクトは不可視領域にあり、撮影オブジェクトではないことを示す。
 (ステップS804)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであるとしたために、現在、不可視領域として登録されている角度に加え、最小角度(θ)と最大角度(θ)の平面領域を不可視領域とする角度の幅(領域)を取得する。なお、例えば、現在、「30度から40度」が登録されており、最小の角度(θ)が35度であり、最大角度(θ)が45度である場合、撮影オブジェクト決定部113は、「30度から45度」を取得する。
 (ステップS805)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであるとしたために、高さ方向の角度(θ)を取得する。なお、例えば、現在、最小の角度(θ)と最大角度(θ)の平面領域において、高さの角度「30度」が登録されている場合、取得した高さ方向の角度(θ)が「35度」であれば、「35度」を取得する。
 (ステップS806)撮影オブジェクト決定部113は、ステップS804で取得した平面領域の角度(例えば、「30度から45度」)と、高さ方向の角度(例えば、「35度」)を対応付けて蓄積(登録)する。上位処理にリターンする。このとき、リターン値も返される。なお、撮影オブジェクト決定部113は、最小角度(θ)と最大角度(θ)の平面領域において、現在、不可視領域として登録されている高さ方向の角度が、高さ方向の角度(θ)以上であるか否かを判断し、高さ方向の角度(θ)以上であれば、高さ方向の角度(θ)を蓄積しない。
 次に、情報システム1のウェブサーバ装置12の動作について説明する。ウェブサーバ装置12のオブジェクト関連情報取得部122は、外部(通常、端末装置13またはサーバ装置11)からの指示に応じて、オブジェクト関連情報を、オブジェクト関連情報格納部121から取得する。そして、オブジェクト関連情報送信部123は、オブジェクト関連情報取得部122が取得したオブジェクト関連情報を端末装置13またはサーバ装置11に送信する。
 次に、端末装置13の動作について、図9のフローチャートを用いて説明する。
 (ステップS901)受付部1302は、指示等を受け付けたか否かを判断する。指示等を受け付ければステップS902に行き、指示等を受け付けなければステップS901に戻る。
 (ステップS902)第一受付手段13021は、ステップS901で受け付けた指示がオブジェクト取得指示であるか否かを判断する。オブジェクト取得指示とは、撮影しているオブジェクトに関する情報を取得する指示である。オブジェクト取得指示であればステップS903に行き、オブジェクト取得指示でなければステップS909に行く。
 (ステップS903)端末情報取得部1303の位置情報取得手段13031は、端末装置13の位置情報を取得する。
 (ステップS904)方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報を取得する。
 (ステップS905)端末情報取得部1303は、ステップS903で取得した位置情報と、ステップS904で取得した方向情報とを有する端末情報を構成する。なお、端末情報取得部1303は、予め格納している視野角を含む端末情報を構成することは好適である。
 (ステップS906)送信部1305は、ステップS905で構成した端末情報をサーバ装置11に送信する。
 (ステップS907)受信部1306は、端末情報の送信に対応して、撮影オブジェクト情報を受信したか否かを判断する。撮影オブジェクト情報を受信すればステップS908に行き、撮影オブジェクト情報を受信しなければステップS907に戻る。
 (ステップS908)出力部1309等は、ステップS907で受信した撮影オブジェクト情報を出力する処理を行う。かかる処理は、撮影オブジェクト情報出力処理という。ステップS901に戻る。
 (ステップS909)第二受付手段13022は、ステップS901で受け付けた入力が領域に対する入力であるか否かを判断する。領域に対する入力とは、オブジェクトを示す領域(枠)の表示に対する指示である。領域に対する入力であればステップS910に行き、領域に対する入力でなければステップS911に行く。
 (ステップS910)出力部1309等は、指示された領域に対するオブジェクトに関する情報を出力する処理を行う。かかる処理を、オブジェクト関連情報出力処理という。ステップS901に戻る。
 (ステップS911)第三受付手段13023は、ステップS901で受け付けた入力がカレントレイヤを設定する入力であるか否かを判断する。カレントレイヤを設定する入力であればステップS912に行き、カレントレイヤを設定する入力でなければステップS913に行く。
 (ステップS912)カレントレイヤ変更部1310は、ステップS911で受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤを変更する。
 (ステップS913)各構成要素は、受け付けた指示に対応した動作を行う。例えば、受け付けた指示が撮影開始指示であれば、カメラ部1304が起動し、映像を取得し、カメラ映像出力手段13091が、カメラ部1304が取得した映像を出力する。また、例えば、受け付けた指示が出力固定指示である場合、出力固定部1311は、出力部1309が出力中の映像と領域を固定する。
 次に、ステップS908の撮影オブジェクト情報出力処理について、図10のフローチャートを用いて説明する。
 (ステップS1001)出力部1309は、カレントレイヤを、カレントレイヤ格納部1301から読み出す。
 (ステップS1002)出力情報取得部1308は、カウンタiに1を代入する。
 (ステップS1003)出力情報取得部1308は、出力対象の撮影オブジェクト情報の中に、i番目の撮影オブジェクトが存在するか否かを判断する。i番目の撮影オブジェクトが存在すればステップS1004に行き、i番目の撮影オブジェクトが存在しなければ上位処理にリターンする。
 (ステップS1004)出力情報取得部1308は、i番目の撮影オブジェクトの領域情報を取得する。
 (ステップS1005)出力部1309は、i番目の撮影オブジェクトの領域情報から、枠サイズを決定する。枠サイズとは、通常、領域情報に対応する大きさの枠(通常、矩形)である。
 (ステップS1006)出力部1309は、ステップS1001で読み出したカレントレイヤが、オブジェクト識別レイヤであるか否かを判断する。オブジェクト識別レイヤであればステップS1007に行き、オブジェクト識別レイヤでなければステップS1010に行く。
 (ステップS1007)領域出力手段13092は、ステップS1005で決定された枠サイズに合致する枠を構成する。枠とは、例えば、矩形の領域のウィンドウやオブジェクトや図形等である。
 (ステップS1008)領域出力手段13092は、領域情報が示す領域に、ステップS1007で構成した枠を出力する。領域出力手段13092は、通常、カメラ映像出力手段13091が出力している映像に重ねて、枠を出力する。この枠は、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報とも言える。
 なお、本ステップで、距離出力手段13093は、出力情報取得部1308が取得した1以上の出力情報に含まれる距離をも出力することは好適である。この距離の出力は、枠内または枠に対応付けて出力することはさらに好適である。
 (ステップS1009)出力情報取得部1308は、カウンタiを1、インクリメントする。ステップS1003に戻る。
 (ステップS1010)出力部1309は、ステップS1001で読み出したカレントレイヤが、ウェブサーチレイヤであるか否かを判断する。ウェブサーチレイヤであればステップS1007に行き、ウェブサーチレイヤでなければステップS1009に行く。
 (ステップS1011)出力部1309は、オブジェクト関連情報の出力処理を行う。ステップS1009に行く。
 なお、図10のフローチャートにおいて、領域情報(例えば、枠)の出力は必須ではない。また、距離の出力も必須ではない。出力部1309は、撮影オブジェクト情報のうちのいかなる情報を出力しても良い。
 次に、ステップS101のオブジェクト関連情報出力処理について、図11のフローチャートを用いて説明する。
 (ステップS1101)オブジェクト識別子取得部1312は、第二受付手段13022で受け付けた入力に対応する領域に対するオブジェクト識別子を取得する。
 (ステップS1102)オブジェクト識別子送信部1313は、ステップS1101で取得されたオブジェクト識別子を1以上のウェブサーバ装置12のいずれかに送信する。オブジェクト識別子がウェブサーバ装置12のURLである場合、オブジェクト識別子送信部1313は、オブジェクト識別子を、当該URLに対応するウェブサーバ装置12に送信する。なお、オブジェクト識別子の送信とは、オブジェクト関連情報を取得するための、何らかの情報の送信も含まれる。
 (ステップS1103)オブジェクト関連情報受信部1307は、ステップS1102におけるオブジェクト識別子の送信に対応して、オブジェクト関連情報を受信したか否かを判断する。オブジェクト関連情報を受信すればステップS1104に行き、オブジェクト関連情報を受信しなければステップS1103に戻る。
 (ステップS1104)出力部1309は、ステップS1103で受信したオブジェクト関連情報がシンボル情報であるか否かを判断する。シンボル情報であればステップS1105に行き、シンボル情報でなければステップS1106に行く。なお、シンボル情報とは、オブジェクトを特定する画像やアイコンなどである。シンボル情報とは、例えば、後述するシンボル画像やシンボル音楽(特に、アイコン)などである。
 (ステップS1105)オブジェクト関連情報出力手段13094は、オブジェクト関連情報受信部1307が受信したオブジェクト関連情報を、領域に合わせて縮小または拡大する。
 (ステップS1106)オブジェクト関連情報出力手段13094は、オブジェクト関連情報を出力する。上位処理にリターンする。
 以下、本実施の形態における情報システム1の具体的な動作について説明する。情報システム1の概念図は図1である。
 まず、情報システム1の技術的な概念について説明する。情報システム1は、例えば、図12に示すような概念を有している。情報システム1は、拡張ウェブブラウジング(Augmented Web Browsing)を実現できる。つまり、情報システム1は、カメラで捉えている画像に含まれるオブジェクトに関する情報(領域を示す枠、ウェブページ、シンボル画像など)を、当該オブジェクトに重ねて、または他の領域(他のウィンドウや他のディスプレイ)に表示できる。
 また、情報システム1の端末装置13は、図12に示すように、複数のレイヤを有する。レイヤとは、端末装置13が行う処理の階層である。レイヤとは、例えば、カメラレイヤ(camera layer)、地図センシングレイヤ(Geospatial Sensing layer)、オブジェクト識別レイヤ(Object-identification layer)、ウェブサーチレイヤ(Web search API layer)、タッチコントロールレイヤ(Touch-control layer)などである。かかる複数のレイヤが有する構造を、Layer-based Media Integration Platform という。
 なお、地図センシングレイヤとは、地図情報を検出するための処理のレイヤである。また、タッチコントロールレイヤとは、ユーザからの指示(通常、タッチ)を受け付け、指示に対応する処理に移行するレイヤである。また、カメラレイヤ、オブジェクト識別レイヤ、ウェブサーチレイヤは、出力する情報を区別でき、かつ処理も行えるレイヤである。地図センシングレイヤ、タッチコントロールレイヤは、処理を行うためのレイヤである。
 ここでは、カレントレイヤがカメラレイヤの場合は、カメラ部1304が取得した映像のみを出力する。また、カレントレイヤがオブジェクト識別レイヤの場合は、カメラ部1304が取得した映像と、当該映像に含まれるオブジェクトに関する情報(例えば、枠など)を出力する。さらに、カレントレイヤがウェブサーチレイヤの場合は、カメラ部1304が取得した映像、当該映像に含まれるオブジェクトに関する情報(例えば、枠など)、およびウェブサーバ装置12から取得した情報を出力する。なお、カレントレイヤがウェブサーチレイヤの場合は、カメラ部1304が取得した映像およびウェブサーバ装置12から取得した情報のみを出力しても良い。
 また、情報システム1において、上記したレイヤだけでなく、種々のレイヤを有しても良い(図13参照)。種々のレイヤとは、上述したレイヤの他、例えば、メディア重畳レイヤ(Media Superimposing layer)や、ナビゲーションレイヤがある。メディア重畳レイヤとは、種々のメディアを重畳して出力するレイヤである。ナビゲーションレイヤとは、オブジェクトへの道などをナビゲーションするレイヤである。
 次に、2つの具体例を用いて、情報システム1について説明する。具体例1は、オブジェクトの高さまでは考慮せず、オブジェクトの平面的な情報のみを考慮して、撮影されている映像の中に含まれるオブジェクトを認識し、当該オブジェクトに関する情報を出力する態様である。具体例2は、オブジェクトの高さをも考慮して、撮影されている映像の中に含まれるオブジェクトを認識し、当該オブジェクトに関する情報を出力する態様である。
 (具体例1)
 今、サーバ装置11のオブジェクト情報格納部111は、図14に示すオブジェクト情報管理表を保持している。オブジェクト情報管理表は、地図上のオブジェクト情報を管理している表である。オブジェクト情報管理表は、「オブジェクト識別子」「オブジェクト名」「URL」「位置情報」「領域情報」などの属性値を有するレコードを1以上、管理している。「オブジェクト識別子」は、ここでは、オブジェクトのIDである。「オブジェクト名」は、オブジェクトの名称を示す。URLは、オブジェクトに関して説明するウェブページ(ここでのオブジェクト関連情報)が存在する場所を示す情報である。「位置情報」は、オブジェクトの位置を特定する情報であり、ここでは、(緯度,経度)である。「領域情報」は、オブジェクトが配置されている二次元領域を示す情報であり、ここでは、多角形であるオブジェクトの3以上の頂点を示す。頂点も、ここでは、(緯度,経度)である。
 また、ウェブサーバ装置12のオブジェクト関連情報格納部121は、例えば、図15に示すオブジェクト関連情報を有する。オブジェクト関連情報は、ここでは、シンボル画像、シンボル音楽、ウェブページを有する。シンボル画像は、オブジェクトを象徴する画像(アイコン)である。シンボル音楽は、オブジェクトを象徴する音楽と、音楽を示す画像(アイコン)である。なお、シンボル音楽は、オブジェクトを象徴する音楽だけでも良い。また、ウェブページは、オブジェクトを説明する説明情報の一種である。ウェブページは、オブジェクトについて、単に説明するページでも良いし、オブジェクトの広告情報でも良いし、オブジェクトに対して何らかのアクションを発生させるページ(例えば、商品やサービスの注文や予約など)でも良い。つまり、説明情報は、ウェブページを用いて行える処理を実現する情報などでも良い。また、図15において、ウェブページに、シンボル画像、シンボル音楽などが含まれても良い。
 また、端末装置13は、2つのディスプレイを有する端末である、とする。なお、端末装置13は、一つのディスプレイを有する端末であっても良いし、3つ以上のディスプレイを有する端末であっても良い。
 さらに、端末装置13のカレントレイヤ格納部1301は、「カレントレイヤ=カメラレイヤ」を格納している、とする。
 かかる場合、ユーザは、端末装置13を起動した、とする。すると、受付部1302は、起動の指示を受け付ける。そして、カメラ部1304は、カレントレイヤ格納部1301から「カレントレイヤ=カメラレイヤ」を読み出す。そして、カメラ部1304は、カメラを起動する。すると、図16に示すように、端末装置13の第一表示手段13141に、外界の映像が出力される。
 次に、ユーザは、カレントレイヤをオブジェクト識別レイヤにする指示を入力した、とする。すると、第三受付手段13023は、受け付けた入力がカレントレイヤを設定する入力であると判断する。次に、カレントレイヤ変更部1310は、受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤをオブジェクト識別レイヤに変更する。
 次に、ユーザは、図16の端末装置13の状態から、映像中のオブジェクトの情報を得ようとして、オブジェクト取得指示を入力する。オブジェクト取得指示は、タッチすることにより入力されることが好適であるが、メニューからの選択、キーボード等の入力手段による入力等により、入力されても良い。次に、第一受付手段13021は、オブジェクト取得指示を受け付ける。
 次に、端末情報取得部1303の位置情報取得手段13031(ここでは、例えば、GPS受信機)は、端末装置13の位置情報(X,Y)を取得する。
 次に、方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報(θA)を取得する。方向情報(θA)は、例えば、真北から時計回りの角度(真東は90度)を示す。
 また、端末情報取得部1303は、カメラ部1304が有する視野角の情報(単に「視野角」という)を読み出す。ここでは、視野角は「θa」である、とする。また、カメラ部1304は、予め視野角「θa」を格納している。とする。
 次に、端末情報取得部1303は、取得した位置情報(X,Y)と、取得した方向情報(θA)と、視野角(θa)とを有する端末情報(X,Y,θA,θa)を構成する。
 次に、送信部1305は、構成した端末情報(X,Y,θA,θa)をサーバ装置11に送信する。
 そして、サーバ受信部112は、端末装置13から、端末情報(X,Y,θA,θa)を受信する。
 次に、サーバ受信部112は、以下のように、撮影オブジェクトを決定する。つまり、撮影オブジェクト決定部113は、受信された端末情報が有する位置情報(X,Y)を取得する。
 次に、撮影オブジェクト決定部113は、端末情報が有する方向情報(θA)と視野角(θa)とを用いて、不可視領域となる角度を算出する。撮影オブジェクト決定部113は、「(θA-(θa/2))<=可視領域<=(θA+(θa/2))」を可視領域となる角度として決定する。そして、可視領域を除く角度を不可視領域角度として算出し、蓄積する。かかる概念を図17に示す。なお、可視領域が真北のラインをまたがっていない場合、不可視領域角度は「0<=不可視領域角度<(θA-(θa/2))」および「(θA+(θa/2))<不可視領域角度<=360」である。また、可視領域が真北のラインをまたがっている場合、不可視領域角度は「(θA+(θa/2))<不可視領域角度<(θA-(θa/2))」である。
 そして、撮影オブジェクト決定部113は、取得した位置情報(X,Y)を用いて、端末装置13から近いオブジェクトの順に、オブジェクト情報格納部111のオブジェクト情報をソートする。ソート処理については、図6で説明した処理により行う。ソート処理の結果、撮影オブジェクト決定部113は、図18に示すようなオブジェクト一時管理表を取得する。オブジェクト一時管理表の各レコードは、オブジェクト識別子と距離とを有する。距離は、位置情報(X,Y)が示す点とオブジェクトの位置情報が示す点との距離である。
 次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の上位のレコードから、撮影オブジェクトであるか否かを判断する。
 つまり、撮影オブジェクト決定部113は、オブジェクト一時管理表の1番目のレコードのオブジェクト識別子「1」を読み出す。そして、当該オブジェクト識別子「1」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「1」と対になる領域情報「(x,y)(x,y)(x,y)(x,y)」を取得する。
 次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,θA,θa)と、取得した領域情報「(x,y)(x,y)(x,y)(x,y)」とを用いて、1番目のオブジェクトが、撮影オブジェクトか否かを判断する。
 まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の1番目の点(x,y)を取得する。
 次に、撮影オブジェクト決定部113は、1番目の点(x,y)と位置情報(X,Y)との角度(θ1)を算出し、当該角度(θ1)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y)との角度(θ2,θ3,θ4)を算出し、当該角度(θ2,θ3,θ4)もバッファに一時記憶する。バッファには、(θ1,θ2,θ3,θ4)が格納されたことになる。
 次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ1,θ2,θ3,θ4)から、最小角度(例えば、(θ1))と最大角度(例えば、(θ4))とを取得する。
 次に、撮影オブジェクト決定部113は、取得した最小角度(θ1)と最大角度(θ4)の領域すべてが、既に登録されている角度の領域(「(θA-(θa/2))<=可視領域<=(θA+(θa/2))」を除く角度)であるか否かを判断する。ここで、撮影オブジェクト決定部113は、取得した最小角度(θ1)と最大角度(θ4)の領域は、可視領域であると判断した、とする。そして、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトは、撮影オブジェクトであると判断する。
 次に、撮影オブジェクト決定部113は、「θ1<=不可視領域<=θ4」を新たな不可視領域とする。つまり、撮影オブジェクト決定部113は、例えば、「0<=不可視領域角度<(θA-(θa/2))」および「(θA+(θa/2))<不可視領域角度<=360」と「θ1<=不可視領域<=θ4」とをマージした不可視領域角度を記録媒体に登録する。ここで、マージとは、今までの不可視領域に、「θ1<=不可視領域<=θ4」を加えることである。
 次に、撮影オブジェクト決定部113は、1番目のオブジェクトのオブジェクト識別子「1」を図示しない記憶媒体に格納する。
 次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断する。
 次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の2番目のオブジェクト識別子「17」を取得し、当該識別子「17」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「17」と対になる領域情報(例えば、「(x101,y101)(x102,y102)(x103,y103)(x103,y103)」)を取得する。
 次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,θA,θa)と、取得した領域情報「(x101,y101)(x102,y102)(x103,y103)(x103,y103)」とを用いて、2番目のオブジェクトが、撮影オブジェクトか否かを判断する。
 まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「17」のオブジェクト)の領域情報の中の1番目の点(x101,y101)を取得する。
 次に、撮影オブジェクト決定部113は、1番目の点(x101,y101)と位置情報(X,Y)との角度(θ101)を算出し、当該角度(θ101)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「17」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y)との角度(θ102,θ103,θ104)を算出し、当該角度(θ102,θ103,θ104)もバッファに一時記憶する。バッファには、(θ101,θ102,θ103,θ104)が格納されたことになる。
 次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ101,θ102,θ103,θ104)から、最小角度(例えば、(θ101))と最大角度(例えば、(θ103))とを取得する。
 次に、撮影オブジェクト決定部113は、取得した最小角度(θ101)と最大角度(θ103)の領域すべてが、既に登録されている角度の領域であるか否かを判断する。そして、撮影オブジェクト決定部113は、最小角度(θ101)と最大角度(θ103)の領域すべてが、既に登録されている角度の領域であると、判断したとする。したがって、撮影オブジェクト決定部113は、オブジェクト識別子「17」のオブジェクトは撮影オブジェクトでない、と決定する。
 次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断する。
 次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の3番目のオブジェクト識別子「3」を取得し、当該識別子「3」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「17」と対になる領域情報「(x11,y11)(x12,y12)(x13,y13)(x14,y14)」を取得する。
 次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,θA,θa)と、取得した領域情報「(x11,y11)(x12,y12)(x13,y13)(x14,y14)」とを用いて、3番目のオブジェクトが、撮影オブジェクトか否かを判断する。
 まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「3」のオブジェクト)の領域情報の中の1番目の点(x11,y11)を取得する。
 次に、撮影オブジェクト決定部113は、1番目の点(x11,y11)と位置情報(X,Y)との角度(θ11)を算出し、当該角度(θ11)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「3」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y)との角度(θ12,θ13,θ14)を算出し、当該角度(θ12,θ13,θ14)もバッファに一時記憶する。バッファには、(θ11,θ12,θ13,θ14)が格納されたことになる。
 次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ11,θ12,θ13,θ14)から、最小角度(例えば、(θ11))と最大角度(例えば、(θ14))とを取得する。
 次に、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域すべてが、既に登録されている角度の領域であるか否かを判断する。ここで、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域と、既に登録されている不可視領域の角度とを比較する。そして、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域は、可視領域であると判断した、とする。そして、撮影オブジェクト決定部113は、オブジェクト識別子「3」のオブジェクトは、撮影オブジェクトであると判断する。
 次に、撮影オブジェクト決定部113は、「θ11<=不可視領域<=θ14」を新たな不可視領域とする。
 次に、撮影オブジェクト決定部113は、3番目のオブジェクトのオブジェクト識別子「3」を図示しない記憶媒体に格納する。
 次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断する。
 以上の処理を、4番目以降のオブジェクトに対しても繰り返す。そして、オブジェクト識別子「25」で識別されるオブジェクトを撮影オブジェクトであると決定した後、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在しない、と判断した、とする。そして、最終的に、撮影オブジェクトの識別子の集合「1,3,25」が得られた、とする。
 次に、オブジェクト識別子「1」の撮影オブジェクト情報を構成する。つまり、撮影オブジェクト情報取得部115は、オブジェクト情報管理表から、オブジェクト識別子「1」のオブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」を読み出す。次に、撮影オブジェクト情報取得部115は、オブジェクト一時管理表から距離「100m」を読み出す。そして、撮影オブジェクト情報取得部115は、オブジェクト識別子「1」のオブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」、距離「100m」を有する撮影オブジェクト情報を構成し、バッファに一時格納する。
 そして、同様に、撮影オブジェクト情報取得部115は、オブジェクト識別子「3」、オブジェクト識別子「25」の撮影オブジェクト情報を構成し、バッファに追記する。そして、撮影オブジェクト情報取得部115は、図19に示す撮影オブジェクト情報管理表を得る。
 次に、サーバ送信部116は、バッファに一時格納された1以上の撮影オブジェクト情報(図19に示す撮影オブジェクト情報管理表)を、端末装置13に送信する。
 次に、受信部1306は、端末情報の送信に対応して、1以上の撮影オブジェクト情報を受信する。
 次に、出力部1309は、カレントレイヤ格納部1301から、「カレントレイヤ=オブジェクト識別レイヤ」を読み出す。
 次に、出力情報取得部1308は、受信した撮影オブジェクト情報の中の最も距離が近いオブジェクトの撮影オブジェクト情報(オブジェクト識別子「1」、オブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」、距離「100m」)を取得する。
 そして、出力部1309の領域出力手段13092は、この撮影オブジェクトの領域情報「(x,y)(x,y)(x,y)(x,y)」から、枠サイズを決定する。
 次に、領域出力手段13092は、決定された枠サイズに合致する枠を構成する。そして、領域出力手段13092は、領域情報が示す領域に、構成した枠を出力する。
 また、距離出力手段13093は、撮影オブジェクト情報に含まれる距離「100m」を、枠に対応付けて出力する。かかる出力例を図20に示す。ここでは、枠は、四角形である。また、枠の高さは、ディスプレイの高さに合致している。つまり、すべてのオブジェクトの枠の高さは一定である。
 なお、上記において、端末装置13からの距離が最も近い撮影オブジェクトの情報のみを出力した。しかし、端末装置13の最も中央部に存在する撮影オブジェクトの情報のみを出力しても良い。かかる場合、撮影オブジェクト情報は、撮影オブジェクトの方向情報(最大の角度と最小の角度の真ん中の角度(平均))を有することとなる。そして、撮影オブジェクトの方向情報と、端末情報が有する方向情報との差異が最も小さい撮影オブジェクトが選択され、かかる撮影オブジェクトの情報が出力される。さらに、領域出力手段13092は、すべての撮影オブジェクトの情報を出力しても良いことは言うまでもない。かかる場合の出力例を図21に示す。図21において、距離が最も近い(または最も中央寄りの)撮影オブジェクトの距離のみが出力されているが、すべての撮影オブジェクトの距離を出力しても良いことは言うまでもない。
 なお、図20の画面出力の状態で、ユーザは、出力を固定する指示を入力した、とする。すると、出力固定部1311は、出力部1309が出力中の映像と領域(図20の画面)を固定する。なお、かかる画面の固定化処理は公知技術である。また、画面の固定化処理は、例えば、VRAMの画像を変更しないようにし、カメラ部1304の動作を停止するなどの処理により行われる。
 次に、画面が固定されている状態で、ユーザは、オブジェクト識別子「1」の撮影オブジェクト(枠が表示されているオブジェクト)の枠に対して指示を入力する(タッチする)、とする。すると、第二受付手段13022は、領域(ここでは、矩形の枠)に対する入力を受け付ける。なお、画面が固定されているので、端末装置13を動かしても、画面上の表示は変わらず、ユーザにとって操作しやすくなる。
 次に、以降で説明するような処理により、オブジェクトに関する情報が出力される。つまり、オブジェクト識別子取得部1312は、第二受付手段13022で受け付けた入力に対応する領域に対するオブジェクト識別子を、撮影オブジェクト情報から取得する。ここでのオブジェクト識別子は、「URL」であるとする。つまり、オブジェクト識別子取得部1312は、URL「http://www.coffee-A.co.jp」を取得する。
 なお、撮影オブジェクト(枠が表示されているオブジェクト)の枠に対して指示が入力された場合、少なくとも、一時的に、カレントレイヤ格納部1301のカレントレイヤがウェブサーチレイヤに変更される、としても良い。
 次に、オブジェクト識別子送信部1313は、取得されたURL「http://www.coffee-A.co.jp」を用いて、URL「http://www.coffee-A.co.jp」に対応するウェブサーバ装置12にアクセスする。
 そして、ウェブサーバ装置12のオブジェクト関連情報取得部122は、URL「http://www.coffee-A.co.jp」に対応するオブジェクト関連情報を取得する。ここで、取得したオブジェクト関連情報は、図15に示すオブジェクト関連情報である。
 次に、ウェブサーバ装置12のオブジェクト関連情報送信部123は、図15に示すオブジェクト関連情報を、端末装置13に送信する。
 次に、端末装置13のオブジェクト関連情報受信部1307は、図15に示すオブジェクト関連情報を受信する。
 そして、出力部1309は、受信したオブジェクト関連情報にシンボル情報(シンボル画像)が含まれるので、当該シンボル画像を、枠サイズの大きさに縮小する。そして、オブジェクト関連情報出力手段13094は、縮小したシンボル画像を、枠の領域に配置する。かかる出力例が図22である。縮小されたシンボル画像は、2201である。
 なお、出力部1309は、カメラ部1304が取得した映像を、第一の画面(第一表示手段13141)に表示し、オブジェクト関連情報出力手段13094は、受信されたオブジェクト関連情報(ここでは、シンボル画像)を、第二表示手段13142に表示することは好適である。かかる出力例は図23である。図23において、オブジェクト関連情報出力手段13094は、枠や距離を第一表示手段13141に表示し、シンボル画像を、第二表示手段13142に表示している。
 さらに、今、端末装置13は、図16の表示状態である、とする。そして、次に、ユーザは、カレントレイヤをウェブサーチレイヤにする指示を入力した、とする。すると、第三受付手段13023は、受け付けた入力がカレントレイヤを設定する入力であると判断する。次に、カレントレイヤ変更部1310は、受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤをウェブサーチレイヤに変更する。
 次に、ユーザは、図16の端末装置13の状態から、映像中のオブジェクトの情報を得ようとして、オブジェクト取得指示を入力する。
 次に、上記で説明した処理により、端末情報取得部1303は、端末情報(X,Y,θA,θa)を構成する。
 次に、送信部1305は、構成した端末情報(X,Y,θA,θa)をサーバ装置11に送信する。
 そして、サーバ受信部112は、端末装置13から、端末情報(X,Y,θA,θa)を受信する。
 次に、サーバ受信部112は、上記で説明した処理により、撮影オブジェクト(ID[1,3,25])を決定する。そして、撮影オブジェクト情報取得部115は、図19に示す撮影オブジェクト情報管理表を得る。
 次に、サーバ送信部116は、バッファに一時格納された1以上の撮影オブジェクト情報(図19に示す撮影オブジェクト情報管理表)を、端末装置13に送信する。
 次に、受信部1306は、端末情報の送信に対応して、1以上の撮影オブジェクト情報を受信する。
 次に、出力部1309は、カレントレイヤ格納部1301から、「カレントレイヤ=ウェブサーチレイヤ」を読み出す。
 次に、出力情報取得部1308は、受信した撮影オブジェクト情報の中の最も距離が近いオブジェクトの撮影オブジェクト情報(オブジェクト識別子「1」、オブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」、距離「100m」)を取得する。
 そして、出力部1309の領域出力手段13092は、この撮影オブジェクトの領域情報「(x,y)(x,y)(x,y)(x,y)」から、枠サイズを決定する。
 次に、領域出力手段13092は、決定された枠サイズに合致する枠を構成する。そして、領域出力手段13092は、領域情報が示す領域に、構成した枠を出力する。
 また、距離出力手段13093は、撮影オブジェクト情報に含まれる距離「100m」を、枠に対応付けて出力する。
 次に、オブジェクト関連情報出力手段13094は、受信されたオブジェクト関連情報(ここでは、シンボル画像)を、第二表示手段13142に表示する。かかる出力例を図23に示す。なお、オブジェクト関連情報出力手段13094は、図23ではなく、図22のように出力しても良い。つまり、オブジェクト関連情報の出力態様は問わない。
 また、オブジェクトの領域は二次元の領域であるので、図20、図21、図22、図23において、枠は上下一杯の大きさの枠であった。しかし、例えば、距離をパラメータとする減少関数により、オブジェクトの領域の大きさ(枠の大きさ)を算出し、枠を出力しても良い。つまり、距離が大きいほど、当該距離に対応するオブジェクトの領域を小さくして出力しても良い。かかる場合、例えば、図24のような枠の出力となる。図24において、枠の高さが距離に反比例している。
 (具体例2)
 今、サーバ装置11のオブジェクト情報格納部111は、図25に示すオブジェクト情報管理表を保持している。オブジェクト情報管理表は、地図上のオブジェクト情報を管理している表である。オブジェクト情報管理表は、「オブジェクト識別子」「オブジェクト名」「URL」「位置情報」「領域情報」などの属性値を有するレコードを1以上、管理している。図25において、図14のオブジェクト情報管理表との差異は、領域情報を構成する各点が高さ情報(z)を有している点である。
 また、ウェブサーバ装置12のオブジェクト関連情報格納部121は、例えば、図15に示すオブジェクト関連情報を有する。
 また、端末装置13は、2つのディスプレイを有する端末である、とする。なお、端末装置13は、一つのディスプレイを有する端末であっても良いし、3つ以上のディスプレイを有する端末であっても良い。
 さらに、端末装置13のカレントレイヤ格納部1301は、「カレントレイヤ=カメラレイヤ」を格納している、とする。
 かかる場合、ユーザは、端末装置13を起動した、とする。すると、受付部1302は、起動の指示を受け付ける。そして、カメラ部1304は、カレントレイヤ格納部1301から「カレントレイヤ=カメラレイヤ」を読み出す。そして、カメラ部1304は、カメラを起動する。すると、図16に示すように、端末装置13には、外界の映像が出力される。
 次に、ユーザは、カレントレイヤをオブジェクト識別レイヤにする指示を入力した、とする。すると、第三受付手段13023は、受け付けた入力がカレントレイヤを設定する入力であると判断する。次に、カレントレイヤ変更部1310は、受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤをオブジェクト識別レイヤに変更する。
 次に、ユーザは、図16の端末装置13の状態から、映像中のオブジェクトの情報を得ようとして、オブジェクト取得指示を入力する。オブジェクト取得指示は、タッチすることにより入力されることが好適であるが、メニューからの選択、キーボード等の入力手段による入力等により、入力されても良い。次に、第一受付手段13021は、オブジェクト取得指示を受け付ける。
 次に、端末情報取得部1303の位置情報取得手段13031(ここでは、例えば、GPS受信機)は、端末装置13の位置情報(X,Y,Z)を取得する。なお、Zは、高さである。
 次に、方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報(θA,θB)を取得する。θAは平面上の角度、θBは高さ方向の角度である。
 また、端末情報取得部1303は、カメラ部1304が有する視野角の情報(単に「視野角」という)を読み出す。ここでは、視野角は(θa,θb)である、とする。また、カメラ部1304は、予め視野角(θa,θb)を格納している、とする。なお、θaは平面上の角度、θbは高さ方向の角度である。視野角(θa,θb)を図26に示す。
 次に、端末情報取得部1303は、取得した位置情報(X,Y,Z)と、取得した方向情報(θA,θB)と、視野角(θa,θb)とを有する端末情報(X,Y,Z,θA,θB,θa,θb)を構成する。
 次に、送信部1305は、構成した端末情報(X,Y,Z,θA,θB,θa,θb)をサーバ装置11に送信する。
 そして、サーバ受信部112は、端末装置13から、端末情報(X,Y,Z,θA,θB,θa,θb)を受信する。
 次に、撮影オブジェクト決定部113は、以下のように、撮影オブジェクトを決定する。つまり、撮影オブジェクト決定部113は、受信された端末情報が有する位置情報(X,Y,Z)を取得する。
 次に、撮影オブジェクト決定部113は、端末情報が有する方向情報(θA,θB)と視野角(θa,θb)とを用いて、不可視領域となる三次元の角度を算出する。撮影オブジェクト決定部113は、可視領域となる二次元の角度「(θA-(θa/2))<=可視領域<=(θA+(θa/2))」を取得する。そして、可視領域となる高さ方向の角度「(θB-(θb/2))<=可視領域<=(θB+(θb/2))」を取得する。そして、上記の可視領域ではない領域を、不可視領域として蓄積する。
 そして、撮影オブジェクト決定部113は、取得した位置情報(X,Y,Z)を用いて、端末装置13から近いオブジェクトの順に、オブジェクト情報格納部111のオブジェクト情報をソートする。ソート処理については、図6で説明した処理により行う。なお、ここでは、位置情報(X,Y,Z)のうちの(X,Y)と、各オブジェクトの位置情報(例えば、(x,y))とを用いて、端末装置13と各オブジェクトとの距離を算出し、距離をキーとしてソートする。そして、ソート処理の結果、撮影オブジェクト決定部113は、図18に示すようなオブジェクト一時管理表を取得する。オブジェクト一時管理表の各レコードは、オブジェクト識別子と距離とを有する。距離は、位置情報(X,Y,Z)(ただし、Zは利用されない)が示す点とオブジェクトの位置情報が示す点との距離である。
 次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の上位のレコードから、撮影オブジェクトであるか否かを判断する。
 つまり、撮影オブジェクト決定部113は、オブジェクト一時管理表の1番目のレコードのオブジェクト識別子「1」を読み出す。そして、当該オブジェクト識別子「1」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「1」と対になる領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」を取得する。
 次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,Z,θA,θB,θa,θb)と、取得した領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」とを用いて、1番目のオブジェクトが、撮影オブジェクトか否かを判断する。
 まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の1番目の点(x,y,z)を取得する。
 次に、撮影オブジェクト決定部113は、1番目の点(x,y,z)と位置情報(X,Y,Z)との平面上の角度(θ11)を算出し、当該角度(θ11)をバッファに一時記憶する。また、撮影オブジェクト決定部113は、1番目の点(x,y,z)と位置情報(X,Y,Z)との高さ方向の角度(θ12)を算出し、当該角度(θ12)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y,Z)との平面上の角度(θ12,θ13,θ14)を算出し、当該角度(θ12,θ13,θ14)もバッファに一時記憶する。バッファには、(θ11,θ12,θ13,θ14)が格納されたことになる。さらに、同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y,Z)との高さ方向の角度(θ22,θ23,θ24)を算出し、当該角度(θ22,θ23,θ24)もバッファに一時記憶する。バッファには、(θ21,θ22,θ23,θ24)が格納されたことになる。
 次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ11,θ12,θ13,θ14)から、平面上の最小角度(例えば、(θ11))と最大角度(例えば、(θ14))とを取得する。
 また、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ21,θ22,θ23,θ24)から、高さ方向の最大角度(θ24)を取得する。
 次に、撮影オブジェクト決定部113は、取得した平面上の最小角度(θ11)と最大角度(θ14)の領域すべてが、既に登録されている領域であるか否かを判断する。ここで、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域は、可視領域であると判断した、とする。そして、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトは、撮影オブジェクトであると判断する。
 なお、ここで、例えば、撮影オブジェクト決定部113は、取得した平面上の最小角度(θ11)と最大角度(θ14)の領域の一部が、既に登録されている領域ではないと判断した場合も、可視領域であると判断する。つまり、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトが、撮影オブジェクトであると判断する。また、例えば、撮影オブジェクト決定部113は、取得した平面上の最小角度(θ11)と最大角度(θ14)の領域のすべてが、既に登録されている角度の領域であると判断した場合でも、高さ方向の最大角度(θ24)が、登録されている高さ方向の最大角度より大きい場合、平面上の最小角度(θ11)と最大角度(θ14)の領域において、可視領域であると判断する。つまり、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトが、撮影オブジェクトであると判断するのである。
 次に、撮影オブジェクト決定部113は、「θ11<=不可視領域<=θ14」を新たな不可視領域とする。つまり、撮影オブジェクト決定部113は、例えば、「0<=不可視領域角度<(θA-(θa/2))」および「(θA+(θa/2))<不可視領域角度<=360」と「θ11<=不可視領域<=θ14」とをマージした平面上の不可視領域角度を記録媒体に登録する。そして、登録されている高さ方向の最大角度が(θ24)より小さい場合、この平面上の領域に対応付けて、撮影オブジェクト決定部113は、高さ方向の最大角度(θ24)を登録する。
 次に、撮影オブジェクト決定部113は、1番目のオブジェクトのオブジェクト識別子「1」を図示しない記憶媒体に格納する。
 次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断した、とする。
 以上の処理を、図18の2番目以降のオブジェクトに対しても行い、撮影オブジェクトを決定する。
 そして、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在しない、と判断するまで、上記の検査(撮影オブジェクトの決定のための検査)を繰り返す。そして、撮影オブジェクト情報取得部115は、撮影オブジェクトのオブジェクト識別子「1」、「3」、「25」を取得した、とする。そして、撮影オブジェクト情報取得部115は、図19に示す撮影オブジェクト情報管理表を得た、とする。
 次に、サーバ送信部116は、バッファに一時格納された1以上の撮影オブジェクト情報(図19に示す撮影オブジェクト情報管理表)を、端末装置13に送信する。
 次に、受信部1306は、端末情報の送信に対応して、撮影オブジェクト情報を受信する。
 次に、出力部1309は、カレントレイヤ格納部1301から、「カレントレイヤ=オブジェクト識別レイヤ」を読み出す。
 次に、出力情報取得部1308は、受信した撮影オブジェクト情報の中の最も距離が近いオブジェクトの撮影オブジェクト情報(オブジェクト識別子「1」、オブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」、距離「100m」)を取得する。
 そして、出力部1309の領域出力手段13092は、この撮影オブジェクトの領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」から、高さも含めた枠サイズを決定する。
 次に、領域出力手段13092は、決定された枠サイズに合致する枠を構成する。そして、領域出力手段13092は、領域情報が示す領域に、構成した枠を出力する。
 また、距離出力手段13093は、撮影オブジェクト情報に含まれる距離「100m」を、枠に対応付けて出力する。かかる出力例を図27に示す。ここでは、枠は、四角形である。
 なお、上記において、端末装置13からの距離が最も近い撮影オブジェクトの情報のみを出力した。しかし、端末装置13の最も中央部に存在する撮影オブジェクトの情報のみを出力しても良い。かかる場合、撮影オブジェクト情報は、撮影オブジェクトの方向情報(最大の角度と最小の角度の真ん中の角度(平均))を有することとなる。そして、撮影オブジェクトの方向情報と、端末情報が有する方向情報との差異が最も小さい撮影オブジェクトが選択され、かかる撮影オブジェクトの情報が出力される。さらに、領域出力手段13092は、すべての撮影オブジェクトの情報を出力しても良いことは言うまでもない。かかる場合の出力例を図28に示す。図28において、距離が最も近い(または最も中央寄りの)撮影オブジェクトの距離のみが出力されているが、すべての撮影オブジェクトの距離を出力しても良いことは言うまでもない。
 以降の処理は、具体例1で説明した処理と同様で良い。
 以上、本実施の形態によれば、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。したがって、ユーザは、自分の目で見ている建物やランドマークや公園などの情報を非常に簡単に得ることができる。
 また、本実施の形態によれば、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、端末装置はナビゲーションシステムにも利用できる。
 また、本実施の形態によれば、オブジェクトの高さをも考慮するので、例えば、ある建物の後ろに見えている建物の情報も得ることができる。
 また、本実施の形態によれば、出力されるオブジェクトの情報は、カメラ上の表示領域(枠)の大きさに合わせて縮小、拡大されるので、オブジェクトのサイズが一目瞭然に分かる。
 また、本実施の形態によれば、カメラからオブジェクトまでの距離を算出し、出力するので、カメラで撮影しているオブジェクトまでの距離が容易に把握でき、そこまで行くべきか否かなど、次の行動の支援になる。
 また、本実施の形態によれば、オブジェクトの高さ情報を管理していない場合でも、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。
 また、本実施の形態によれば、オブジェクト関連情報を、ウェブサーバ装置から取得し、出力することにより、オブジェクトの適切な情報を得ることができる。
 また、本実施の形態によれば、2画面のうちの1画面にオブジェクト関連情報が出力されることにより、カメラの映像を邪魔せずに、ユーザは、オブジェクト関連情報を見ることができる。
 また、本実施の形態によれば、複数のオブジェクトのうち、一のオブジェクトを選択して、当該選択されたオブジェクトの情報を画面上に出力することにより、多数のオブジェクトが画面上に存在する場合でも、ユーザが欲するオブジェクトの情報を得ることができる。
 さらに、本実施の形態によれば、画面上の映像を固定することにより、オブジェクト関連情報を得たい場合に、ユーザは楽な姿勢で、端末装置13を操作できる。
 なお、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。また、このソフトウェアまたは、このソフトウェアを記録した記録媒体は、コンピュータプログラム製品として流通しても良いことは言うまでもない。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるサーバ装置11を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、コンピュータを、前記端末装置から、当該端末装置の位置を示す位置情報と当該端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、前記端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記記憶媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記憶媒体から取得する撮影オブジェクト情報取得部と、前記撮影オブジェクト情報を、前記端末装置に送信するサーバ送信部として機能させるためのプログラム、である。
 また、上記プログラムにおいて、前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、前記撮影オブジェクト決定部は、前記端末情報が有する位置情報および方向情報と、予め格納されているまたは前記端末情報が有する視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記記憶媒体の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定することは好適である。
 また、上記プログラムにおいて、前記撮影オブジェクト決定部が決定した各オブジェクトと前記端末装置との距離を、前記各オブジェクトのオブジェクト情報と前記端末情報が有する位置情報とから、前記撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、前記撮影オブジェクト情報取得部は、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報を前記記憶媒体から取得し、当該領域情報を含む情報と前記距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成することは好適である。
 また、上記プログラムにおいて、前記撮影オブジェクト決定部は、前記カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定することは好適である。
 また、上記プログラムにおいて、前記サーバ送信部は、前記撮影オブジェクト情報を、前記端末装置または前記1以上のいずれかのウェブサーバ装置に送信ことは好適である。なお、サーバ送信部が撮影オブジェクト情報を、1以上のいずれかのウェブサーバ装置に送信する場合、オブジェクト関連情報は、ウェブサーバ装置から(直接または間接的に)端末装置に送信される。
 本実施の形態における端末装置13を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、前記端末情報取得部が取得した端末情報を前記サーバ装置に送信する送信部と、前記端末情報の送信に対応して、前記1以上の撮影オブジェクト情報を受信する受信部と、前記受信部が受信した1以上の撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する出力情報取得部とを具備し、前記出力部は、前記出力部が出力している映像に重ねて、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報を出力する領域出力手段を具備するものとして機能させるためのプログラム、である。
 また、上記プログラムにおいて、前記領域出力手段は、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。
 また、上記プログラムにおいて、前記出力情報取得部は、前記受信部が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得し、前記出力部は、前記出力情報取得部が取得した1以上の出力情報に含まれる距離を出力する距離出力手段をさらに具備することは好適である。
 また、上記プログラムにおいて、前記領域出力手段は、前記出力情報取得部が取得した1以上の出力情報に含まれる距離が大きいほど、当該距離に対応するオブジェクトの領域を小さくして出力することは好適である。
 また、上記プログラムにおいて、オブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、前記出力部は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備することは好適である。
 また、上記プログラムにおいて、2つの分離された表示部である第一表示手段および第二表示手段を具備し、前記カメラ映像出力手段は、前記カメラ部が取得した映像を、前記第一表示手段に表示し、前記オブジェクト関連情報出力手段は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を、前記第二表示手段に表示することは好適である。
 また、上記プログラムにおいて、前記領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。
 また、上記プログラムにおいて、前記オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力することは好適である。
 また、上記プログラムにおいて、ユーザの指示を受け付ける第一受付手段と、前記受付部が指示を受け付けた場合、前記出力部が出力中の映像と領域を固定する出力固定部とをさらに具備することは好適である。
 また、上記プログラムにおいて、前記撮影オブジェクト情報は、オブジェクト識別子を含み、前記固定された領域に対する入力を受け付ける第二受付手段と、前記第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、前記オブジェクト識別子取得部が取得したオブジェクト識別子を前記1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、前記オブジェクト関連情報受信部は、前記オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、前記オブジェクト識別子の送信は、前記外部からの指示により行われることは好適である。
 また、記憶媒体に、前記カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納しており、上記プログラムにおいて、カレントレイヤを設定する入力を受け付ける第三受付手段と、前記第三受付手段で受け付けた入力に従って、前記記憶媒体のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、前記カレントレイヤがカメラレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、前記カレントレイヤがオブジェクト識別レイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、前記カレントレイヤがウェブサーチレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、かつ、前記オブジェクト関連情報出力手段は前記オブジェクト関連情報を出力することは好適である。
 また、端末装置13を実現するソフトウェアは、以下のようなプログラムでも良い。つまり、このプログラムは、コンピュータを、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、前記端末情報取得部が取得した端末情報を前記サーバ装置に送信する送信部と、前記端末情報の送信に対応して、前記撮影オブジェクト情報を受信する受信部と、前記受信部が受信した撮影オブジェクト情報を出力する出力部とを具備するものとして機能させるためのプログラム、である。
 (実施の形態2)
 本実施の形態において、端末装置がスタンドアロンで動作する場合について説明する。なお、端末装置は、必要に応じて、ウェブサーバ装置にアクセスする、とする。
 図29は、情報システム2の概念図である。情報システム2は、ウェブサーバ装置12、端末装置23を具備する。端末装置23は、1画面のディスプレイを有する端末でも、多画面のディスプレイを有する端末でも良い。端末装置23は、カメラ機能を有し、外部の風景、建物などを撮影している際に、撮影した映像内のオブジェクト(建物など)の領域や、オブジェクトに関連する情報などを出力できる。また、ウェブサーバ装置12、および端末装置23は、通常、通信可能である。
 図30は、本実施の形態における情報システム2のブロック図である。 端末装置23は、オブジェクト情報格納部111、撮影オブジェクト決定部113、距離算出部114、撮影オブジェクト情報取得部115、カレントレイヤ格納部1301、受付部1302、端末情報取得部1303、カメラ部1304、オブジェクト関連情報受信部1307、出力情報取得部1308、出力部1309、カレントレイヤ変更部1310、出力固定部1311、オブジェクト識別子取得部1312、オブジェクト識別子送信部1313、表示部1314を具備する。
 次に、情報システム2を構成する端末装置23の動作について、図31のフローチャートを用いて説明する。図31のフローチャートにおいて、既に説明したフローチャートに出現していないステップについてのみ説明する。
 (ステップS3101)撮影オブジェクト情報取得部115は、i番目の撮影オブジェクトの領域情報を含む情報をオブジェクト情報格納部111から取得する。そして、撮影オブジェクト情報取得部115は、既に算出されているi番目の撮影オブジェクトの距離を取得する。次に、撮影オブジェクト情報取得部115は、オブジェクト情報格納部111から取得したi番目の撮影オブジェクトの情報と、距離を有する撮影オブジェクト情報を構成する。
 なお、図31のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 以下、本実施の形態における情報システム2の具体的な動作は、情報システム1の動作と同様である。なお、情報システム2において、言うまでもなく、端末装置とサーバ装置は通信せず、端末装置23がスタンドアロンで、カメラで撮影しているオブジェクトを認識する。そして、端末装置23は、カメラで撮影しているオブジェクトに関連する情報を、ウェブサーバ装置12から取得して出力できる。
 つまり、端末装置23は、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段と、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備する端末装置である。また、かかる撮影オブジェクト情報決定部は、端末装置23からの距離が近い順にオブジェクトを検査し、端末装置23が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了することは好適である。
 また、端末装置23は、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力し、前記1以上の撮影オブジェクト情報を出力する出力部とを具備する端末装置でも良い。また、かかる撮影オブジェクト情報決定部は、端末装置23からの距離が近い順にオブジェクトを検査し、端末装置23が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了することは好適である。
 以上、本実施の形態によれば、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。
 また、本実施の形態によれば、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、端末装置はナビゲーションシステムにも利用できる。
 また、本実施の形態によれば、サーバ装置との通信は不要であるので、高速にカメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。
 さらに、本実施の形態における端末装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、コンピュータを、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記記憶媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記憶媒体から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段と、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備するものとして機能させるためのプログラム、である。
 また、上記プログラムにおいて、前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、前記撮影オブジェクト決定部は、前記端末情報が有する位置情報および方向情報と、予め格納されている視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記記憶媒体の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定することは好適である。
 また、上記プログラムにおいて、前記領域出力手段は、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。
 また、上記プログラムにおいて、前記撮影オブジェクト決定部が決定した各オブジェクトと前記端末装置との距離を、前記各オブジェクトのオブジェクト情報と前記端末情報が有する位置情報とから、前記撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、前記撮影オブジェクト情報取得部は、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報を前記記憶媒体から取得し、当該領域情報を含む情報と前記距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成することは好適である。
 また、上記プログラムにおいて、前記出力部は、前記1以上の撮影オブジェクト情報に含まれる距離を出力する距離出力手段をさらに具備することは好適である。
 また、上記プログラムにおいて、前記領域出力手段は、前記1以上の撮影オブジェクト情報に含まれる距離が大きいほど、当該距離に対応するオブジェクトの領域を小さくして出力することは好適である。
 また、上記プログラムにおいて、外部の装置からオブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、前記出力部は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備することは好適である。
 また、上記プログラムにおいて、前記端末装置は、2つの分離された表示部である第一表示手段および第二表示手段を具備し、前記カメラ映像出力手段は、前記カメラ部が取得した映像を、前記第一表示手段に表示し、前記オブジェクト関連情報出力手段は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を、前記第二表示手段に表示することは好適である。
 また、上記プログラムにおいて、前記領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。
 また、上記プログラムにおいて、前記オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力することは好適である。
 また、上記プログラムにおいて、前記撮影オブジェクト決定部は、前記カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定することは好適である。
 また、上記プログラムにおいて、ユーザの指示を受け付ける第一受付手段と、前記受付部が指示を受け付けた場合、前記出力部が出力中の映像と領域を固定する出力固定部とをさらに具備することは好適である。
 また、上記プログラムにおいて、前記撮影オブジェクト情報は、オブジェクト識別子を含み、前記固定された領域に対する入力を受け付ける第二受付手段と、前記第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、前記オブジェクト識別子取得部が取得したオブジェクト識別子を前記1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、前記オブジェクト関連情報受信部は、前記オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、前記オブジェクト識別子の送信は、前記外部からの指示により行われることは好適である。
 また、上記プログラムにおいて、記憶媒体に、前記カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納しており、カレントレイヤを設定する入力を受け付ける第三受付手段と、前記第三受付手段で受け付けた入力に従って、前記記憶媒体のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、前記カレントレイヤがカメラレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、前記カレントレイヤがオブジェクト識別レイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、前記カレントレイヤがウェブサーチレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、かつ、前記オブジェクト関連情報出力手段は前記オブジェクト関連情報を出力することは好適である。
 また、本実施の形態における端末装置23を実現するソフトウェアは、以下のようなプログラムでも良い。つまり、このプログラムは、記憶媒体に、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、コンピュータを、端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記記憶媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、前記記憶媒体から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力し、前記1以上の撮影オブジェクト情報を出力する出力部とを具備するものとして機能させるためのプログラム、である。
 なお、本明細書において、端末装置は、2画面を有する装置であった。しかし、端末装置は、例えば、図32に示すように、1画面の装置でも良いことはいうまでもない。また、図32において、端末装置は、カメラ付きのUMPC(Ultra-Moble PC)である。また、端末装置は、擬似シースルースクリーン(Pseudo See-though Screen(touchable))を有する。また、端末装置は、加速度計(Accelerometer)を具備する。さらに、端末装置は、GPS受信機を具備する。
 また、本明細書において、図33に示すような方法で、カメラが撮影している映像に含まれる地理オブジェクトが認識された。つまり、カメラの位置(view-point)から、カメラの視野角(view-angle)と、カメラの方向情報(view-direction)とを用いて、全領域を可視領域(target-field)と不可視領域(no-distance spesified)とに分割される。そして、view-pointから近いオブジェクトについて検査され、撮影オブジェクトが決定された。その際、既に撮影オブジェクトと決定された領域を不可視領域に追加していきながら検査が行なわれた。図33において、まず、オブジェクト3303が撮影オブジェクトに決定される。そして、オブジェクト3303により不可視領域に入るオブジェクト3304、3305は撮影オブジェクトとはならない。次に、オブジェクト3306が撮影オブジェクトに決定される。つまり、図33において、オブジェクト3303と3306が撮影オブジェクトに決定される。また、上述したように、登録されている不可視領域、または可視領域から、可視領域が存在するか否かを判断し、可視領域が存在しないと判断した場合に、映像に含まれる地理オブジェクトの認識処理を中止した。
 また、本明細書において、端末装置は、車載用であっても良い、つまり、例えば、端末装置は、いわゆるナビゲーション端末であっても良い。
 また、図34は、本明細書で述べたプログラムを実行して、上述した実施の形態の情報システム等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図34は、このコンピュータシステム340の概観図であり、図35は、コンピュータシステム340の内部構成を示す図である。
 図34において、コンピュータシステム340は、FDドライブ3411、CD-ROMドライブ3412を含むコンピュータ341と、キーボード342と、マウス343と、モニタ344とを含む。
 図35において、コンピュータ341は、FDドライブ3411、CD-ROMドライブ3412に加えて、MPU3413と、CD-ROMドライブ3412及びFDドライブ3411に接続されたバス3414と、ブートアッププログラム等のプログラムを記憶するためのROM3415と、CPU3413に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3416と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3417とを含む。ここでは、図示しないが、コンピュータ341は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
 コンピュータシステム340に、上述した実施の形態の情報システム等の機能を実行させるプログラムは、CD-ROM3501、またはFD3502に記憶されて、CD-ROMドライブ3412またはFDドライブ3411に挿入され、さらにハードディスク3417に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ341に送信され、ハードディスク3417に記憶されても良い。プログラムは実行の際にRAM3416にロードされる。プログラムは、CD-ROM3501、FD3502またはネットワークから直接、ロードされても良い。
 プログラムは、コンピュータ341に、上述した実施の形態の情報システム等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム340がどのように動作するかは周知であり、詳細な説明は省略する。
 なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
 また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 また、上記各実施の形態において、一の装置に存在する2以上の通信手段(サーバ受信部、サーバ送信部など)は、物理的に一の媒体で実現されても良いことは言うまでもない。
 また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
 本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
 以上のように、本発明にかかる情報システムは、カメラで撮影したオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる、という効果を有し、情報システム等として有用である。
実施の形態1における情報システム1の概念図 同情報システムのブロック図 同端末装置のブロック図 同サーバ装置の動作について説明するフローチャート 同端末装置の動作について説明するフローチャート 同オブジェクトソート処理の動作について説明するフローチャート 同可視判断処理の動作について説明するフローチャート 同可視判断処理の動作について説明するフローチャート 同端末装置の動作について説明するフローチャート 同撮影オブジェクト情報出力処理の動作について説明するフローチャート 同オブジェクト関連情報出力処理の動作について説明するフローチャート 同情報システム1の処理の概念を示す図 同レイヤについて説明する図 同オブジェクト情報管理表を示す図 同オブジェクト関連情報の例を示す図 同カメラレイヤの場合の端末装置の出力例を示す図 同可視領域の判断の概念図 同オブジェクト一時管理表を示す図 同撮影オブジェクト情報管理表を示す図 同端末装置の出力例を示す図 同端末装置の出力例を示す図 同端末装置の出力例を示す図 同端末装置の出力例を示す図 同端末装置の出力例を示す図 同オブジェクト情報管理表を示す図 同三次元の視野角について説明する図 同端末装置の出力例を示す図 同端末装置の出力例を示す図 実施の形態2における情報システム2の概念図 同端末装置のブロック図 同端末装置の動作について説明するフローチャート 同端末装置の構成、外観を示す図 同撮影オブジェクトの決定方法を説明する図 同コンピュータシステムの概観図 同コンピュータシステムの内部構成を示す図

Claims (12)

  1. サーバ装置と端末装置とを具備する情報システムであって、
    前記サーバ装置は、
    オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、
    前記端末装置から、当該端末装置の位置を示す位置情報と当該端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、
    前記端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、
    前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、
    前記撮影オブジェクト情報を、前記端末装置に送信するサーバ送信部とを具備し、
    前記端末装置は、
    当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、
    映像を取得するカメラ部と、
    前記カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、
    前記端末情報取得部が取得した端末情報を前記サーバ装置に送信する送信部と、
    前記端末情報の送信に対応して、前記1以上の撮影オブジェクト情報を受信する受信部と、
    前記受信部が受信した1以上の撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する出力情報取得部とを具備し、
    前記出力部は、
    前記出力部が出力している映像に重ねて、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報を出力する領域出力手段を具備し、
    前記撮影オブジェクト情報決定部は、
    前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する情報システム。
  2. 前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、
    前記撮影オブジェクト決定部は、
    前記端末情報が有する位置情報および方向情報と、予め格納されているまたは前記端末情報が有する視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定し、かつ、
    前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する請求項1記載の情報システム。
  3. 前記領域出力手段は、
    前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力する請求項1または請求項2記載の情報システム。
  4. 前記サーバ装置は、
    前記撮影オブジェクト決定部が決定した各オブジェクトと前記端末装置との距離を、前記各オブジェクトのオブジェクト情報と前記端末情報が有する位置情報とから、前記撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、
    前記撮影オブジェクト情報取得部は、
    前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報を前記オブジェクト情報格納部から取得し、当該領域情報を含む情報と前記距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成する請求項1または請求項2記載の情報システム。
  5. 前記出力情報取得部は、
    前記受信部が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得し、
    前記出力部は、
    前記出力情報取得部が取得した1以上の出力情報に含まれる距離を出力する距離出力手段をさらに具備する請求項4記載の情報システム。
  6. 1以上のウェブサーバ装置をさらに具備し、
    前記ウェブサーバ装置は、
    オブジェクトに関する情報であるオブジェクト関連情報を格納し得るオブジェクト関連情報格納部と、
    外部からの指示に応じて、オブジェクト関連情報を取得するオブジェクト関連情報取得部と、
    前記オブジェクト関連情報を送信するオブジェクト関連情報送信部とを具備し、
    前記端末装置は、
    オブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、
    前記出力部は、
    前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備する請求項1または請求項2記載の情報システム。
  7. オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、
    端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、
    前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、
    前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、
    映像を取得するカメラ部と、
    前記カメラ部が取得した映像を出力するカメラ映像出力手段と、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備し、
    前記撮影オブジェクト情報決定部は、
    前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する端末装置。
  8. 前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、
    前記撮影オブジェクト決定部は、
    前記端末情報が有する位置情報および方向情報と、予め格納されている視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定し、かつ、
    前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する請求項7記載の端末装置。
  9. 請求項1から請求項6いずれか記載の情報システムを構成する端末装置。
  10. 請求項1から請求項6いずれか記載の情報システムを構成するサーバ装置。
  11. 記録媒体に、
    オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、
    端末情報取得部、撮影オブジェクト決定部、撮影オブジェクト情報取得部、カメラ部、および出力部により実現される情報処理方法であって、
    前記端末情報取得部により、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得ステップと、
    前記撮影オブジェクト決定部により、前記端末情報取得ステップで取得された端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記記録媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定ステップと、
    前記撮影オブジェクト情報取得部により、前記撮影オブジェクト決定ステップで決定された1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記録媒体から取得する撮影オブジェクト情報取得部と、
    前記カメラ部により、映像を取得するカメラステップと、
    前記出力部により、前記カメラステップで取得された映像を出力し、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する出力テップとを具備し、
    前記撮影オブジェクト情報決定ステップにおいて、
    前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する情報処理方法。
  12. 記録媒体に、
    オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、
    コンピュータを、
    当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、
    前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記記録媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、
    前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記録媒体から取得する撮影オブジェクト情報取得部と、
    映像を取得するカメラ部と、
    前記カメラ部が取得した映像を出力し、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する出力部として機能させるためのプログラムであり、
    前記撮影オブジェクト情報決定部を、
    前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了するものとして機能させるためのプログラム。
PCT/JP2010/059600 2009-06-22 2010-06-07 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム WO2010150643A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011519730A JP5357966B2 (ja) 2009-06-22 2010-06-07 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-147307 2009-06-22
JP2009147307 2009-06-22

Publications (1)

Publication Number Publication Date
WO2010150643A1 true WO2010150643A1 (ja) 2010-12-29

Family

ID=43386415

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/059600 WO2010150643A1 (ja) 2009-06-22 2010-06-07 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP5357966B2 (ja)
WO (1) WO2010150643A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085783A (ja) * 2010-10-19 2012-05-10 Hyogo Prefecture ゲーム端末装置、サーバ装置、およびプログラム
WO2014017393A1 (ja) * 2012-07-24 2014-01-30 日本電気株式会社 情報処理装置、そのデータ処理方法、およびプログラム
WO2015125210A1 (ja) * 2014-02-18 2015-08-27 日立マクセル株式会社 情報表示装置及び情報表示プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169164A (ja) * 1999-12-08 2001-06-22 Casio Comput Co Ltd カメラ装置、画像再生装置及びカメラ装置における被写体名称取得方法
JP2002175315A (ja) * 2000-09-28 2002-06-21 Nikon Corp 画像注釈サーバー、画像注釈サービス方法、画像照会装置、電子カメラ、望遠光学機器、および記録媒体
JP2003296329A (ja) * 2002-03-29 2003-10-17 Seiko Epson Corp 情報提供装置、情報提供方法および情報処理プログラム
JP2006020166A (ja) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd 地図表示システム及びデジタルカメラ
JP2008160631A (ja) * 2006-12-26 2008-07-10 Funai Electric Co Ltd 携帯機器
JP2009122188A (ja) * 2007-11-12 2009-06-04 Sharp Corp 撮影装置、地図情報表示方法及び地図表示プログラムと地図表示プログラムを記録したコンピュータ読み取り可能な媒体
JP2009135597A (ja) * 2007-11-28 2009-06-18 Nikon Corp 電子カメラ、情報処理装置、情報処理方法およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169164A (ja) * 1999-12-08 2001-06-22 Casio Comput Co Ltd カメラ装置、画像再生装置及びカメラ装置における被写体名称取得方法
JP2002175315A (ja) * 2000-09-28 2002-06-21 Nikon Corp 画像注釈サーバー、画像注釈サービス方法、画像照会装置、電子カメラ、望遠光学機器、および記録媒体
JP2003296329A (ja) * 2002-03-29 2003-10-17 Seiko Epson Corp 情報提供装置、情報提供方法および情報処理プログラム
JP2006020166A (ja) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd 地図表示システム及びデジタルカメラ
JP2008160631A (ja) * 2006-12-26 2008-07-10 Funai Electric Co Ltd 携帯機器
JP2009122188A (ja) * 2007-11-12 2009-06-04 Sharp Corp 撮影装置、地図情報表示方法及び地図表示プログラムと地図表示プログラムを記録したコンピュータ読み取り可能な媒体
JP2009135597A (ja) * 2007-11-28 2009-06-18 Nikon Corp 電子カメラ、情報処理装置、情報処理方法およびプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085783A (ja) * 2010-10-19 2012-05-10 Hyogo Prefecture ゲーム端末装置、サーバ装置、およびプログラム
WO2014017393A1 (ja) * 2012-07-24 2014-01-30 日本電気株式会社 情報処理装置、そのデータ処理方法、およびプログラム
JPWO2014017393A1 (ja) * 2012-07-24 2016-07-11 日本電気株式会社 情報処理装置、そのデータ処理方法、およびプログラム
US9491368B2 (en) 2012-07-24 2016-11-08 Nec Corporation Information obtaining and viewing device, data processing method thereof, and non-transitory computer readable medium storing a program
WO2015125210A1 (ja) * 2014-02-18 2015-08-27 日立マクセル株式会社 情報表示装置及び情報表示プログラム
CN105917329A (zh) * 2014-02-18 2016-08-31 日立麦克赛尔株式会社 信息显示装置和信息显示程序
JPWO2015125210A1 (ja) * 2014-02-18 2017-03-30 日立マクセル株式会社 情報表示装置及び情報表示プログラム
CN105917329B (zh) * 2014-02-18 2019-08-30 麦克赛尔株式会社 信息显示装置和信息显示程序

Also Published As

Publication number Publication date
JPWO2010150643A1 (ja) 2012-12-10
JP5357966B2 (ja) 2013-12-04

Similar Documents

Publication Publication Date Title
US9661468B2 (en) System and method for converting gestures into digital graffiti
US8769442B2 (en) System and method for allocating digital graffiti objects and canvasses
CN102388406B (zh) 使用便携式电子设备记录产生三维模型
KR100985737B1 (ko) 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US9305402B2 (en) Synchronized, interactive augmented reality displays for multifunction devices
US8700301B2 (en) Mobile computing devices, architecture and user interfaces based on dynamic direction information
US9699373B2 (en) Providing navigation information to a point of interest on real-time street views using a mobile device
KR102021050B1 (ko) 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
US20100009662A1 (en) Delaying interaction with points of interest discovered based on directional device information
US20090319178A1 (en) Overlay of information associated with points of interest of direction based data services
JP2017536527A (ja) 経路崩壊を低減するイン−ナビゲーション探索結果の提供
WO2014162044A1 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP2011527004A (ja) ナビゲータとしてのモバイルイメージング装置
EP2253130A1 (en) Device, method, and system for displaying data recorded with associated position and direction information
JP5357966B2 (ja) 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム
Simon et al. Towards orientation-aware location based mobile services
JP5578719B2 (ja) 情報システム、端末装置、広告出力方法、およびプログラム
JP2009036726A (ja) 探索経路表示方法及び探索経路表示システム
JP5674418B2 (ja) 端末装置、サーバ装置、およびプログラム
JP5584581B2 (ja) 情報システム、端末装置、サーバ装置、およびWebページ検索方法
JP5612456B2 (ja) サーバ装置、第一端末装置、第二端末装置、情報処理方法、およびプログラム
JP5629178B2 (ja) ゲーム端末装置、サーバ装置、およびプログラム
JP2014211893A (ja) サーバ装置、第一端末装置、第二端末装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10791961

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011519730

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10791961

Country of ref document: EP

Kind code of ref document: A1