WO2008072429A1 - System for displaying image data associated with map information - Google Patents

System for displaying image data associated with map information Download PDF

Info

Publication number
WO2008072429A1
WO2008072429A1 PCT/JP2007/071583 JP2007071583W WO2008072429A1 WO 2008072429 A1 WO2008072429 A1 WO 2008072429A1 JP 2007071583 W JP2007071583 W JP 2007071583W WO 2008072429 A1 WO2008072429 A1 WO 2008072429A1
Authority
WO
WIPO (PCT)
Prior art keywords
link
information
image
shooting
image data
Prior art date
Application number
PCT/JP2007/071583
Other languages
French (fr)
Japanese (ja)
Inventor
Kazuo Oda
Satoshi Nakayama
Hideyuki Kanehara
Nobuyuki Mizutani
Tomoyasu Ota
Hideto Satoh
Jun Yagome
Original Assignee
Locationview Co.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2007106460A external-priority patent/JP4210309B2/en
Application filed by Locationview Co. filed Critical Locationview Co.
Publication of WO2008072429A1 publication Critical patent/WO2008072429A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the present invention collects image data for grasping the geographical environment by, for example, shooting by road driving or flying over the air, and depending on the required geographical range, image resolution, and amount of image data.
  • the present invention relates to an image data display system associated with geographic information that is extracted, processed, managed spatially and temporally in association with geographic coordinates, and displayed in conjunction with a map. Background art
  • the present invention has been made to solve the above problems, and associates image data obtained by photographing the surrounding environment of a route network having a graph structure with geographic information including a surrounding map.
  • the purpose is to display the structured data.
  • the collected image and the road map are displayed in an interlocked manner so that the target road can be easily selected on the intersection collected image and the direction of the collected image can be displayed in a linked manner on the road map. Get the way.
  • the image data display system with geographic information uses an omnidirectional camera that shoots every fixed time mounted on a mobile body, and a hybrid type position sensor having GPS, and includes a plurality of route networks. Replays all-around image with time information obtained by moving the link and displays the image of the rectangular area on the screen, while displaying the path selection polygon for selecting one of the links
  • An image data display system associated with geographic information which stores, for each link in a route network, attribute information including position information and time information from a position sensor and position information for each surrounding image in each link and each surrounding image.
  • Memory of The first link includes the shooting plan information including the link ID when the link was shot and the first actual shooting information including the first actual shooting date when shooting was actually performed based on the shooting plan information.
  • the second ID that is different from the first actual shooting date when the actual shooting was performed based on the same link ID, shooting plan information, and shooting plan information as the link ID included in the first link related information.
  • Link information and node including second storage means storing second actual shooting information having shooting date as second link related information, link ID, link vector information, and node IDs at both ends of the link
  • a route network with node information including a link ID that connects to the third storage means that stores the background map, and a map composed of the route network and the background map is displayed in a different area from the rectangular image, and the link is made.
  • the attribute information having the link ID of the selected link and the link ID of the selected link is read, and a plurality of all surrounding images in the selected link related to the attribute information are sequentially read from the first storage means in ascending or reverse order.
  • the all-around image is read from the all-around image reading means to be read and the first storage means, the attribute information related to the all-around image is read, and the position information of the read attribute information is stored in the node of the route network.
  • the reading of the all-around image is stopped, and the means for obtaining all the directions of the link to the node from the route network, the read all-around image, and the obtained node are obtained.
  • the route selection polygon that indicates the direction of all links is displayed when one of the route selection polygon and the means for interlocking display of the route selection polygon on the rectangular area of the screen is selected.
  • the link ID corresponding to the position of the route selection polygon is read from the route network, and the read link ID has the read link ID, actual shooting information, and shooting plan information indicating whether or not all surrounding images are associated with the link ID! Judgment is made based on whether the first link related information or the second link related information exists. If it exists, the suspension is canceled and the read link ID is set as the selected link ID to the all-around image reading means. And a means for outputting.
  • the present invention relates to map information such as roads and images, for example, property information such as condominiums and stores for real estate transactions, route environment indications from town sights and stations to target real estate properties and stores, Visualize the real situation in the local area by using images as geographical attributes to represent places, such as advertising activities in shopping streets, location and surrounding situations in emergency calls such as firefighting and police, and local situation in road river management. Can tell This is an image data display system associated with geographic information.
  • the surrounding environment of a road network having a graph structure (as shown in Fig. 17, the node is an intersection and the network information is a continuous line segment indicating a road center line between the intersections).
  • the data configured by associating multiple image data obtained by shooting and geographic information including the surrounding map it is possible to display the image corresponding to the corresponding point while interlocking with the map. .
  • a target town is obtained in a wide range and data is provided to provide a service, the user can freely select an arbitrary place to be examined. Also, for example, if you prepare images taken by seasons or at different times, it is an image data display system with geographic information that can provide images of town changes and environmental changes.
  • an image in a state desired by the user for example, an image designating a season or time, etc. Provision becomes possible. For example, if images with different shooting years are available, it will be possible to investigate changes over time in a specific area. In addition, “I want to see the image of the cherry blossom season” and “I can see the image at the time of autumn leaves”, it is possible to see the state, the state of the cityscape and the tourist road as seen by the user.
  • an icon for selecting a road is displayed at an intersection, a corresponding link is allocated by selecting this icon, and an image in this link is displayed and displayed on a map.
  • the position of the captured image and the shooting range and direction are known. For this reason, the operator can easily determine where the image is. In addition, since the direction of travel can be selected from the image, the operability is excellent.
  • FIG. 1 is a configuration diagram of an image data management system with map information association and a display system.
  • FIG. 2 is a configuration diagram of an image capturing subsystem.
  • FIG. 3 is a block diagram of an image data editing subsystem.
  • FIG. 4 A map displayed by the map data display means.
  • FIG. 5 is an image displayed on the road surface of image data display means.
  • FIG. 6 is a diagram showing a method of image thinning by the image thinning means.
  • FIG. 7 is a configuration diagram of an image data management subsystem.
  • FIG. 8 is a block diagram of the photographing plan means.
  • FIG. 9 is a configuration diagram of photographing information capturing means.
  • FIG. 10 is a configuration diagram of management means.
  • FIG. 11 is a block diagram of data extraction means.
  • FIG. 12 is a structural diagram of a graph structure database.
  • FIG. 13 is a structural diagram of a camera information database.
  • FIG. 14 is a structural diagram of the plan 'actual imaging information database'.
  • FIG. 15 is a structural diagram of a link related information database.
  • FIG. 16 is a structural diagram of a physical image database.
  • FIG. 17 is a diagram showing a feature having a graph structure.
  • FIG. 18 is a flowchart illustrating a procedure in the image data management system with a geographic information association according to the embodiment.
  • FIG. 19 is a flowchart for explaining a procedure in the image data management system with a geographic information association according to the embodiment.
  • FIG. 20 is a flowchart for explaining a procedure in the image data management system with geographic information according to the embodiment.
  • FIG. 21 is a flowchart illustrating a procedure in the image data management system with a geographic information association according to the embodiment.
  • FIG. 24 An example of annotation overlay display on the display screen of the map information association image data display system.
  • FIG.26 Flowchart of note data search of map information related image data display system.
  • FIG. 27 is a detailed configuration diagram of the image data display system 100 with geographic information.
  • FIG. 28 is an explanatory diagram for simultaneously displaying a photographing position and a corresponding image.
  • FIG. 29 It is an explanatory diagram showing a more specific configuration of cut-out image data.
  • FIG. 30 is an explanatory diagram for explaining a more specific configuration of a physical image database.
  • FIG. 31 This is an explanatory diagram of thinning out of the present embodiment, display of shooting positions, and registration of cut-out data.
  • FIG. 32 is an explanatory diagram for explaining a traveling direction mark display means.
  • FIG. 34 is a schematic configuration diagram of a geographic information-related image data management system according to the second embodiment.
  • FIG. 35 is an explanatory diagram of image grouping for links.
  • FIG. 36 is a block diagram for displaying a traveling direction selection polygon.
  • FIG. 38 is a comparison diagram of images corresponding to the same link photographed in different directions.
  • the image data display system 100 with a geographic information association includes a geographic display means 101, a photographing position display means 102, a photographed image display means 103, and a route search interlocking means. 104, an image search means 105, and a storage device 106 that stores map data 108 and cut-out image data f4.
  • the geographic display means 101 reads the map data 108 stored in the storage device 106, and displays the map while scrolling, switching scales, switching display items, switching display colors, and the like.
  • the imaging position display means 102 stores a storage device on the map displayed by the geographic display means 101.
  • Cut-out image data stored in 106 f4 image file (collected image data), image file additional information (image acquisition coordinates, image acquisition orientation, image acquisition link ID, order in acquisition link, image acquisition camera information (Shooting height etc.))
  • image file collected image data
  • image file additional information image acquisition coordinates, image acquisition orientation, image acquisition link ID, order in acquisition link, image acquisition camera information (Shooting height etc.)
  • the shooting position image acquisition coordinates on the map
  • the user designates this drawing position with a mouse click or the like, and displays a photographed image at a desired photographing point.
  • the captured image display means 103 includes an image display unit and an image continuous display unit.
  • the image display unit displays the image closest to the shooting position. Search using the image acquisition coordinates of the image file attachment information of the cut-out image data, and read and display the closest image file.
  • the stored image is an all-round image (360 ° circumference is taken and equirectangular projection ( If the image was taken with a vertical projection (a projection in which the horizontal projection is linear to the horizontal orientation)
  • An image taken from the shadow center with an arbitrary camera parameter (camera direction 'focal length (angle of view)) is synthesized and displayed by means of CG processing or the like. This kind of display method is used to specify camera parameters.
  • the image is converted into a rectangular area and displayed using texture mapping and recording means generally used in CG (computer graphics).
  • CG computer graphics
  • map data 108 includes annotation data (data consisting of a combination of the feature name on the map 'feature type and position coordinates on the map), as shown in FIG.
  • annotation data data consisting of a combination of the feature name on the map 'feature type and position coordinates on the map
  • the orientation of the object to which the annotation data is added as seen from the image acquisition coordinates is calculated from the image acquisition coordinates and image acquisition orientation included in the cut-out image data f4 and the annotation display position included in the map data 108) and displayed.
  • the continuous image display unit displays images having the same link ID sequentially in ascending or reverse order according to the shooting order in the acquisition link, so that the power is continuously moved. And display it as a video.
  • the continuous display can be controlled with the movement direction designation button and the pause button.
  • the movement direction designation button is displayed as a symbol corresponding to the traveling direction of the image data associated with the same route.
  • the moving speed can be specified in the moving speed specification box.
  • the continuous display is discontinued and the route is selected.
  • route selection the node ID of the last displayed side is checked from the attached information (also called attribute information) of the image file.
  • the graph structure included in the cut-out image data is examined, and a link connected to the node is searched. Furthermore, by checking the image acquisition link ID included in the cut-out image data, if there is image data (collected image data) that captures the link, it is displayed on the image and displayed on each path. Draw a click button, etc., and specify which route image to display next.
  • the route search interlocking means 104 uses the route network included in the map data 108 to search for a route from the specified start point coordinates to the end point coordinates, and the geographical display means 101 The route is displayed on the displayed map, and for the portion where the cutout image data f4 corresponding to the route exists, the shooting position of the image acquisition coordinates of the image is also drawn on the map displayed by the geographic display means 101.
  • the route search interlocking means 104 draws only the shooting positions of all image acquisition coordinates on the route during the route search, and does not draw the rest. At this time, if a shooting position on the route is selected, the other shooting positions are drawn in a different color.
  • the above-described route network includes, for example, a travel locus pattern, a road shape, a width, and the like.
  • a network having a graph structure includes a road, a railroad, a seaway, a pipeline, an airway, a tunnel, and the like, and may be collectively referred to as a route network.
  • the image search means 105 searches for an image of the object being photographed using the note data including the facility name and the like included in the map data 108.
  • the note data includes the note string to be drawn on the map, the note display position, and the note type! /.
  • the image search is performed according to the procedure shown in the flowchart of FIG.
  • Step S200 Verification of note data and image
  • Each note data is searched for an image that has been photographed and judged to be the best!
  • an image file having a shooting position coordinate closest to the note display position of the note data is assigned, and the image file attached information of the cut-out image data having this image file is searched and selected.
  • the defined criteria eg distance threshold, value
  • Step S201 Keyword input
  • a keyword including the name and type of the object you want to search.
  • the types of features include public facilities, parks, and “intersection names”.
  • the keyword specifies all or part of the feature name (Shinjuku Station is examined! /, In this case, “Shinjuku”, etc.).
  • Step S202 Note data search
  • step S200 Search for note data corresponding to the above keywords. At this time, in step S200 Only notes with corresponding images selected are considered. Matching with keywords is performed on note strings or note types.
  • Step S203 Note candidate selection
  • Step S204 Image display
  • An image corresponding to the note selected by the user is cut out from the image data and displayed on the image display unit of the computer screen.
  • the map data 108 includes network data fO such as roads, a background map, note data given to objects existing on the map, and map symbol data.
  • the map data 108 may be general data created for use in a navigation system or the like, rather than data created exclusively.
  • the cut-out image data f4 includes an image file, image file attached information, and graph structure information.
  • the image file attachment information includes the image acquisition coordinates, image acquisition orientation, image acquisition link ID, shooting start node ID, shooting end node ID, and shooting order counted from the shooting start side for each image file.
  • graph structure information associated with the acquired image and image acquisition camera information (such as shooting height).
  • the graph structure of the link indicates the connection relation of the link from which the image is acquired. For each node included in the data, a list ID of the node ID and the link ID of the link connected to the node is displayed.
  • the image acquisition direction is the direction of the central axis of the camera at the time of shooting.
  • the center of the omnidirectional image viewed from the shooting point is the corresponding orientation.
  • the image acquisition link ID corresponds to the ID of the center of the road where the image was taken when the route network is used as a graph structure.
  • the node is a coordinate point for specifying, for example, a road intersection or a dead end.
  • the link is a vector connecting each node, and includes data such as the link start point coordinates, end point coordinates, link direction, and link road width.
  • the cut-out image data f4 is data created by an image data management system with geographic information association 10 described later.
  • the image data display system 100 associated with geographic information may be a program operating alone on a computer.
  • the cut-out image data f4 is a data server, map data 1
  • 08 may be realized as a system on the Internet with a client or data server.
  • the image data management system 10 with geographic coordinates is divided into an image capturing subsystem 20, an image data editing subsystem 30, an image data management subsystem 40, and an image data management subsystem 40. Consists of connected storage devices 50.
  • the image capturing subsystem 20 is connected to the image sensor 22, and an image data collection unit 24 that collects an image of the surrounding environment along the link as collected image data dl together with the photographing time, and a hybrid type A position sensor 23 is connected, and a moving means equipped with a position data collecting means 25 for collecting the photographing position coordinates of the image together with the coordinate measurement time as the collected image attribute information d2 is included.
  • the collected image data dl from the above-described image capturing subsystem is a group of images captured at regular intervals within the link.
  • a hybrid position sensor 22 Also included are a hybrid position sensor 22, a speed sensor 'acceleration sensor', an angular acceleration sensor, and the like.
  • a link refers to a road between two points (from one intersection to the next intersection) having the graph structure shown in FIG.
  • one point is marked as the starting point, and the other point is marked as the ending point, but it does not mean the starting point force, the end point and! /, Or the direction of the link.
  • the moving means refers to an aircraft for flying along a link and shooting from above, or a vehicle 21 traveling on a link road.
  • the image data editing subsystem 30 includes a map data display means 31 for displaying links, an image data display means 32 for displaying image data collected by the image data collection means 24, a photographing time and Link start and end point passage time registration means 33 that records the start time and end point passage time of the link from the coordinate measurement time (GPS time), and image thinning that thins out data from the multiple collected image data dl in the link at regular intervals.
  • Means 34 and actual photographing management information registration means 35 are included.
  • the image data management subsystem 40 includes an imaging plan means 41 for managing an imaging plan by the image imaging subsystem 20, the collected image data dl edited by the image data editing subsystem 30, and the collected image attribute information d2.
  • Shooting information capturing means 42 for capturing information
  • data extracting means 44 for extracting information that meets the specified conditions from information recorded in the storage device 50
  • registration of information in the storage device 50 and storage device 50 Management means 43 for deleting information from the storage device 50 and printing information in the storage device 50.
  • the storage device 50 includes a graph structure database 51 that records link information, and an image sensor.
  • the camera information database 52 that records 22 information, the plan / actual shooting information database 53 that records the shooting plan information, and the collected image data dl and the collected image attribute information d2 captured by the capturing information capturing means 42, respectively. It includes a collected image database 55 and a collected image attribute information database 56 to be recorded, and a link related information database 54 for recording management information for associating information of each database for each link as shown in FIG.
  • Data exchange between the image capturing subsystem 20, the image data editing subsystem 30, and the image data management subsystem 40 is performed via a portable storage medium such as a disk.
  • Each subsystem can be provided with data communication means, and can be performed by wired or wireless data communication.
  • the vehicle 21 is taken as an example of the moving means and the force S and the vehicle 21 are not limited.
  • the image capturing subsystem 20 is a subsystem intended to capture a peripheral image along a link used in the embodiment of the present invention.
  • the image data collection means 24 captures an image while traveling on a road as a link using one or a plurality of synchronized cameras attached to the vehicle 21 as the image sensor 22.
  • the time transmitted from the global radio positioning system (GPS) detected by the hybrid position sensor 23 is displayed in each time series. It is added to the frame and recorded in the temporary memory 26 as the collected image data dl.
  • GPS global radio positioning system
  • time IJ is given to each image frame in units of 1/1000 seconds using the detected GPS time and the clock of the computer on which the image capturing subsystem 20 is mounted.
  • the position data collecting means 25 uses a hybrid position sensor 23 combined with GPS and other sensors (gyro, vehicle speed sensors) attached to the same vehicle 21 to obtain the position obtained from the GPS. Information (coordinates), vehicle speed information obtained from the vehicle speed sensor, acceleration information and direction information obtained from the gyro are collected. Further, the GPS time is assigned to these pieces of information and recorded in the temporary memory 26 as the collected image attribute information d2.
  • the position data collecting unit 25 is provided with a process for instructing the image data collecting unit 24 not to collect image data. You can also stop shooting while stopped. As a result, when the vehicle is stopped due to traffic light or traffic congestion, it is possible to temporarily stop recording image data and save the data collection capacity.
  • the collected image data dl and the collected image attribute information d2 are assigned time information using a common GPS time as shown in FIG.
  • the force S is used to associate the position with the image using as a medium.
  • the camera direction can be obtained from the relative direction of the camera relative to the vehicle 21 and the direction of the vehicle 21.
  • the relative orientation is measured in advance. Normally, the image data collection cycle is shorter, so the position, speed, and direction in each image frame can be obtained by subtracting the position, speed, and direction at the previous and subsequent times.
  • the collected image data dl and the collected image attribute information d2 recorded in the temporary memory 26 are output to a portable storage medium such as a disc as a primary imaging information import file fl, and the next image data editing subsystem Input to 30.
  • the position data collection unit 25 is created by the shooting plan unit 41 of the image data management subsystem 40 described later, and is output to the portable storage medium as a shooting information export file f3 described later.
  • the link shape and information contained in dO are read, and the position information obtained from the hybrid position sensor 23 is superimposed on the computer screen. As a result, the operator what force s I force was data collection of the link of the collection target, Ru.
  • the image data editing subsystem 30 uses the collected image data d2 collected by the image capturing subsystem 20 and output as the primary image capturing information import file fl as the implementation of the present invention. Edited for use in the form of the image data, created by the shooting plan means 41 of the image data management subsystem 40 described later, and using the shape information of the link information output as the shooting information export file f3, a graph such as a route network It is a subsystem designed to correlate and optimize map information with a structure.
  • the map data display means 31 has, as input information, a primary imaging information import file fl output from the imaging system 20 having the same structure as a physical image database to be described later.
  • the link shape is displayed from the time-series position information included in the collected image attribute information d2 constituting the primary shooting information import file fl and the map information included in the shooting information export file f3.
  • the time series position information is displayed as a point sequence, and the link shape is displayed as a continuous line segment.
  • the image data display means 32 displays the collected image data dl of the primary imaging information import file fl as shown in FIG.
  • the image collection position is displayed as a symbol in the map displayed by the map data display means 31.
  • the display of image data can be sequentially switched back and forth in time series.
  • the link start / end point passage time registration means 33 displays the link selected by the mouse on the map shown in FIG. 4 displayed by the map data display means 31, or the link being selected that has been sequentially selected. Specify and register the passage time corresponding to the start and end points. Passing time is one Collection of the next shooting information import file fl Using the time series position information included in the image attribute information d2 to specify from the time of the time series position corresponding to the start point or end point, and the collection of the primary shooting information import file fl There is a method to specify from the image shooting time given to the image data dl.
  • the transit time of the link start point and end point is the same as that for the shooting plan export file, along with information such as shooting date and time, camera information key ID used for shooting, and physical storage location (such as hard disk volume name) of the image to be stored. Saved in the actual shooting result information d3 in the format.
  • the automatic designation method is achieved by searching for a time-series position closest to the start point or end point of the link.
  • You may use the map matching technology used in the navigation system of automobiles, that is, the technology that automatically corresponds to the route you are traveling in consideration of not only the position but also the direction of travel and speed. In this case, the closest point is not necessarily selected.
  • the collected image data dl corresponding to the start time of the link and the end time is displayed on the image display screen.
  • the previous or next image is displayed in time series by operating the time series screen.
  • the image capture time of the image at the intersection determined by the operator can be corrected and registered as the transit time of the link start point or end point.
  • start point passage time of the link registered by the link start / end point passage time registration means 33 is earlier than the end point passage time, the image is taken while traveling from the start point to the end point on the corresponding link. It is judged that it was done. Conversely, if the start point passage time is later than the end point passage time, it is determined that the image is taken while traveling from the end point toward the start point on the corresponding link.
  • the link start and end passage times registered by the link start / end point passage time registration means 33 are output to the secondary imaging information import file f2.
  • the image thinning means 34 thins the collected image data dl of the primary shooting information import file fl in accordance with the moving distance or the like for the purpose of reducing the data capacity.
  • the thinning method as shown in FIG. 6, there is the following method. Starting from one frame, the distance from the starting frame to the i-th frame is calculated for each frame using the formula [Equation 1].
  • the amount of data can be reduced by thinning out the number of image frames to such an extent that there is no human visual problem, and the amount of memory required for storage can be reduced. Can be made inexpensively. Furthermore, if the amount of data to be subjected to image display processing is small, the display processing speed can be improved and the burden on a display device such as a computer can be reduced.
  • the image thinning means 34 is not particularly required.
  • the actual shooting management information registration means 35 inputs the attribute information (shooting area information, operator, etc.) at the time of actual shooting to be registered in the plan / actual shooting information database, which will be described later, and enters the actual shooting management information d4. input.
  • the image data management subsystem 40 Planning of equipment to be used-Necessary from management of progress to management of collected image data dl actually captured and edited, and to extract and provide collected image data dl that meets user requirements It is a subsystem for the purpose of batch management of various data groups.
  • the shooting plan means 41 includes a screen display unit 411, a link selection unit 412, a camera information input unit 414, a shooting plan information input unit 413, and a shooting information export file creation unit 415. Composed.
  • the screen display unit 411 displays the node and link of the graph structure database 51 recorded in the storage device 50 on the computer screen.
  • the link selection unit 412 selects and determines a link for which shooting is planned from among the links displayed by the screen display unit 411.
  • Link selection methods include rectangular area specification by mouse operation on the screen, selection by position such as polygon area specification, selection by attribute information included in the graph structure information such as road width and type, and position and attribute information. There is a composite selection
  • the purpose is achieved if only the prefectural road is extracted in advance by selection based on attribute information, and then the municipality boundary is designated by polygon designation.
  • the camera information input unit 414 records the input camera information used for shooting in the storage device 50 as the camera information database 52. At this time, the camera information key ID specified automatically or arbitrarily is assigned so that individual camera information can be identified.
  • the shooting plan information input unit 413 displays the input shooting plan such as the shooting area (link group selected by the link selection unit 412), the scheduled shooting start date, the shooting operator, and the camera information key ID of the camera to be used. Is recorded in the storage device 50 as a plan / actual shooting information database 53. At this time, an automatic or arbitrarily designated shooting plan key ID is assigned so that individual shooting plans can be identified.
  • the shooting information export file creation unit 415 combines the link selected by the link selection unit 412 and the information input by the shooting plan information input unit 413, and displays them in the format shown in FIG. As link related information, it is recorded in the link related information database 54 in the storage device 50. At this stage, the link-related information and the link shape recorded in the graph structure database are output to the portable storage medium as a photographing information export file f3.
  • the shooting information capturing means 42 includes an actual shooting management information recording unit 421 and an image data recording unit 422.
  • the actual shooting management information recording unit 421 stores the actual shooting management information d3 such as the photographer at the time of shooting, which is input as the secondary shooting information import file f2 from the image data editing subsystem 30, as the actual shooting key. Assign ID and plan ⁇ Record in actual shooting information database 53.
  • the actual shooting ID should be a combination of the shooting date and the camera information key ID used, etc., so that IDs do not overlap.
  • the shooting information related to the shot link that is, the shooting date and time, the camera information key ID used for shooting, the passage time of the link start point and end point, and the physical storage location of the image to be stored (such as the volume name of the hard disk) ) Etc.
  • the actual shooting result information d 3 is stored in the link related information database 54 created and saved for each link key ID by the shooting information export file creation unit 415. Update to.
  • the image data recording unit 422 collects the collected image data dl and the collected image attribute information d2 input from the image data editing subsystem 30 as the secondary shooting information import file f2, and the collected image database 55 and the collected image attribute information d2, respectively. Record in the image attribute information database 56.
  • the management unit 43 includes a network registration unit 431, a printing unit 432, and a maintenance unit 433.
  • the network registration unit 431 reads route network data created and distributed externally and registers it in the graph structure database 51.
  • the printing unit 432 prints the information of each database recorded in the storage device 50 using a printer.
  • the maintenance unit 433 performs periodic knock-up of each database recorded in the storage device 50, and stores unnecessary data (such as shooting plan information that is no longer shot). Delete it. In addition, by searching for the work progress code in the link related information database 54 reflecting the shooting plan information dO and the actual shooting management information d3, the power of shooting progress is totaled.
  • the data extraction means 44 includes an extraction condition input unit 441, a graph structure information extraction unit 442, a link related information extraction unit 443, a collected image data extraction unit 444, and a collected image.
  • An attribute information extraction unit 554 is included.
  • the extraction condition input unit 441 inputs conditions for extraction from the database.
  • Conditions include positional conditions, link attribute conditions, and shooting attribute conditions.
  • the positional conditions include a rectangular area and a polygon area obtained by operating the mouse on the screen or reading a file.
  • the link attribute condition includes designation of attribute information included in the graph structure information such as road width and type.
  • the shooting attribute condition includes designation of a shooting date and a shooting time zone.
  • the graph structure information extraction unit 442 receives an extraction condition input unit from the graph structure database 51.
  • a link that matches the positional condition and the link attribute condition input in 441 is extracted.
  • the extracted link IDs and the node IDs at both ends thereof are checked, the link IDs connected to each node are listed, and stored as the graph structure information of the link of the cut-out image data.
  • the link related information extraction unit 443 extracts the link corresponding to the ID of the link extracted above from the link related information database 54. Further, link information that matches the photographing attribute condition input by the extraction condition input unit 441 is extracted from the information.
  • the collected image data extraction unit 444 extracts information that meets the conditions input by the extraction condition input unit 441, from the collected image database 55.
  • the collected image data extraction unit 444 searches for an image photographed with the camera information key ID stored in each link related information extracted above from the collected image database. To do. Further, an image photographed between the viewpoint passage time and the end point passage time is extracted from the image, cut out as an image file, and stored as an image file in the image data.
  • the image acquisition link ID, the node ID on the shooting start side, the node IDs on both sides of the shooting collection, and the shooting order are cut out and stored as image file attribute information in the image data.
  • the collected image attribute information extraction unit 445 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image attribute information database 56.
  • information such as image acquisition coordinates and image acquisition orientation corresponding to the image file extracted above is extracted and stored as image file attribute information in the cut-out image data.
  • Cut-out image data f4 This includes image files, image file attachment information, link related information, link graph structure information, and the like.
  • ⁇ Specifying the positional condition cutting out by geographic mesh or administrative area: The ability to select the link to cut out by specifying the mouse on the computer screen interface or specifying the area with the mouse.
  • the inside of the outer polygon such as the administrative area may be registered in advance, and the link in the outer polygon corresponding to the area designated by the user may be extracted.
  • shooting attribute condition By referring to shooting date / time information included in the link related information database 54, it is possible to specify and extract the shooting time of the image.
  • the image corresponding to each link is extracted based on the information described in the link related information database 54. That is, from the collected image database 55 recorded in the storage location of the storage device 50 described in the record corresponding to the link key ID of the link to be extracted, the image is captured by the camera described in the camera information key ID, In addition, it is only necessary to extract the time that the image frame is between the start point passage time and the end point passage time.
  • the cut out image data can include the following. [0135] ⁇ Image file
  • Image acquisition link ID ID of the road centerline that captured the image
  • the database used in the embodiment of the present invention is roughly divided into an image information database 50a for managing the relationship between feature information having a graph structure and captured images.
  • the physical image data base 50b that stores the actually captured images and their associated information can be divided into two groups.
  • the image information database 50a includes a graph structure database 51 that stores the graph structure, a camera information database 52 that stores information attached to the shooting, such as the camera used for shooting, and the shooting plan and actual shooting times.
  • a plan-actual imaging information database 53 corresponding to each link storing information
  • a link-related information database 54 that associates the above information and captured images for each link.
  • the graph structure database 51 stores feature information having a graph structure as shown in FIG.
  • a route network is used as geographic information
  • a road center line connecting the intersection as a node of the graph structure and the intersection as a link corresponds.
  • each node is defined by geographic coordinates and identified by a node key ID.
  • Each link is defined by the geographical coordinates of both ends or the node key ID) and the link shape, and is identified by the link key ID.
  • link road Both ends of the (road center line) are connected to nodes (intersections), and node key IDs indicating the intersections of the start and end points of links are given to each link. This reveals the connection relationship between nodes and links, that is, the network structure.
  • attached information can be attached to nodes and links.
  • a route network it is possible to give information such as the name of an intersection if it is an intersection, and information such as road width and regulatory information (such as one-way traffic) if it is a link.
  • device information such as a camera to be photographed, a car to be mounted, and a camera height is stored in the camera information database 52, and is identified by a camera information key ID.
  • the plan / actual shooting information database 53 records shooting plan information dO and actual shooting management information corresponding to each link, as shown in FIG. That is, the operator, the camera information key ID of the camera used for the work, and the image shooting date. Each shooting plan and actual shooting management information are identified by shooting plan key ID and actual shooting key ID, respectively.
  • the link related information database 54 includes a link key ID, a shooting plan key ID, an actual shooting key ID, and a work progress code indicating the shooting status (planned, shot, edited, A table containing a series of information such as shooting date, camera information key ID used for shooting, transit time of link start and end points, and physical storage location of the image to be stored (volume name of the node disk, etc.) With structure.
  • the link related information database 54 is a table that can have a plurality of records having the same link key ID, as indicated by the hatched portion in FIG. For this reason, it is possible to store multiple shooting results for one link key ID.
  • the collected image database 55 and the collected image attribute information database 56 belong to the physical image database.
  • the collected image database 55 includes a series of images actually taken in time series, The shooting camera information (camera information key ID) used to collect each image, the shooting date, and the shooting time are also recorded.
  • the collected image attribute information database 56 includes a position at the time of shooting, a speed at the time of shooting, and a shooting direction.
  • Information such as the shooting date, shooting time (GPS time), and shooting camera is stored.
  • the information in the collected image database 55 and the information in the collected image attribute information database 56 have time information, they are associated with each other by the time information.
  • the storage device 50 is not limited to one.
  • the physical image database 50b may be stored in a storage medium physically different from the image information database 50a. Actually, it is divided and stored on a large-capacity hard disk of 100 GB or more.
  • images of a plurality of periods can be simultaneously stored for one link.
  • Step S100 The link information from the external route network data f0 is registered in the graph structure database 51 by the management means 43 of the image data management subsystem 40.
  • Step S101 Screen display section of the photographing plan means 41 of the image data management subsystem 40
  • the graph structure of the link is displayed from the link information of the graph structure database 51.
  • Step S102 Link selection unit of photographing plan means 41 of image data management subsystem 40
  • the link to be photographed is selected from the displayed link graph structure.
  • Step S103 The camera information input unit 414 of the shooting plan means 41 of the image data management subsystem 40 registers information about the camera used for shooting in the camera information database 52.
  • Step S104 Shooting Plan Information of Image Data Management Subsystem 40
  • Shooting Plan Information of 41 The information input unit 413 prepares a shooting plan for the extracted shooting target link
  • Step S105 The shooting information status port file creation unit 415 of the shooting plan means 41 of the image data management subsystem 40 outputs the shooting plan information dO to the shooting information export file f3.
  • Step S106 The link shape in the information of the shooting information export file f3 is read into the image shooting subsystem 20 and the link to be shot is displayed.
  • Step S107 A captured image obtained by taking an image while actually traveling on the road of the link by the moving means (vehicle 21), and giving the photographing time by the image data collecting means 24 of the image taking subsystem 20. Collect data dl.
  • Step S108 Also, by the position data collection means 25 of the image capturing subsystem 20
  • Step S109 The image capturing subsystem 20 outputs the collected image data dl and the collected image attribute information d2 together with the actual shooting result information to the primary shooting information import file fl.
  • Step S110 The image data editing subsystem 30 and the shooting information export file f
  • Step S111 Register actual photographing management information.
  • Step S112 The map data display means 31 of the image data editing subsystem 30 displays the map data.
  • Step S113 The image data display means 32 of the image data editing subsystem 30 displays the images collected for the link designated on the map data.
  • Step S114 Time information is obtained from the displayed collected image data dl and the collected image attribute information d2, and the link start / end time registration means 33 of the image data editing subsystem 30 determines the link information. Record the passage time of the start and end points.
  • Step S115 Furthermore, the image thinning means 34 of the image data editing subsystem 30 thins out the image from the collected image data dl as necessary to reduce the data amount.
  • Step SI 16 Output the edited information to the secondary shooting information import file f2.
  • Step S117 The information of the secondary shooting information import file f2 is input to the image data management subsystem 40.
  • Step S118 The actual photographing information data is recorded in the plan / actual photographing information database 53 by the photographing information capturing means 42 of the image data management subsystem 40.
  • Step S119 The photographing information capturing means 42 of the image data management subsystem 40 updates the information in the link related information database 54.
  • Step S120 The data extraction means 44 of the image data management subsystem 40 extracts data from the collected image database 55 based on the information in the link related information database 54 according to the user's requirements, and provides link information (network information). Etc. and output as cut-out image data f4.
  • Step S121 The geographic data-related image data display system 100 of the present invention displays a map and a surrounding image of a designated link (road) by using the cut-out image data f4 and commercially available map data.
  • the following effects can be obtained by the image data management system with geographic information described above, and the user's request can be obtained by reading the created cut-out image data with the image data display system with geographic information 100.
  • the local image corresponding to can be displayed.
  • Camera information used for shooting as the camera information database 52 (shooting height and power of the camera
  • the identification number of the camera itself and the camera calibration information for each identification number) are centrally managed, so measurements can be made later using the captured images.
  • the actually captured images are associated with map information having a graph structure such as a complex route network with three or more intersections or intersections of five or more Y-junctions. Can be managed.
  • the primary shooting information import file fl in Figs. 1, 2, 3, and 7 includes image collection data dl with time and collection image attribute information d2.
  • the collected image attribute information d2 includes position information (coordinates) obtained from GPS, vehicle speed information obtained from a vehicle speed sensor, gyro force, obtained acceleration information and direction information, GPS time, and the like.
  • the shooting position display means 102 reads the collected image attribute information d2 of the cutout data f4.
  • This time-series information (image acquisition coordinates) can be displayed as a symbol (for example, a circle: the shooting position hereinafter) as shown in FIG.
  • FIG. 31 (a) shows the shooting position when the car was shot at regular intervals while moving faster or slower.
  • Fig. 31 (b) shows that the collected image data dl (with shooting time) captured at regular intervals stored in the primary shooting information import file fl at this time is arranged on the distance axis (coordinates). Is shown.
  • the map data display means 31 in Fig. 1 reads the image acquisition coordinates of the collected image attribute information d2 having the time of the collected image data dl, for example, and the image acquisition coordinates are stored in the distance axis (X — Allocate to memory defined in the Y coordinate system.
  • the image thinning means 34 sequentially sets the thinning interval d (distance) to the extent that there is no human visual problem on the distance axis from the shooting start point.
  • d distance
  • the image acquisition coordinates (imaging position) of the collected image data dl exist.
  • the image acquisition coordinates (shooting position) are assigned to the distance axis as representative shooting points (simply referred to as shooting positions) and related to the assigned image acquisition coordinates (shooting positions). Only the collected image data dl and the collected image attribute information d2 to be extracted are extracted and stored in the secondary imaging information import file f2.
  • time is extracted as a key. That is, only the collected image data dl and the collected image attribute information d2 at the time when the location of the bold line (representative shooting point) in FIG.
  • the link start / end point passage time registration means 33 performs the actual shooting result having the time of the collected image attribute data d2 including the position information of these representative shooting points.
  • Information d3 is extracted from the shooting information export file f3 and stored in the secondary shooting information import file f2.
  • the actual photographing management information registering means 35 performs the actual photographing management having the time of the collected image attribute data d2 having the image acquisition coordinates (photographing positions) of these representative photographing points.
  • Information d4 (shooting area information, operator information, etc.) is extracted from the shooting information tab file f3 and stored in the secondary shooting information import file f2.
  • the secondary shooting information import file f2 stores the collected image data dl, the collected image attribute information d2, the actual shooting result information d3, the actual shooting management information d4, etc. of each representative shooting point. It is.
  • the actual shooting management information recording unit 421 of the shooting information capturing means 42 of the image data management subsystem 40 assigns an actual shooting key ID to the actual shooting management information d3 of the secondary shooting information import file f2.
  • Plan ⁇ Record in the actual shooting information database 53.
  • the image data recording unit 422 records the collected image data dl and the collected image attribute information d2 of the secondary imaging information import file f 2 in the collected image database 55 and the collected image attribute information database 56, respectively.
  • the actual shooting management information d4 is stored in the plan / actual shooting information database 53.
  • the data extraction means 44 includes an extraction condition input unit 441, a graph structure information extraction unit 442, a link related information extraction unit 443, a collected image data extraction unit 444, and a collected image attribute. It consists of an information extraction unit 554,
  • the extraction condition input unit 441 inputs conditions for extraction from the database.
  • Conditions include positional conditions, link attribute conditions, and shooting attribute conditions.
  • Positional conditions also called spatial clipping conditions, include rectangular areas and polygonal areas that can be obtained from mouse operations on the screen and reading files. Various information (image files, attribute information, etc.) in these areas can be clipped. Call it image data!
  • the link attribute condition includes designation of attribute information included in the graph structure information such as road width and type.
  • the shooting attribute condition includes designation of a shooting date and a shooting time zone.
  • the graph structure information extraction unit 442 receives the extraction condition input unit from the graph structure database 51.
  • a link that matches the positional condition and the link attribute condition input in 441 is extracted.
  • the link related information extraction unit 443 extracts the link corresponding to the link ID extracted above from the link related information database 54. Further, link information that matches the photographing attribute condition input by the extraction condition input unit 441 is extracted from the information.
  • the collected image data extraction unit 444 extracts information that meets the conditions input by the extraction condition input unit 441, from the collected image database 55.
  • the collected image data extraction unit 444 executes each of the resources extracted from the collected image database. Search for images taken with the camera information key ID on the shooting date stored in the link related information. Furthermore, an image taken between the viewpoint passage time and the end point passage time is extracted from the image, cut out as an image file, and stored as an image file in the image data.
  • the image acquisition link ID, the node ID on the shooting start side, the node IDs on both sides of the shooting collection, and the shooting order are cut out and stored as image file attribute information in the image data.
  • the collected image attribute information extraction unit 445 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image attribute information database 56.
  • information such as image acquisition coordinates and image acquisition orientation corresponding to the image file extracted above is extracted and stored as image file attribute information in the cut-out image data.
  • the data extraction means 44 uses all the cut-out image data f4 (graph structure information, link-related information, image file) corresponding to the representative shooting point shown in Fig. 31 (d) of the cut-out condition (area: area). , Image file attribute information... Is stored in the storage device 106 (see FIG. 31 (f)).
  • the cut-out image data f4 is used to display a map and an image file by the image data display system 100 with geographic information association.
  • FIG. 27 is a more specific configuration diagram of the image data display system 100 with relation to geographic information.
  • the image data display system 100 with a geographic information association is a storage device.
  • the storage device 106 stores note data related information f6 and the like.
  • This note data related information f6 is preferably registered in advance by the note data 'registration display means 109.
  • the aforementioned map data 108 preferably has a hierarchical structure.
  • Eg background map This is a hierarchical structure such as the world of network, network information, note data, and map symbol data.
  • the annotation data is the name of the feature, and this name is associated with the coordinates of the annotation data field.
  • the storage device 106 stores a plurality of pieces of cut-out image data f4 in the cut-out condition area. These cut-out image data f4 are preferably given an ID code. More specifically, the data structure is as shown in FIG.
  • the physical image database has a data structure shown in FIG. 30 more specifically.
  • the geographic display means 101 displays the background map, network information, note data, and map symbol in this region in an overlapping manner. At this time, only the note data in the vicinity of the road of the network data may be extracted and displayed.
  • the note data 'registration display means 109 has a function of displaying note data on an image on a computer screen.
  • the note data 'registration display means 109 is an image that exists within a certain distance from the coordinates of the note data of the map data (for example, the coordinates of the character at the center of the note data).
  • the acquisition coordinates are searched, and among these image acquisition coordinates, the image acquisition coordinates closest to the note data are searched.
  • the ID of the cut-out image data having the image acquisition coordinates is registered in advance in the storage device 106 as the annotation data related information f6 together with the annotation data and the coordinates of the annotation data.
  • the image of the image file linked to this ID is a 360-degree panoramic image, and the center position of the image corresponding to the camera center is the camera center (0 degrees).
  • the coordinates of the annotation data on the image are calculated at the position of the eye level in the direction of ⁇ k from the camera center.
  • it has a memory that defines a field for displaying note data (X-Y coordinate system: corresponding to the coordinate system of the panoramic image), and the coordinates of the note data on this memory (note data display on the image) Definition).
  • the note data related information f6 includes the ID of the adjacent clipped image data, the note data display position and direction ( ⁇ k), the characters of the note data, and the like.
  • the geographic information means 101 reads out map data corresponding to the input segmentation condition area from the storage device 106 and displays it on the computer screen.
  • This map data consists of background maps, note data, map symbol data, and the like.
  • the shooting position display means 102 extracts the image acquisition coordinates of all the cut-out image data f4 stored in the storage device 106, and positions on the map on the screen corresponding to these coordinates (for example, on the road) A symbol (photographing position symbol and label) indicating the image acquisition coordinates (photographing position) is displayed at the photographing point (see Figs. 23 and 24).
  • the photographing position display means 102 displays the designated photographing position symbol with another symbol (for example, a cross or a double circle). , Different colors).
  • the map traveling direction mark display means 107 indicates that the shooting order of images having coordinates corresponding to the shooting position symbol is the start number in the same link or It is determined whether it is the end number.
  • the shot image display means 103 extracts an image file of cut-out image data having image acquisition coordinates of the shooting position symbol, and the operator extracts the image file from this image file.
  • the image of the input display range is displayed on the screen.
  • the image file of the cut-out image data described above is a 360-degree panoramic image. For this reason, the operator designates a display range of about 50 degrees to the left and right, for example, centering on the shooting direction.
  • the on-map image display direction display means 110 displays the display range (from the shooting direction) based on the shooting direction from the image acquisition coordinates (shooting position) on the map on the computer screen.
  • a polygon is generated in the angle direction of the current display range (in the above case, 50 degrees left and right), and this polygon is overlaid on the map on the computer screen (refer to the fan of the map display range in Fig. 28).
  • the on-image traveling direction mark display means 107 obtains the direction of the connection link (road) included in the shooting range in the shooting direction from the intersection.
  • the direction of the connection link is defined by an angle. For example, as shown in Fig. 32 (a), when the shooting direction is the camera center (0 degree), the direction of the center line of the road ka from the camera center is ⁇ p, and the direction of the center line of the road kb is It can be defined by ⁇ i.
  • the captured image display means 103 sequentially extracts the image file of the shooting position of the road in the selected direction and displays it according to the display range.
  • the note data registration and display means 109 reads the specified note (00 apartment, 00 hospital, 00 office), and the ID of the image being displayed and the information related to the note data f 6 When the ID of the image data registered in is matched, the close note data is extracted from the map data. Next, the extracted note data is displayed on an image on a computer screen.
  • This annotation data is displayed by assigning the annotation data related information f 6 having the image acquisition coordinates (imaging position) when the imaging position symbol on the road on the computer screen has moved to the imaging position. Then, the character string of the note data is displayed on the computer screen according to the note data display position and direction of the assigned note data related information f6 (see Figure 24).
  • the cut-out image data fi when the cut-out image data fi is generated, the cut-out image data fi is displayed.
  • images related to privacy such as a face and a license plate also exist. is doing.
  • Such privacy-related images may be subjected to a process of blurring with a Gaussian finorator or the like, and stored in the storage device 106 as cut-out image data fi.
  • privacy-related images are displayed in a blurred manner on the display unit.
  • the road network and the background map of the shooting plan area included in the shooting plan information dO are displayed on the screen, and these links are shot, and the acquired collected image data dl (all Ambient images: Both image files! /, And collected image attribute data d2 are managed according to the shooting time, and images of a predetermined rectangular area of these all-around images (also referred to as camera parameter designation display images) are displayed on the screen.
  • images of a predetermined rectangular area of these all-around images also referred to as camera parameter designation display images
  • a path selection polygon for selecting a path is displayed.
  • a number of camera parameter designation display images in the course (link) corresponding to the selected course selection polygon are reproduced.
  • a map including a link is displayed on the screen, and the configuration and operation for displaying the position of the camera parameter designation display image with a symbol are supplemented.
  • FIG. 34 is a schematic configuration diagram of the image data management system with geographic information association according to the second embodiment.
  • description of components having the same reference numerals as those in FIG. 1 is omitted.
  • the image capturing subsystem 20 of the image data management system with geographical information association includes an image sensor 22, a hybrid type position sensor 23, an image data collecting unit 24, and an actual image capturing management information input unit 72. It has.
  • the actual shooting management information input means 72 displays a screen for inputting actual shooting management information before the start of shooting, and the operator name, actual shooting camera information key ID, and actual shooting date (time) are displayed on this input screen. Is input and stored in a memory (not shown).
  • the actual shooting management information input means 72 opens the above-described input screen and inputs a shooting result (shooted, shot not possible, etc.).
  • the actual photographing management information input means 72 stores the actual worker name, actual photographing date, photographing result, and the like input on the input screen in the temporary memory 26 as actual photographing input information d3a.
  • an actual shooting key ID combining the actual shooting date and the actual shooting camera information key ID is generated and included in the actual shooting input information d3a.
  • the actual shooting plan key ID may be entered manually.
  • the collected image data dl, the collected image attribute data d2, and the actual shooting input information d3a are stored as a set in the temporary memory 26, and the primary shooting information is imported. Output to file fl.
  • the image data editing subsystem 30 has the same configuration as that shown in FIG. 1, and includes a large number of collected image data dl, a large number of collected image attribute data d2, and actual shooting for each link in the secondary shooting information import file f2. Result information d3b and actual photographing management information d4 are stored. This actual shooting result information d3b is the same as the actual shooting result information d3 shown in Fig. 1.
  • the image data management subsystem 40 includes a photographing plan means 41, a photographing information capturing means 42 (see FIG. 34), and a management means 43, which are the same as those in FIG. Means 73 are provided.
  • the above-described data extraction means 73 inputs the extraction area (link ID or area) and the shooting time (year, month, day, time, normal, reverse direction) and has a link function having the link ID of the input extraction condition.
  • Link information is allocated from the link information related information database 54, and this link ID, shooting date / time, collected image data dl, and collected image attribute data d2 are output to the import file f4.
  • the data extraction means 73 reads the link ID, and if a link ID with the same number exists in the link related information database 54, the shooting plan key ID and the actual shooting key are recorded in the records of these link IDs. If the ID is written and the actual shooting information (actual shooting result information) is associated, the collected image data of all the link related information having the same link ID dl The collected image attribute information data d2, link-related information, map data, etc. are extracted as cut-out data and output (stored) in the import file f4.
  • Figure 34 is divided into multiple sections to emphasize that it is cut-out data that includes information with different shooting times.
  • this cut-out image data is extracted from the screen shot at different times on the same link.
  • Figure 37 shows images extracted by shooting on the same link at different dates.
  • 37—A1 shows an image taken in the morning (part of the entire surrounding image).
  • 37— A2 below A1 shows a map with shooting locations.
  • 37—B1 shows an image taken at night (a part of the all-around image), and 37—B2 below 37—B1 shows a map with the shooting position.
  • Fig. 38 shows images extracted by shooting on the same link in different movement directions.
  • 38-A1 shows an image (part of the all-around image) taken in the north lane (front), and 38-A2 below 38-A1 shows a map with the shooting position.
  • 38—B1 shows an image (part of the all-around image) taken when driving in the south lane (backward direction), and 38—B2 below 38—B1 shows a map with the shooting position.
  • the shooting plan means 41 of the image data management subsystem 40 displays a road network including a link to be shot on the screen (with a background map), and selects a link. At this time, an input screen (not shown) for shooting plan is displayed. The link ID of the selected link is automatically written in the input screen for this shooting plan. Also, the camera information of the camera information database 52 is displayed on the screen, and the camera key ID (camera to be shot) of the selected camera information is taken. Write to the shadow plan input screen.
  • the shooting plan means 41 displays a shooting date (including time) on the shooting plan input screen.
  • a shooting plan key ID is generated by combining the scheduled shooting date and the camera key ID scheduled to be shot.
  • the shooting plan means 41 uses the shooting plan information dO (shooting plan key ID, link ID, planned work person, scheduled camera information key ID, scheduled shooting date, etc.) Save to 53. At this time, it is preferable that the hard disk volume name and work progress code (not photographed) are input and included in the photographing plan information dO.
  • the shooting plan means 41 reads the plan 'actual shooting information database dO, and records the link ID, shooting plan key ID, scheduled shooting date, scheduled shooting camera information key ID and the link related information database 54 record. Write. At this time, write the hard disk volume name and work progress code.
  • the record in the link related information database 54 described above is linked ID, shooting plan key ID, actual shooting key ID, work progress code, shooting result, shooting date, start point passing time, and end point passing.
  • the record has an area where the time and storage location are written.
  • the imaging plan means 41 reads the work plan information dO having the same link ID and stores it in the link related information database 54. That is, link related information having the same link shown in FIG. 15 is generated in advance.
  • the imaging plan means 41 records such link related information in the link related information database 54 as fe.
  • the shooting plan means 41 sequentially reads these link-related information records, and for each read, the link ID, shooting plan key ID, shooting preliminary date, scheduled work person, etc. of the record are recorded.
  • Shooting plan information dO is output to shooting information export file f3.
  • the shooting plan information dO including the road network and the background map.
  • the position data collection means 25 of the image capturing subsystem 20 displays the road network and background map of the shooting plan information dO in the shooting information etsport file f3 to confirm the link to be shot.
  • a plurality of collected image data dl and collected image attribute data d3 in these links are output to the primary imaging import file fl.
  • the actual shooting management information input means 72 opens the above-mentioned input screen, and the shooting result (shooting completed, shooting disabled, etc.), actual worker name, actual shooting date and time, actual shooting camera information key I
  • the actual shooting management information input means 72 has the shooting plan key ID, the actual shooting key ID, the shooting result (taken), the work progress code (taken), the actual worker name, the actual shooting date, and storage.
  • the location etc. (actual shooting input information d3a) is output to the primary shooting information import file fl.
  • the image data editing subsystem 30 reads the actual shooting input information d3a stored in the primary shooting information import file fl! /, And the actual shooting key I of this actual shooting input information d3a.
  • shooting result (photographed)
  • work progress code (photographed)
  • actual worker name is linked and the link ID of shooting plan information dO is set as actual shooting management information d4 Save to the next shooting information import file f2.
  • map data display means 31 of the image data editing subsystem 30 displays map data
  • the image data display means 32 displays the link specified on the map data.
  • V Display the collected image (collected image).
  • the operator displays the collected image data dl corresponding to the time of the end point of the selected link on the screen.
  • the operator looks at the roads and intersections photographed in the image, and if it is determined that the position is shifted at the intersection, etc., the operator operates the screen in chronological order. Display the previous or next image. Then, the photographing time of the image at the intersection determined by the operator is corrected and registered as the passage time of the start point or end point of the link.
  • This correction registration is because the image sensor 22 (camera) takes a picture at a certain time, and the vehicle moves at a predetermined speed (5km / h, •• Okm '' 60km '' 80km). For this reason, each link has multiple collection images and attribute information. In addition, since the vehicle stops at the intersection and the speed is slow, there are a large number of collected images and attribute information at this intersection. That is, there are a large number of collected images and attribute information in the vicinity of the node. Therefore, it is necessary to determine the collected images and attribute information at the start point (node) and end point (node) of one link.
  • the one at the specified passing time is the collected image at the intersection, and the one between this start point and the end point is within the link.
  • Specifying the passage time of the start point and the end point means that the most appropriate one of the collected image data dl and attribute information data d3 is assigned to the link. Become. Also called image grouping. (See Fig. 35)
  • the shooting time (a) of the collected image and the shooting time (b) of another collected image in the link for which the link start / end point passage time registration means 33 is selected are designated,
  • the shooting time (a) is assigned to the start point (Ea) of the selected link, and the shooting time (b) is assigned to the end point (Eb).
  • the passage time of the start point and the end point is added to the actual shooting input information d3a having this link ID, and stored as the actual shooting result information d3b in the secondary shooting information import file f2.
  • the image thinning means 34 of the image editing data system 30 moves the collected image data dl of the primary shooting information import file fl for the purpose of reducing the data capacity. Thin out according to the distance.
  • the thinning method there are the following methods as shown in FIG. Using one frame (collected image data: also called image frame) as the starting point, the distance from the starting frame to the i-th frame is calculated by Equation 1 for each frame.
  • the image thinning means 34 is associated with the link ID! /, The speed information and the time information of the time-series information for each shooting time (fixed time). For each), find each distance Li (Ll, L2--': each distance to the end point) from the specified start point (eg start point). For each distance d that is an integral multiple of a predetermined fixed distance, the distance di is the closest to this integral multiple distance di!
  • Each attribute information (d2) having position information corresponding to the attribute information (d2) and a collected image (dl) of the attribute information are extracted as extracted data from a plurality of collected images and attribute information for each collected image. Yes. That is, in the secondary import file f2, a large number of collected images dl and attribute information d2 after being thinned within the link are stored for each link.
  • the secondary shooting import file f2 contains the actual shooting result information d3b including the link ID, shooting plan key ID, actual shooting key ID, and actual shooting date for each link.
  • the actual image management information d4 a large number of collected image data dl thinned out in the link, and these collected image attribute data d2 are stored as a set.
  • the shooting information capturing means 42 of the image data management subsystem 40 stores the actual shooting management information d4 for each link of the secondary shooting import file f2 in the plan 'actual shooting information database 53 of the storage device 50 and Read actual shooting result information d3b for each link
  • the actual shooting key ID of the actual shooting result information d3b, the actual shooting date, and the camera actually shooting Write the information key ID, the start time and end time, and the work progress code (already edited).
  • the contents at the time of shooting planning of the record are updated (scheduled shooting date, camera information key ID, work progress code, shooting result: V where nothing else has been written, location is newly written).
  • the collected image data dl of the link of the secondary shooting import file f2 is collected.
  • a large number of collected image attribute data d 2 is stored in the collected image attribute information database 56.
  • the shooting information capturing means 42 re-reads the secondary shooting import file f2, and collects image data dl, collected image attribute data d2, and actual shooting result information d3b for each link (may be the same link). If actual shooting management information d4 exists, it is newly read.
  • the actual shooting result information d3b actual shooting key ID, actual shooting date ID and actual shooting are recorded in the record having the link ID and shooting plan key ID of this shooting result information d3b in the link related information database 54.
  • Write the camera information key ID, start time, end time, and work progress code (edited). In other words, the contents at the time of shooting planning of the record are updated (Scheduled shooting date, camera information key ID, work progress code, shooting result: everything else is written, nare, location is newly written)
  • the collected image data dl of the link of the secondary shooting import file f2 is stored in the collected image database 55, and the collected image attribute data d2 is stored in the collected image attribute information database 56.
  • the data extraction means 73 inputs the extraction area (link ID or area) and shooting time (year / month / day, time, forward / reverse direction) and inputs the input extraction condition link ID and shooting time.
  • the link related information having etc. is allocated from the link information related information database 54.
  • a large number of collected image data dl and collected image attribute data d2 between the start point passage time and the end point passage time of the link related information related to this link ID are also read out and output to the import file f4.
  • link related information having a link ID corresponding to the extraction condition is read from the link related information database 52 and output.
  • the data extraction means 73 reads the link IDs, and if a link ID having the same number exists in the link related information database 54, the data extraction means 73 records the photometer in the records of these link IDs. If the image key ID and actual shooting key ID are written! /, And the actual shooting information (actual shooting result information) is associated, all the links having the same link ID A large number of collected image data dl and collected image attribute information data d2 are extracted and output (stored) in an import file f4.
  • the data extracting means 73 reads out the link related information having the link ID of the same number from the link related information database 52 and outputs it.
  • 40-C1 in Fig. 37 shows an example of link-related information.
  • This 40-C1 link-related information is a more specific example of Figure 15.
  • reference numeral 41-D1 in FIG. 38 shows an example of link-related information.
  • This 41-C1 link related information is a more specific example of Figure 15.
  • the data extraction means 73 outputs network information corresponding to the link type or area, as well as note data, map symbol data, and the like to the storage device 106.
  • the image data display system 100 with relation to geographic information includes a traveling direction arrow link determination unit 107 in addition to the photographed image display unit 103.
  • the captured image display means 103 includes a camera parameter designation image display unit 103a and an all-around image extraction unit 103b. Further, the traveling direction arrow link determination means 107 includes a selection arrow reading unit 107a, a connection point determination unit 107b, and a traveling direction arrow creation unit 107d, and the collected image data dl of the extracted image data (also referred to as extracted data) is included in the link.
  • the continuous display of the camera parameter designation display image is discontinued, and the route is selected. In route selection, the node ID of the last displayed side is first checked from the attached information (also called attribute information) of the image file.
  • the graph structure included in the cut-out image data is examined, and a link connected to the node is searched. Furthermore, by examining the image acquisition link ID included in the cut-out image data, if there is image data (collected image data) that captured the link, an arrow or click button is displayed on each path displayed on the image. Etc. (Drawing direction selection polygon Pi) Next, the user designates which route image to display.
  • the camera parameter designation image display unit 103a of the captured image display means 103 uses the image file (collected image data dl: all-around image) from the all-around image extraction unit 103b for the production of CG (composite graphic). It is converted into a rectangular area using a method called texture mapping and displayed (camera parameter designation display image).
  • the traveling direction selection polygon Pi (Pl, ⁇ ⁇ 4) from the traveling direction arrow creation unit 107c of the traveling direction arrow link determination 107 is displayed so as to overlap the collected image data d2.
  • the all-around image retrieval unit 103b reads the link related information corresponding to the shooting time from the storage device 10b, and starts the link related information.
  • a lot of collected image data dl having time information (shooting date and time) of passage time and end point passage time is allocated, read out in ascending or reverse order, and output to the camera parameter designated image display unit 103a.
  • the all-around image extraction unit 103b assigns attribute information d2 having this position, and collects image data related to this attribute information. dl is output to the camera parameter designation image display unit 103a.
  • the omnidirectional image extraction unit 103b uses the shooting time as the extraction condition and takes a picture of this extraction condition. There is a search method by the same link time to read link related information with time. Then, when the link-related information includes an actual shooting key ID, the all-around image extraction unit 103b has multiple pieces of time information within the passage time of the start point and the end point of the link-related information.
  • the collected image data dl are extracted from the storage device 10b in ascending or reverse order and output to the camera parameter designated image display unit 103a.
  • connection point determination unit 107 of the travel direction arrow link determination unit 107 determines whether the position specified on the road map is a connection point (for example, an intersection) or not in the storage device 10b. [0307] Further, the connection point determination unit 107 of the traveling direction arrow link determination unit 107 determines that the connection point is reached when the all-around image extraction unit 103b extracts the start point or the end point collection image.
  • a stop instruction is output to the all-around image extraction unit 103b to stop reading the collected image data dl (image file). That is, the continuous display of the collected image data dl (image file) is stopped.
  • the traveling direction arrow creation unit 107c When the traveling direction arrow creation unit 107c is determined to be a connection point, it reads the connection point from the network information, reads the direction of each link connected from the node information of the link at this connection point, The direction information corresponding to these link directions, the preset display position, and the traveling direction selection polygon Pi are output to the camera parameter designation image display unit 103a.
  • the travel direction selection polygons Pl, P2, P3, and P4 are the four-link images of the camera parameter designation image display unit 103a.
  • the camera parameter designation display image (rectangular area) of this all-around image is displayed. Since this camera parameter designation display image is a predetermined field of view range (rectangular region), it is an image in the traveling direction, so two traveling direction selection polygons are displayed.
  • the selection arrow reading unit 107a reads the selection position and notifies the selection link determination unit 107d when any of the screen direction selection polygons Pl and P2 is selected.
  • the selected link determination unit 107 obtains the selected position from the all-around image (image file: collected image data dl) existing in the camera parameter designation image display unit 103a, and stores the link having the obtained position coordinates. Obtained from the network information fo of device 10b. Then, the link ID of the obtained link is output to the all-around image extraction unit 103b.
  • the omnidirectional image extraction unit 103b displays the image data (collected image data: omnidirectional image) obtained by capturing the link related to the link ID included in the cut-out image data in ascending or reverse order. .
  • the start time of the link is early! /
  • the time of the end point is late! /.
  • a young number is assigned to the start point and an old number is assigned to the end point, and read in ascending order.
  • the start point is late! /
  • the end point is early! /
  • the point is the young one
  • the number is the old one! /
  • the number is assigned, the young! / Is read out in order!
  • 40—C1 in Figure 37 is a specific example of link-related information, and the top record of 40—C1 is
  • the top record of 41—D2 in FIG. 38 is link related information when taken in the morning, and the next record is link related information when taken in the afternoon. This link related information indicates that the picture was taken from the end point to the start point.
  • the road is described as a road, but a pipeline, a park, a mountainous area, a seaway

Abstract

A system for displaying image data associated with map information comprises a storage for storing map data and clipped image data, a map displaying means for displaying a map generated from the map data, a photographing location displaying means for displaying a photographing location on the map by using the clipped image data, a photographed image displaying means for displaying an image of the clipped image data, a route search processing means for searching for a route from a specified starting point to a specified destination point on the basis of the map data, and an image search means for searching for a specified image on the basis of the clipped image data.

Description

明 細 書  Specification
地理情報関連付き画像データ表示システム  Image data display system with geographic information
技術分野  Technical field
[0001] 本発明は、地理的環境を把握するための画像データを、例えば道路走行や上空飛 行によって撮影して収集し、必要な地理的範囲や画像の解像度 ·画像データ量に応 じて抽出 ·加工し、地理座標と関連付けて空間的及び時間的に管理し、地図と連動 させて表示させる地理情報関連付き画像データ表示システムに関するものである。 背景技術  [0001] The present invention collects image data for grasping the geographical environment by, for example, shooting by road driving or flying over the air, and depending on the required geographical range, image resolution, and amount of image data. The present invention relates to an image data display system associated with geographic information that is extracted, processed, managed spatially and temporally in association with geographic coordinates, and displayed in conjunction with a map. Background art
[0002] 情報技術の高度化及び大容量通信網の整備に伴い、インターネット、カーナビゲ ーシヨン、携帯電話などの表示媒体において写真や動画像などの大容量データべ ースが容易に扱えるようになった。  [0002] With the advancement of information technology and the development of large-capacity communication networks, large-capacity databases such as photographs and moving images can be easily handled on display media such as the Internet, car navigation systems, and mobile phones. .
[0003] これに伴い、地理情報システム(GIS)やインターネット上での地図検索サイトにお いて、地理属性として画像を利用することで、実際の風景をデフォルメなく正確に利 用者に伝えるニーズが多くなつてきている。 [0003] With this, there is a need to accurately convey the actual landscape to the users without deformation by using images as geographic attributes in geographic information systems (GIS) and map search sites on the Internet. Many have come.
[0004] 例えば、 日本国特許第 3099103号公報に開示されているように、特定の道路から 撮影した街並み映像を撮影し、道路や河川の維持管理に使用する技術が開発され ている。 [0004] For example, as disclosed in Japanese Patent No. 3099103, a technique has been developed for taking a cityscape image taken from a specific road and using it for road and river maintenance management.
[0005] この技術では、道路等線上の地物で得られた画像は、道路中心線など 1次元的な 地物の上に、その地物上に指定された始点からの距離と関連付けて管理される。  [0005] With this technology, images obtained from features on road contours are managed on a one-dimensional feature such as a road center line in association with the distance from the start point specified on the feature. Is done.
[0006] また、 日本国特許公開平 06— 83937号公報に開示されているように、実際に撮影 した画像ではなぐ人工的に作成された CG画像を、部分的にグラフ構造を持つ道路 と関連させて管理する技術もある。最近では、 日本国特許公開 2005— 3752号公報 に開示されているように、 CG画像に代わって、実際の画像を表示する技術が開発さ れている。  [0006] In addition, as disclosed in Japanese Patent Publication No. 06-83937, artificially created CG images that are not actually captured images are partially related to roads with a graph structure. There is also a technology to manage it. Recently, as disclosed in Japanese Patent Publication 2005-3752, a technique for displaying an actual image instead of a CG image has been developed.
[0007] しかし、従来の技術では、 1箇所の地図情報と関連付けて管理できる画像は 1種類 のみであったため、季節や時間帯が異なる複数の画像から選択して表示することが できない。 [0008] つまり、季節や時間帯が異なる時期に撮影した画像を同時に管理したり、見たい季 節や時間帯の画像をその中から選択して表示することができない。 [0007] However, according to the conventional technology, only one type of image can be managed in association with one piece of map information. Therefore, it is impossible to select and display from a plurality of images having different seasons and time zones. [0008] That is, it is impossible to simultaneously manage images taken in different seasons or time zones, or to select and display images in the desired season or time zone.
[0009] したがって、 1箇所の地図情報と複数の画像を関連付けて構成されたデータを用い て、条件指定や検索によって、閲覧したい条件を満たす最適な画像を地図と共に表 示することが実現できな!/、と!/、う課題がある。  [0009] Therefore, it is not possible to display the optimal image that satisfies the condition to be viewed together with the map by specifying the condition and searching using data configured by associating a plurality of images with one map information. There is a problem!
[0010] 画像検索に関しては、大規模データベースに格納された大量の画像ファイルの中 力 探索を行うため、高速な検索方法が必要となる。既存の地理情報と組み合わせ て利用することを可能とするため、例えば任意の点(例えばビル)を選んだとき、その 点の座標の近傍の座標を属性として持つ周辺の画像を検索し、その画像の進行方 向を基点に方位角を計算し、対象となるビルを前面に表示できることが必要である。  [0010] With respect to image search, a high-speed search method is required because a central search of a large number of image files stored in a large-scale database is performed. In order to be able to use it in combination with existing geographic information, for example, when an arbitrary point (for example, a building) is selected, a peripheral image having coordinates near the coordinates of the point as an attribute is searched, and the image It is necessary to be able to calculate the azimuth angle based on the direction of travel and to display the target building on the front.
[0011] さらに、高度な画像の検索方法として、場所による検索だけでなぐ画像のもつ意味 的な検索が行える、すなわち写っている対象の内容による検索が必要である。  [0011] Furthermore, as an advanced image search method, it is possible to perform a semantic search of an image by simply searching for a place, that is, a search based on the contents of an object being captured.
[0012] 例えば、公園付近の画像'大店舗付近の画像等、地理的な内容に対応する画像を 検索することが必要である。  [0012] For example, it is necessary to search for an image corresponding to geographical contents such as an image near a park and an image near a large store.
[0013] 本発明は、以上の課題を解決するためになされたもので、グラフ構造をした路線ネ ットワークの周辺環境を撮影して得られた画像データと周辺地図を含めた地理情報と を関連付けて構成されたデータを表示することを目的とする。 [0013] The present invention has been made to solve the above problems, and associates image data obtained by photographing the surrounding environment of a route network having a graph structure with geographic information including a surrounding map. The purpose is to display the structured data.
[0014] 具体的には、収集画像と道路地図とを連動表示して、交差点の収集画像上におい て目的の道路を容易に選択させると共に、道路地図において収集画像の方向を連 動表示できる表示方法を得る。 [0014] Specifically, the collected image and the road map are displayed in an interlocked manner so that the target road can be easily selected on the intersection collected image and the direction of the collected image can be displayed in a linked manner on the road map. Get the way.
発明の開示  Disclosure of the invention
[0015] 本発明の地理情報関連付き画像データ表示システムは、移動体に搭載した一定時 間毎に撮影する全周囲撮影カメラ、及び GPSを有するハイブリット型の位置センサを 用い、路線ネットワークの複数のリンクを移動して得た時刻情報付きの全周囲画像を 再生して矩形領域の画像を画面に表示する一方、複数のリンクのうちの 1つを選択さ せるための進行路選択ポリゴンを表示する地理情報関連付き画像データ表示システ ムであって、路線ネットワークのリンク毎に、リンク内の全周囲画像及び全周囲画像毎 の位置センサからの位置情報と時刻情報を有する属性情報を記憶した第 1の記憶手 段と、リンクを撮影させたときのリンク IDを含む撮影計画情報と撮影計画情報に基づ いて実撮影したときの第 1の実撮影日を含む第 1の実撮影情報とを第 1のリンク関連 情報として、並びに第 1のリンク関連情報に含まれるリンク IDと同一のリンク IDと撮影 計画情報と撮影計画情報に基づいて実撮影したときの第 1の実撮影日とは異なる第 2の実撮影日を有する第 2の実撮影情報とを第 2のリンク関連情報として記憶した第 2 の記憶手段と、リンク IDとリンクのベクトル情報とリンクの両端のノード IDとを含むリン ク情報及びノードにつながるリンク IDを含むノード情報を有する路線ネットワーク並び に、背景図を記憶した第 3の記憶手段と、路線ネットワーク及び背景図からなる地図 を矩形領域の画像とは異なる領域に表示してリンクを選択させる地理表示手段と、選 択されたリンクのリンク IDを有する属性情報を読み込み、属性情報に関連する選択さ れたリンク内の複数の全周囲画像を昇順または逆順に第 1の記憶手段から順次読み 出す全周囲画像読込手段と、第 1の記憶手段から全周囲画像が読み出されたとき、 全周囲画像に関連する属性情報を読み、読み込んだ属性情報の位置情報が前記 路線ネットワークのノードに位置するときは、全周囲画像の読み込みを停止させて、ノ ードにつなるリンクの方向を前記路線ネットワークから全て求める手段と、読み出され た全周囲画像と、求められたノードにつなる全てのリンクの方向を示す前記進行路選 択ポリゴンを、画面の前記矩形領域に重ねて連動表示する手段と、進行路選択ポリ ゴンの 1つが選択されたとき、選択された進行路選択ポリゴンの位置に該当するリンク IDを路線ネットワークから読み込み、読み込んだリンク IDに全周囲画像が関連付け られて!/、るかどうかを、読み込んだリンク ID及び実撮影情報並びに撮影計画情報を 有する第 1のリンク関連情報または第 2のリンク関連情報が存在するかで判断し、存 在する場合は停止を解除して、読み込んだリンク IDを選択されたリンク IDとして全周 囲画像読込手段に出力する手段とを有することを要旨とする。 [0015] The image data display system with geographic information according to the present invention uses an omnidirectional camera that shoots every fixed time mounted on a mobile body, and a hybrid type position sensor having GPS, and includes a plurality of route networks. Replays all-around image with time information obtained by moving the link and displays the image of the rectangular area on the screen, while displaying the path selection polygon for selecting one of the links An image data display system associated with geographic information, which stores, for each link in a route network, attribute information including position information and time information from a position sensor and position information for each surrounding image in each link and each surrounding image. Memory of The first link includes the shooting plan information including the link ID when the link was shot and the first actual shooting information including the first actual shooting date when shooting was actually performed based on the shooting plan information. As the related information, the second ID that is different from the first actual shooting date when the actual shooting was performed based on the same link ID, shooting plan information, and shooting plan information as the link ID included in the first link related information. Link information and node including second storage means storing second actual shooting information having shooting date as second link related information, link ID, link vector information, and node IDs at both ends of the link A route network with node information including a link ID that connects to the third storage means that stores the background map, and a map composed of the route network and the background map is displayed in a different area from the rectangular image, and the link is made. Choice The attribute information having the link ID of the selected link and the link ID of the selected link is read, and a plurality of all surrounding images in the selected link related to the attribute information are sequentially read from the first storage means in ascending or reverse order. When the all-around image is read from the all-around image reading means to be read and the first storage means, the attribute information related to the all-around image is read, and the position information of the read attribute information is stored in the node of the route network. When it is located, the reading of the all-around image is stopped, and the means for obtaining all the directions of the link to the node from the route network, the read all-around image, and the obtained node are obtained. The route selection polygon that indicates the direction of all links is displayed when one of the route selection polygon and the means for interlocking display of the route selection polygon on the rectangular area of the screen is selected. The link ID corresponding to the position of the route selection polygon is read from the route network, and the read link ID has the read link ID, actual shooting information, and shooting plan information indicating whether or not all surrounding images are associated with the link ID! Judgment is made based on whether the first link related information or the second link related information exists. If it exists, the suspension is canceled and the read link ID is set as the selected link ID to the all-around image reading means. And a means for outputting.
本発明は、道路などの地図情報と画像を関連付けることで、例えば、不動産取引の ためのマンションや店舗などの物件情報や、町の名所、駅から対象不動産物件や店 舗への経路環境表示、商店街の広告活動、消防や警察など緊急通報における位置 特定と周辺状況把握、道路河川管理における現地把握など、場所を表す地理属性 として映像を用いることで、現地のリアルな状況を利用者に視覚的に伝えることができ る地理情報関連付き画像データ表示システムである。 The present invention relates to map information such as roads and images, for example, property information such as condominiums and stores for real estate transactions, route environment indications from town sights and stations to target real estate properties and stores, Visualize the real situation in the local area by using images as geographical attributes to represent places, such as advertising activities in shopping streets, location and surrounding situations in emergency calls such as firefighting and police, and local situation in road river management. Can tell This is an image data display system associated with geographic information.
[0017] 本発明では、グラフ構造をした道路ネットワーク(図 17に示すような、交差点をノー ド ' ·交差点間の道路中心線を示す連続線分をリンクとするネットワーク情報)の周辺環 境を撮影して得られた複数の画像データと周辺地図を含めた地理情報とを関連付け て構成されたデータを用いて、地図と連動させながら、該当する地点に対応する画 像を表示することができる。  [0017] In the present invention, the surrounding environment of a road network having a graph structure (as shown in Fig. 17, the node is an intersection and the network information is a continuous line segment indicating a road center line between the intersections). Using the data configured by associating multiple image data obtained by shooting and geographic information including the surrounding map, it is possible to display the image corresponding to the corresponding point while interlocking with the map. .
[0018] また、対象とする町を面的に、かつ広範囲でデータを取得してサービスを行えば、利 用者は調べたい任意の場所を自由に選択することができる。また、例えば季節別や 多時期で撮影したもの画像を用意すれば、町の変遷 ·環境変化の画像提供も可能と なる地理情報関連付き画像データ表示システムである。  [0018] In addition, if a target town is obtained in a wide range and data is provided to provide a service, the user can freely select an arbitrary place to be examined. Also, for example, if you prepare images taken by seasons or at different times, it is an image data display system with geographic information that can provide images of town changes and environmental changes.
[0019] これらのニーズに対して不特定多数の利用者に情報を提供する手段としては、ゥェ ブ配信を利用することで、多くの活用が可能となる。  [0019] As a means for providing information to an unspecified number of users in response to these needs, web distribution can be used for many purposes.
[0020] 映像データベースを地図に関連付けて表示検索するには、従来の 2次元地理座標 としての管理ではなぐ映像の撮影された点 (撮影地点)、撮影された方向、撮影され た時間(季節)などの多次元時空間情報をメタデータとして管理することにより、利用 者に必要な情報を検索し提供することが可能となる。  [0020] In order to display and search the video database in association with the map, the point where the video was shot (shooting point), the direction taken, and the time taken (season) that were not managed by conventional 2D geographic coordinates By managing multidimensional spatio-temporal information as metadata, it becomes possible to search and provide necessary information to users.
[0021] このような映像情報を予め広範囲かつ大量のデータを収集しておけば、利用者指定 する範囲や位置に応じて、迅速に提供することができると!/、うビジネスモデルが構築 できる。また、新規に撮影する場合も、既に収集したデータと同様の管理を行えば、 要求に応じて簡単に再利用することが可能となる。  [0021] If such video information is collected in advance and a large amount of data can be provided quickly according to the range and position specified by the user, a business model can be built! . In addition, even if a new image is taken, if it is managed in the same way as already collected data, it can be easily reused as required.
[0022] さらに、同じ箇所を 1回の撮影だけでなぐ複数の時期に撮影したものを利用するこ とができれば、利用者の希望する状態の画像、例えば季節や時刻などを指定した画 像の提供が可能になる。例えば、撮影年度の異なる画像が利用できれば、特定の地 区の経年変化を調査することが可能となる。また、「桜の時期の画像がみたい」「紅葉 時の画像がみたレ、」とレ、つた、街並みや観光道路などを利用者の見たレ、状態で見る ことが可能となる。  [0022] Furthermore, if it is possible to use images taken at a plurality of times in which only one shooting is performed on the same part, an image in a state desired by the user, for example, an image designating a season or time, etc. Provision becomes possible. For example, if images with different shooting years are available, it will be possible to investigate changes over time in a specific area. In addition, “I want to see the image of the cherry blossom season” and “I can see the image at the time of autumn leaves”, it is possible to see the state, the state of the cityscape and the tourist road as seen by the user.
[0023] 広い道路の場合は、走行路線に近い側の建物はよく映る力 対向車線側の建物は あまりよく映らない場合がある。すなわち、沿線の画像をよりよく表現するために往復 撮影する必要が生じる。往復撮影した場合も、走行方向とともに上記複数時期撮影 の場合と同様に管理すればよい。 [0023] In the case of wide roads, the power of the buildings on the side close to the driving route is often reflected. The buildings on the opposite lane may not be reflected well. In other words, round trip to better represent the image of the railway Need to shoot. Even in the case of reciprocal shooting, it may be managed in the same manner as in the case of multi-period shooting as well as the traveling direction.
[0024] また、画像に付与された付属情報 (撮影方位など)を利用して、特定の地物が写って いる画像を、大量画像データの中から検索し、その位置を表示することが可能となる システムである。 [0024] In addition, it is possible to search an image of a specific feature from a large amount of image data and display its position using attached information (such as shooting direction) attached to the image. This is a system.
[0025] さらに、本発明では、交差点において、道路選択させるためのアイコンを表示し、こ のアイコンの選択で該当のリンクを引当て、このリンク内における画像を表示させると 共に、地図上において表示した画像の位置と、撮影範囲及び方向とが分かるようにし ている。このため、オペレータにとっては、どこの画像かが容易に判断できる。また、 進行方向を画像上から選択できるので、操作性に優れてレ、る。  [0025] Further, according to the present invention, an icon for selecting a road is displayed at an intersection, a corresponding link is allocated by selecting this icon, and an image in this link is displayed and displayed on a map. The position of the captured image and the shooting range and direction are known. For this reason, the operator can easily determine where the image is. In addition, since the direction of travel can be selected from the image, the operability is excellent.
図面の簡単な説明  Brief Description of Drawings
[0026] [図 1]地図情報関連付き画像データ管理システムと表示システムの構成図である。  [0026] FIG. 1 is a configuration diagram of an image data management system with map information association and a display system.
[図 2]画像撮影サブシステムの構成図である。  FIG. 2 is a configuration diagram of an image capturing subsystem.
[図 3]画像データ編集サブシステムの構成図である。  FIG. 3 is a block diagram of an image data editing subsystem.
[図 4]地図データ表示手段により表示される地図である。  [Fig. 4] A map displayed by the map data display means.
[図 5]画像データ表示手段路面により表示される画像である。  FIG. 5 is an image displayed on the road surface of image data display means.
[図 6]画像間引き手段による画像間引きの方法を示す図である。  FIG. 6 is a diagram showing a method of image thinning by the image thinning means.
[図 7]画像データ管理サブシステムの構成図である。  FIG. 7 is a configuration diagram of an image data management subsystem.
[図 8]撮影計画手段の構成図である。  FIG. 8 is a block diagram of the photographing plan means.
[図 9]撮影情報取り込み手段の構成図である。  FIG. 9 is a configuration diagram of photographing information capturing means.
[図 10]管理手段の構成図である。  FIG. 10 is a configuration diagram of management means.
[図 11]データ抽出手段の構成図である。  FIG. 11 is a block diagram of data extraction means.
[図 12]グラフ構造データベースの構造図である。  FIG. 12 is a structural diagram of a graph structure database.
[図 13]カメラ情報データベースの構造図である。  FIG. 13 is a structural diagram of a camera information database.
[図 14]計画'実撮影情報データベースの構造図である。  FIG. 14 is a structural diagram of the plan 'actual imaging information database'.
[図 15]リンク関連情報データベースの構造図である。  FIG. 15 is a structural diagram of a link related information database.
[図 16]物理画像データベースの構造図である。  FIG. 16 is a structural diagram of a physical image database.
[図 17]グラフ構造を持つ地物を示す図である。 園 18]実施の形態による地理情報関連付き画像データ管理システムにおける手順を 説明するフローチャートである。 FIG. 17 is a diagram showing a feature having a graph structure. FIG. 18 is a flowchart illustrating a procedure in the image data management system with a geographic information association according to the embodiment.
園 19]実施の形態による地理情報関連付き画像データ管理システムにおける手順を 説明するフローチャートである。 FIG. 19] is a flowchart for explaining a procedure in the image data management system with a geographic information association according to the embodiment.
園 20]実施の形態による地理情報関連付き画像データ管理システムにおける手順を 説明するフローチャートである。 FIG. 20 is a flowchart for explaining a procedure in the image data management system with geographic information according to the embodiment.
園 21]実施の形態による地理情報関連付き画像データ管理システムにおける手順を 説明するフローチャートである。 FIG. 21] is a flowchart illustrating a procedure in the image data management system with a geographic information association according to the embodiment.
園 22]地図情報関連付け画像データ表示システムの構成図である。 22] It is a configuration diagram of a map information association image data display system.
園 23]地図情報関連付け画像データ表示システムの表示画面例である。 [23] This is a display screen example of the map information association image data display system.
[図 24]地図情報関連付け画像データ表示システムの表示画面の注記オーバレイ表 示例である。  [FIG. 24] An example of annotation overlay display on the display screen of the map information association image data display system.
園 25]地図情報関連付け画像データ表示システムの表示画面例である。 [25] This is a display screen example of the map information association image data display system.
[図 26]地図情報関連付け画像データ表示システムの注記データ検索のフローチヤ一 トである。  [Fig.26] Flowchart of note data search of map information related image data display system.
園 27]地理情報関連付き画像データ表示システム 100の詳細な構成図である。 [27] FIG. 27 is a detailed configuration diagram of the image data display system 100 with geographic information.
[図 28]撮影位置及び対応する画像を同時表示する説明図である。  FIG. 28 is an explanatory diagram for simultaneously displaying a photographing position and a corresponding image.
園 29]切り出し画像データのより具体的な構成を説明図である。 FIG. 29] It is an explanatory diagram showing a more specific configuration of cut-out image data.
[図 30]物理画像データベースのより具体的な構成を説明する説明図である。  FIG. 30 is an explanatory diagram for explaining a more specific configuration of a physical image database.
園 31]本実施の形態の間引きと、撮影位置の表示、切り出しデータの登録の説明図 である。 FIG. 31] This is an explanatory diagram of thinning out of the present embodiment, display of shooting positions, and registration of cut-out data.
[図 32]進行方向印表示手段を説明する説明図である。  FIG. 32 is an explanatory diagram for explaining a traveling direction mark display means.
園 33]注記データの画像への表示を説明する説明図である。 33] It is an explanatory diagram explaining the display of the note data on the image.
[図 34]実施の形態 2の地理情報関連付き画像データ管理システムの概略構成図で ある。  FIG. 34 is a schematic configuration diagram of a geographic information-related image data management system according to the second embodiment.
園 35]リンクに対する画像のグルーピングの説明図である。 FIG. 35] is an explanatory diagram of image grouping for links.
[図 36]進行方向選択ポリゴンを表示するための構成図である。  FIG. 36 is a block diagram for displaying a traveling direction selection polygon.
園 37]異なる時期に撮影した同一リンクに対応した画像の比較図である。 [図 38]異なる方向で撮影した同一リンクに対応した画像の比較図である。 [Gakuen 37] A comparison of images corresponding to the same link taken at different times. FIG. 38 is a comparison diagram of images corresponding to the same link photographed in different directions.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0027] 図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、 同一または類似の部分には同一または類似の符号を付している。ただし、図面は模 式的なものであることに留意すべきである。 Embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, it should be noted that the drawings are schematic.
[0028] <実施の形態 1〉 <Embodiment 1>
本発明の実施の形態 1による地理情報関連付き画像データ表示システム 100は、 図 1及び図 22に示すように、地理表示手段 101、撮影位置表示手段 102、撮影画像 表示手段 103、経路探索連動手段 104、画像検索手段 105、及び地図データ 108と 切り出し画像データ f4を格納する記憶装置 106から構成される。  As shown in FIGS. 1 and 22, the image data display system 100 with a geographic information association according to Embodiment 1 of the present invention includes a geographic display means 101, a photographing position display means 102, a photographed image display means 103, and a route search interlocking means. 104, an image search means 105, and a storage device 106 that stores map data 108 and cut-out image data f4.
[0029] 地理表示手段 101は、記憶装置 106に格納された地図データ 108を読み込み、ス クロール ·縮尺切り替え ·表示項目切り替え ·表示色切り替えなどを行いながら、地図 を表示する。 [0029] The geographic display means 101 reads the map data 108 stored in the storage device 106, and displays the map while scrolling, switching scales, switching display items, switching display colors, and the like.
[0030] 撮影位置表示手段 102は、地理表示手段 101によって表示した地図に、記憶装置  The imaging position display means 102 stores a storage device on the map displayed by the geographic display means 101.
106に格納された切り出し画像データ f4 (画像ファイル (収集画像データ)、画像ファ ィルの付属情報(画像取得座標 ·画像取得方位 ·画像取得リンク ID ·取得リンク内で の順番 ·画像取得カメラ情報 (撮影高等))、リンクのグラフ構造 (各ノードに接続するリ ンクの IDのリストを含む)から、図 23に示すように画像の撮影位置(地図上の画像取 得座標)を描画する。ユーザはこの描画位置をマウスクリック等で指定し、所望の撮影 地点の撮影画像を表示させる。  Cut-out image data stored in 106 f4 (image file (collected image data), image file additional information (image acquisition coordinates, image acquisition orientation, image acquisition link ID, order in acquisition link, image acquisition camera information (Shooting height etc.)) From the graph structure of the link (including the list of IDs of links connected to each node), the shooting position (image acquisition coordinates on the map) is drawn as shown in Fig. 23. The user designates this drawing position with a mouse click or the like, and displays a photographed image at a desired photographing point.
[0031] 撮影画像表示手段 103は、画像表示部と画像連続表示部から構成される。  The captured image display means 103 includes an image display unit and an image continuous display unit.
[0032] 画像表示部は、図 23に示すように、地理表示手段 101に表示された撮影位置表示 手段 102の撮影位置のひとつをマウス操作等で指定したとき、その撮影位置に最も 近い画像の切り出し画像データの画像ファイル付属情報の画像取得座標を用いて 検索し、その最も近い画像ファイルを読み出して表示する。  [0032] As shown in FIG. 23, when one of the shooting positions of the shooting position display means 102 displayed on the geographic display means 101 is designated by a mouse operation or the like, the image display unit displays the image closest to the shooting position. Search using the image acquisition coordinates of the image file attachment information of the cut-out image data, and read and display the closest image file.
[0033] 指定中の撮影位置のフレーム画像をそのまま表示する単純表示のほか、図 25に示 すように、格納されている画像が全周画像 (周囲 360度が撮影され、正距投影図法( 縦が鉛直角 '横が水平角に線形に投影される図法)で撮影された画像の場合は、撮 影中心から任意のカメラパラメータ(カメラの向き'焦点距離 (画角))で撮影した画像 を CG処理等の手段によって合成して表示する。このような表示方法をカメラパラメ一 タ指定表示を行う。 [0033] In addition to the simple display that displays the frame image at the specified shooting position as it is, as shown in Fig. 25, the stored image is an all-round image (360 ° circumference is taken and equirectangular projection ( If the image was taken with a vertical projection (a projection in which the horizontal projection is linear to the horizontal orientation) An image taken from the shadow center with an arbitrary camera parameter (camera direction 'focal length (angle of view)) is synthesized and displayed by means of CG processing or the like. This kind of display method is used to specify camera parameters.
[0034] 具体的には、 CG (コンピュータグラフィック)で一般に用いられているテクスチャーマ ッビングとレ、う手段を用いて矩形領域に変換して表示する。  Specifically, the image is converted into a rectangular area and displayed using texture mapping and recording means generally used in CG (computer graphics).
[0035] さらに、地図データ 108に注記データ(地図上の地物の名称'地物の種類、その地 図上の位置座標の組み合わせからなるデータ)が含まれる場合は、図 24に示すよう に、切り出し画像データ f4に含まれる画像取得座標と画像取得方位、及び地図デー タ 108)に含まれる注記表示位置から、画像取得座標からみた注記データを付与し た対象物の方位を算出し、表示した画像内の対応する方位の位置に注記データを 描画する。予め注記データと画像と画像取得座標とを対応させて記憶しておくのが 好ましい。  [0035] Further, when the map data 108 includes annotation data (data consisting of a combination of the feature name on the map 'feature type and position coordinates on the map), as shown in FIG. The orientation of the object to which the annotation data is added as seen from the image acquisition coordinates is calculated from the image acquisition coordinates and image acquisition orientation included in the cut-out image data f4 and the annotation display position included in the map data 108) and displayed. Draw annotation data at the corresponding orientation in the image. It is preferable that note data, an image, and image acquisition coordinates are stored in advance in association with each other.
[0036] また、画像連続表示部は、同じリンク IDを持つ画像を、取得リンク内の撮影順番に 従って昇順もしくは逆順に順次表示することにより、あた力、も移動しているように連続 して表示し、動画とする。連続表示は、移動方向指定ボタンと一時停止ボタンで制御 すること力 Sできる。移動方向指定ボタンは、同一経路と対応付けられた画像データの 進行方向に応じた記号として表示される。また、移動速度を移動速度指定ボックスで 指定することが可能である。  [0036] The continuous image display unit displays images having the same link ID sequentially in ascending or reverse order according to the shooting order in the acquisition link, so that the power is continuously moved. And display it as a video. The continuous display can be controlled with the movement direction designation button and the pause button. The movement direction designation button is displayed as a symbol corresponding to the traveling direction of the image data associated with the same route. The moving speed can be specified in the moving speed specification box.
[0037] 上記画像連続表示で取得リンク内の順番の最初もしくは最後になった場合は、連 続表示を打ち切り、経路選択を行う。経路選択では、ます画像ファイルの付属情報( 属性情報ともいう)から最後に表示した側のノード IDを調べる。次に切り出し画像デ ータに含まれるグラフ構造を調べ、そのノードに接続するリンクを検索する。さらに、 切り出し画像データに含まれる画像取得リンク IDを調べることにより、そのリンクを撮 影した画像データ(収集画像データ)が存在する場合は、画像に表示されてレ、る各経 路上に矢印やクリックボタン等を描画し、次にどの経路の画像を表示するかを指定さ せる。  [0037] When the first or last order in the acquisition link is reached in the continuous image display, the continuous display is discontinued and the route is selected. In route selection, the node ID of the last displayed side is checked from the attached information (also called attribute information) of the image file. Next, the graph structure included in the cut-out image data is examined, and a link connected to the node is searched. Furthermore, by checking the image acquisition link ID included in the cut-out image data, if there is image data (collected image data) that captures the link, it is displayed on the image and displayed on each path. Draw a click button, etc., and specify which route image to display next.
[0038] 経路探索連動手段 104は、地図データ 108に含まれる路線ネットワークを用い、指 定された起点座標から終着点座標までの経路を探索し、地理表示手段 101によって 表示した地図に経路を表示するとともに、その経路に対応する切り出し画像データ f4 が存在する部分については、地理表示手段 101によって表示した地図に画像の画 像取得座標の撮影位置も描画する。 [0038] The route search interlocking means 104 uses the route network included in the map data 108 to search for a route from the specified start point coordinates to the end point coordinates, and the geographical display means 101 The route is displayed on the displayed map, and for the portion where the cutout image data f4 corresponding to the route exists, the shooting position of the image acquisition coordinates of the image is also drawn on the map displayed by the geographic display means 101.
[0039] なお、経路探索連動手段 104は、経路探索のときは、経路上の全ての画像取得座 標の撮影位置のみを描画し、それ以外は描画しない。このとき、経路上の撮影位置 が選択された場合は、他の撮影位置は他とは異なる色で描画する。  It should be noted that the route search interlocking means 104 draws only the shooting positions of all image acquisition coordinates on the route during the route search, and does not draw the rest. At this time, if a shooting position on the route is selected, the other shooting positions are drawn in a different color.
[0040] 前述の路線ネットワークとは、例えば走行軌跡パターン、道路の形状、幅等を含む  [0040] The above-described route network includes, for example, a travel locus pattern, a road shape, a width, and the like.
[0041] グラフ構造のネットワークは、道路、線路、海路、管路、空路、坑道等があり、総称し て路線ネットワークと称する場合もある。 [0041] A network having a graph structure includes a road, a railroad, a seaway, a pipeline, an airway, a tunnel, and the like, and may be collectively referred to as a route network.
[0042] さらに、起点から終着点までの画像を順次描画する。 [0042] Further, images from the start point to the end point are sequentially drawn.
[0043] 画像検索手段 105は、地図データ 108に含まれる施設名等を含む注記データを用 いて、撮影されている対象物の画像を検索する。注記データには地図に描画する注 記文字列 ·注記表示位置 ·注記種類が含まれて!/、るものとする。  The image search means 105 searches for an image of the object being photographed using the note data including the facility name and the like included in the map data 108. The note data includes the note string to be drawn on the map, the note display position, and the note type! /.
[0044] 画像検索は、図 26のフローチャートに示した手順で行う。  The image search is performed according to the procedure shown in the flowchart of FIG.
[0045] ステップ S200:注記データと画像の照合  [0045] Step S200: Verification of note data and image
各注記データにっレ、て、その注記が最もよく映って!/、ると判定される撮影されて!/ヽ る画像を探索しておく。典型的には、注記データの注記表示位置に最も近い撮影位 置座標を有する画像ファイルを引き当て、この画像ファイルを有する切り出し画像デ ータの画像ファイル付属情報を用いて検索し、選択しておく。ただし、定められた基 準 (例えば距離のしきレ、値)を満たす画像がな!/、場合は、注記データに対応する画 像なしとする。  Each note data is searched for an image that has been photographed and judged to be the best! Typically, an image file having a shooting position coordinate closest to the note display position of the note data is assigned, and the image file attached information of the cut-out image data having this image file is searched and selected. . However, if there is no image that meets the defined criteria (eg distance threshold, value), there is no image corresponding to the note data.
[0046] ステップ S201 :キーワード入力  [0046] Step S201: Keyword input
検索したい対象の名称や種類などを含むキーワードを入力する。地物の種類として は、公共施設 ·公園 '交差点名などが挙げられる。また、キーワードは地物名称の全 部もしくは一部 (新宿駅を調べた!/、場合は、「新宿」など)を指定する。  Enter a keyword including the name and type of the object you want to search. The types of features include public facilities, parks, and “intersection names”. In addition, the keyword specifies all or part of the feature name (Shinjuku Station is examined! /, In this case, “Shinjuku”, etc.).
[0047] ステップ S202 :注記データ検索  [0047] Step S202: Note data search
上記のキーワードに対応する注記データを検索する。このとき、ステップ S200で対 応する画像が選択された注記のみを対象とする。キーワードとの照合は注記文字列 もしくは注記種類を対象に行う。 Search for note data corresponding to the above keywords. At this time, in step S200 Only notes with corresponding images selected are considered. Matching with keywords is performed on note strings or note types.
[0048] ステップ S203 :注記候補選択 [0048] Step S203: Note candidate selection
複数の注記がキーワードと照合した場合は、それらを画面に表示し、ユーザが選択 する。  If multiple notes match keywords, they are displayed on the screen and selected by the user.
[0049] ステップ S204 :画像表示  [0049] Step S204: Image display
ユーザが選択した注記に対応した画像を、画像ファイルを切り出し画像データから 読み出し、コンピュータ画面の画像表示部に表示する。  An image corresponding to the note selected by the user is cut out from the image data and displayed on the image display unit of the computer screen.
[0050] つづいて、記憶装置 106に格納される地図データ 108と切り出し画像データ f4に ついて説明する。 [0050] Next, the map data 108 and the cut-out image data f4 stored in the storage device 106 will be described.
[0051] 地図データ 108には、道路等のネットワークデータ fOと、背景地図と、地図上に存 在する対象物に付与された注記データと、地図記号データが含まれる。  [0051] The map data 108 includes network data fO such as roads, a background map, note data given to objects existing on the map, and map symbol data.
[0052] 地図データ 108は、専用に作成したデータではなぐナビゲーシヨンシステム用など に用いるために作成された一般的なデータであって構わない。  [0052] The map data 108 may be general data created for use in a navigation system or the like, rather than data created exclusively.
[0053] 一方、切り出し画像データ f4には、画像ファイルと、画像ファイル付属情報、及びグ ラフ構造情報からなる。画像ファイル付属情報は、各画像ファイルについて画像取得 座標と、画像取得方位と、画像取得リンク IDと、撮影開始側のノード IDと、撮影終了 側のノード IDと、撮影開始側から数えた撮影順番と、取得した画像に対応付けられる グラフ構造情報及び画像取得カメラ情報 (撮影高など)が含まれる。  On the other hand, the cut-out image data f4 includes an image file, image file attached information, and graph structure information. The image file attachment information includes the image acquisition coordinates, image acquisition orientation, image acquisition link ID, shooting start node ID, shooting end node ID, and shooting order counted from the shooting start side for each image file. And graph structure information associated with the acquired image and image acquisition camera information (such as shooting height).
[0054] リンクのグラフ構造は、画像が取得されたリンクの接続関係を示すもので、データに 含まれる各ノードについて、ノード IDと、そのノードに接続するリンクのリンク IDのリスト 力 なる。  [0054] The graph structure of the link indicates the connection relation of the link from which the image is acquired. For each node included in the data, a list ID of the node ID and the link ID of the link connected to the node is displayed.
[0055] また、画像の取得方位とは、撮影時のカメラの中心軸の方位である。  Further, the image acquisition direction is the direction of the central axis of the camera at the time of shooting.
[0056] 画像が全周画像の場合は、撮影地点から見た全周囲画像の中心が対応する方位 である。 [0056] When the image is an omnidirectional image, the center of the omnidirectional image viewed from the shooting point is the corresponding orientation.
[0057] 画像取得リンク IDとは、グラフ構造として路線ネットワークを利用する場合は、画像を 撮影した道路中心の IDに対応する。  [0057] The image acquisition link ID corresponds to the ID of the center of the road where the image was taken when the route network is used as a graph structure.
[0058] また、ノードとは、例えば道路の交差点、行き止まり等を特定するための座標点のこ とであり、リンクは各ノードをつないだベクトルでリンクの始点の座標、終点の座標、リ ンクの方向、リンクの道路幅等のデータを含んでいる。 [0058] Further, the node is a coordinate point for specifying, for example, a road intersection or a dead end. The link is a vector connecting each node, and includes data such as the link start point coordinates, end point coordinates, link direction, and link road width.
[0059] 切り出し画像データ f4は、後述する地理情報関連付き画像データ管理システム 10 によって作成されるデータである。 The cut-out image data f4 is data created by an image data management system with geographic information association 10 described later.
[0060] 地理情報関連付き画像データ表示システム 100は、コンピュータ上で単独で動作 するプログラムでもよい。また、切り出し画像データ f4をデータサーバ、地図データ 1[0060] The image data display system 100 associated with geographic information may be a program operating alone on a computer. In addition, the cut-out image data f4 is a data server, map data 1
08をクライアントもしくはデータサーバに配したインターネット上でのシステムとして実 現してもよい。 08 may be realized as a system on the Internet with a client or data server.
[0061] (地理座標関連付き画像データ管理システム 10)  [0061] (Image data management system with geographic coordinates 10)
次に、地理情報関連付き画像データ表示システム 100で利用する切り出し画像デ ータ f4を作成する地理座標関連付き画像データ管理システム 10について説明する Next, a description will be given of the image data management system 10 with geographic coordinates that creates the cut-out image data f4 used in the image data display system 100 with association with geographic information.
Yes
[0062] 地理座標関連付き画像データ管理システム 10は、図 1に示すように、画像撮影サ ブシステム 20、画像データ編集サブシステム 30、画像データ管理サブシステム 40、 及び画像データ管理サブシステム 40に接続された記憶装置 50から構成される。  [0062] As shown in FIG. 1, the image data management system 10 with geographic coordinates is divided into an image capturing subsystem 20, an image data editing subsystem 30, an image data management subsystem 40, and an image data management subsystem 40. Consists of connected storage devices 50.
[0063] まず、画像撮影サブシステム 20は、画像センサ 22を接続し、リンクに沿った周辺環 境を撮影した画像を撮影時刻とともに収集画像データ dlとして収集する画像データ 収集手段 24と、ハイブリッド型位置センサ 23を接続し、画像の撮影位置座標を座標 計測時刻とともに収集画像属性情報 d2として収集する位置データ収集手段 25とを 搭載した移動手段を含む。前述の画像撮影サブシステムからの収集画像データ dlと は、リンク内において一定時間毎に撮影された画像群である。  [0063] First, the image capturing subsystem 20 is connected to the image sensor 22, and an image data collection unit 24 that collects an image of the surrounding environment along the link as collected image data dl together with the photographing time, and a hybrid type A position sensor 23 is connected, and a moving means equipped with a position data collecting means 25 for collecting the photographing position coordinates of the image together with the coordinate measurement time as the collected image attribute information d2 is included. The collected image data dl from the above-described image capturing subsystem is a group of images captured at regular intervals within the link.
[0064] また、ハイブリット型位置センサ 22、速度センサ'加速度センサ'角加速度センサ等 を含んでいる。  [0064] Also included are a hybrid position sensor 22, a speed sensor 'acceleration sensor', an angular acceleration sensor, and the like.
[0065] ここでリンクとは、例えば、図 17に示したグラフ構造を持つ 2点間(1つの交差点から 次の交差点まで)の道路をいう。便宜上、 1点を始点、もう 1点を終点と記すが、始点 力、ら終点と!/、うリンクの方向性を意味するものではなレ、。  Here, for example, a link refers to a road between two points (from one intersection to the next intersection) having the graph structure shown in FIG. For convenience, one point is marked as the starting point, and the other point is marked as the ending point, but it does not mean the starting point force, the end point and! /, Or the direction of the link.
[0066] また、移動手段とは、リンクに沿って飛行して上空から撮影するための航空機や、リ ンクの道路を走行する車両 21をいう。 [0067] つづいて、画像データ編集サブシステム 30は、リンクを表示する地図データ表示手 段 31と、画像データ収集手段 24によって収集した画像データを表示する画像デー タ表示手段 32と、撮影時刻及び座標計測時刻(GPS時刻)からリンクの始点及び終 点の通過時刻を記録するリンク始終点通過時刻登録手段 33と、リンク内の複数の収 集画像データ dlから一定間隔毎にデータを間引く画像間引き手段 34と、実撮影管 理情報登録手段 35とを含む。 [0066] Further, the moving means refers to an aircraft for flying along a link and shooting from above, or a vehicle 21 traveling on a link road. [0067] Subsequently, the image data editing subsystem 30 includes a map data display means 31 for displaying links, an image data display means 32 for displaying image data collected by the image data collection means 24, a photographing time and Link start and end point passage time registration means 33 that records the start time and end point passage time of the link from the coordinate measurement time (GPS time), and image thinning that thins out data from the multiple collected image data dl in the link at regular intervals. Means 34 and actual photographing management information registration means 35 are included.
[0068] さらに、画像データ管理サブシステム 40は、画像撮影サブシステム 20による撮影 計画を管理する撮影計画手段 41と、画像データ編集サブシステム 30により編集され た収集画像データ dlと収集画像属性情報 d2を取り込む撮影情報取り込み手段 42と 、記憶装置 50に記録された情報から、指定された条件に適合した情報を抽出するデ ータ抽出手段 44と、記憶装置 50への情報の登録、記憶装置 50からの情報の削除、 及び記憶装置 50の情報の印刷を行う管理手段 43を含む。  [0068] Further, the image data management subsystem 40 includes an imaging plan means 41 for managing an imaging plan by the image imaging subsystem 20, the collected image data dl edited by the image data editing subsystem 30, and the collected image attribute information d2. Shooting information capturing means 42 for capturing information, data extracting means 44 for extracting information that meets the specified conditions from information recorded in the storage device 50, registration of information in the storage device 50, and storage device 50 Management means 43 for deleting information from the storage device 50 and printing information in the storage device 50.
[0069] 記憶装置 50は、リンクの情報を記録するグラフ構造データベース 51と、画像センサ  [0069] The storage device 50 includes a graph structure database 51 that records link information, and an image sensor.
22の情報を記録するカメラ情報データベース 52と、撮影計画の情報を記録する計 画 ·実撮影情報データベース 53と、撮影情報取り込み手段 42によって取り込まれた 収集画像データ dl及び収集画像属性情報 d2をそれぞれ記録する収集画像データ ベース 55及び収集画像属性情報データベース 56と、図 15に示すようにリンク毎に 各データベースの情報を関連付ける管理情報を記録するリンク関連情報データべ一 ス 54とを含む。  The camera information database 52 that records 22 information, the plan / actual shooting information database 53 that records the shooting plan information, and the collected image data dl and the collected image attribute information d2 captured by the capturing information capturing means 42, respectively. It includes a collected image database 55 and a collected image attribute information database 56 to be recorded, and a link related information database 54 for recording management information for associating information of each database for each link as shown in FIG.
[0070] 画像撮影サブシステム 20、画像データ編集サブシステム 30、及び画像データ管理 サブシステム 40の各サブシステム間のデータのやり取りは、ディスクなどの携帯型記 憶媒体を介して行うものとするが、各サブシステムにデータ通信手段を設けて、有線 または無線データ通信によって行うことができる。  [0070] Data exchange between the image capturing subsystem 20, the image data editing subsystem 30, and the image data management subsystem 40 is performed via a portable storage medium such as a disk. Each subsystem can be provided with data communication means, and can be performed by wired or wireless data communication.
[0071] (画像撮影サブシステム 20)  [0071] (Image capture subsystem 20)
次に、画像撮影サブシステム 20の各手段について詳細に説明する。なお、ここで は、移動手段の例として車両 21をあげて説明する力 S、車両 21に限るものではない。  Next, each unit of the image capturing subsystem 20 will be described in detail. It should be noted that here, the vehicle 21 is taken as an example of the moving means and the force S and the vehicle 21 are not limited.
[0072] 画像撮影サブシステム 20は、図 12に示したように、本発明の実施の形態で用いる リンクに沿った周辺画像を撮影することを目的としたサブシステムである。 [0073] まず、画像データ収集手段 24は、画像センサ 22として車両 21に取り付けられた 1 台ないし同期をとつた複数台のカメラを使って、リンクである道路を走行しながら画像 を撮影する。この際、次に説明する位置情報との同期をとるため、ノ、イブリツド型位置 センサ 23で検知される全地球無線測位システム(GPS)から送信される時刻を、時系 列で得られる各画像フレームに付与して、収集画像データ dlとして一時メモリ 26に 記録していく。 As shown in FIG. 12, the image capturing subsystem 20 is a subsystem intended to capture a peripheral image along a link used in the embodiment of the present invention. [0073] First, the image data collection means 24 captures an image while traveling on a road as a link using one or a plurality of synchronized cameras attached to the vehicle 21 as the image sensor 22. At this time, in order to synchronize with the position information described below, the time transmitted from the global radio positioning system (GPS) detected by the hybrid position sensor 23 is displayed in each time series. It is added to the frame and recorded in the temporary memory 26 as the collected image data dl.
[0074] なお、時亥 IJは、検知した GPS時刻と画像撮影サブシステム 20が搭載されているコ ンピュータのクロックを利用し、 1/1000秒単位で各画像フレームに付与される。  Note that the time IJ is given to each image frame in units of 1/1000 seconds using the detected GPS time and the clock of the computer on which the image capturing subsystem 20 is mounted.
[0075] 次に、位置データ収集手段 25は、同じ車両 21に取り付けられた GPSとその他のセ ンサ(ジャイロ .車速センサ)と組み合わせたハイブリッド型位置センサ 23を使って、 G PSから得られる位置情報 (座標)、車速センサから得られる車速情報、ジャイロから得 られる加速度情報や方位情報を収集する。さらに、これらの情報に GPS時刻を付与 して収集画像属性情報 d2として一時メモリ 26に記録していく。  [0075] Next, the position data collecting means 25 uses a hybrid position sensor 23 combined with GPS and other sensors (gyro, vehicle speed sensors) attached to the same vehicle 21 to obtain the position obtained from the GPS. Information (coordinates), vehicle speed information obtained from the vehicle speed sensor, acceleration information and direction information obtained from the gyro are collected. Further, the GPS time is assigned to these pieces of information and recorded in the temporary memory 26 as the collected image attribute information d2.
[0076] 位置データ収集手段 25に、ハイブリッド型位置センサ 23から得られる車速が 0のと きは、画像データ収集手段 24に対して画像データ収集を行わないように命令する処 理を設けて、停止中の撮影をやめることもできる。これにより、信号や渋滞などで停止 状態になった場合に、画像データの記録を一時停止し、データ収集容量を節約する こと力 Sでさる。  [0076] When the vehicle speed obtained from the hybrid position sensor 23 is 0, the position data collecting unit 25 is provided with a process for instructing the image data collecting unit 24 not to collect image data. You can also stop shooting while stopped. As a result, when the vehicle is stopped due to traffic light or traffic congestion, it is possible to temporarily stop recording image data and save the data collection capacity.
[0077] 収集された収集画像データ dlと収集画像属性情報 d2は、図 16に示すようにそれ ぞれ共通の GPS時刻を利用した時刻情報を付与して!/、るため、付与された時刻を媒 介として位置と画像を対応付けること力 Sでさる。  [0077] The collected image data dl and the collected image attribute information d2 are assigned time information using a common GPS time as shown in FIG. The force S is used to associate the position with the image using as a medium.
[0078] またカメラの方位は、車両 21に相対的なカメラの相対方位と車両 21方位から求め ること力 Sできる。相対方位は予め計測しておくものとする。普通は画像データの収集 周期の方が短いため、各画像フレームにおける位置 ·速度 ·方位などは前後の時刻 の位置 ·速度 ·方位を内揷することによって得られる。 In addition, the camera direction can be obtained from the relative direction of the camera relative to the vehicle 21 and the direction of the vehicle 21. The relative orientation is measured in advance. Normally, the image data collection cycle is shorter, so the position, speed, and direction in each image frame can be obtained by subtracting the position, speed, and direction at the previous and subsequent times.
[0079] 一時メモリ 26に記録された収集画像データ dlと収集画像属性情報 d2は、一次撮 影情報インポートファイル flとして、ディスクなどの携帯型記憶媒体に出力して、次の 画像データ編集サブシステム 30に入力される。 [0080] なお、位置データ収集手段 25は、後述する画像データ管理サブシステム 40の撮 影計画手段 41によって作成され、後述する撮影情報エクスポートファイル f3として携 帯型記憶媒体に出力された撮影計画情報 dOに含まれるリンクの形状及び情報を読 み込み、ハイブリッド型位置センサ 23から得られる位置情報をコンピュータの画面に 重畳表示する。これにより、作業者が収集対象のどのリンクのデータ収集を行ったか 力 sわ力、る。 [0079] The collected image data dl and the collected image attribute information d2 recorded in the temporary memory 26 are output to a portable storage medium such as a disc as a primary imaging information import file fl, and the next image data editing subsystem Input to 30. Note that the position data collection unit 25 is created by the shooting plan unit 41 of the image data management subsystem 40 described later, and is output to the portable storage medium as a shooting information export file f3 described later. The link shape and information contained in dO are read, and the position information obtained from the hybrid position sensor 23 is superimposed on the computer screen. As a result, the operator what force s I force was data collection of the link of the collection target, Ru.
[0081] (画像データ編集サブシステム 30)  [0081] (Image data editing subsystem 30)
次に、画像データ編集サブシステム 30の各手段について詳細に説明する。  Next, each unit of the image data editing subsystem 30 will be described in detail.
[0082] 画像データ編集サブシステム 30は、図 3に示したように、画像撮影サブシステム 20 によって収集され、一次撮影情報インポートファイル flとして出力された収集画像デ ータ d2を、本発明の実施の形態で用いるために編集し、後述する画像データ管理サ ブシステム 40の撮影計画手段 41によって作成され、撮影情報エクスポートファイル f 3として出力されたリンク情報の形状情報を用いて、路線ネットワークなどグラフ構造 を持つ地図情報との関係付けを行い、最適化することを目的としたサブシステムであ  [0082] As shown in FIG. 3, the image data editing subsystem 30 uses the collected image data d2 collected by the image capturing subsystem 20 and output as the primary image capturing information import file fl as the implementation of the present invention. Edited for use in the form of the image data, created by the shooting plan means 41 of the image data management subsystem 40 described later, and using the shape information of the link information output as the shooting information export file f3, a graph such as a route network It is a subsystem designed to correlate and optimize map information with a structure.
[0083] まず、地図データ表示手段 31は、図 2に示すように、入力情報として、画像撮影サ ブシステム 20にから出力される一次撮影情報インポートファイル flは後述する物理 画像データベースと同じ構造を有する。図 4に示すように、一次撮影情報インポート ファイル flを構成する収集画像属性情報 d2に含まれる時系列位置情報と、撮影情 報エクスポートファイル f3に含まれる地図情報からリンク形状を表示する。時系列位 置情報は点列として、またリンク形状は連続線分として表示される。 First, as shown in FIG. 2, the map data display means 31 has, as input information, a primary imaging information import file fl output from the imaging system 20 having the same structure as a physical image database to be described later. Have. As shown in FIG. 4, the link shape is displayed from the time-series position information included in the collected image attribute information d2 constituting the primary shooting information import file fl and the map information included in the shooting information export file f3. The time series position information is displayed as a point sequence, and the link shape is displayed as a continuous line segment.
[0084] 次に、画像データ表示手段 32は、図 5に示すように、一次撮影情報インポートファ ィル flの収集画像データ dlを表示する。画像を表示すると、画像収集位置が地図 データ表示手段 31で表示された地図の中に、記号で表示される。また、画像データ は時系列的に前後に順次表示を切り替えることができる。  [0084] Next, the image data display means 32 displays the collected image data dl of the primary imaging information import file fl as shown in FIG. When the image is displayed, the image collection position is displayed as a symbol in the map displayed by the map data display means 31. In addition, the display of image data can be sequentially switched back and forth in time series.
[0085] 次に、リンク始終点通過時刻登録手段 33は、地図データ表示手段 31により表示さ れた図 4に示す地図上でマウス選択したリンク、もしくは順次的に選択された選択中 のリンクの始点及び終点に対応する通過時刻を指定し、登録する。通過時刻は、一 次撮影情報インポートファイル flの収集画像属性情報 d2に含まれる時系列位置情 報を用いて、その始点もしくは終点に対応する時系列位置の時刻から指定する方法 と、一次撮影情報インポートファイル flの収集画像データ dlに付与された画像撮影 時刻から指定する方法がある。リンクの始点及び終点の通過時刻は、撮影日時、撮 影に使用したカメラ情報キー ID、及び格納する画像の物理保管場所 (ハードディスク のボリューム名など)等の各情報とともに撮影計画エクスポートファイルと同様の形式 で実撮影結果情報 d3に保存される。 [0085] Next, the link start / end point passage time registration means 33 displays the link selected by the mouse on the map shown in FIG. 4 displayed by the map data display means 31, or the link being selected that has been sequentially selected. Specify and register the passage time corresponding to the start and end points. Passing time is one Collection of the next shooting information import file fl Using the time series position information included in the image attribute information d2 to specify from the time of the time series position corresponding to the start point or end point, and the collection of the primary shooting information import file fl There is a method to specify from the image shooting time given to the image data dl. The transit time of the link start point and end point is the same as that for the shooting plan export file, along with information such as shooting date and time, camera information key ID used for shooting, and physical storage location (such as hard disk volume name) of the image to be stored. Saved in the actual shooting result information d3 in the format.
[0086] 時系列位置から指定する方法には、リンクの始点もしくは終点に対応する時系列位 置をマウス等で指定するマニュアル指定方法と、 自動的に指定する自動指定方法が ある。 [0086] There are two methods for designating from the time series position: a manual designation method for designating the time series position corresponding to the start point or end point of the link with a mouse or the like, and an automatic designation method for automatically designating.
[0087] 自動指定方法では、リンクの始点もしくは終点に最も近い時系列位置を探索すると いうことで達成される。 自動車のナビゲーシヨンシステムに使われているマップマッチ ング技術、すなわち位置だけでなく進行方向やスピードなどを勘案して自分の進ん でいる経路に自動的に対応付ける技術を用いてもよい。この際は、必ずしも最も近い 点を選択するとは限らない。  [0087] The automatic designation method is achieved by searching for a time-series position closest to the start point or end point of the link. You may use the map matching technology used in the navigation system of automobiles, that is, the technology that automatically corresponds to the route you are traveling in consideration of not only the position but also the direction of travel and speed. In this case, the closest point is not necessarily selected.
[0088] 画像撮影時刻から指定する方法では、リンクの始点は終点の時刻に対応する収集 画像データ dlを画像表示画面に表示する。画像に撮影されている道路や交差点の 様子を見て、オペレータが交差点などで位置がずれていると判断された場合は、時 系列画面を操作することによって時系列的に前もしくは後の画像を表示させ、ォペレ ータが判断した交差点の位置の画像の撮影時刻をリンクの始点もしくは終点の通過 時刻として修正登録できる。  In the method of designating from the image capturing time, the collected image data dl corresponding to the start time of the link and the end time is displayed on the image display screen. By looking at the roads and intersections captured in the image, and if the operator determines that the position is shifted at the intersection, etc., the previous or next image is displayed in time series by operating the time series screen. The image capture time of the image at the intersection determined by the operator can be corrected and registered as the transit time of the link start point or end point.
[0089] リンク始終点通過時刻登録手段 33で登録されたリンクの始点通過時刻が終点通過 時刻よりも前の場合は、画像が該当のリンク上を始点から終点に向かって走行しなが ら撮影されたと判断される。逆に始点通過時刻が終点通過時刻よりも後の場合は、 該当のリンク上を終点から始点に向かって走行しながら撮影された画像であると判断 される。  [0089] If the start point passage time of the link registered by the link start / end point passage time registration means 33 is earlier than the end point passage time, the image is taken while traveling from the start point to the end point on the corresponding link. It is judged that it was done. Conversely, if the start point passage time is later than the end point passage time, it is determined that the image is taken while traveling from the end point toward the start point on the corresponding link.
[0090] リンク始終点通過時刻登録手段 33で登録されたリンクの始点及び終点の通過時刻 は、二次撮影情報インポートファイル f2に出力される。 [0091] 最後に、画像間引き手段 34は、データ容量を少なくすることを目的として、一次撮 影情報インポートファイル f lの収集画像データ dlを移動距離などに応じて間引く。 間引きの方法の一例として、図 6に示すように、次のような方法がある。一つのフレー ムを起点に、起点フレームから i番目のフレームの距離を、各フレーム毎に〔数 1〕の数 式で計算する。 [0090] The link start and end passage times registered by the link start / end point passage time registration means 33 are output to the secondary imaging information import file f2. [0091] Finally, the image thinning means 34 thins the collected image data dl of the primary shooting information import file fl in accordance with the moving distance or the like for the purpose of reducing the data capacity. As an example of the thinning method, as shown in FIG. 6, there is the following method. Starting from one frame, the distance from the starting frame to the i-th frame is calculated for each frame using the formula [Equation 1].
[0092] 〔数 1〕  [0092] [Equation 1]
L [0] = 0. 0 ;  L [0] = 0. 0;
L [i] =L [i- l] + (v[i— l] +v[i] ) /2 * (t [i]— t [i— 1] ) ;  L [i] = L [i- l] + (v [i— l] + v [i]) / 2 * (t [i] — t [i— 1]);
ここで、 v[i]: i番目のフレームの速度(メートル/秒)  Where v [i]: speed of i-th frame (meters / second)
t [i] : i番目のフレームの時亥 IJ (秒)  t [i]: Time of i-th frame IJ (seconds)
間引き間隔を dとして、 dの n倍 (nは整数)に最も近い距離を L[jn]とする。 jn以外の フレームは間引く。間引き後の画像フレームも時刻情報をつけておけば、データべ一 スの他の部分に影響を与えず画像を間引くことができる。  Let the decimation interval be d, and let L [jn] be the distance closest to n times n (n is an integer). Frames other than jn are thinned out. If time information is also attached to the image frame after thinning, the image can be thinned without affecting other parts of the database.
[0093] 例えば、時速 10kmで走行する車から毎秒 15フレームで撮影する場合、 10kmの 区間で 54000枚の画像が取得される。これを lm置きに間引くとすると、 10000枚と なり、データ量を 5分の 1以下に抑えることができる。 [0093] For example, when shooting at 15 frames per second from a car traveling at 10 km / h, 54,000 images are acquired in a 10 km section. If this is thinned out every lm, it will be 10,000 sheets, and the data volume can be reduced to less than one-fifth.
[0094] このように、人間の視覚上問題のない程度まで画像フレーム数を間引くことで、デ 一タ量を削減することができ、保存するのに必要なメモリ量が少なく済むため、システ ムを安価にできる。さらに、画像表示処理すべきデータ量が少なければ、表示処理 速度も向上し、コンピュータなどの表示装置の負担が軽減できる。 [0094] In this way, the amount of data can be reduced by thinning out the number of image frames to such an extent that there is no human visual problem, and the amount of memory required for storage can be reduced. Can be made inexpensively. Furthermore, if the amount of data to be subjected to image display processing is small, the display processing speed can be improved and the burden on a display device such as a computer can be reduced.
[0095] メモリの低価格化やコンピュータの処理能力向上によって、データ量を削減する必 要がない場合には、画像間引き手段 34は、特に具備する必要はない。 [0095] If it is not necessary to reduce the amount of data due to the low cost of the memory or the improvement of the processing capacity of the computer, the image thinning means 34 is not particularly required.
[0096] 実撮影管理情報登録手段 35は、後述する計画 ·実撮影情報データベースに登録 する実撮影時の属性情報 (撮影地区情報 ·作業実施者等)を入力し、実撮影管理情 報 d4に入力する。 [0096] The actual shooting management information registration means 35 inputs the attribute information (shooting area information, operator, etc.) at the time of actual shooting to be registered in the plan / actual shooting information database, which will be described later, and enters the actual shooting management information d4. input.
[0097] (画像データ管理サブシステム 40) [0097] (Image Data Management Subsystem 40)
次に、画像データ管理サブシステム 40の各手段について詳細に説明する。  Next, each unit of the image data management subsystem 40 will be described in detail.
[0098] 画像データ管理サブシステム 40は、図 7に示したように、撮影すべき場所や撮影に 使用する機材などの計画 ·進渉管理から、実際に撮影され、編集された収集画像デ ータ dlの管理、及び利用者の要求条件にあった収集画像データ dlを切り出して提 供するまでに必要なデータ群を一括管理することを目的としたサブシステムである。 [0098] The image data management subsystem 40, as shown in FIG. Planning of equipment to be used-Necessary from management of progress to management of collected image data dl actually captured and edited, and to extract and provide collected image data dl that meets user requirements It is a subsystem for the purpose of batch management of various data groups.
[0099] まず、撮影計画手段 41は、図 8に示すように、画面表示部 411、リンク選択部 412 カメラ情報入力部 414、撮影計画情報入力部 413、及び撮影情報エクスポートフアイ ル作成部 415から構成される。  First, as shown in FIG. 8, the shooting plan means 41 includes a screen display unit 411, a link selection unit 412, a camera information input unit 414, a shooting plan information input unit 413, and a shooting information export file creation unit 415. Composed.
[0100] 画面表示部 411は、記憶装置 50に記録されているグラフ構造データベース 51のノ ード及びリンクをコンピュータの画面に表示する。  The screen display unit 411 displays the node and link of the graph structure database 51 recorded in the storage device 50 on the computer screen.
[0101] リンク選択部 412は、画面表示部 411によって表示されたリンクの内、撮影を計画 するリンクを選択し、決定させる。リンクの選択方法としては、画面上のマウス操作によ る矩形領域指定、ポリゴン領域指定など位置による選択、道路幅や種別などグラフ構 造情報に含まれる属性情報による選択、及び位置と属性情報による複合選択がある  [0101] The link selection unit 412 selects and determines a link for which shooting is planned from among the links displayed by the screen display unit 411. Link selection methods include rectangular area specification by mouse operation on the screen, selection by position such as polygon area specification, selection by attribute information included in the graph structure information such as road width and type, and position and attribute information. There is a composite selection
[0102] 例えば、ある市町村の県道を抽出する場合、県道のみを予め属性情報による選択 で抽出しておき、その後に市町村境をポリゴン指定で指定すれば目的が達成される [0102] For example, when extracting a prefectural road of a certain municipality, the purpose is achieved if only the prefectural road is extracted in advance by selection based on attribute information, and then the municipality boundary is designated by polygon designation.
[0103] カメラ情報入力部 414は、入力された撮影に用いるカメラの情報を、カメラ情報デー タベース 52として記憶装置 50に記録する。この際、 自動または任意に指定したカメラ 情報キー IDを付与して、個々のカメラ情報を識別できるようにする。 The camera information input unit 414 records the input camera information used for shooting in the storage device 50 as the camera information database 52. At this time, the camera information key ID specified automatically or arbitrarily is assigned so that individual camera information can be identified.
[0104] 撮影計画情報入力部 413は、撮影地区(リンク選択部 412で選択されたリンク群)、 撮影開始予定日、撮影作業者、使用するカメラのカメラ情報キー IDなど、入力された 撮影計画の情報を計画 ·実撮影情報データベース 53として記憶装置 50に記録する 。この際、自動または任意に指定した撮影計画キー IDを付与して、個々の撮影計画 を識另リできるようにする。  [0104] The shooting plan information input unit 413 displays the input shooting plan such as the shooting area (link group selected by the link selection unit 412), the scheduled shooting start date, the shooting operator, and the camera information key ID of the camera to be used. Is recorded in the storage device 50 as a plan / actual shooting information database 53. At this time, an automatic or arbitrarily designated shooting plan key ID is assigned so that individual shooting plans can be identified.
[0105] 撮影計画 IDを自動的に生成する場合は、作成日時とカメラ情報キー IDを組み合わ せたものなどにして、 IDの重複が起こらないようにする。  [0105] When the shooting plan ID is automatically generated, a combination of the creation date and the camera information key ID is used so that the ID does not overlap.
[0106] 撮影情報エクスポートファイル作成部 415は、リンク選択部 412で選択されたリンク と撮影計画情報入力部 413で入力された情報を組み合わせ、図 15に示す形式でリ ンク関連情報として、記憶装置 50内のリンク関連情報データベース 54に記録する。 この段階では、さらにリンク関連情報と、グラフ構造データベースに記録されたリンク 形状を撮影情報エクスポートファイル f3として、携帯型記憶媒体に出力する。 [0106] The shooting information export file creation unit 415 combines the link selected by the link selection unit 412 and the information input by the shooting plan information input unit 413, and displays them in the format shown in FIG. As link related information, it is recorded in the link related information database 54 in the storage device 50. At this stage, the link-related information and the link shape recorded in the graph structure database are output to the portable storage medium as a photographing information export file f3.
[0107] 次に、撮影情報取り込み手段 42は、図 9に示すように、実撮影管理情報記録部 42 1と画像データ記録部 422からなる。  Next, as shown in FIG. 9, the shooting information capturing means 42 includes an actual shooting management information recording unit 421 and an image data recording unit 422.
[0108] 実撮影管理情報記録部 421は、画像データ編集サブシステム 30から二次撮影情 報インポートファイル f2として入力された、撮影時の撮影者などの実撮影管理情報 d 3を、実撮影キー IDを付与して計画 ·実撮影情報データベース 53に記録する。  [0108] The actual shooting management information recording unit 421 stores the actual shooting management information d3 such as the photographer at the time of shooting, which is input as the secondary shooting information import file f2 from the image data editing subsystem 30, as the actual shooting key. Assign ID and plan · Record in actual shooting information database 53.
[0109] 実撮影 IDは、撮影日時と使用したカメラ情報キー IDを組み合わせたものなどにし て、 IDの重複が起こらないようにする。  [0109] The actual shooting ID should be a combination of the shooting date and the camera information key ID used, etc., so that IDs do not overlap.
[0110] さらに、撮影されたリンクに関する撮影情報、すなわち撮影日時、撮影に使用した カメラ情報キー ID、リンクの始点及び終点の通過時刻、及び格納する画像の物理保 管場所 (ハードディスクのボリューム名など)等の各情報を格納した実撮影結果情報 d 3を、撮影情報エクスポートファイル作成部 415によってリンクキー ID毎に作成され保 存されているリンク関連情報データベース 54の、該当するリンクキー IDの部分に更 新する。  [0110] Furthermore, the shooting information related to the shot link, that is, the shooting date and time, the camera information key ID used for shooting, the passage time of the link start point and end point, and the physical storage location of the image to be stored (such as the volume name of the hard disk) ) Etc., the actual shooting result information d 3 is stored in the link related information database 54 created and saved for each link key ID by the shooting information export file creation unit 415. Update to.
[0111] また、画像データ記録部 422は、画像データ編集サブシステム 30から二次撮影情 報インポートファイル f2として入力された収集画像データ dlと収集画像属性情報 d2 を、それぞれ収集画像データベース 55と収集画像属性情報データベース 56に記録 する。  [0111] In addition, the image data recording unit 422 collects the collected image data dl and the collected image attribute information d2 input from the image data editing subsystem 30 as the secondary shooting information import file f2, and the collected image database 55 and the collected image attribute information d2, respectively. Record in the image attribute information database 56.
[0112] 管理手段 43は、図 10に示すように、ネットワーク登録部 431、印刷部 432、メンテ ナンス部 433から構成される。  As shown in FIG. 10, the management unit 43 includes a network registration unit 431, a printing unit 432, and a maintenance unit 433.
[0113] ネットワーク登録部 431は、外部で作成 ·配布される路線ネットワークデータを読み 込んで、グラフ構造データベース 51に登録する。 [0113] The network registration unit 431 reads route network data created and distributed externally and registers it in the graph structure database 51.
[0114] 印刷部 432は、記憶装置 50に記録されている各データベースの情報をプリンタに て印刷する。 The printing unit 432 prints the information of each database recorded in the storage device 50 using a printer.
[0115] メンテナンス部 433は、記憶装置 50に記録されている各データベースの定期的な ノ ックアップを実施したり、不要データ (撮影を行わなくなった撮影計画情報など)の 削除などを行う。また、撮影計画情報 dOと実撮影管理情報 d3が反映されているリンク 関連情報データベース 54内の作業進渉コードを検索することで、撮影がどの程度進 んでいる力、を集計する。 [0115] The maintenance unit 433 performs periodic knock-up of each database recorded in the storage device 50, and stores unnecessary data (such as shooting plan information that is no longer shot). Delete it. In addition, by searching for the work progress code in the link related information database 54 reflecting the shooting plan information dO and the actual shooting management information d3, the power of shooting progress is totaled.
[0116] 最後に、データ抽出手段 44は、図 11に示すように、抽出条件入力部 441、グラフ 構造情報抽出部 442、リンク関連情報抽出部 443、収集画像データ抽出部 444、及 び収集画像属性情報抽出部 554からなる。 Finally, as shown in FIG. 11, the data extraction means 44 includes an extraction condition input unit 441, a graph structure information extraction unit 442, a link related information extraction unit 443, a collected image data extraction unit 444, and a collected image. An attribute information extraction unit 554 is included.
[0117] 抽出条件入力部 441は、データベースから抽出するための条件を入力する。条件 としては、位置的条件とリンク属性的条件と撮影属性条件がある。位置的条件には、 画面上のマウス操作やファイル読み込みから得られるによる矩形領域やポリゴン領域 等がある。 [0117] The extraction condition input unit 441 inputs conditions for extraction from the database. Conditions include positional conditions, link attribute conditions, and shooting attribute conditions. The positional conditions include a rectangular area and a polygon area obtained by operating the mouse on the screen or reading a file.
[0118] また、リンク属性的条件とは、道路幅や種別などグラフ構造情報に含まれる属性情 報の指定がある。また、撮影属性条件は撮影日や撮影時間帯などの指定がある。  [0118] The link attribute condition includes designation of attribute information included in the graph structure information such as road width and type. The shooting attribute condition includes designation of a shooting date and a shooting time zone.
[0119] グラフ構造情報抽出部 442は、グラフ構造データベース 51から、抽出条件入力部  [0119] The graph structure information extraction unit 442 receives an extraction condition input unit from the graph structure database 51.
441で入力された位置的条件及びリンク属性的条件に適合するリンクを抽出する。  A link that matches the positional condition and the link attribute condition input in 441 is extracted.
[0120] さらに、抽出されたリンク IDとその両端のノード IDを調べ、各ノードに接続するリンク IDをリストアップし、切り出し画像データのリンクのグラフ構造情報として格納する。  Further, the extracted link IDs and the node IDs at both ends thereof are checked, the link IDs connected to each node are listed, and stored as the graph structure information of the link of the cut-out image data.
[0121] リンク関連情報抽出部 443は、上記で抽出されたリンクの IDに対応するリンクにつ いて、リンク関連情報データベース 54から抽出する。さらに、その中から抽出条件入 力部 441で入力された撮影属性条件に適合するリンクの情報を抽出する。  [0121] The link related information extraction unit 443 extracts the link corresponding to the ID of the link extracted above from the link related information database 54. Further, link information that matches the photographing attribute condition input by the extraction condition input unit 441 is extracted from the information.
[0122] 収集画像データ抽出部 444は、収集画像データベース 55から、抽出条件入力部 4 41で入力された条件に適合する情報を抽出する。  The collected image data extraction unit 444 extracts information that meets the conditions input by the extraction condition input unit 441, from the collected image database 55.
[0123] つまり、収集画像データ抽出部 444は、収集画像データベースから上記で抽出さ れた各リンク関連情報に記憶されている撮影年月日に、カメラ情報キー IDで撮影さ れた画像を検索する。さらにその中から、視点通過時刻と終点通過時刻の間に撮影 された画像を抽出し、画像ファイルとして切り出し画像データ内の画像ファイルとして 格納する。  In other words, the collected image data extraction unit 444 searches for an image photographed with the camera information key ID stored in each link related information extracted above from the collected image database. To do. Further, an image photographed between the viewpoint passage time and the end point passage time is extracted from the image, cut out as an image file, and stored as an image file in the image data.
[0124] また、画像取得リンク ID、撮影開始側のノード ID、撮影集両側のノード ID、撮影順 番を切り出し画像データ内の画像ファイル属性情報として格納する。 [0125] 収集画像属性情報抽出部 445は、収集画像属性情報データベース 56から、抽出 条件入力部 441で入力された条件に適合する情報を抽出する。 [0124] Also, the image acquisition link ID, the node ID on the shooting start side, the node IDs on both sides of the shooting collection, and the shooting order are cut out and stored as image file attribute information in the image data. The collected image attribute information extraction unit 445 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image attribute information database 56.
[0126] つまり、上記で抽出された画像ファイルに対応する画像取得座標、画像取得方位 などの情報を抽出し、切り出し画像データ内の画像ファイル属性情報として格納する  That is, information such as image acquisition coordinates and image acquisition orientation corresponding to the image file extracted above is extracted and stored as image file attribute information in the cut-out image data.
[0127] 以上によって切り出された情報は切り出し画像データ f4として出力される。これには 、画像ファイル、画像ファイル付属情報、リンク関連情報、リンクのグラフ構造情報等 が含まれる。 [0127] Information cut out as described above is output as cut-out image data f4. This includes image files, image file attachment information, link related information, link graph structure information, and the like.
[0128] なお、リンクの切り出しに当たっては、次の方法で切り出すことができる。  [0128] Note that the link can be cut out by the following method.
[0129] ·位置的条件の指定 (地理メッシュや行政区域による切り出し):コンピュータ画面ィ ンターフェース上のマウス指定もしくはマウスによる領域指定で、切り出すリンクを選 択すること力 Sできる。また、予め行政区域等の外周多角形内を登録しておき、ユーザ が指定する区域に対応する外周多角形内のリンクを抽出してもよい。  [0129] · Specifying the positional condition (cutting out by geographic mesh or administrative area): The ability to select the link to cut out by specifying the mouse on the computer screen interface or specifying the area with the mouse. In addition, the inside of the outer polygon such as the administrative area may be registered in advance, and the link in the outer polygon corresponding to the area designated by the user may be extracted.
[0130] 例えば、東京都の区市町村境をポリゴンとして別途作成しておき、それを外部フアイ ルとして磁気ディスク上に保存しておき、必要時にそのファイルを指定してポリゴンを 読み出せば、マウスでポリゴン入力する代替として利用することが可能である。  [0130] For example, if the city, town, and village boundaries of Tokyo are created separately as polygons, saved as external files on the magnetic disk, and the polygon is read by specifying the file when necessary, the mouse Can be used as an alternative to polygon input.
[0131] 'リンク属性的条件の指定 (道路種別'道路幅等):撮影に必要なリンクの種別を指 定し、グラフ構造データベース 51に格納されている情報を参照すれば、そのリンクの 種別に該当するものを抽出することができる。  [0131] 'Specify link attribute condition (road type' road width, etc.): Specify the type of link required for shooting and refer to the information stored in the graph structure database 51. Can be extracted.
[0132] ·撮影属性的条件の指定:リンク関連情報データベース 54に含まれる撮影日 ·撮影 時刻情報を参照することにより、画像の撮影時期を指定し、抽出すること力できる。  Specification of shooting attribute condition: By referring to shooting date / time information included in the link related information database 54, it is possible to specify and extract the shooting time of the image.
[0133] 一方、各リンクに対応する画像は、リンク関連情報データベース 54に記述されてい る情報に基づいて抽出される。すなわち、抽出するリンクのリンクキー IDに対応する レコードに記述されている記憶装置 50の保管場所に記録されている収集画像デー タベース 55から、カメラ情報キー IDに記述されているカメラで撮影し、かつ画像フレ ームについている時刻が始点通過時刻から終点通過時刻の間のものを抽出すれば よい。  On the other hand, the image corresponding to each link is extracted based on the information described in the link related information database 54. That is, from the collected image database 55 recorded in the storage location of the storage device 50 described in the record corresponding to the link key ID of the link to be extracted, the image is captured by the camera described in the camera information key ID, In addition, it is only necessary to extract the time that the image frame is between the start point passage time and the end point passage time.
[0134] 切り出された画像データには、次のものを含むことが可能である。 [0135] ·画像ファイル [0134] The cut out image data can include the following. [0135] · Image file
•画像ファイル属性情報  • Image file attribute information
•画像取得座標 (各フレームの緯度経度)  • Image acquisition coordinates (latitude and longitude of each frame)
•画像取得方位 (画像中心の方位)  • Image acquisition direction (image center direction)
•画像取得リンク ID (画像を撮影した道路中心線の ID)  • Image acquisition link ID (ID of the road centerline that captured the image)
•撮影開始側のノード ID  • Node ID on the shooting start side
•撮影終了側のノード ID  • Node ID at the end of shooting
•撮影順番  • Shooting order
•画像取得カメラ情報 (撮影高等)  • Image acquisition camera information (shooting height etc.)
'リンクのグラフ構造 (ネットワーク情報ともいう)  'Link graph structure (also called network information)
'各ノード IDについて、そのノードに接続するリンク IDのリスト  'For each node ID, a list of link IDs that connect to that node
(記憶装置 50内の各データベース)  (Each database in storage device 50)
つづいて、記憶装置 50内に記録される各データベースについて説明する。  Next, each database recorded in the storage device 50 will be described.
[0136] 本発明の実施の形態で用いられるデータベースは、図 1に示したように、大別する と、グラフ構造を持つ地物情報と撮影された画像の関係を管理する画像情報データ ベース 50aと、実際に撮影した画像とその付属情報を格納する物理画像データべ一 ス 50bの 2つのグループに分けられる。  [0136] As shown in Fig. 1, the database used in the embodiment of the present invention is roughly divided into an image information database 50a for managing the relationship between feature information having a graph structure and captured images. The physical image data base 50b that stores the actually captured images and their associated information can be divided into two groups.
[0137] 画像情報データベース 50aには、グラフ構造を格納するグラフ構造データベース 5 1、撮影に使用するカメラ等撮影に付属的な情報を格納するカメラ情報データベース 52、撮影計画や実際に撮影したときの情報を格納する各リンクに対応する計画-実 撮影情報データベース 53、リンク毎に上記の情報及び撮影された画像を関連付ける リンク関連情報データベース 54の 4つが属する。  [0137] The image information database 50a includes a graph structure database 51 that stores the graph structure, a camera information database 52 that stores information attached to the shooting, such as the camera used for shooting, and the shooting plan and actual shooting times. There are four types: a plan-actual imaging information database 53 corresponding to each link storing information, and a link-related information database 54 that associates the above information and captured images for each link.
[0138] グラフ構造データベース 51は、図 12に示すようなグラフ構造を持つ地物情報を格 納するものである。地理情報として路線ネットワークを使用する場合は、グラフ構造の ノードとして交差点、リンクとして交差点をつなぐ道路中心線が対応する。  The graph structure database 51 stores feature information having a graph structure as shown in FIG. When a route network is used as geographic information, a road center line connecting the intersection as a node of the graph structure and the intersection as a link corresponds.
[0139] グラフ構造データベース 51内では、図 12に示すように、各ノードは地理座標によつ て定義され、ノードキー IDで識別される。各リンクは両端の地理座標ほたはノードキ 一 ID)とリンクの形状によって定義され、リンクキー IDで識別される。なお、リンク(道 路中心線)の両端はノード(交差点)につなつており、リンクの始点と終点の交差点を 示すノードキー IDが各リンクに付与されている。これによつて、ノードとリンクの接合関 係、すなわちネットワーク構造が明らかになる。 [0139] In the graph structure database 51, as shown in Fig. 12, each node is defined by geographic coordinates and identified by a node key ID. Each link is defined by the geographical coordinates of both ends or the node key ID) and the link shape, and is identified by the link key ID. In addition, link (road Both ends of the (road center line) are connected to nodes (intersections), and node key IDs indicating the intersections of the start and end points of links are given to each link. This reveals the connection relationship between nodes and links, that is, the network structure.
[0140] グラフ構造データベース 51内では、ノードやリンクには付属情報をつけることができ る。例えば、路線ネットワークの場合、交差点であれば交差点名、リンクであれば道路 幅や規制情報 (一方通行など)の情報を付与することができる。  In the graph structure database 51, attached information can be attached to nodes and links. For example, in the case of a route network, it is possible to give information such as the name of an intersection if it is an intersection, and information such as road width and regulatory information (such as one-way traffic) if it is a link.
[0141] 次に、カメラ情報データベース 52には、図 13に示すように、撮影するカメラや搭載 する車、カメラ高さなどの機器情報が格納され、カメラ情報キー IDで識別される。  Next, as shown in FIG. 13, device information such as a camera to be photographed, a car to be mounted, and a camera height is stored in the camera information database 52, and is identified by a camera information key ID.
[0142] 計画 ·実撮影情報データベース 53には、図 14に示すように、各リンクに対応する撮 影計画情報 dOや実撮影管理情報が記録される。すなわち、作業者、作業に使われ たカメラのカメラ情報キー ID,画像の撮影日などである。各撮影計画や実撮影管理情 報は、それぞれ撮影計画キー ID,実撮影キー IDで識別される。  [0142] The plan / actual shooting information database 53 records shooting plan information dO and actual shooting management information corresponding to each link, as shown in FIG. That is, the operator, the camera information key ID of the camera used for the work, and the image shooting date. Each shooting plan and actual shooting management information are identified by shooting plan key ID and actual shooting key ID, respectively.
[0143] リンク関連情報データベース 54は、図 15に示すように、リンクキー ID、撮影計画キ 一 ID、実撮影キー ID、撮影状況を示す作業進渉コード (計画済み、撮影済、編集済 、撮影不可等)、撮影日、撮影に使用したカメラ情報キー ID、リンクの始点及び終点 の通過時刻、及び格納する画像の物理保管場所 (ノヽードディスクのボリューム名など )等の一連の情報を有するテーブル構造を持つ。  [0143] As shown in Fig. 15, the link related information database 54 includes a link key ID, a shooting plan key ID, an actual shooting key ID, and a work progress code indicating the shooting status (planned, shot, edited, A table containing a series of information such as shooting date, camera information key ID used for shooting, transit time of link start and end points, and physical storage location of the image to be stored (volume name of the node disk, etc.) With structure.
[0144] 撮影計画後は、撮影が予定されるリンクに対して、リンクキー ID,撮影計画キー ID, 使用が予定されるカメラ情報キー IDなど、実撮影に関連しない項目のみが設定され たレコードが記録される。この際、作業進渉コードは未撮影となる。  [0144] After the shooting plan, a record in which only items not related to actual shooting such as link key ID, shooting plan key ID, and camera information key ID to be used are set for the link scheduled to be shot Is recorded. At this time, the work progress code is not photographed.
[0145] 撮影後は、実撮影キー ID,撮影日時、撮影に使用したカメラ情報キー IDが格納さ れ、作業進渉コードが更新される。  [0145] After shooting, the actual shooting key ID, shooting date and time, and camera information key ID used for shooting are stored, and the work progress code is updated.
[0146] リンク関連情報データベース 54は、図 15の斜線部に示すように、同じリンクキー ID を持つレコードを複数持つことができるテーブルになっている。このため、一つのリン クキー IDに対して複数の撮影結果を格納することが可能である。  [0146] The link related information database 54 is a table that can have a plurality of records having the same link key ID, as indicated by the hatched portion in FIG. For this reason, it is possible to store multiple shooting results for one link key ID.
[0147] 物理画像データベースには、図 16に示すように、収集画像データベース 55と収集 画像属性情報データベース 56が属する。  As shown in FIG. 16, the collected image database 55 and the collected image attribute information database 56 belong to the physical image database.
[0148] 収集画像データベース 55は、実際に時系列的に撮影された一連の画像とともに、 各画像の収集に使われた撮影カメラ情報 (カメラ情報キー ID)と、撮影年月日、撮影 時刻も記録される。 [0148] The collected image database 55 includes a series of images actually taken in time series, The shooting camera information (camera information key ID) used to collect each image, the shooting date, and the shooting time are also recorded.
[0149] 収集画像属性情報データベース 56は、撮影時の位置、撮影時の速度、撮影方向 [0149] The collected image attribute information database 56 includes a position at the time of shooting, a speed at the time of shooting, and a shooting direction.
、撮影年月日、撮影時刻(GPS時刻)、撮影カメラなどの情報が格納される。 Information such as the shooting date, shooting time (GPS time), and shooting camera is stored.
[0150] 収集画像データベース 55の情報と収集画像属性情報データベース 56の情報は、 それぞれ時刻情報を持つので、その時刻情報によって、互いに関連付けられる。 [0150] Since the information in the collected image database 55 and the information in the collected image attribute information database 56 have time information, they are associated with each other by the time information.
[0151] なお、本発明の実施の形態では、上記のデータベースを記憶する記憶装置 50を 1 台のみ図示しているが、記憶装置 50を 1台に限定するものではない。物理画像デー タベース 50bは、大量の画像データを格納するために、画像情報データベース 50a とは物理的に異なる記憶媒体に格納しても構わない。実際には、 100ギガバイト以上 の大容量ハードディスクに分割して格納される。 In the embodiment of the present invention, only one storage device 50 for storing the database is shown, but the storage device 50 is not limited to one. In order to store a large amount of image data, the physical image database 50b may be stored in a storage medium physically different from the image information database 50a. Actually, it is divided and stored on a large-capacity hard disk of 100 GB or more.
[0152] 本発明の実施の形態におけるデータベース構造では、一つのリンクに対して複数 時期の画像を同時に蓄積することができる。 [0152] In the database structure according to the embodiment of the present invention, images of a plurality of periods can be simultaneously stored for one link.
[0153] 次に、本発明の実施の形態による地理情報関連付き画像データ管理システム 10に おける手順を図 18〜21図を用いて説明する。 Next, the procedure in the image data management system 10 with a geographic information association according to the embodiment of the present invention will be described with reference to FIGS.
[0154] (データの登録) [0154] (Data registration)
ステップ S100 :画像データ管理サブシステム 40の管理手段 43によって、外部の路 線ネットワークデータ f0からリンク情報をグラフ構造データベース 51に登録する。  Step S100: The link information from the external route network data f0 is registered in the graph structure database 51 by the management means 43 of the image data management subsystem 40.
[0155] (撮影計画) [0155] (Shooting plan)
ステップ S 101:画像データ管理サブシステム 40の撮影計画手段 41の画面表示部 Step S101: Screen display section of the photographing plan means 41 of the image data management subsystem 40
411によって、グラフ構造データベース 51のリンク情報から、リンクのグラフ構造を表 示する。 By 411, the graph structure of the link is displayed from the link information of the graph structure database 51.
[0156] ステップ S102:画像データ管理サブシステム 40の撮影計画手段 41のリンク選択部  Step S102: Link selection unit of photographing plan means 41 of image data management subsystem 40
412によって、表示されたリンクのグラフ構造から、撮影対象とするリンクを選択する。  In 412, the link to be photographed is selected from the displayed link graph structure.
[0157] ステップ S103:画像データ管理サブシステム 40の撮影計画手段 41のカメラ情報 入力部 414によって、撮影に使用するカメラに関する情報をカメラ情報データベース 52に登録する。  Step S103: The camera information input unit 414 of the shooting plan means 41 of the image data management subsystem 40 registers information about the camera used for shooting in the camera information database 52.
[0158] ステップ S104:画像データ管理サブシステム 40の撮影計画手段 41の撮影計画情 報入力部 413によって、抽出した撮影対象リンクについて、撮影計画を立案し、計画Step S104: Shooting Plan Information of Image Data Management Subsystem 40 Shooting Plan Information of 41 The information input unit 413 prepares a shooting plan for the extracted shooting target link,
•実撮影情報データベース 53に入力する。 • Enter the actual shooting information database 53.
[0159] ステップ S105:画像データ管理サブシステム 40の撮影計画手段 41の撮影情報ェ タスポートファイル作成部 415によって、撮影計画情報 dOを撮影情報エクスポートフ アイル f3に出力する。 Step S105: The shooting information status port file creation unit 415 of the shooting plan means 41 of the image data management subsystem 40 outputs the shooting plan information dO to the shooting information export file f3.
[0160] (撮影実施) [0160] (shooting)
ステップ S106:画像撮影サブシステム 20に撮影情報エクスポートファイル f 3の情 報の中のリンク形状を読み込み、撮影すべきリンクを表示する。  Step S106: The link shape in the information of the shooting information export file f3 is read into the image shooting subsystem 20 and the link to be shot is displayed.
[0161] ステップ S107 :実際に移動手段(車両 21)によってリンクの道路を走行しながら、画 像を撮影し、画像撮影サブシステム 20の画像データ収集手段 24によって、撮影時 刻を付与した収集画像データ dlを収集する。 [0161] Step S107: A captured image obtained by taking an image while actually traveling on the road of the link by the moving means (vehicle 21), and giving the photographing time by the image data collecting means 24 of the image taking subsystem 20. Collect data dl.
[0162] ステップ S108 :また、画像撮影サブシステム 20の位置データ収集手段 25によって[0162] Step S108: Also, by the position data collection means 25 of the image capturing subsystem 20
、 GPS時刻を付与した収集画像属性情報 d2を収集する。 Collect collected image attribute information d2 with GPS time.
[0163] ステップ S109:画像撮影サブシステム 20は、収集画像データ dlと収集画像属性 情報 d2を実撮影結果情報とともに一次撮影情報インポートファイル flに出力する。 Step S109: The image capturing subsystem 20 outputs the collected image data dl and the collected image attribute information d2 together with the actual shooting result information to the primary shooting information import file fl.
[0164] (画像データ編集) [0164] (Image data editing)
ステップ S110:画像データ編集サブシステム 30に、撮影情報エクスポートファイル f Step S110: The image data editing subsystem 30 and the shooting information export file f
3と一次撮影情報インポートファイル flを入力する。 Enter 3 and the primary shooting information import file fl.
[0165] ステップ S111:実撮影管理情報を登録する。 Step S111: Register actual photographing management information.
[0166] ステップ S112:画像データ編集サブシステム 30の地図データ表示手段 31によつ て、地図データを表示する。  Step S112: The map data display means 31 of the image data editing subsystem 30 displays the map data.
[0167] ステップ S113 :画像データ編集サブシステム 30の画像データ表示手段 32によつ て、地図データ上で指定したリンクについて収集された画像を表示する。 Step S113: The image data display means 32 of the image data editing subsystem 30 displays the images collected for the link designated on the map data.
[0168] ステップ S 114 :表示された収集画像データ dlや、その収集画像属性情報 d2から 時刻情報を得て、画像データ編集サブシステム 30のリンク始終点通過時刻登録手 段 33によって、該当リンクの始点と終点の通過時刻を記録する。 [0168] Step S114: Time information is obtained from the displayed collected image data dl and the collected image attribute information d2, and the link start / end time registration means 33 of the image data editing subsystem 30 determines the link information. Record the passage time of the start and end points.
[0169] ステップ S115 :さらに、画像データ編集サブシステム 30の画像間引き手段 34によ つて、必要に応じて、収集画像データ dlから画像を間引き、データ量を削減する。 [0170] ステップ SI 16 :編集を終えた情報を二次撮影情報インポートファイル f2に出力するStep S115: Furthermore, the image thinning means 34 of the image data editing subsystem 30 thins out the image from the collected image data dl as necessary to reduce the data amount. [0170] Step SI 16: Output the edited information to the secondary shooting information import file f2.
Yes
[0171] (情報記録 '更新)  [0171] (Information record 'Updated')
ステップ S117 :画像データ管理サブシステム 40に、二次撮影情報インポ一トフアイ ル f2の情報を入力する。  Step S117: The information of the secondary shooting information import file f2 is input to the image data management subsystem 40.
[0172] ステップ S118 :画像データ管理サブシステム 40の撮影情報取り込み手段 42によつ て、実撮影情報データを計画 ·実撮影情報データベース 53に記録する。 Step S118: The actual photographing information data is recorded in the plan / actual photographing information database 53 by the photographing information capturing means 42 of the image data management subsystem 40.
[0173] ステップ S119 :画像データ管理サブシステム 40の撮影情報取り込み手段 42によつ て、リンク関連情報データベース 54の情報を更新する。 Step S119: The photographing information capturing means 42 of the image data management subsystem 40 updates the information in the link related information database 54.
[0174] (データ抽出) [0174] (Data extraction)
ステップ S120:画像データ管理サブシステム 40のデータ抽出手段 44によって、利 用者の要求条件に従って、リンク関連情報データベース 54の情報を元に収集画像 データベース 55からデータを抽出し、リンク情報 (ネットワーク情報)等とともに、切り 出し画像データ f4として出力する。  Step S120: The data extraction means 44 of the image data management subsystem 40 extracts data from the collected image database 55 based on the information in the link related information database 54 according to the user's requirements, and provides link information (network information). Etc. and output as cut-out image data f4.
[0175] (表示) [0175] (Display)
ステップ S121:本発明の地理情報関連付き画像データ表示システム 100は、切り 出し画像データ f4と市販の地図データによって、地図と指定したリンク(道路)の周辺 画像を表示する。  Step S121: The geographic data-related image data display system 100 of the present invention displays a map and a surrounding image of a designated link (road) by using the cut-out image data f4 and commercially available map data.
[0176] 以上に説明した地理情報関連付き画像データ管理システムによって、以下の効果 が得られ、作成された切り出し画像データを地理情報関連付き画像データ表示シス テム 100で読み込むことで、利用者の要求に対応した現地の画像を表示することが できる。  [0176] The following effects can be obtained by the image data management system with geographic information described above, and the user's request can be obtained by reading the created cut-out image data with the image data display system with geographic information 100. The local image corresponding to can be displayed.
[0177] すなわち、画像撮影サブシステム 20と連携していることで、どの地区が未撮影であ る力、、どの程度撮影が進んで!/、るかと!/、つた情報を管理することができる。  [0177] In other words, by cooperating with the image capturing subsystem 20, it is possible to manage the power of which areas have not yet been imaged, how much shooting has progressed! it can.
[0178] また、道路などのグラフ構造データから必要な部分を切り出した撮影計画を作成で きるので、その撮影計画に基づいて、複数の車両 21を用いて撮影作業を平行して行 えるようになり、広域の画像を大量に収集することができる。  [0178] In addition, since a shooting plan in which necessary portions are cut out from graph structure data such as roads can be created, shooting operations can be performed in parallel using a plurality of vehicles 21 based on the shooting plan. Thus, a large amount of wide-area images can be collected.
[0179] カメラ情報データベース 52として撮影に使用したカメラ情報 (カメラの撮影高さや力 メラそのものの識別番号、各識別番号のカメラのキャリブレーション情報)を一元的に 管理しているので、撮影した画像を用いて後から計測を行うことができる。 [0179] Camera information used for shooting as the camera information database 52 (shooting height and power of the camera The identification number of the camera itself and the camera calibration information for each identification number) are centrally managed, so measurements can be made later using the captured images.
[0180] リンク関連情報データベース 54のデータ構造により、実際に撮影した画像を、 Y字 路ゃ 5差路以上の交差点、立体交差などがある複雑な路線ネットワークなどのグラフ 構造を持つ地図情報と関連付けて管理することができる。 [0180] Using the data structure of the link-related information database 54, the actually captured images are associated with map information having a graph structure such as a complex route network with three or more intersections or intersections of five or more Y-junctions. Can be managed.
[0181] また、同じリンクに複数の種類の画像を関連付けて管理することができるため、撮影 した季節や時間帯が異なる画像を利用者の要求に合わせて提供できる。 [0181] Furthermore, since multiple types of images can be managed in association with the same link, images taken in different seasons and time zones can be provided in accordance with user requests.
[0182] さらに、実際に画像データを利用者に提供する場合、広域にわたり撮影された画像 データ全体から必要なデータを、次の条件を指定して切り出すことができる。 [0182] Furthermore, when actually providing image data to a user, necessary data can be extracted from the entire image data captured over a wide area by specifying the following conditions.
[0183] ·地理空間的な切り出し(地理メッシュや行政区域による切り出し) [0183] · Geospatial segmentation (Geographic mesh or administrative region segmentation)
•リンクの種別による切り出し (道路種別 ·道路幅等)  • Cut out by link type (road type, road width, etc.)
•画像の撮影時期による切り出し  • Cut out the image according to the shooting time
本発明の実施の形態を説明するために各図において示した各サブシステムの手段 や保持するデータの配置は、あくまでも例示であって、本発明の機能を実現するため に限定したものでない。よって、本発明の機能が実現可能な範囲において、種々の 処理手段の配置の組み合わせが考え得ることは言うまでもない。  The means of each subsystem and the arrangement of retained data shown in the drawings for explaining the embodiments of the present invention are merely examples, and are not limited to realizing the functions of the present invention. Therefore, it goes without saying that various combinations of arrangements of processing means are conceivable as long as the functions of the present invention can be realized.
[0184] 以下に地理情報関連付き画像データ表示システム 100について詳細に説明する 力 前段として、一次撮影情報インポートファイル fl、二次撮影情報インポ一トフアイ ノレ f 2、切り出し画像データ f4等について説明を補充する。 [0184] The following explains in detail the image data display system 100 with relation to geographic information. As the first stage, supplementary explanations are given for the primary shooting information import file fl, secondary shooting information import fino, cropped image data f4, etc. To do.
[0185] 図 1、図 2、図 3、図 7の一次撮影情報インポートファイル flには、時刻付きの画像収 集データ dl及び収集画像属性情報 d2が含まれて!/、る。この収集画像属性情報 d2 は、 GPSから得られる位置情報 (座標)、車速センサから得られる車速情報、ジャイロ 力、ら得られる加速度情報や方位情報、 GPSの時刻等からなる。 [0185] The primary shooting information import file fl in Figs. 1, 2, 3, and 7 includes image collection data dl with time and collection image attribute information d2. The collected image attribute information d2 includes position information (coordinates) obtained from GPS, vehicle speed information obtained from a vehicle speed sensor, gyro force, obtained acceleration information and direction information, GPS time, and the like.
[0186] 撮影位置表示手段 102は、切り出しデータ f4の収集画像属性情報 d2を読み込み[0186] The shooting position display means 102 reads the collected image attribute information d2 of the cutout data f4.
、この時系列情報(画像取得座標)を、図 28に示すように記号 (例えば丸印:以下撮 影位置)で表示することが可能である。 This time-series information (image acquisition coordinates) can be displayed as a symbol (for example, a circle: the shooting position hereinafter) as shown in FIG.
[0187] 図 31を用いて説明する。図 31 (a)は、車が速くなつたり遅くなつたりしながら一定時 間間隔で撮影されたときの撮影位置を示している。 [0188] 図 31 (b)は、このときの一次撮影情報インポートファイル f lに記憶されている一定 間隔で撮影された収集画像データ dl (撮影時刻付き)を距離軸 (座標)に配列したこ とを示している。 [0187] This will be described with reference to FIG. Figure 31 (a) shows the shooting position when the car was shot at regular intervals while moving faster or slower. [0188] Fig. 31 (b) shows that the collected image data dl (with shooting time) captured at regular intervals stored in the primary shooting information import file fl at this time is arranged on the distance axis (coordinates). Is shown.
[0189] この酉己歹 IJは、図 1の地図データ表示手段 31が例えば収集画像データ dlの時刻を 有する収集画像属性情報 d2の画像取得座標を読み込み、この画像取得座標を距 離軸 (X— Y座標系で定義されたメモリ)に割付ける。  [0189] The map data display means 31 in Fig. 1 reads the image acquisition coordinates of the collected image attribute information d2 having the time of the collected image data dl, for example, and the image acquisition coordinates are stored in the distance axis (X — Allocate to memory defined in the Y coordinate system.
[0190] このとき、画像間引き手段 34が関与している。  [0190] At this time, the image thinning means 34 is involved.
[0191] 画像間引き手段 34は、図 31 (c)に示すように、人間の視覚上問題のない程度の間 引き間隔 d (距離)を撮影開始点から順次、距離軸に設定し、この間引き間隔 d毎に、 図 31 (b)の距離軸に対して垂線を引いたときに、収集画像データ dlの画像取得座 標(撮影位置)が存在するかどうかを判断し、存在する場合はその画像取得座標(撮 影位置)を図 31 (d)に示すように距離軸に代表撮影地点(単純に撮影位置ともいう) として割付けると共に、この割付けられた画像取得座標 (撮影位置)に関連する収集 画像データ dl及び収集画像属性情報 d2のみを抽出して二次撮影情報インポ一トフ アイル f 2に記憶する。  [0191] As shown in FIG. 31 (c), the image thinning means 34 sequentially sets the thinning interval d (distance) to the extent that there is no human visual problem on the distance axis from the shooting start point. When a perpendicular is drawn to the distance axis in Fig. 31 (b) at every interval d, it is determined whether the image acquisition coordinates (imaging position) of the collected image data dl exist. As shown in Fig. 31 (d), the image acquisition coordinates (shooting position) are assigned to the distance axis as representative shooting points (simply referred to as shooting positions) and related to the assigned image acquisition coordinates (shooting positions). Only the collected image data dl and the collected image attribute information d2 to be extracted are extracted and stored in the secondary imaging information import file f2.
[0192] この抽出は例えば時刻をキーとして抽出する。すなわち、図 31 (b)の太線 (代表撮 影地点)の個所を撮影した時刻の収集画像データ dl及び収集画像属性情報 d2の みが抽出される。  In this extraction, for example, time is extracted as a key. That is, only the collected image data dl and the collected image attribute information d2 at the time when the location of the bold line (representative shooting point) in FIG.
[0193] 一方、リンク始終点通過時刻登録手段 33は距離軸に代表撮影地点が定義されると 、これらの代表撮影地点の位置情報を有する収集画像属性データ d2の時刻を有す る実撮影結果情報 d3を撮影情報エクスポートファイル f3から抽出して二次撮影情報 インポートファイル f2に記憶する。  [0193] On the other hand, when the representative shooting points are defined on the distance axis, the link start / end point passage time registration means 33 performs the actual shooting result having the time of the collected image attribute data d2 including the position information of these representative shooting points. Information d3 is extracted from the shooting information export file f3 and stored in the secondary shooting information import file f2.
[0194] さらに、実撮影管理情報登録手段 35は、代表撮影地点が定義されると、これらの 代表撮影地点の画像取得座標 (撮影位置)を有する収集画像属性データ d2の時刻 を有する実撮影管理情報 d4 (撮影地区情報、作業実施者情報等)を撮影情報ヱタス ポートファイル f3から抽出して二次撮影情報インポートファイル f2に記憶する。  [0194] Further, when the representative photographing points are defined, the actual photographing management information registering means 35 performs the actual photographing management having the time of the collected image attribute data d2 having the image acquisition coordinates (photographing positions) of these representative photographing points. Information d4 (shooting area information, operator information, etc.) is extracted from the shooting information tab file f3 and stored in the secondary shooting information import file f2.
[0195] つまり、二次撮影情報インポートファイル f2には、各代表撮影地点の収集画像デー タ dl、収集画像属性情報 d2、実撮影結果情報 d3、実撮影管理情報 d4等が記憶さ れる。 That is, the secondary shooting information import file f2 stores the collected image data dl, the collected image attribute information d2, the actual shooting result information d3, the actual shooting management information d4, etc. of each representative shooting point. It is.
[0196] そして、画像データ管理サブシステム 40の撮影情報取り込み手段 42の実撮影管 理情報記録部 421は、二次撮影情報インポートファイル f2の実撮影管理情報 d3に 実撮影キー IDを付与して計画 ·実撮影情報データベース 53に記録する。  [0196] Then, the actual shooting management information recording unit 421 of the shooting information capturing means 42 of the image data management subsystem 40 assigns an actual shooting key ID to the actual shooting management information d3 of the secondary shooting information import file f2. Plan · Record in the actual shooting information database 53.
[0197] さらに、画像データ記録部 422は、二次撮影情報インポートファイル f 2の収集画像 データ dlと収集画像属性情報 d2を、それぞれ収集画像データベース 55と収集画像 属性情報データベース 56に記録する。また、実撮影管理情報 d4は計画 ·実撮影情 報データベース 53に記憶される。  Furthermore, the image data recording unit 422 records the collected image data dl and the collected image attribute information d2 of the secondary imaging information import file f 2 in the collected image database 55 and the collected image attribute information database 56, respectively. The actual shooting management information d4 is stored in the plan / actual shooting information database 53.
[0198] また、データ抽出手段 44は、図 11に示すように、抽出条件入力部 441、グラフ構造 情報抽出部 442、リンク関連情報抽出部 443、収集画像データ抽出部 444、及び収 集画像属性情報抽出部 554からなり、  Further, as shown in FIG. 11, the data extraction means 44 includes an extraction condition input unit 441, a graph structure information extraction unit 442, a link related information extraction unit 443, a collected image data extraction unit 444, and a collected image attribute. It consists of an information extraction unit 554,
抽出条件入力部 441は、データベースから抽出するための条件を入力する。条件 としては、位置的条件とリンク属性的条件と撮影属性条件がある。位置的条件は空間 的な切り出し条件とも称し、画面上のマウス操作やファイル読み込みから得られるに よる矩形領域やポリゴン領域等があり、この領域内の各種情報(画像ファイル、属性 情報等)を切り出し画像データと称して!/、る。  The extraction condition input unit 441 inputs conditions for extraction from the database. Conditions include positional conditions, link attribute conditions, and shooting attribute conditions. Positional conditions, also called spatial clipping conditions, include rectangular areas and polygonal areas that can be obtained from mouse operations on the screen and reading files. Various information (image files, attribute information, etc.) in these areas can be clipped. Call it image data!
[0199] また、リンク属性的条件とは、道路幅や種別などグラフ構造情報に含まれる属性情 報の指定がある。また、撮影属性条件は撮影日や撮影時間帯などの指定がある。  [0199] The link attribute condition includes designation of attribute information included in the graph structure information such as road width and type. The shooting attribute condition includes designation of a shooting date and a shooting time zone.
[0200] グラフ構造情報抽出部 442は、グラフ構造データベース 51から、抽出条件入力部  [0200] The graph structure information extraction unit 442 receives the extraction condition input unit from the graph structure database 51.
441で入力された位置的条件及びリンク属性的条件に適合するリンクを抽出する。  A link that matches the positional condition and the link attribute condition input in 441 is extracted.
[0201] さらに、抽出されたリンク IDとその両端のノード IDを調べ、各ノードに接続するリンク IDをリストアップし、切り出し画像データのリンクのグラフ構造情報として格納する。  [0201] Further, the extracted link IDs and node IDs at both ends thereof are checked, the link IDs connected to each node are listed, and stored as the graph structure information of the link of the cut-out image data.
[0202] リンク関連情報抽出部 443は、上記で抽出されたリンクの IDに対応するリンクにつ いて、リンク関連情報データベース 54から抽出する。さらに、その中から抽出条件入 力部 441で入力された撮影属性条件に適合するリンクの情報を抽出する。  [0202] The link related information extraction unit 443 extracts the link corresponding to the link ID extracted above from the link related information database 54. Further, link information that matches the photographing attribute condition input by the extraction condition input unit 441 is extracted from the information.
[0203] 収集画像データ抽出部 444は、収集画像データベース 55から、抽出条件入力部 4 41で入力された条件に適合する情報を抽出する。  [0203] The collected image data extraction unit 444 extracts information that meets the conditions input by the extraction condition input unit 441, from the collected image database 55.
[0204] 収集画像データ抽出部 444は、収集画像データベースから上記で抽出された各リ ンク関連情報に記憶されている撮影年月日に、カメラ情報キー IDで撮影された画像 を検索する。さらにその中から、視点通過時刻と終点通過時刻の間に撮影された画 像を抽出し、画像ファイルとして切り出し画像データ内の画像ファイルとして格納する [0204] The collected image data extraction unit 444 executes each of the resources extracted from the collected image database. Search for images taken with the camera information key ID on the shooting date stored in the link related information. Furthermore, an image taken between the viewpoint passage time and the end point passage time is extracted from the image, cut out as an image file, and stored as an image file in the image data.
[0205] また、画像取得リンク ID、撮影開始側のノード ID、撮影集両側のノード ID、撮影順 番を切り出し画像データ内の画像ファイル属性情報として格納する。 [0205] Further, the image acquisition link ID, the node ID on the shooting start side, the node IDs on both sides of the shooting collection, and the shooting order are cut out and stored as image file attribute information in the image data.
[0206] 収集画像属性情報抽出部 445は、収集画像属性情報データベース 56から、抽出 条件入力部 441で入力された条件に適合する情報を抽出する。  The collected image attribute information extraction unit 445 extracts information that meets the conditions input by the extraction condition input unit 441 from the collected image attribute information database 56.
[0207] つまり、上記で抽出された画像ファイルに対応する画像取得座標、画像取得方位 などの情報を抽出し、切り出し画像データ内の画像ファイル属性情報として格納する  That is, information such as image acquisition coordinates and image acquisition orientation corresponding to the image file extracted above is extracted and stored as image file attribute information in the cut-out image data.
[0208] すなわち、データ抽出手段 44は切り出し条件 (領域:エリア)の図 31 (d)に示す代 表撮影地点に対応する全ての切り出し画像データ f4 (グラフ構造情報、リンク関連情 報、画像ファイル、画像ファイル属性情報 · ·)を記憶装置 106に記憶する(図 31 (f) 参照)。 [0208] That is, the data extraction means 44 uses all the cut-out image data f4 (graph structure information, link-related information, image file) corresponding to the representative shooting point shown in Fig. 31 (d) of the cut-out condition (area: area). , Image file attribute information... Is stored in the storage device 106 (see FIG. 31 (f)).
[0209] この切り出し画像データ f4を用いて以下に説明するようにして、地図、画像ファイル を地理情報関連付き画像データ表示システム 100が表示する。  [0209] As described below, the cut-out image data f4 is used to display a map and an image file by the image data display system 100 with geographic information association.
[0210] 図 27は地理情報関連付き画像データ表示システム 100をより具体的にした構成図 である。  [0210] FIG. 27 is a more specific configuration diagram of the image data display system 100 with relation to geographic information.
[0211] 図 27に示すように、地理情報関連付き画像データ表示システム 100は、記憶装置  [0211] As shown in FIG. 27, the image data display system 100 with a geographic information association is a storage device.
106、地理表示手段 101、撮影位置表示手段 102、撮影画像表示手段 103の他に 、進行方向印表示手段 107、地図上撮影方向表示手段 110、注記データ ·登録表 示手段 109等を備えている。  106, geographical display means 101, photographing position display means 102, photographed image display means 103, traveling direction mark display means 107, on-map photographing direction display means 110, note data / registration display means 109, etc. .
[0212] 前述の記憶装置 106には地図データ 108及び切り出し画像データ f4の他に注記 データ関連情報 f 6等が記憶されている。  [0212] In addition to the map data 108 and the cut-out image data f4, the storage device 106 stores note data related information f6 and the like.
[0213] この注記データ関連情報 f6は注記データ'登録表示手段 109によって予め登録し ておくことが好ましい。  [0213] This note data related information f6 is preferably registered in advance by the note data 'registration display means 109.
[0214] 前述の地図データ 108は、階層構造にされているのが好ましい。例えば背景地図 の界、ネットワーク情報の界、注記データの界、地図記号データの界等の階層構造と されている。そして、注記データは、地物の名称であり、この名称が注記データの界 の座標に関連付けられている。 [0214] The aforementioned map data 108 preferably has a hierarchical structure. Eg background map This is a hierarchical structure such as the world of network, network information, note data, and map symbol data. The annotation data is the name of the feature, and this name is associated with the coordinates of the annotation data field.
[0215] さらに、記憶装置 106には切り出し条件の領域内の複数の切り出し画像データ f4 が記憶されている。これらの切り出し画像データ f4には IDコードが付与されているの が好ましい。また、より具体的には、図 29に示すデータの構成となっている。  [0215] Furthermore, the storage device 106 stores a plurality of pieces of cut-out image data f4 in the cut-out condition area. These cut-out image data f4 are preferably given an ID code. More specifically, the data structure is as shown in FIG.
[0216] さらに、物理画像データベースは、より具体的には図 30に示すデータ構成となって いる。  Furthermore, the physical image database has a data structure shown in FIG. 30 more specifically.
[0217] 地理表示手段 101は、切り出し条件の領域 (表示範囲)が入力されると、この領域 内の背景地図、ネットワーク情報、注記データ、地図記号を重ね表示する。このとき、 ネットワークデータの道路の近傍の注記データのみを抽出して表示させてもよい。  [0217] When the region (display range) of the extraction condition is input, the geographic display means 101 displays the background map, network information, note data, and map symbol in this region in an overlapping manner. At this time, only the note data in the vicinity of the road of the network data may be extracted and displayed.
[0218] 注記データ'登録表示手段 109は、図 24に示すように、注記データをコンピュータ 画面の画像に表示する機能を有してレ、る。  [0218] As shown in Fig. 24, the note data 'registration display means 109 has a function of displaying note data on an image on a computer screen.
[0219] この注記データの表示を実現させるために注記データ'登録表示手段 109は、地 図データの注記データの座標(例えば注記データの中央の文字の座標)から一定距 離内に存在する画像取得座標を検索し、これらの画像取得座標のうちで、注記デー タに最も近い画像取得座標を検索する。そして、この画像取得座標を有する切り出し 画像データの IDを、その注記データ及び注記データの座標等と共に注記データ関 連情報 f6として記憶装置 106に予め登録する。  [0219] In order to realize the display of the note data, the note data 'registration display means 109 is an image that exists within a certain distance from the coordinates of the note data of the map data (for example, the coordinates of the character at the center of the note data). The acquisition coordinates are searched, and among these image acquisition coordinates, the image acquisition coordinates closest to the note data are searched. Then, the ID of the cut-out image data having the image acquisition coordinates is registered in advance in the storage device 106 as the annotation data related information f6 together with the annotation data and the coordinates of the annotation data.
[0220] 例えば、図 33 (a)に示すように、ネットワークデータ fOが道路の場合に、画像取得 座標が Ga、 Gb- · ·と存在し、注記データが Ca、 Cb ' · ·と存在する場合は、注記デー タ Ca、 Gb ' · ·の座標に最も近い距離にある画像取得座標を有する切り出し画像デー タを順次検索する。そして、検索した切り出し画像データの画像取得座標から注記デ ータの座標に対する方位を、それぞれ求める。この方位はカメラ中心から何度(この 角度を Θ kとする)になるかで示す。  [0220] For example, as shown in Fig. 33 (a), when the network data fO is a road, the image acquisition coordinates exist as Ga, Gb- ···, and note data exist as Ca, Cb '··· In this case, the cut-out image data having the image acquisition coordinates at the distance closest to the coordinates of the annotation data Ca, Gb ′. Then, the direction with respect to the coordinates of the annotation data is obtained from the image acquisition coordinates of the retrieved cut-out image data. This azimuth is indicated by how many times (this angle is Θ k) from the camera center.
[0221] そして、注記データ、 Gb ' · ·毎に、最も近い画像取得座標を有する切り出し画像デ ータの IDを対応させると共に、方位 Θ k及び画像取得座標等を対応させる(図 33 (b) [0221] Then, for each piece of note data, Gb '..., the ID of the cut-out image data having the closest image acquisition coordinate is associated, and the orientation Θ k and the image acquisition coordinate are associated (Fig. 33 (b )
) o [0222] この IDにリンク付けされている画像ファイルの画像は、 360度のパノラマ画像であり 、カメラ中心に対応する画像の中心位置はカメラ中心(0度)である。このカメラ中心か ら Θ kの方位で、 目線の高さとなる位置に注記データの画像上の座標を求める。つま り、注記データを表示させるための界 (X—Y座標系:パノラマ画像の座標系に対応 する)を定義したメモリを備え、このメモリ上の注記データの座標(画像上の注記デー タ表示位置という)を定義する。 ) o [0222] The image of the image file linked to this ID is a 360-degree panoramic image, and the center position of the image corresponding to the camera center is the camera center (0 degrees). The coordinates of the annotation data on the image are calculated at the position of the eye level in the direction of Θ k from the camera center. In other words, it has a memory that defines a field for displaying note data (X-Y coordinate system: corresponding to the coordinate system of the panoramic image), and the coordinates of the note data on this memory (note data display on the image) Definition).
[0223] すなわち、注記データ関連情報 f 6は、近接の切り出し画像データの IDと注記デー タ表示位置と方向( Θ k)と注記データの文字等からなる。  [0223] That is, the note data related information f6 includes the ID of the adjacent clipped image data, the note data display position and direction (Θ k), the characters of the note data, and the like.
[0224] 地理情報手段 101は、入力された切り出し条件の領域に対応する地図データを記 憶装置 106から読み出して、コンピュータ画面に表示する。この地図データは、背景 地図、注記データ、地図記号データ等からなる。  [0224] The geographic information means 101 reads out map data corresponding to the input segmentation condition area from the storage device 106 and displays it on the computer screen. This map data consists of background maps, note data, map symbol data, and the like.
[0225] 撮影位置表示手段 102は、記憶装置 106に保存されている全ての切り出し画像デ ータ f4の画像取得座標を抽出し、この座標に対応する画面の地図上の位置(例えば 道路上の撮影地点)に画像取得座標 (撮影位置)を示す記号 (撮影位置記号とレ、う) を表示させる(図 23、図 24を参照)。  [0225] The shooting position display means 102 extracts the image acquisition coordinates of all the cut-out image data f4 stored in the storage device 106, and positions on the map on the screen corresponding to these coordinates (for example, on the road) A symbol (photographing position symbol and label) indicating the image acquisition coordinates (photographing position) is displayed at the photographing point (see Figs. 23 and 24).
[0226] すなわち、切り出し条件の領域に存在する全ての撮影位置記号が表示されることに なるからオペレータは、地図上のどこに画像があるかを一目で判断できる。 [0226] That is, since all the shooting position symbols existing in the area of the extraction condition are displayed, the operator can determine at a glance where the image is on the map.
[0227] そして、これらの撮影位置記号のいずれかをオペレータがマウス等で指定すると、 撮影位置表示手段 102は、その指定された撮影位置記号を別の記号で表示する( 例えば十字、二重丸、異なる色)。 [0227] Then, when the operator designates any of these photographing position symbols with a mouse or the like, the photographing position display means 102 displays the designated photographing position symbol with another symbol (for example, a cross or a double circle). , Different colors).
[0228] 地図上進行方向印表示手段 107は、画面の地図上の撮影位置記号が指定される と、この撮影位置記号に対応する座標を有する画像の撮影順番が、同一リンク内の 開始番号もしくは終了番号になっているかどうかを判定する。 [0228] When the shooting position symbol on the map on the screen is designated, the map traveling direction mark display means 107 indicates that the shooting order of images having coordinates corresponding to the shooting position symbol is the start number in the same link or It is determined whether it is the end number.
[0229] 開始番号もしくは終了番号になっている場合は、交差点と判定する。交差点と判定 した場合は、そのリンクの交差点 IDに関連付けられている接続リンク IDを読み込む。 [0229] If it is the start number or end number, it is determined as an intersection. If it is judged as an intersection, the connection link ID associated with the intersection ID of the link is read.
[0230] そして、交差点の座標から検索した接続リンク ID上にある交差点近傍の画像の座 標を読み込み、交差点に接続する全てのリンクの方位 Hi (3差路または 4差路、 · ·)を 求め、これらの方位に従って、リンクに矢印を表示する(図 28参照)。 [0231] 一方、撮影画像表示手段 103は、コンピュータ画面の撮影位置記号が選択される と、この撮影位置記号の画像取得座標を有する切り出し画像データの画像ファイル を抽出し、この画像ファイルからオペレータが入力した表示範囲の画像を画面に表 示する。 [0230] Then, the coordinates of the image near the intersection on the connection link ID retrieved from the intersection coordinates are read, and the azimuth Hi (3 or 4 differences, ···) of all links connected to the intersection The arrow is displayed on the link according to these directions (see Fig. 28). On the other hand, when a shooting position symbol on the computer screen is selected, the shot image display means 103 extracts an image file of cut-out image data having image acquisition coordinates of the shooting position symbol, and the operator extracts the image file from this image file. The image of the input display range is displayed on the screen.
[0232] 前述の切り出し画像データの画像ファイルは、 360度のパノラマ画像である。このた め、オペレータは、例えば撮影方向を中心として左右 50度程度の表示範囲を指定 する。  [0232] The image file of the cut-out image data described above is a 360-degree panoramic image. For this reason, the operator designates a display range of about 50 degrees to the left and right, for example, centering on the shooting direction.
[0233] この表示範囲の画像ファイルの画像をコンピュータ画面に表示(図 28参照)すると 共に、表示範囲及び撮影方向を地図上撮影方向表示手段 110に知らせる。  [0233] The image of the image file in this display range is displayed on the computer screen (see Fig. 28), and the display range and shooting direction are notified to the map shooting direction display means 110.
[0234] 地図上画像表示方向表示手段 110は、撮影方向と表示範囲が知らせられると、コ ンピュータ画面の地図上の画像取得座標(撮影位置)から撮影方向を中心として表 示範囲(撮影方向から現在の表示範囲、上記の場合は左右 50度)の角度方向にポリ ゴンを生成し、このポリゴンをコンピュータ画面の地図に重ね表示させる(図 28の地 図表示範囲の扇形参照)。 [0234] When the shooting direction and the display range are notified, the on-map image display direction display means 110 displays the display range (from the shooting direction) based on the shooting direction from the image acquisition coordinates (shooting position) on the map on the computer screen. A polygon is generated in the angle direction of the current display range (in the above case, 50 degrees left and right), and this polygon is overlaid on the map on the computer screen (refer to the fan of the map display range in Fig. 28).
[0235] また、画像上進行方向印表示手段 107は、交差点からの撮影方向の撮影範囲に 含まれる接続リンク (道路)の方位を求める。 [0235] Further, the on-image traveling direction mark display means 107 obtains the direction of the connection link (road) included in the shooting range in the shooting direction from the intersection.
[0236] この接続リンクの方位は、角度で定義される。例えば、図 32 (a)に示すように、撮影 方位をカメラ中心(0度)にした場合は、カメラ中心から道路 kaの中心線の方位は Θ p であり、道路 kbの中心線の方位は Θ iで定義できる。 [0236] The direction of the connection link is defined by an angle. For example, as shown in Fig. 32 (a), when the shooting direction is the camera center (0 degree), the direction of the center line of the road ka from the camera center is Θ p, and the direction of the center line of the road kb is It can be defined by Θ i.
[0237] この Θ pの方位と Θ iの方位を表示範囲の中心(0度)から定め、道路上の位置当た りとなる画面上の位置に三角形のポリゴン (透けている)を三次元的に表示する(図 3[0237] The orientation of Θ p and the orientation of Θ i are determined from the center of the display range (0 degrees), and a triangular polygon (through-through) is placed three-dimensionally at the position on the screen corresponding to the position on the road. (Figure 3
2 (c) )。 2 (c)).
[0238] このポリゴンを選択すると、その選択方向の道路の撮影位置の画像ファイルを撮影 画像表示手段 103が順次抽出して表示範囲に従って表示する。  [0238] When this polygon is selected, the captured image display means 103 sequentially extracts the image file of the shooting position of the road in the selected direction and displays it according to the display range.
[0239] 一方、注記データ登録'表示手段 109は、指定の注記(〇〇マンション、〇〇病院 、〇〇巿役所 · ·)を読み、表示中の画像の IDと、注記データ関連情報 f 6に登録され ている画像データの IDがー致するとき、その近い注記データを地図データから抽出 する。 [0240] 次に、抽出した注記データをコンピュータ画面の画像に表示する。 [0239] On the other hand, the note data registration and display means 109 reads the specified note (00 apartment, 00 hospital, 00 office), and the ID of the image being displayed and the information related to the note data f 6 When the ID of the image data registered in is matched, the close note data is extracted from the map data. Next, the extracted note data is displayed on an image on a computer screen.
[0241] この注記データの表示は、コンピュータ画面の道路上の撮影位置記号が撮影位置 に移動してきたとき、この画像取得座標 (撮影位置)を有する注記データ関連情報 f 6 を引き当てる。そして、引き当てた注記データ関連情報 f6の注記データ表示位置及 び方向に従ってコンピュータ画面上に注記データの文字列を表示する(図 24参照) [0241] This annotation data is displayed by assigning the annotation data related information f 6 having the image acquisition coordinates (imaging position) when the imaging position symbol on the road on the computer screen has moved to the imaging position. Then, the character string of the note data is displayed on the computer screen according to the note data display position and direction of the assigned note data related information f6 (see Figure 24).
[0242] したがって、コンピュータ画面を見ているだけで、 目的のものを直ぐに見つけること ができる。 [0242] Therefore, just looking at the computer screen, you can quickly find what you want.
[0243] なお、上記実施の形態では、切り出し画像データ fiが生成されると、この切り出し画 像データ fiを表示するとしたが、画像には顔、ナンバープレート等のプライバシイに関 わる画像も存在している。このようなプライバシイに関わる画像に対して、ガウスフィノレ タ等でぼかす処理を施して切り出し画像データ fiとし記憶装置 106に記憶させてもよ い。これによつて、表示部には、プライバシイに関わる画像はぼやけて表示されること になる。  [0243] In the above embodiment, when the cut-out image data fi is generated, the cut-out image data fi is displayed. However, images related to privacy such as a face and a license plate also exist. is doing. Such privacy-related images may be subjected to a process of blurring with a Gaussian finorator or the like, and stored in the storage device 106 as cut-out image data fi. As a result, privacy-related images are displayed in a blurred manner on the display unit.
[0244] <実施の形態 2〉  <Embodiment 2>
本発明の実施の形態 2では、撮影計画情報 dOに含まれる撮影計画エリアの道路ネ ットワーク及び背景図を画面に表示して、これらのリンクを撮影させ、得られた収集画 像データ dl (全周囲画像:画像ファイルとも!/、う)及び収集画像属性データ d2を撮影 時期によって管理して、これらの全周囲画像の所定の矩形領域の画像 (カメラパラメ ータ指定表示画像ともいう)を画面に表示して、交差点の場合は、進行路を選択させ るための進行路選択ポリゴンを表示する。そして、選択された進行路選択ポリゴンに 対応する進行路(リンク)内の多数のカメラパラメータ指定表示画像を再生する。この とき、リンクを含む地図を画面に表示して、カメラパラメータ指定表示画像の位置を記 号で表示する場合の構成と動作を補充する。  In the second embodiment of the present invention, the road network and the background map of the shooting plan area included in the shooting plan information dO are displayed on the screen, and these links are shot, and the acquired collected image data dl (all Ambient images: Both image files! /, And collected image attribute data d2 are managed according to the shooting time, and images of a predetermined rectangular area of these all-around images (also referred to as camera parameter designation display images) are displayed on the screen. In the case of an intersection, a path selection polygon for selecting a path is displayed. Then, a number of camera parameter designation display images in the course (link) corresponding to the selected course selection polygon are reproduced. At this time, a map including a link is displayed on the screen, and the configuration and operation for displaying the position of the camera parameter designation display image with a symbol are supplemented.
[0245] 図 34は実施の形態 2の地理情報関連付き画像データ管理システムの概略構成図 である。図 34においては、図 1と同様な符号を付しているものについては説明を省略 する。  FIG. 34 is a schematic configuration diagram of the image data management system with geographic information association according to the second embodiment. In FIG. 34, description of components having the same reference numerals as those in FIG. 1 is omitted.
[0246] (画像撮影システム) 実施の形態 2の地理情報関連付き画像データ管理システムの画像撮影サブシステ ム 20は、画像センサ 22と、ハイブリット型の位置センサ 23と、画像データ収集手段 2 4と、実撮影管理情報入力手段 72とを備えている。 [0246] (Image capture system) The image capturing subsystem 20 of the image data management system with geographical information association according to the second embodiment includes an image sensor 22, a hybrid type position sensor 23, an image data collecting unit 24, and an actual image capturing management information input unit 72. It has.
[0247] 実撮影管理情報入力手段 72は、撮影開始前に実撮影管理情報の入力用画面を 表示し、この入力用画面に作業者名と実撮影カメラ情報キー IDと実撮影実施日(時 刻を含む)とを入力させ、これをメモリ(図示せず)に記憶する。  [0247] The actual shooting management information input means 72 displays a screen for inputting actual shooting management information before the start of shooting, and the operator name, actual shooting camera information key ID, and actual shooting date (time) are displayed on this input screen. Is input and stored in a memory (not shown).
[0248] そして、撮影後は、実撮影管理情報入力手段 72は前述の入力画面を開いて撮影 結果 (撮影済み、撮影不可等)を入力させる。  [0248] Then, after shooting, the actual shooting management information input means 72 opens the above-described input screen and inputs a shooting result (shooted, shot not possible, etc.).
[0249] また、実撮影管理情報入力手段 72は、入力画面に入力された実作業者名と実撮 影実施日と撮影結果等を実撮影入力情報 d3aとして一時メモリ 26に記憶する。このと き、実撮影実施日と実撮影カメラ情報キー IDとを組み合わせた実撮影キー IDを生成 して実撮影入力情報 d3aに含ませるようにする。無論、手入力で実撮影計画キー ID を入力してもよい。  [0249] Further, the actual photographing management information input means 72 stores the actual worker name, actual photographing date, photographing result, and the like input on the input screen in the temporary memory 26 as actual photographing input information d3a. At this time, an actual shooting key ID combining the actual shooting date and the actual shooting camera information key ID is generated and included in the actual shooting input information d3a. Of course, the actual shooting plan key ID may be entered manually.
[0250] すなわち、一時メモリ 26には、リンク内を撮影したとき毎に、その収集画像データ dl と収集画像属性データ d2と実撮影入力情報 d3aとが一組で記憶されて、一次撮影 情報インポートファイル flに出力される。  [0250] That is, every time the inside of the link is shot, the collected image data dl, the collected image attribute data d2, and the actual shooting input information d3a are stored as a set in the temporary memory 26, and the primary shooting information is imported. Output to file fl.
[0251] (画像データ編集サブシステム)  [0251] (Image data editing subsystem)
画像データ編集サブシステム 30は、図 1と同様な構成を備えて、二次撮影情報イン ポートファイル f2にリンク毎の、多数の収集画像データ dlと多数の収集画像属性デ ータ d2と実撮影結果情報 d3bと実撮影管理情報 d4とを記憶する。この実撮影結果 情報 d3bは、図 1と同様な実撮影結果情報 d3である力 図 1と区別のために d3bとす  The image data editing subsystem 30 has the same configuration as that shown in FIG. 1, and includes a large number of collected image data dl, a large number of collected image attribute data d2, and actual shooting for each link in the secondary shooting information import file f2. Result information d3b and actual photographing management information d4 are stored. This actual shooting result information d3b is the same as the actual shooting result information d3 shown in Fig. 1.
[0252] (画像管理サブシステム) [0252] (Image management subsystem)
また、画像データ管理サブシステム 40は、図 1と同様な撮影計画手段 41と、撮影情 報取り込み手段 42 (図 34を参照)と管理手段 43とを有し、さらに本実施の形態では データ抽出手段 73を備えている。  In addition, the image data management subsystem 40 includes a photographing plan means 41, a photographing information capturing means 42 (see FIG. 34), and a management means 43, which are the same as those in FIG. Means 73 are provided.
[0253] 前述のデータ抽出手段 73は、抽出エリア (リンク IDまたは区域)、撮影時期(年月 日、時刻、正、逆方向)が入力させ、入力された抽出条件のリンク IDを有するリンク関 連情報をリンク情報関連情報データベース 54から引き当て、このリンク ID、撮影日時 、収集画像データ dl、収集画像属性データ d2をインポートファイル f4に出力させる。 [0253] The above-described data extraction means 73 inputs the extraction area (link ID or area) and the shooting time (year, month, day, time, normal, reverse direction) and has a link function having the link ID of the input extraction condition. Link information is allocated from the link information related information database 54, and this link ID, shooting date / time, collected image data dl, and collected image attribute data d2 are output to the import file f4.
[0254] そして、データ抽出手段 73は、リンク IDを読み込み、この番号の同じリンク IDがリン ク関連情報データベース 54に存在する場合は、これらのリンク IDのレコードに撮影 計画キー ID及び実撮影キー IDが書き込まれて!/、る場合で、かつ実撮影情報(実撮 影結果情報)が対応させられている場合は、これらの同じリンク IDを有する全てのリン ク関連情報の収集画像データ dl及び収集画像属性情データ d2並びにリンク関連情 報、地図データ等を切り出しデータとして抽出してインポートファイル f4に出力(記憶 )する。図 34は撮影時期が異なる情報を含む切り出しデータであることを強調するた めに、複数に分けている。  [0254] Then, the data extraction means 73 reads the link ID, and if a link ID with the same number exists in the link related information database 54, the shooting plan key ID and the actual shooting key are recorded in the records of these link IDs. If the ID is written and the actual shooting information (actual shooting result information) is associated, the collected image data of all the link related information having the same link ID dl The collected image attribute information data d2, link-related information, map data, etc. are extracted as cut-out data and output (stored) in the import file f4. Figure 34 is divided into multiple sections to emphasize that it is cut-out data that includes information with different shooting times.
[0255] すなわち、この切り出し画像データは、図 37及び図 38に示すように、同一リンクに おいて異なる時期に撮影された画面を抽出していることになる。  That is, as shown in FIGS. 37 and 38, this cut-out image data is extracted from the screen shot at different times on the same link.
[0256] 図 37は、同一リンク上を異なる年月日で撮影して抽出した画像を示しており、 37— A1は朝に撮影したときの画像(全周囲画像の一部)を示し、 37— A1の下の 37— A2 は撮影位置付きの地図を示している。 37— B1は夜に撮影したときの画像 (全周囲画 像の一部)を示し、 37— B1の下の 37— B2は撮影位置付きの地図を示している。  [0256] Figure 37 shows images extracted by shooting on the same link at different dates. 37—A1 shows an image taken in the morning (part of the entire surrounding image). — 37— A2 below A1 shows a map with shooting locations. 37—B1 shows an image taken at night (a part of the all-around image), and 37—B2 below 37—B1 shows a map with the shooting position.
[0257] また、図 38は同一リンク上を異なる移動方向で撮影して抽出した画像を示しており  [0257] Fig. 38 shows images extracted by shooting on the same link in different movement directions.
38 -A1は北向き車線走行(前方)で撮影したときの画像 (全周囲画像の一部)を示 し、 38—A1の下の 38— A2は撮影位置付きの地図を示している。 38— B1は南向き 車線走行(後ろ方向)で撮影したときの画像 (全周囲画像の一部)を示し、 38— B1の 下の 38— B2は撮影位置付きの地図を示している。 38-A1 shows an image (part of the all-around image) taken in the north lane (front), and 38-A2 below 38-A1 shows a map with the shooting position. 38—B1 shows an image (part of the all-around image) taken when driving in the south lane (backward direction), and 38—B2 below 38—B1 shows a map with the shooting position.
[0258] ここで、図 34の構成の動作の概略を説明する。 Here, an outline of the operation of the configuration of FIG. 34 will be described.
[0259] 画像データ管理サブシステム 40の撮影計画手段 41は、撮影対象のリンクが含まれ る道路ネットワークを画面に表示(背景図付き)してリンクを選択させる。このとき、撮 影計画用の入力画面(図示せず)を表示する。選択されたリンクのリンク IDはこの撮 影計画用の入力画面に自動で書き込む。また、カメラ情報データベース 52のカメラ 情報を画面に表示し、選択されたカメラ情報のカメラキー ID (撮影予定のカメラ)を撮 影計画用の入力画面に書き込む。 [0259] The shooting plan means 41 of the image data management subsystem 40 displays a road network including a link to be shot on the screen (with a background map), and selects a link. At this time, an input screen (not shown) for shooting plan is displayed. The link ID of the selected link is automatically written in the input screen for this shooting plan. Also, the camera information of the camera information database 52 is displayed on the screen, and the camera key ID (camera to be shot) of the selected camera information is taken. Write to the shadow plan input screen.
[0260] また、撮影計画手段 41は、撮影計画用の入力画面に、撮影予定日(時間を含む)[0260] Further, the shooting plan means 41 displays a shooting date (including time) on the shooting plan input screen.
、作業予定者等が入力すると、この撮影予定日と撮影予定のカメラキー IDとの組み 合わせた撮影計画キー IDを生成する。 When the scheduled work person inputs, a shooting plan key ID is generated by combining the scheduled shooting date and the camera key ID scheduled to be shot.
[0261] 撮影計画手段 41は、これらの撮影計画情報 dO (撮影計画キー ID、リンク ID、作業 予定者、撮影予定のカメラ情報キー ID、撮影予定日等)を、計画 ·実撮影情報データ ベース 53に保存する。このときハードディスクのボリューム名、作業進渉コード (撮影 未)と入力させて撮影計画情報 dOに含ませるのが好ましい。 [0261] The shooting plan means 41 uses the shooting plan information dO (shooting plan key ID, link ID, planned work person, scheduled camera information key ID, scheduled shooting date, etc.) Save to 53. At this time, it is preferable that the hard disk volume name and work progress code (not photographed) are input and included in the photographing plan information dO.
[0262] さらに、撮影計画手段 41は、計画'実撮影情報データベース dOを読み込み、リンク 関連情報データベース 54のレコードにリンク IDと撮影計画キー IDと撮影予定日と撮 影予定のカメラ情報キー IDとを書き込む。このときハードディスクのボリューム名、作 業進渉コードを書き込む。 [0262] Furthermore, the shooting plan means 41 reads the plan 'actual shooting information database dO, and records the link ID, shooting plan key ID, scheduled shooting date, scheduled shooting camera information key ID and the link related information database 54 record. Write. At this time, write the hard disk volume name and work progress code.
[0263] 前述のリンク関連情報データベース 54のレコードは図 15に示すように、リンク IDと 撮影計画キー IDと実撮影キー IDと作業進渉コードと撮影結果と撮影日と始点通過 時刻と終点通過時刻と保管場所とが書き込まれる領域を有したレコードとなっている [0263] As shown in Fig. 15, the record in the link related information database 54 described above is linked ID, shooting plan key ID, actual shooting key ID, work progress code, shooting result, shooting date, start point passing time, and end point passing. The record has an area where the time and storage location are written.
Yes
[0264] また、同一のリンクにおいて、朝と夜とを撮影させたい場合は、同一のリンクを選択 して撮影計画用の入力画面に、撮影予定日(時間を含む)、作業予定者等が入力さ せる。このとき、撮影予定日と撮影予定のカメラキー IDとの組み合わせた撮影計画キ 一 IDを生成する。そして、同一のリンク IDを有するこの作業計画情報 dOを計画'実 撮影情報データベース 53に記憶する。  [0264] In addition, if you want to capture the morning and evening on the same link, select the same link and enter the planned shooting date (including time), scheduled work person, etc. on the input screen for the shooting plan. Let me input it. At this time, an imaging plan key ID is generated by combining the scheduled imaging date and the scheduled camera key ID. Then, the work plan information dO having the same link ID is stored in the plan 'actual photographing information database 53.
[0265] この同一のリンク IDを有する作業計画情報 dOを撮影計画手段 41が読み込んで、リ ンク関連情報データベース 54に記憶する。すなわち、図 15に示す同一リンクを有す るリンク関連情報が予め生成されることになる。  The imaging plan means 41 reads the work plan information dO having the same link ID and stores it in the link related information database 54. That is, link related information having the same link shown in FIG. 15 is generated in advance.
[0266] 撮影計画手段 41は、このようなリンク関連情報をリンク関連情報データベース 54に 記 fe、する。  [0266] The imaging plan means 41 records such link related information in the link related information database 54 as fe.
[0267] 撮影計画手段 41は、これらのリンク関連情報のレコードを順次読み込み、該読み 込み毎にそのレコードのリンク IDと撮影計画キー IDと撮影予備日と作業予定者等の 撮影計画情報 dOを撮影情報エクスポートファイル f3に出力する。 [0267] The shooting plan means 41 sequentially reads these link-related information records, and for each read, the link ID, shooting plan key ID, shooting preliminary date, scheduled work person, etc. of the record are recorded. Shooting plan information dO is output to shooting information export file f3.
[0268] このとき、撮影計画情報 dOには、道路ネットワークと背景図とを含めて出力するのが 好ましい。 [0268] At this time, it is preferable to output the shooting plan information dO including the road network and the background map.
[0269] 一方、画像撮影サブシステム 20の位置データ収集手段 25は、撮影情報エタスポ ートファイル f3の撮影計画情報 dOの道路ネットワーク及び背景図を表示して、撮影 すべきリンクを確認させる。  On the other hand, the position data collection means 25 of the image capturing subsystem 20 displays the road network and background map of the shooting plan information dO in the shooting information etsport file f3 to confirm the link to be shot.
[0270] そして、実際に移動手段(車両 21)によってリンクの道路を走行しながら、画像を撮 影すると、画像撮影サブシステム 20の画像データ収集手段 24によって、撮影時刻を 付与した収集画像データ dlを収集すると共に、位置データ収集手段 25によって収 集画像属性データ d2を収集する。 [0270] Then, when the image is taken while actually traveling on the road of the link by the moving means (vehicle 21), the collected image data to which the photographing time is given by the image data collecting means 24 of the image photographing subsystem 20 dl And the collected image attribute data d2 are collected by the position data collecting means 25.
[0271] これらのリンク内の複数の収集画像データ dl及び収集画像属性データ d3は一次 撮影インポートファイル flに出力される。 [0271] A plurality of collected image data dl and collected image attribute data d3 in these links are output to the primary imaging import file fl.
[0272] そして、撮影後は、実撮影管理情報入力手段 72は前述の入力画面を開いて撮影 結果 (撮影済み、撮影不可等)、実作業者名、実撮影日時、実撮影カメラ情報キー I[0272] Then, after shooting, the actual shooting management information input means 72 opens the above-mentioned input screen, and the shooting result (shooting completed, shooting disabled, etc.), actual worker name, actual shooting date and time, actual shooting camera information key I
D等を入力させる。このとき実撮影キー IDが生成される。 Input D etc. At this time, an actual photographing key ID is generated.
[0273] つまり、実撮影管理情報入力手段 72は、撮影計画キー ID、実撮影キー ID、撮影 結果 (撮影済み)、作業進渉コード (撮影済み)、実作業者名、実撮影日、保管場所 等(実撮影入力情報 d3a)を一次撮影情報インポートファイル flに出力する。 In other words, the actual shooting management information input means 72 has the shooting plan key ID, the actual shooting key ID, the shooting result (taken), the work progress code (taken), the actual worker name, the actual shooting date, and storage. The location etc. (actual shooting input information d3a) is output to the primary shooting information import file fl.
[0274] 一方、画像データ編集サブシステム 30は、一次撮影情報インポートファイル flに記 憶されて!/、る実撮影入力情報 d3aを読み、この実撮影入力情報 d3aの実撮影キー I[0274] On the other hand, the image data editing subsystem 30 reads the actual shooting input information d3a stored in the primary shooting information import file fl! /, And the actual shooting key I of this actual shooting input information d3a.
D、撮影結果 (撮影済み)、作業進渉コード (撮影済み)、実作業者名、実撮影日、保 管場所等をリンク並びに、撮影計画情報 dOのリンク IDを実撮影管理情報 d4として二 次撮影情報インポートファイル f2に保存する。 D, shooting result (photographed), work progress code (photographed), actual worker name, actual shooting date, storage location, etc. are linked and the link ID of shooting plan information dO is set as actual shooting management information d4 Save to the next shooting information import file f2.
[0275] また、画像データ編集サブシステム 30の地図データ表示手段 31によって、地図デ ータを表示し、画像データ表示手段 32によって、地図データ上で指定したリンクにつ[0275] Further, the map data display means 31 of the image data editing subsystem 30 displays map data, and the image data display means 32 displays the link specified on the map data.
V、て収集された画像 (収集画像)を表示する。 V, Display the collected image (collected image).
[0276] このとき、オペレータは、例えば撮影時刻から指定する方法では、選択されたリンク の始点は終点の時刻に対応する収集画像データ dlを画面に表示する。 [0277] オペレータは画像に撮影されている道路や交差点の様子を見て、交差点などで位 置がずれていると判断された場合は、時系列的に画面を操作することによって時系 列的に前もしくは後の画像を表示させる。そして、オペレータが判断した交差点の位 置の画像の撮影時刻をリンクの始点もしくは終点の通過時刻として修正登録させる。 [0276] At this time, in the method of designating from the photographing time, for example, the operator displays the collected image data dl corresponding to the time of the end point of the selected link on the screen. [0277] The operator looks at the roads and intersections photographed in the image, and if it is determined that the position is shifted at the intersection, etc., the operator operates the screen in chronological order. Display the previous or next image. Then, the photographing time of the image at the intersection determined by the operator is corrected and registered as the passage time of the start point or end point of the link.
[0278] この修正登録というのは、画像センサ 22 (カメラ)は一定時刻毎に撮影し、車両は所 定(時速 5km、•• Okm' ' 60km' ' 80km)で移動する。このため、各リンクには、複 数の収集画像、属性情報が存在する。また、交差点では車両が停止したり、速度が ゆっくりであるから、この交差点においても多数の収集画像、属性情報が存在する。 つまり、ノードの付近には多数の収集画像、属性情報が存在する。このため、 1リンク の始点(ノード)及び終点(ノード)における収集画像、属性情報を決定する必要があ  [0278] This correction registration is because the image sensor 22 (camera) takes a picture at a certain time, and the vehicle moves at a predetermined speed (5km / h, •• Okm '' 60km '' 80km). For this reason, each link has multiple collection images and attribute information. In addition, since the vehicle stops at the intersection and the speed is slow, there are a large number of collected images and attribute information at this intersection. That is, there are a large number of collected images and attribute information in the vicinity of the node. Therefore, it is necessary to determine the collected images and attribute information at the start point (node) and end point (node) of one link.
[0279] そこで、オペレータが画面に表示されている道路や交差点の収集画像を見て、位 置がずれていると判断された場合は、時系列的に画面を操作することによって時系 列的に前もしくは後の画像を表示させ、オペレータが判断した交差点の位置の画像 の撮影時刻をリンクの始点もしくは終点の通過時刻とする。 [0279] Therefore, when the operator looks at the collected images of roads and intersections displayed on the screen and determines that the position is misaligned, the operator operates the screen in time-series manner. The image before or after is displayed, and the shooting time of the image at the intersection determined by the operator is the passage time of the start point or end point of the link.
[0280] これによつて、交差点等において多数の収集画像があっても、指定された通過時 刻のものが交差点の収集画像であり、この始点と終点との間のものが、そのリンク内 の収集画像、属性情報であることになるので、始点と終端の通過時刻を指定するとい うことは、複数の収集画像データ dl、属性情報データ d3から最適なものをリンクに割 付けたことになる。画像のグルーピングともいう。 (図 35参照)  [0280] Thus, even if there are a large number of collected images at an intersection, etc., the one at the specified passing time is the collected image at the intersection, and the one between this start point and the end point is within the link. Specifying the passage time of the start point and the end point means that the most appropriate one of the collected image data dl and attribute information data d3 is assigned to the link. Become. Also called image grouping. (See Fig. 35)
すなわち、図 35に示すように、リンク始終点通過時刻登録手段 33が選択されたリン ク内の収集画像の撮影時刻 (a)及び別の収集画像の撮影時刻 (b)が指定されると、 選択されたリンクの始点 (Ea)に撮影時刻 (a)を割りあてると共に、終点 (Eb)に撮影 時刻(b)を割りあてる。そして、このリンク IDを有する実撮影入力情報 d3aに、これら の始点及び終点の通過時刻を付加して、二次撮影情報インポートファイル f2に実撮 影結果情報 d3bとして記憶する。  That is, as shown in FIG. 35, when the shooting time (a) of the collected image and the shooting time (b) of another collected image in the link for which the link start / end point passage time registration means 33 is selected are designated, The shooting time (a) is assigned to the start point (Ea) of the selected link, and the shooting time (b) is assigned to the end point (Eb). Then, the passage time of the start point and the end point is added to the actual shooting input information d3a having this link ID, and stored as the actual shooting result information d3b in the secondary shooting information import file f2.
[0281] また、画像編集データシステム 30の画像間引き手段 34は、データ容量を少なくす ることを目的として、一次撮影情報インポートファイル flの収集画像データ dlを移動 距離などに応じて間引く。間引きの方法の一例として、図 6に示すように、次のような 方法がある。一つのフレーム(収集画像データ:画像フレームともいう)を起点に、起 点フレームから i番目のフレームの距離を、各フレーム毎に式 1で計算する。 [0281] Further, the image thinning means 34 of the image editing data system 30 moves the collected image data dl of the primary shooting information import file fl for the purpose of reducing the data capacity. Thin out according to the distance. As an example of the thinning method, there are the following methods as shown in FIG. Using one frame (collected image data: also called image frame) as the starting point, the distance from the starting frame to the i-th frame is calculated by Equation 1 for each frame.
[0282] すなわち、画像間引き手段 34は、選択されたリンクのリンク ID毎に、該リンク IDに関 連付けられて!/、る時系列情報の速度情報及び時刻情報から撮影時刻毎 (一定時間 毎)に、指定の起点(例えば始点)からのそれぞれの距離 Li (Ll、 L2 - - ':終点までの 間のそれぞれの距離)を求める。そして、予め設定されている一定距離の整数倍の 距離 d毎に、この整数倍の距離 diに最も近!/、距離を前記それぞれの距離 Liから求め 、これらの求めた距離 Lni (Lnl、 Lnj2、 · · ·)に対応する位置情報を有するそれぞれ の属性情報(d2)及び該属性情報の収集画像(dl)のみを抽出データとして、複数の 収集画像及び収集画像毎の属性情報から抽出している。つまり、二次インポートファ ィル f2には、リンク毎に、このリンク内で間引かれた後の多数の収集画像 dl及び属 性情報 d2が記憶される。  That is, for each link ID of the selected link, the image thinning means 34 is associated with the link ID! /, The speed information and the time information of the time-series information for each shooting time (fixed time). For each), find each distance Li (Ll, L2--': each distance to the end point) from the specified start point (eg start point). For each distance d that is an integral multiple of a predetermined fixed distance, the distance di is the closest to this integral multiple distance di! /, And the distance is obtained from the respective distance Li, and these obtained distances Lni (Lnl, Lnj2 ,...), Each attribute information (d2) having position information corresponding to the attribute information (d2) and a collected image (dl) of the attribute information are extracted as extracted data from a plurality of collected images and attribute information for each collected image. Yes. That is, in the secondary import file f2, a large number of collected images dl and attribute information d2 after being thinned within the link are stored for each link.
[0283] したがって、二次撮影インポートファイル f2にはリンク毎に、リンクの始点、終点の通 過時刻をリンク ID、撮影計画キー ID、実撮影キー ID、実撮影日を含む実撮影結果 情報 d3bと実撮影管理情報 d4とリンク内の間引きされた多数の収集画像データ dlと これらの収集画像属性データ d2等が一組で格納されていることになる。  [0283] Therefore, the secondary shooting import file f2 contains the actual shooting result information d3b including the link ID, shooting plan key ID, actual shooting key ID, and actual shooting date for each link. The actual image management information d4, a large number of collected image data dl thinned out in the link, and these collected image attribute data d2 are stored as a set.
[0284] 一方、画像データ管理サブシステム 40の撮影情報取り込み手段 42は、二次撮影 インポートファイル f2のリンク毎の実撮影管理情報 d4を記憶装置 50の計画 '実撮影 情報データベース 53に保存すると共に、リンク毎の実撮影結果情報 d3bを読み込む On the other hand, the shooting information capturing means 42 of the image data management subsystem 40 stores the actual shooting management information d4 for each link of the secondary shooting import file f2 in the plan 'actual shooting information database 53 of the storage device 50 and Read actual shooting result information d3b for each link
Yes
[0285] 次に、リンク関連情報データベース 54のこの実撮影結果情報 d3bのリンク ID、撮影 計画キー IDを有するレコードに、実撮影結果情報 d3bの実撮影キー IDと実撮影日と 実撮影したカメラ情報キー IDと始点の通過時刻と終点の通過時刻、作業進渉コード (編集済み)を書き込む。すなわち、レコードの撮影計画時の内容が更新される(撮影 予定日、カメラ情報キー ID、作業進渉コード、撮影結果:他の何も書き込まれていな V、個所は新たに書き込まれる)。  [0285] Next, in the record having the link ID and shooting plan key ID of this actual shooting result information d3b in the link related information database 54, the actual shooting key ID of the actual shooting result information d3b, the actual shooting date, and the camera actually shooting Write the information key ID, the start time and end time, and the work progress code (already edited). In other words, the contents at the time of shooting planning of the record are updated (scheduled shooting date, camera information key ID, work progress code, shooting result: V where nothing else has been written, location is newly written).
[0286] また、二次撮影インポートファイル f2のリンクの多数の収集画像データ dlを収集画 像データベース 55に記憶すると共に、多数の収集画像属性データ d2を収集画像属 性情報データベース 56に記憶する。 [0286] In addition, the collected image data dl of the link of the secondary shooting import file f2 is collected. In addition to storing in the image database 55, a large number of collected image attribute data d 2 is stored in the collected image attribute information database 56.
[0287] そして、撮影情報取り込み手段 42は、二次撮影インポートファイル f2を再度読み込 み、リンク毎(同一のリンクでもよい)の収集画像データ dl、収集画像属性データ d2、 実撮影結果情報 d3b、実撮影管理情報 d4が存在する場合は、これらを新たに読み 込む。そして、前述のように、リンク関連情報データベース 54のこの実撮影結果情報 d3bのリンク ID、撮影計画キー IDを有するレコードに、実撮影結果情報 d3bの実撮 影キー IDと実撮影日と実撮影したカメラ情報キー IDと始点の通過時刻と終点の通過 時刻、作業進渉コード(編集済み)を書き込む。すなわち、レコードの撮影計画時の 内容が更新される (撮影予定日、カメラ情報キー ID、作業進渉コード、撮影結果:他 の何も書き込まれてレ、なレ、個所は新たに書き込まれる) [0287] Then, the shooting information capturing means 42 re-reads the secondary shooting import file f2, and collects image data dl, collected image attribute data d2, and actual shooting result information d3b for each link (may be the same link). If actual shooting management information d4 exists, it is newly read. As described above, the actual shooting result information d3b actual shooting key ID, actual shooting date ID and actual shooting are recorded in the record having the link ID and shooting plan key ID of this shooting result information d3b in the link related information database 54. Write the camera information key ID, start time, end time, and work progress code (edited). In other words, the contents at the time of shooting planning of the record are updated (Scheduled shooting date, camera information key ID, work progress code, shooting result: everything else is written, nare, location is newly written)
また、二次撮影インポートファイル f2のリンクの収集画像データ dlを収集画像デー タベース 55に記憶すると共に、収集画像属性データ d2を収集画像属性情報データ ベース 56に記憶する。  Further, the collected image data dl of the link of the secondary shooting import file f2 is stored in the collected image database 55, and the collected image attribute data d2 is stored in the collected image attribute information database 56.
[0288] したがって、同じリンクの実撮影管理情報 d4、実撮影結果情報 d3b、収集画像デー タ dl、収集画像属性データ d2が二次撮影インポートファイル f 2に存在している場合 は、リンク関連情報データベース 54には、図 15に示すように、同じリンク IDを有するリ ンク関連情報が記憶されることになる。  [0288] Therefore, if the actual shooting management information d4, actual shooting result information d3b, collected image data dl, and collected image attribute data d2 of the same link exist in the secondary shooting import file f2, the link related information As shown in FIG. 15, link related information having the same link ID is stored in the database 54.
[0289] そして、このデータ抽出手段 73は、抽出エリア(リンク IDまたは区域)、撮影時期( 年月日、時刻、正、逆方向)が入力させ、入力された抽出条件のリンク ID、撮影時期 等を有するリンク関連情報をリンク情報関連情報データベース 54から引き当てる。次 に、このリンク IDに関連するリンク関連情報の始点通過時刻、終点通過時刻の間の 多数の収集画像データ dl及び収集画像属性データ d2を物理画像データベース 54 力も読み出してインポートファイル f4に出力させる。  [0289] Then, the data extraction means 73 inputs the extraction area (link ID or area) and shooting time (year / month / day, time, forward / reverse direction) and inputs the input extraction condition link ID and shooting time. The link related information having etc. is allocated from the link information related information database 54. Next, a large number of collected image data dl and collected image attribute data d2 between the start point passage time and the end point passage time of the link related information related to this link ID are also read out and output to the import file f4.
[0290] このとき、抽出条件に該当するリンク IDを有するリンク関連情報をリンク関連情報デ ータベース 52から読み出して出力する。  At this time, link related information having a link ID corresponding to the extraction condition is read from the link related information database 52 and output.
[0291] また、データ抽出手段 73は、リンク IDを読み込み、この番号の同じリンク IDがリンク 関連情報データベース 54に存在する場合は、これらのリンク IDのレコードに撮影計 画キー ID及び実撮影キー IDが書き込まれて!/、る場合で、かつ実撮影情報(実撮影 結果情報)が対応させられている場合は、これらの同じリンク IDを有する全てのリンク 関連情報の多数の収集画像データ dl及び収集画像属性情データ d2を抽出してィ ンポートファイル f4に出力(記憶)する。 [0291] Also, the data extraction means 73 reads the link IDs, and if a link ID having the same number exists in the link related information database 54, the data extraction means 73 records the photometer in the records of these link IDs. If the image key ID and actual shooting key ID are written! /, And the actual shooting information (actual shooting result information) is associated, all the links having the same link ID A large number of collected image data dl and collected image attribute information data d2 are extracted and output (stored) in an import file f4.
[0292] また、データ抽出手段 73は、同じ番号のリンク IDを有するリンク関連情報もリンク関 連情報データベース 52から読み出して出力する。  [0292] Further, the data extracting means 73 reads out the link related information having the link ID of the same number from the link related information database 52 and outputs it.
[0293] 図 37の 40— C1がリンク関連情報の一例を示している。この 40— C1のリンク関連 情報は、図 15をより具体的にしたものである。  [0293] 40-C1 in Fig. 37 shows an example of link-related information. This 40-C1 link-related information is a more specific example of Figure 15.
[0294] また、図 38の 41— D1がリンク関連情報の一例を示している。この 41— C1のリンク 関連情報は、図 15をより具体的にしたものである。  [0294] Also, reference numeral 41-D1 in FIG. 38 shows an example of link-related information. This 41-C1 link related information is a more specific example of Figure 15.
[0295] なお、データ抽出手段 73は、リンクの種別またはエリアに応じたネットワーク情報並 びに注記データ、地図記号データ等を記憶装置 106に出力する。  Note that the data extraction means 73 outputs network information corresponding to the link type or area, as well as note data, map symbol data, and the like to the storage device 106.
[0296] ここで、図 28または図 32に示す交差点において、進行する道路を選択する三角形 のポリゴン (進行方向選択ポリゴン Piともいう)を読み込んで、そのリンクの収集画像デ ータを表示するための構成を図 36を用いて説明する。  [0296] Here, at the intersection shown in Fig. 28 or Fig. 32, in order to read a triangular polygon (also referred to as a traveling direction selection polygon Pi) for selecting a traveling road and display the collected image data of that link. This configuration will be described with reference to FIG.
[0297] 地理情報関連付き画像データ表示システム 100は、図 36に示すように、撮影画像 表示手段 103の他に進行方向矢印リンク判定手段 107を備えている。  As shown in FIG. 36, the image data display system 100 with relation to geographic information includes a traveling direction arrow link determination unit 107 in addition to the photographed image display unit 103.
[0298] 前述の撮影画像表示手段 103は、カメラパラメータ指定画像表示部 103aと全周囲 画像取出し部 103bを備えている。また、進行方向矢印リンク判定手段 107は、選択 矢印読込部 107aと接続点判定部 107bと進行方向矢印作成部 107dを備えて、切り 出し画像データ(抽出データともい)の収集画像データ dlがリンク内の順番の最初も しくは最後になった場合は、カメラパラメータ指定表示画像の連続表示を打ち切り、 経路選択を行わせる。経路選択では、まず画像ファイルの付属情報(属性情報ともい う)から最後に表示した側のノード IDを調べる。  [0298] The captured image display means 103 includes a camera parameter designation image display unit 103a and an all-around image extraction unit 103b. Further, the traveling direction arrow link determination means 107 includes a selection arrow reading unit 107a, a connection point determination unit 107b, and a traveling direction arrow creation unit 107d, and the collected image data dl of the extracted image data (also referred to as extracted data) is included in the link. When the first or last of the order is reached, the continuous display of the camera parameter designation display image is discontinued, and the route is selected. In route selection, the node ID of the last displayed side is first checked from the attached information (also called attribute information) of the image file.
[0299] 次に切り出し画像データに含まれるグラフ構造を調べ、そのノードに接続するリンク を検索する。さらに、切り出し画像データに含まれる画像取得リンク IDを調べることに より、そのリンクを撮影した画像データ(収集画像データ)が存在する場合は、画像に 表示されている各経路上に矢印やクリックボタン等(進路方向選択ポリゴン Pi)を描画 し、次にどの経路の画像を表示するかを指定させる。 [0299] Next, the graph structure included in the cut-out image data is examined, and a link connected to the node is searched. Furthermore, by examining the image acquisition link ID included in the cut-out image data, if there is image data (collected image data) that captured the link, an arrow or click button is displayed on each path displayed on the image. Etc. (Drawing direction selection polygon Pi) Next, the user designates which route image to display.
[0300] そして、選択された進路方向選択ポリゴン Pkの座標を有するリンクを検索し、この検 索されたリンクに関連する収集画像データ dlのカメラパラメータ指定表示画像を昇順 または逆順に表示する。  [0300] Then, a link having the coordinates of the selected course direction selection polygon Pk is retrieved, and camera parameter designation display images of the collected image data dl related to the retrieved link are displayed in ascending or reverse order.
[0301] 撮影画像表示手段 103のカメラパラメータ指定画像表示部 103aは、全周囲画像 取出し部 103bからの画像ファイル (収集画像データ dl :全周囲画像)を CG (コンビュ 一タグラフィック)の製作に用いられるテクスチャーマッピングという手段を用いて矩形 領域に変換して表示する(カメラパラメータ指定表示画像)。  [0301] The camera parameter designation image display unit 103a of the captured image display means 103 uses the image file (collected image data dl: all-around image) from the all-around image extraction unit 103b for the production of CG (composite graphic). It is converted into a rectangular area using a method called texture mapping and displayed (camera parameter designation display image).
[0302] また、進行方向矢印リンク判定 107の進行方向矢印作成部 107cからの進行方向 選択ポリゴン Pi (Pl、 · · ·Ρ4)を収集画像データ d2に重ねて表示する。  [0302] Further, the traveling direction selection polygon Pi (Pl, ··· Ρ4) from the traveling direction arrow creation unit 107c of the traveling direction arrow link determination 107 is displayed so as to overlap the collected image data d2.
[0303] 全周囲画像取出し部 103bは、例えば撮影時期(年月日、時刻、進行方向)が入力 すると、撮影時期に該当するリンク関連情報を記憶装置 10bから読み込み、このリン ク関連情報の始点通過時刻及び終点通過時刻の時刻情報 (撮影日時)を有する多 数の収集画像データ dlを引き当て、これを昇順または逆順に読み出してカメラパラメ ータ指定画像表示部 103aに出力する。  [0303] For example, when the shooting time (year, month, day, time, direction of travel) is input, the all-around image retrieval unit 103b reads the link related information corresponding to the shooting time from the storage device 10b, and starts the link related information. A lot of collected image data dl having time information (shooting date and time) of passage time and end point passage time is allocated, read out in ascending or reverse order, and output to the camera parameter designated image display unit 103a.
[0304] また、全周囲画像取出し部 103bは、道路地図において道路(リンク)上に位置が指 定されると、この位置を有する属性情報 d2を引き当て、この属性情報に関連する収 集画像データ dlをカメラパラメータ指定画像表示部 103aに出力する。  [0304] Further, when a position is specified on the road (link) in the road map, the all-around image extraction unit 103b assigns attribute information d2 having this position, and collects image data related to this attribute information. dl is output to the camera parameter designation image display unit 103a.
[0305] すなわち、全周囲画像取出し部 103bは、選択されたリンクにおいて、同じリンク番 号を有するリンク関連情報が存在している場合には、撮影時期を抽出条件として、こ の抽出条件の撮影時期を有するリンク関連情報を読み込む同一リンク時期別検索手 段を備えている。そして、全周囲画像取出し部 103bは、このリンク関連情報に実撮 影キー IDが含まれている場合に、このリンク関連情報の始点の通過時刻と終点の通 過時刻内の時刻情報を有する多数の収集画像データ dlを記憶装置 10bから昇順ま たは逆順に取り出してカメラパラメータ指定画像表示部 103aに出力する。  [0305] That is, if the link-related information having the same link number exists in the selected link, the omnidirectional image extraction unit 103b uses the shooting time as the extraction condition and takes a picture of this extraction condition. There is a search method by the same link time to read link related information with time. Then, when the link-related information includes an actual shooting key ID, the all-around image extraction unit 103b has multiple pieces of time information within the passage time of the start point and the end point of the link-related information. The collected image data dl are extracted from the storage device 10b in ascending or reverse order and output to the camera parameter designated image display unit 103a.
[0306] 進行方向矢印リンク判定手段 107の接続点判定部 107は、道路地図において指 定された位置が接続点(例えば交差点)かどうかを記憶装置 10bのネットワーク情報 力 判断する。 [0307] また、進行方向矢印リンク判定手段 107の接続点判定部 107は、全周囲画像取出 し部 103bが始点または終点の収集画像を取り出したとき、接続点にきたと判断する。 [0306] The connection point determination unit 107 of the travel direction arrow link determination unit 107 determines whether the position specified on the road map is a connection point (for example, an intersection) or not in the storage device 10b. [0307] Further, the connection point determination unit 107 of the traveling direction arrow link determination unit 107 determines that the connection point is reached when the all-around image extraction unit 103b extracts the start point or the end point collection image.
[0308] そして、接続点と判断したときは、停止指示を全周囲画像取出し部 103bに出力し て収集画像データ dl (画像ファイル)の読み出しを停止させる。つまり、収集画像デ ータ dl (画像ファイル)の連続表示を停止させることになる。  [0308] When the connection point is determined, a stop instruction is output to the all-around image extraction unit 103b to stop reading the collected image data dl (image file). That is, the continuous display of the collected image data dl (image file) is stopped.
[0309] 進行方向矢印作成部 107cは、接続点と判定されたときは、ネットワーク情報からそ の接続点を読み、この接続点におけるリンクのノード情報から接続されている各リンク の方向を読み込み、これらのリンク方向に対応する方向情報と予め設定されている表 示位置と進行方向選択ポリゴン Piとをカメラパラメータ指定画像表示部 103aに出力 する。  [0309] When the traveling direction arrow creation unit 107c is determined to be a connection point, it reads the connection point from the network information, reads the direction of each link connected from the node information of the link at this connection point, The direction information corresponding to these link directions, the preset display position, and the traveling direction selection polygon Pi are output to the camera parameter designation image display unit 103a.
[0310] これによつて、接続点において例えば交差点が 4差路であれば、 4本のリンクに進 行方向選択ポリゴン Pl、 P2、 P3、 P4がカメラパラメータ指定画像表示部 103aの全 周囲画像に重ねられて、この全周囲画像のカメラパラメータ指定表示画像(矩形領域 )が表示されることになる。このカメラパラメータ指定表示画像は、所定の視野の範囲 (矩形領域)であるので、進行方向の画像であるので 2つの進行方向選択ポリゴンが 表示される。  [0310] Thus, for example, if the intersection is a four-way intersection at the connection point, the travel direction selection polygons Pl, P2, P3, and P4 are the four-link images of the camera parameter designation image display unit 103a. The camera parameter designation display image (rectangular area) of this all-around image is displayed. Since this camera parameter designation display image is a predetermined field of view range (rectangular region), it is an image in the traveling direction, so two traveling direction selection polygons are displayed.
[0311] 選択矢印読込部 107aは、画面の進行方向選択ポリゴン Pl、 P2のいずれかが選択 されると、その選択位置を読み込み、選択リンク判定部 107dに知らせる。  [0311] The selection arrow reading unit 107a reads the selection position and notifies the selection link determination unit 107d when any of the screen direction selection polygons Pl and P2 is selected.
[0312] 選択リンク判定部 107は、選択位置をカメラパラメータ指定画像表示部 103aに存 在する全周囲画像(画像ファイル:収集画像データ dl)上から求め、この求めた位置 座標を有するリンクを記憶装置 10bのネットワーク情報 foから求める。そして、この求 めたリンクのリンク IDを全周囲画像取出し部 103bに出力する。  [0312] The selected link determination unit 107 obtains the selected position from the all-around image (image file: collected image data dl) existing in the camera parameter designation image display unit 103a, and stores the link having the obtained position coordinates. Obtained from the network information fo of device 10b. Then, the link ID of the obtained link is output to the all-around image extraction unit 103b.
[0313] したがって、全周囲画像取出し部 103bは、切り出し画像データに含まれるこのリン ク IDに関連するそのリンクを撮影した画像データ(収集画像データ:全周囲画像)を、 昇順または逆順に表示する。  [0313] Therefore, the omnidirectional image extraction unit 103b displays the image data (collected image data: omnidirectional image) obtained by capturing the link related to the link ID included in the cut-out image data in ascending or reverse order. .
[0314] この昇順とは、リンクの始点の時刻が早!/、時刻で、終点の時刻が遅!/、場合は始点 に若い番号を割りあて終点に古い番号を割りあて、昇り順に読み出す。逆に始点が 遅!/、時刻で終点が早!/、時刻であれば逆方向を進行してときの収集画像であるから始 点に若レ、番号を終点に古!/、番号を割りあて、若!/、順に読み出して!/、くことである。 In this ascending order, the start time of the link is early! /, And the time of the end point is late! /. In this case, a young number is assigned to the start point and an old number is assigned to the end point, and read in ascending order. Conversely, if the start point is late! /, And the end point is early! / The point is the young one, the number is the old one! /, The number is assigned, the young! / Is read out in order!
[0315] 図 37の 40— C1はリンク関連情報の具体例であり、 40— C1の最上段のレコードは[0315] 40—C1 in Figure 37 is a specific example of link-related information, and the top record of 40—C1 is
、昼にとったときのリンク関連情報である。また、 40— C1の次の段のレコードは、同じ リンクで夜にとったときのリンク関連情報をしめしている。 This is link related information at the time of lunch. Also, the next record of 40—C1 shows link related information when the same link is taken at night.
[0316] さらに、図 38の 41— D2の最上段のレコードは、朝にとったときのリンク関連情報で あり、次の段のレコードは午後にとったときのリンク関連情報である。このリンク関連情 報は、終点から始点に向かって撮影したことを示している。 [0316] Furthermore, the top record of 41—D2 in FIG. 38 is link related information when taken in the morning, and the next record is link related information when taken in the afternoon. This link related information indicates that the picture was taken from the end point to the start point.
[0317] なお、上記実施の形態では、道路として説明したが配管路、公園、山岳地帯、海路[0317] In the above embodiment, the road is described as a road, but a pipeline, a park, a mountainous area, a seaway
、航空路などであってもよい。 It may be an air route.
[0318] 本発明の実施の形態を説明するために各図において示した各サブシステムの手段 や保持するデータの配置は、あくまでも例示であって、本発明の機能を実現するため に限定したものでない。よって、本発明の機能が実現可能な範囲において、種々の 処理手段の配置の組み合わせが考え得ることは言うまでもない。 [0318] Means of each subsystem shown in each figure for explaining the embodiment of the present invention and the arrangement of data to be held are merely examples, and are limited to realizing the function of the present invention. Not. Therefore, it goes without saying that various combinations of arrangements of processing means are conceivable as long as the functions of the present invention can be realized.

Claims

請求の範囲 The scope of the claims
移動体に搭載した一定時間毎に撮影する全周囲撮影カメラ、及び GPSを有するハ イブリット型の位置センサを用い、路線ネットワークの複数のリンクを移動して得た時 刻情報付きの全周囲画像を再生して矩形領域の画像を画面に表示する一方、前記 複数のリンクのうちの 1つを選択させるための進行路選択ポリゴンを表示する地理情 報関連付き画像データ表示システムであって、  An all-around image with time information obtained by moving multiple links in a route network using an all-around camera mounted on a moving body at regular intervals and a hybrid position sensor with GPS. A geographic information-related image data display system that displays an image of a rectangular area on the screen while reproducing and displaying a path selection polygon for selecting one of the plurality of links.
前記路線ネットワークのリンク毎に、前記リンク内の前記全周囲画像及び前記全周 囲画像毎の前記位置センサからの位置情報と時刻情報を有する属性情報を記憶し た第 1の記憶手段と、  First storage means for storing, for each link of the route network, attribute information including position information and time information from the position sensor for the entire surrounding image and the entire surrounding image in the link;
前記リンクを撮影させたときの前記リンク IDを含む撮影計画情報と該撮影計画情報 に基づいて実撮影したときの第 1の実撮影日を含む第 1の実撮影情報とを第 1のリン ク関連情報として、並びに前記リンク IDと同一のリンク IDと前記撮影計画情報と該撮 影計画情報に基づいて実撮影したときの前記第 1の実撮影日とは異なる第 2の実撮 影日を有する第 2の実撮影情報とを第 2のリンク関連情報として記憶した第 2の記憶 手段と、  Shooting plan information including the link ID when the link is shot and first actual shooting information including a first actual shooting date when shooting is actually performed based on the shooting plan information. As related information, a link ID that is the same as the link ID, the shooting plan information, and a second actual shooting date that is different from the first actual shooting date when the actual shooting was performed based on the shooting plan information. Second storage means for storing the second actual photographing information as second link related information;
前記リンク IDと前記リンクのベクトル情報と前記リンクの両端のノード IDとを含むリン ク情報及び前記ノードにつなる前記リンク IDを含むノード情報を有する路線ネットヮ ーク並びに、背景図を記憶した第 3の記憶手段と、  A route network having link information including the link ID, vector information of the link, and node IDs at both ends of the link, and node information including the link ID connected to the node, and a background map storing a background diagram. 3 storage means;
前記路線ネットワーク及び背景図からなる地図を前記矩形領域の画像とは異なる 領域に表示してリンクを選択させる地理表示手段と、  Geographic display means for selecting a link by displaying a map comprising the route network and a background map in an area different from the image of the rectangular area;
選択された前記リンクのリンク IDを有する属性情報を読み込み、該属性情報に関 連する選択されたリンク内の複数の前記全周囲画像を昇順または逆順に前記第 1の 記憶手段から順次読み出す全周囲画像読込手段と、  Read the attribute information having the link ID of the selected link, and sequentially read the plurality of all-around images in the selected link related to the attribute information from the first storage means in ascending or reverse order. Image reading means;
前記第 1の記憶手段から前記全周囲画像が読み出されたとき、前記全周囲画像に 関連する属性情報を読み、読み込んだ前記属性情報の位置情報が前記路線ネット ワークのノードに位置するときは、前記全周囲画像の読み込みを停止させて、前記ノ ードにつながるリンクの方向を前記路線ネットワークから全て求める手段と、  When the omnidirectional image is read from the first storage means, the attribute information related to the omnidirectional image is read, and when the position information of the read attribute information is located at a node of the route network Means for stopping reading of the all-around image and obtaining all directions of links connected to the node from the route network;
読み出された前記全周囲画像と、前記求められたノードにつながる全てのリンクの 方向を示す前記進行路選択ポリゴンを、前記画面の前記矩形領域に重ねて連動表 示する手段と、 All the surrounding images that have been read out and all the links that lead to the obtained node Means for displaying the traveling path selection polygon indicating a direction in an interlocking manner by overlapping the rectangular area of the screen;
前記進行路選択ポリゴンの 1つが選択されたとき、選択された前記進行路選択ポリ ゴンの位置に該当するリンク IDを前記路線ネットワークから読み込み、読み込んだ前 記リンク IDに前記全周囲画像が関連付けられているかどうかを、前記読み込んだリン ク ID及び前記実撮影情報並びに撮影計画情報を有する前記第 1のリンク関連情報 または前記第 2のリンク関連情報が存在するかで判断し、存在する場合は前記停止 を解除して、読み込んだ前記リンク IDを選択された前記リンク IDとして前記全周囲画 像読込手段に出力する手段と  When one of the route selection polygons is selected, the link ID corresponding to the position of the selected route selection polygon is read from the route network, and the all-around image is associated with the read link ID. Whether the first link-related information or the second link-related information having the read link ID, the actual shooting information, and the shooting plan information exists. Means for releasing the stop and outputting the read link ID as the selected link ID to the all-around image reading means;
を有することを特徴とする地理情報関連付き画像データ表示システム。  An image data display system associated with geographic information, characterized by comprising:
[2] 前記第 1のリンク関連情報は、 [2] The first link related information is
前記両端の始点において、最適とされた全周囲画像の時刻情報を始点の通過時 刻として、かつ終点において最適とされた全周囲画像の時刻情報を終点の通過時刻 として有し、  At the start points of the both ends, the time information of the all-around image that has been optimized is used as the passage time of the start point, and the time information of the all-around image that has been optimized at the end point is the passage time of the end point,
前記全周囲画像読込手段は、  The all-around image reading means includes:
前記選択されたリンクの始点の通過時刻と終点の通過時刻との比較で前記昇順ま たは逆順に前記全周囲画像を順次読み出すことを特徴とする請求項 1記載の地理 情報関連付き画像データ表示システム。  2. The image data display associated with geographic information according to claim 1, wherein the all-around image is sequentially read out in the ascending order or the reverse order by comparing the passage time at the start point and the passage time at the end point of the selected link. system.
[3] 前記リンクで位置が指定される毎に、現在表示している全周囲画像の表示位置を 知らせるための識別記号を前記画面に表示する撮影位置表示手段をさらに有するこ とを特徴とする請求項 1または 2記載の地理情報関連付き画像データ表示システム。  [3] The image display device further includes a photographing position display means for displaying an identification symbol on the screen for notifying the display position of the currently displayed all-around image every time the position is designated by the link. The image data display system with geographic information relation according to claim 1 or 2.
[4] 前記全周囲画像、前記属性情報、前記第 1のリンク関連情報及び前記第 2のリンク 関連情報は、撮影時期によって前記複数の全周囲画像及び属性情報力 抽出され たデータであり、  [4] The all-around image, the attribute information, the first link-related information, and the second link-related information are data extracted from the plurality of all-around images and attribute information power according to the shooting time,
前記リンクが選択されたとき、前記撮影時期を入力させる手段と、  Means for inputting the shooting time when the link is selected;
前記選択されたリンクのリンク IDを有する前記第 1のリンク関連情報を引き当て、引 き当てた前記第 1のリンク関連情報のリンク IDを前記選択されたリンク IDとして前記 全周囲画像読込手段に出力する手段と をさらに有することを特徴とする請求項 1乃至 3記載の地理情報関連付き画像データ 表示システム。 The first link related information having the link ID of the selected link is allocated, and the link ID of the allocated first link related information is output to the all-around image reading means as the selected link ID. Means to do The image data display system with associated geographic information according to claim 1, further comprising:
[5] 前記矩形領域の画像が表示している範囲を、前記地図上に扇型ポリゴンによって 表示する手段をさらに有することを特徴とする請求項 1乃至 4記載の地理情報関連付 き画像データ表示システム。  5. The display of image data associated with geographic information according to claim 1, further comprising means for displaying the range displayed by the image of the rectangular area on the map by a fan-shaped polygon. system.
[6] 前記進行路選択ポリゴン及び前記扇型ポリゴンは、ぼ力、し処理が施されていること を特徴とする請求項 1または 5記載の地理情報関連付き画像データ表示システム。  6. The image data display system with associated geographic information according to claim 1 or 5, wherein the travel path selection polygon and the fan-shaped polygon are subjected to force processing.
[7] 前記読み込んだリンクに全周囲画像が関連付けられているかどうかの判定は、 リンク IDとこのリンクに対して撮影計画があることを示す撮影計画キー IDとこのリンク を撮影したことを示す実撮影キー IDとが前記選択されたリンク IDを有する前記第 1の リンク関連情報または前記第 2のリンク関連情報に存在しているとき、前記全周囲画 像が存在していると判定することを特徴とする請求項 1乃至 6に記載の地理情報関連 付き画像データ表示システム。  [7] The determination as to whether or not an all-around image is associated with the read link is based on the link ID, the shooting plan key ID indicating that there is a shooting plan for this link, and the fact that this link has been shot. When the shooting key ID is present in the first link related information or the second link related information having the selected link ID, it is determined that the all-around image is present. The image data display system with geographic information according to any one of claims 1 to 6.
[8] 前記地図は、地物及び注記データを含み、前記注記データは前記地物に座標で 関連付けられており、  [8] The map includes feature and note data, and the note data is associated with the feature by coordinates,
前記注記データ毎に、前記注記データの座標に最も近レ、前記位置情報を有する 前記属性情報を検索して、前記注記データと関連付けて記憶する手段と、  Means for retrieving the attribute information having the position information closest to the coordinates of the annotation data for each of the annotation data, and storing the attribute information in association with the annotation data;
前記属性情報が引き当てられたとき、前記属性情報の前記全周囲画像に前記属 性情報の前記注記データを重ね表示させる手段と  Means for superimposing and displaying the annotation data of the attribute information on the all-around image of the attribute information when the attribute information is assigned;
をさらに有することを特徴とする請求項 1乃至 7に記載の地理情報関連付き画像デー タ表示システム。  The image data display system with associated geographic information according to claim 1, further comprising:
[9] 前記注記データは、前記表示した全周囲画像に関連する前記属性情報の前記撮 影位置から前記注記データまでの方位を求め、前記方位でかつ予め設定されてレ、る 目線高さに前記重ね表示することを特徴とする請求項 8記載の地理情報関連付き画 像データ表示システム。  [9] The annotation data is obtained by obtaining an orientation from the shooting position to the annotation data of the attribute information related to the displayed all-around image, and is set in the orientation and in advance. 9. The image data display system with associated geographic information according to claim 8, wherein the image is displayed in an overlapping manner.
[10] 前記全周囲画像の表示には、前記属性情報に関連する前記全周囲画像をそのま ま表示する単純表示と、前記全周囲画像を、撮影中心から任意の方向で、かつ所定 の視野角で撮影した画像としてコンピュータグラフィック表示する前記矩形領域の画 像表示とを含むことを特徴とする請求項 1乃至 9に記載の地理情報関連付け画像デ ータ表示システム。 [10] The omnidirectional image is displayed by simply displaying the omnidirectional image related to the attribute information as it is, and by displaying the omnidirectional image in an arbitrary direction from the photographing center and in a predetermined field of view. An image of the rectangular area displayed as a computer graphic as an image taken at a corner 10. The geographic information-related image data display system according to claim 1, further comprising an image display.
移動体に搭載した一定時間毎に撮影する全周囲撮影カメラ、及び GPSを有するハ イブリット型の位置センサを用い、路線ネットワークの複数のリンクを移動して得た時 刻情報付きの全周囲画像を再生して矩形領域の画像を画面に表示する一方、前記 複数のリンクのうちの 1つを選択させるための進行路選択ポリゴンを表示する地理情 報関連付き画像データ表示プログラムであって、  An all-around image with time information obtained by moving multiple links in a route network using an all-around camera mounted on a moving body at regular intervals and a hybrid position sensor with GPS. An image data display program associated with geographic information that displays an image of a rectangular area on the screen while reproducing and displaying a traveling path selection polygon for selecting one of the links.
前記路線ネットワークのリンク毎に、前記リンク内の前記全周囲画像及び前記全周 囲画像毎の前記位置センサからの位置情報と時刻情報を有する属性情報を記憶し た第 1の記憶手段と、  First storage means for storing, for each link of the route network, attribute information including position information and time information from the position sensor for the entire surrounding image and the entire surrounding image in the link;
前記リンクを撮影させたときの前記リンク IDを含む撮影計画情報と該撮影計画情報 に基づいて実撮影したときの第 1の実撮影日を含む第 1の実撮影情報とを第 1のリン ク関連情報として、並びに前記リンク IDと同一のリンク IDと前記撮影計画情報と該撮 影計画情報に基づいて実撮影したときの前記第 1の実撮影日とは異なる第 2の実撮 影日を有する第 2の実撮影情報とを第 2のリンク関連情報として記憶した第 2の記憶 手段と、  Shooting plan information including the link ID when the link is shot and first actual shooting information including a first actual shooting date when shooting is actually performed based on the shooting plan information. As related information, a link ID that is the same as the link ID, the shooting plan information, and a second actual shooting date that is different from the first actual shooting date when the actual shooting was performed based on the shooting plan information. Second storage means for storing the second actual photographing information as second link related information;
前記リンク IDと前記リンクのベクトル情報と前記リンクの両端のノード IDとを含むリン ク情報及び前記ノードにつなる前記リンク IDを含むノード情報を有する路線ネットヮ ーク並びに、背景図を記憶した第 3の記憶手段と  A route network having link information including the link ID, vector information of the link, and node IDs at both ends of the link, and node information including the link ID connected to the node, and a background map storing a background diagram. With 3 storage means
を備え、 With
コンピュータに、  On the computer,
前記路線ネットワーク及び背景図からなる地図を前記矩形領域の画像とは異なる 領域に表示してリンクを選択させる地理表示手段、  A geographical display means for selecting a link by displaying a map comprising the route network and a background map in a region different from the image of the rectangular region;
選択された前記リンクのリンク IDを有する属性情報を読み込み、該属性情報に関 連する選択されたリンク内の複数の前記全周囲画像を昇順または逆順に前記第 1の 記憶手段から順次読み出す全周囲画像読込手段、  Read the attribute information having the link ID of the selected link, and sequentially read the plurality of all-around images in the selected link related to the attribute information from the first storage means in ascending or reverse order. Image reading means,
前記第 1の記憶手段から前記全周囲画像が読み出されたとき、前記全周囲画像に 関連する属性情報を読み、読み込んだ前記属性情報の位置情報が前記路線ネット ワークのノードに位置するときは、前記全周囲画像の読み込みを停止させて、前記ノ ードにつながるリンクの方向を前記路線ネットワークから全て求める手段、 When the omnidirectional image is read from the first storage means, the attribute information related to the omnidirectional image is read, and the position information of the read attribute information is the route network. Means for stopping the reading of the all-around image when it is located at a work node, and obtaining all directions of links linked to the node from the route network;
読み出された前記全周囲画像と、前記求められたノードにつながる全てのリンクの 方向を示す前記進行路選択ポリゴンを、前記画面の前記矩形領域に重ねて連動表 示する手段、  Means for displaying the all-around image read out and the route selection polygon indicating the directions of all links connected to the obtained node in an interlocked manner on the rectangular area of the screen;
前記進行路選択ポリゴンの 1つが選択されたとき、選択された前記進行路選択ポリ ゴンの位置に該当するリンク IDを前記路線ネットワークから読み込み、読み込んだ前 記リンク IDに前記全周囲画像が関連付けられているかどうかを、前記読み込んだリン ク ID及び前記実撮影情報並びに撮影計画情報を有する前記第 1のリンク関連情報 または前記第 2のリンク関連情報が存在するかで判断し、存在する場合は前記停止 を解除して、読み込んだ前記リンク IDを選択された前記リンク IDとして前記全周囲画 像読込手段に出力する手段  When one of the route selection polygons is selected, the link ID corresponding to the position of the selected route selection polygon is read from the route network, and the all-around image is associated with the read link ID. Whether the first link-related information or the second link-related information having the read link ID, the actual shooting information, and the shooting plan information exists. Means for releasing the stop and outputting the read link ID to the all-around image reading means as the selected link ID
としての機能を実行させるための地理情報関連付き画像データ表示プログラム。  Image data display program with geographic information to execute the function as
[12] 前記第 1のリンク関連情報は、 [12] The first link related information is:
前記両端の始点において、最適とされた全周囲画像の時刻情報を始点の通過時 刻として、かつ終点において最適とされた全周囲画像の時刻情報を終点の通過時刻 として有し、  At the start points of the both ends, the time information of the all-around image that has been optimized is used as the passage time of the start point, and the time information of the all-around image that has been optimized at the end point is the passage time of the end point,
前記コンピュータに、  In the computer,
前記全周囲画像読込手段は、  The all-around image reading means includes:
前記選択されたリンクの始点の通過時刻と終点の通過時刻との比較で前記昇順ま たは逆順に前記全周囲画像を順次読み出させる機能を実行させるための請求項 11 記載の地理情報関連付き画像データ表示プログラム。  12. The geographic information-related function according to claim 11, wherein a function for sequentially reading out the entire surrounding image in the ascending order or the reverse order is performed by comparing the passage time at the start point and the passage time at the end point of the selected link. Image data display program.
[13] 前記コンピュータに、 [13] In the computer,
前記リンクで位置が指定される毎に、現在表示している全周囲画像の表示位置を 知らせるための識別記号を前記画面に表示する撮影位置表示手段としての機能を 実行させるための請求項 11または 12記載の地理情報関連付き画像データ表示プロ グラム。  12. The function for performing a function as a photographing position display means for displaying an identification symbol for notifying a display position of an all-around image currently displayed on the screen every time a position is designated by the link. Image data display program with geographic information related to 12.
[14] 前記全周囲画像、前記属性情報、前記第 1のリンク関連情報及び前記第 2のリンク 関連情報は、撮影時期によって前記複数の全周囲画像及び属性情報力 抽出され たデータであり、 [14] The all-around image, the attribute information, the first link-related information, and the second link The related information is data extracted from the plurality of surrounding images and attribute information power according to the shooting time,
前記コンピュータに、  In the computer,
前記リンクが選択されたとき、前記撮影時期を入力させる手段、  Means for inputting the shooting time when the link is selected;
前記選択されたリンクのリンク IDを有する前記第 1のリンク関連情報を引き当て、引 き当てた前記第 1のリンク関連情報のリンク IDを前記選択されたリンク IDとして前記 全周囲画像読込手段に出力する手段  The first link related information having the link ID of the selected link is allocated, and the link ID of the allocated first link related information is output to the all-around image reading means as the selected link ID. Means to do
としての機能を実行させるための請求項 11乃至 13記載の地理情報関連付き画像デ ータ表示プログラム。  14. The program for displaying image data with associated geographic information according to claim 11 for executing the function as the above.
[15] 前記コンピュータに、 [15] In the computer,
前記矩形領域の画像が表示している範囲を、前記地図上に扇型ポリゴンによって 表示する手段としての機能を実行させるための請求項 11乃至 14記載の地理情報関 連付き画像データ表示プログラム。  15. The program for displaying image data associated with geographic information according to claim 11 for executing a function as means for displaying a range where the image of the rectangular area is displayed on the map by a fan-shaped polygon.
[16] 前記コンピュータに、 [16] In the computer,
前記進行路選択ポリゴン及び前記扇型ポリゴンは、ぼかし処理を施す手段 としての機能を実行させるための請求項 11または 15記載の地理情報関連付き画像 データ表示プログラム。  16. The program for displaying image data associated with geographic information according to claim 11 or 15, wherein the travel path selection polygon and the fan-shaped polygon perform a function as means for performing a blurring process.
[17] 前記コンピュータに、 [17] In the computer,
前記読み込んだリンクに全周囲画像が関連付けられているかどうかの判定は、 リンク IDとこのリンクに対して撮影計画があることを示す撮影計画キー IDとこのリンク を撮影したことを示す実撮影キー IDとが前記選択されたリンク IDを有する前記第 1の リンク関連情報または前記第 2のリンク関連情報に存在しているとき、前記全周囲画 像が存在していると判定する手段としての機能を実行させるための請求項 11乃至 16 に記載の地理情報関連付き画像データ表示プログラム。  Whether or not an all-around image is associated with the read link is determined by determining the link ID, the shooting plan key ID indicating that there is a shooting plan for this link, and the actual shooting key ID indicating that this link has been shot. Are present in the first link related information or the second link related information having the selected link ID, and function as means for determining that the all-around image is present. 17. The image data display program associated with geographic information according to claim 11 for execution.
[18] 前記地図は、地物及び注記データを含み、前記注記データは前記地物に座標で 関連付けられており、 [18] The map includes feature and note data, and the note data is associated with the feature by coordinates,
前記コンピュータに、  In the computer,
前記注記データ毎に、前記注記データの座標に最も近レ、前記位置情報を有する 前記属性情報を検索して、前記注記データと関連付けて記憶する手段、 前記属性情報が引き当てられたとき、前記属性情報の前記全周囲画像に前記属 性情報の前記注記データを重ね表示させる手段 For each note data, the position information is closest to the coordinates of the note data. Means for retrieving and storing the attribute information in association with the note data; and means for causing the note data of the attribute information to be superimposed and displayed on the all-around image of the attribute information when the attribute information is allocated.
としての機能を実行させるための請求項 11乃至 17に記載の地理情報関連付き画像 データ表示プログラム。  18. The image data display program with associated geographic information according to claim 11, wherein said image data display program is for executing a function as the image information.
[19] 前記コンピュータに、 [19] In the computer,
前記注記データは、前記表示した全周囲画像に関連する前記属性情報の前記撮 影位置から前記注記データまでの方位を求め、前記方位でかつ予め設定されてレ、る 目線高さに前記重ね表示する手段  The annotation data obtains an orientation from the shooting position to the annotation data of the attribute information related to the displayed all-around image, and is superposed and displayed at the azimuth and preset height. Means to do
としての機能を実行させるための請求項 18記載の地理情報関連付き画像データ表 示プログラム。  19. The program for displaying image data with associated geographic information according to claim 18, for executing the function as the above.
[20] 前記コンピュータに、 [20] In the computer,
前記全周囲画像の表示には、前記属性情報に関連する前記全周囲画像をそのま ま表示する単純表示と、前記全周囲画像を、撮影中心から任意の方向で、かつ所定 の視野角で撮影した画像としてコンピュータグラフィック表示する手段  For the display of the omnidirectional image, a simple display in which the omnidirectional image related to the attribute information is displayed as it is, and the omnidirectional image is photographed in an arbitrary direction from a photographing center and at a predetermined viewing angle. For displaying a computer graphic as a processed image
としての機能を実行させるための請求項 11乃至 19に記載の地理情報関連付け画像 データ表示プログラム。  20. The geographical information association image data display program according to claim 11 for executing a function as a geographic information.
PCT/JP2007/071583 2006-12-12 2007-11-06 System for displaying image data associated with map information WO2008072429A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006334926 2006-12-12
JP2006-334926 2006-12-12
JP2007106460A JP4210309B2 (en) 2006-12-12 2007-04-13 Image data display system with map information and image data display program with map information
JP2007-106460 2007-04-13

Publications (1)

Publication Number Publication Date
WO2008072429A1 true WO2008072429A1 (en) 2008-06-19

Family

ID=39511457

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/071583 WO2008072429A1 (en) 2006-12-12 2007-11-06 System for displaying image data associated with map information

Country Status (1)

Country Link
WO (1) WO2008072429A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013121471A1 (en) * 2012-02-16 2013-08-22 パナソニック株式会社 Image generating device
JP2015509239A (en) * 2012-05-28 2015-03-26 テンセント テクノロジー (シェンツェン) カンパニー リミテッド Location search method and apparatus based on electronic map
JP2015165320A (en) * 2015-05-01 2015-09-17 任天堂株式会社 Display system, display control device, information processing program and display method
JP2016110639A (en) * 2014-12-05 2016-06-20 株式会社リコー Service system, information processor, and service providing method
CN103148861B (en) * 2011-12-07 2017-09-19 现代自动车株式会社 Use the road guidance display method and system of geographical marking image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269591A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image reproducing device, and image processing device and method
JP2002269590A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image producing device and method
US20030142115A1 (en) * 2002-01-15 2003-07-31 Takaaki Endo Information processing apparatus and method
JP2005006081A (en) * 2003-06-12 2005-01-06 Denso Corp Image server, image collection device, and image display terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269591A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image reproducing device, and image processing device and method
JP2002269590A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image producing device and method
US20030142115A1 (en) * 2002-01-15 2003-07-31 Takaaki Endo Information processing apparatus and method
JP2005006081A (en) * 2003-06-12 2005-01-06 Denso Corp Image server, image collection device, and image display terminal

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103148861B (en) * 2011-12-07 2017-09-19 现代自动车株式会社 Use the road guidance display method and system of geographical marking image
WO2013121471A1 (en) * 2012-02-16 2013-08-22 パナソニック株式会社 Image generating device
JP2015509239A (en) * 2012-05-28 2015-03-26 テンセント テクノロジー (シェンツェン) カンパニー リミテッド Location search method and apparatus based on electronic map
US9489766B2 (en) 2012-05-28 2016-11-08 Tencent Technology (Shenzhen) Company Limited Position searching method and apparatus based on electronic map
US9646406B2 (en) 2012-05-28 2017-05-09 Tencent Technology (Shenzhen) Company Limited Position searching method and apparatus based on electronic map
JP2016110639A (en) * 2014-12-05 2016-06-20 株式会社リコー Service system, information processor, and service providing method
JP2015165320A (en) * 2015-05-01 2015-09-17 任天堂株式会社 Display system, display control device, information processing program and display method

Similar Documents

Publication Publication Date Title
JP4210309B2 (en) Image data display system with map information and image data display program with map information
US20210049412A1 (en) Machine learning a feature detector using synthetic training data
JP3432212B2 (en) Image processing apparatus and method
CN103971589B (en) The processing method and processing device that the interest point information of map is made an addition in street view image
JP5290493B2 (en) Method of collecting geographic database information for use in a navigation system
US11590989B2 (en) Training data generation for dynamic objects using high definition map data
US11501104B2 (en) Method, apparatus, and system for providing image labeling for cross view alignment
CN105973236A (en) Indoor positioning or navigation method and device, and map database generation method
JP3972541B2 (en) Map display method and map display device
JP2006017739A (en) Operation method for navigation system using video
CN106294458A (en) A kind of map point of interest update method and device
KR20050094780A (en) Method for manufacturing informality present state using air photograph
CN103593450B (en) System and method for establishing streetscape spatial database
JP2003287434A (en) Image information searching system
JP5509376B1 (en) How to search local tourist information based on user location
JP2007122247A (en) Automatic landmark information production method and system
WO2008072429A1 (en) System for displaying image data associated with map information
CN107341213A (en) A kind of streetscape view preparation method and system
JP5883723B2 (en) 3D image display system
JPH031300A (en) System of preparing and conserving current data file for road transportation
JP2008243185A (en) System for managing image data associated with geographical coordinates
JP4068656B1 (en) Geographic information association image data management system and geographic information association image data management program
JP2003014481A (en) Electronic map information device
JP2007316839A (en) Cv tag input and output retrieval device by cv image
EP4202835A1 (en) Method, apparatus, and system for pole extraction from optical imagery

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07831315

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: COMMUNICATION NOT DELIVERED. NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112 EPC (EPO FORM 1205A DATED 09.09.2009)

122 Ep: pct application non-entry in european phase

Ref document number: 07831315

Country of ref document: EP

Kind code of ref document: A1