WO2013002280A1 - 三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラムを記録した記録媒体 - Google Patents

三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2013002280A1
WO2013002280A1 PCT/JP2012/066423 JP2012066423W WO2013002280A1 WO 2013002280 A1 WO2013002280 A1 WO 2013002280A1 JP 2012066423 W JP2012066423 W JP 2012066423W WO 2013002280 A1 WO2013002280 A1 WO 2013002280A1
Authority
WO
WIPO (PCT)
Prior art keywords
straight line
feature
parallax
stereo
image
Prior art date
Application number
PCT/JP2012/066423
Other languages
English (en)
French (fr)
Inventor
晶 王
Original Assignee
Necシステムテクノロジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necシステムテクノロジー株式会社 filed Critical Necシステムテクノロジー株式会社
Priority to CN201280036113.6A priority Critical patent/CN103703490B/zh
Priority to JP2013522909A priority patent/JP5721197B2/ja
Priority to US14/127,477 priority patent/US9245345B2/en
Publication of WO2013002280A1 publication Critical patent/WO2013002280A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Definitions

  • the present invention relates to a three-dimensional feature data generation device, a three-dimensional feature data generation method, and a three-dimensional feature capable of generating high-precision three-dimensional feature data reflecting a detailed rooftop structure at a low cost.
  • the present invention relates to a recording medium on which a data generation program is recorded.
  • Patent Document 1 discloses a three-dimensional urban space model creation method and system invention.
  • the created three-dimensional feature model is usually rough due to the limitation of the resolution of the laser data, and the rooftop structure of the feature cannot be expressed with high accuracy.
  • a feature roof in a three-dimensional feature model created based on 1 m resolution laser data cannot express the detailed structure of the actual building roof.
  • Patent Document 2 also records the longitude and latitude of the shooting position at the same time as taking a picture of the building on the ground, and the operator inputs the apex position of the building surface, and then coordinates of the three-dimensional model of the building An invention for measuring the above is disclosed.
  • Non-Patent Document 1 proposes a three-dimensional feature restoration method using an aerial photograph stereo image.
  • a line feature is extracted from a stereo image of an aerial photograph, and a special geometry such as parallel or vertical is used by a technique called perceptual grouping using a geometric relationship between a line on the left and right images and a line on the periphery.
  • An invention is disclosed in which a relationship is determined, a feature having a rectangular outline is extracted, and a 3D model of the feature is generated by acquiring 3D coordinates of the outline of the feature by stereo calculation.
  • Non-Patent Document 2 as in Non-Patent Document 1, only the edges related to the features are collected by perceptual grouping technology, the outline of the rectangular house is determined, and the area matching method is used to calculate in advance. An invention for obtaining a three-dimensional house model from a parallax diagram is disclosed.
  • Patent Document 1 there is a problem that the fine structure of the roof cannot be reflected in the house and building in the image. This is because the rooftop information cannot be acquired with high accuracy due to the limitation of the resolution of the laser data as described above.
  • Patent Document 2 With the technology taking Patent Document 2 as an example, there has been a problem that processing of a densely populated housing group requires a large work cost, and processing of a high-rise building or the like is impossible due to restrictions on ground photography. Therefore, it is necessary to generate three-dimensional data based on aerial photographs and satellite images so that various buildings in a wide area can be processed.
  • Non-Patent Documents 1 and 2 the perceptual grouping technology is used, and only a simple house outline shape (for example, a rectangular rooftop) can be generated. Nevertheless, this perceptual grouping technique has a problem that the number of lines extracted as image features becomes enormous in a residential area where the distribution density of houses is high. Also, in many cases, most of the houses in the same block are built in a direction parallel to the road, so the quantity of other lines that are parallel or perpendicular to the extracted house lines is also very high. There has been a problem that the outline of each house cannot be extracted by simple geometric relationships alone. Other than that, in the case of a high-rise building, the parallax is so large that a straight line pair that has a correct correspondence relationship on the left and right images may be mistakenly associated with another straight line. was there.
  • the present invention has been made to solve such a problem, and an object of the present invention is to generate highly accurate three-dimensional feature data reflecting a detailed rooftop structure at a low cost.
  • the three-dimensional feature data generation apparatus is: A three-dimensional feature data generation device that generates three-dimensional data of features including houses and buildings from stereo images, Stereo parallax calculation means for calculating a predicted value of stereo parallax related to the terrain and feature height information; A straight line extracting means for extracting a straight line on an image including a feature line indicating the internal structure of the top of the feature, a contour line indicating the outer shape of the feature, and a feature line on the non-feature; Straight line extracted by the straight line extracting means and matching the meaning in the real world to classify the straight line inside the feature rooftop, the external contour line of the feature, and the straight line including the shadow region outline, and Meaningless straight line removal means for excluding straight lines that do not exist in the real world caused by effects including shadows and noise from the processing target; Using the parallax information from the stereo parallax calculation means and the color and texture distribution around each straight line, a correspondence relationship including the classification of the straight line in one image and the straight
  • Straight line pair determining means for determining whether or not Stereo parallax for calculating a more accurate parallax value on the basis of the straight line pair having the correspondence determined by the straight line pair determining unit and correcting the predicted parallax value obtained by the stereo parallax calculating unit Correction means; Among the straight line pairs having the correspondence determined by the straight line pair determining unit, only the pair related to the feature including the house and the building is selected, and the parallax information of each straight line pair and the plurality of straight line pairs are selected.
  • a straight line pair clustering means for determining straight line pairs belonging to the same feature using a restriction including a geometric relationship;
  • Plane extraction means for extracting a basic plane constituting the feature based on the geometric relationship in the straight line pair belonging to each feature determined by the straight line pair clustering means, and parallax information;
  • Plane combination means for determining a positional relationship in a three-dimensional space in the plane of each feature extracted by the plane extraction means, and generating a three-dimensional model representing the whole feature, It is characterized by providing.
  • the three-dimensional feature data generation method includes: A three-dimensional feature data generation method for generating three-dimensional data of features including houses and buildings from stereo images, A stereo parallax calculation step for calculating a predicted value of stereo parallax related to the terrain and feature height information; A straight line extraction step of extracting a straight line on an image including a feature line indicating an internal structure of the feature roof, a contour line indicating a shape outside the feature, and a feature line on the non-feature; A straight line classification determination step for classifying the straight line extracted in the straight line extraction step into a straight line including a straight line inside a feature roof, a feature external contour line, and a shadow region contour line by matching the meaning in the real world, A meaningless straight line removal step for excluding straight lines that do not exist in the real world caused by effects including shadows and noise from the processing target; Using the parallax information from the stereo parallax calculation step and the color and texture distribution around each straight line, a correspondence relationship including the classification of
  • a straight line pair determining step for determining whether or not Stereo parallax for calculating a more accurate parallax value based on the correspondence relationship, and correcting the predicted parallax value obtained in the stereo parallax calculation step for the straight line pair having the correspondence relationship determined in the straight line pair determination step Correction steps;
  • the straight line pair having the correspondence determined in the straight line pair determining step only a pair related to a feature including a house and a building is selected, disparity information of each straight line pair, and a plurality of straight line pairs.
  • a straight line pair clustering step for determining straight line pairs belonging to the same feature using a restriction including a geometric relationship;
  • a plane extraction step for extracting a basic plane constituting the feature based on the geometric relationship in the straight line pair belonging to each feature determined in the straight line pair clustering step and information on the parallax;
  • a plane combination step of determining a positional relationship in a three-dimensional space in the plane of each feature extracted in the plane extraction step, and generating a three-dimensional model representing the entire feature; It is characterized by providing.
  • Computer Stereo parallax calculation means for calculating a predicted value of stereo parallax related to the height information of the terrain and the feature
  • a straight line extraction means for extracting a feature line indicating the internal structure of the top of the feature, a contour line indicating the outer shape of the feature, and a straight line on the image including the feature line on the non-feature
  • a straight line classification judging means for classifying the straight lines extracted by the straight line extracting means into straight lines that match the meaning in the real world and include the straight line inside the feature roof, the external contour line of the feature, and the shadow area contour line, Meaningless straight line removal means for excluding straight lines that do not exist in the real world caused by effects including shadows and noise from the processing target, Using the parallax information from the stereo parallax calculation means and the color and texture distribution around each straight line, a correspondence relationship including the classification of the straight line in one image and the straight line in the other
  • Straight line pair judging means for judging whether or not, Stereo parallax for calculating a more accurate parallax value on the basis of the straight line pair having the correspondence determined by the straight line pair determining unit and correcting the predicted parallax value obtained by the stereo parallax calculating unit Correction means, Among the straight line pairs having the correspondence determined by the straight line pair determining unit, only the pair related to the feature including the house and the building is selected, and the parallax information of each straight line pair and the plurality of straight line pairs are selected.
  • Straight line pair clustering means for determining straight line pairs belonging to the same feature using restrictions including geometric relationships,
  • a plane extracting means for extracting a basic plane constituting the feature based on the geometric relationship in the straight line pair belonging to each feature determined by the straight line clustering means, and information on the parallax;
  • Plane combination means for determining a positional relationship in a three-dimensional space in the plane of each feature extracted by the plane extraction means, and generating a three-dimensional model representing the whole feature, It is made to function as.
  • highly accurate three-dimensional feature data reflecting a detailed rooftop structure can be generated at a low cost.
  • FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional feature data generation apparatus 100 according to the first embodiment of the present invention.
  • This three-dimensional feature data generation device 100 is configured to provide stereo information from a plurality of images taken from different viewpoints from above, and linear characteristic information inherent to a house or building, for an area where there is a house or building to be analyzed. Based on the above, a three-dimensional model of a feature including a house and a building is created.
  • FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional feature data generation apparatus 100 according to the first embodiment of the present invention.
  • This three-dimensional feature data generation device 100 is configured to provide stereo information from a plurality of images taken from different viewpoints from above, and linear characteristic information inherent to a house or building, for an area where there is a house or building to be analyzed. Based on the above, a three-dimensional model of a feature including a house and a building is created.
  • FIG. 1 is a block diagram showing
  • the three-dimensional feature data generation apparatus 100 includes a stereo image data input unit 10, a straight line classification input unit 20, a straight line classification storage unit 21, a processing rule input unit 30, and a processing rule storage unit. 31, a stereo parallax calculation unit 40, a straight line extraction unit 50, a straight line classification determination unit 60, a meaningless straight line removal unit 70, a straight line pair determination unit 80, a stereo parallax correction unit 90, and a straight line pair clustering unit 110. And a plane extraction unit 120 and a plane combination unit 130.
  • the stereo image data input unit 10 has a function of inputting image data.
  • the user inputs a pair image (stereo image) of a left image and a right image having stereo information into the stereo image data input unit 10.
  • the stereo image used in the present invention is, for example, a digital image converted from an aerial photograph, a digital image from a satellite photograph, or the like, but is not limited thereto.
  • a digital image obtained by digitizing an analog photograph taken by an analog camera by a process such as scanning may be used.
  • a stereo image is an aerial image
  • data of aerial photographs taken with a standard overlap of 60% in the front and back in the flight direction of the aircraft and 30% in the vertical overlap between the flight courses is used as a standard. It is done.
  • the straight line classification input unit 20 has a function of inputting a straight line classification in a stereo image to be processed.
  • the user inputs a category necessary for determining the straight line category to the straight line category input unit 20.
  • the straight line classification input unit 20 can provide all straight line classifications that are usually represented in aerial photographs. Then, the user selects the type of straight line existing in the aerial photograph being processed from the provided classification, and inputs the selected straight line type from the straight line classification input unit 20.
  • the classification input from the straight line classification input unit 20 is stored in the straight line classification storage unit 21, and is acquired in a timely manner when the straight line classification determination unit 60 determines the straight line classification.
  • Such a straight line classification may be input from the straight line classification input unit 20 as an independent classification, or may be a new classification in which a large number of classifications are combined.
  • the house outline outline, the straight line inside the house roof, etc. may be classified as house outlines.
  • noise lines on the water surface, noise lines on trees, and other noise lines may be combined and classified as noise lines.
  • a road line, a straight line in a parking lot, etc. may be unified and classified as a straight line on the road surface.
  • the details of the classification will be determined according to the content of the photograph being processed, the various features in the photograph, and the features of the terrain.
  • FIG. 2 when a dense house has a structure that approximates the next house, in order to determine the relationship between straight line pairs more accurately, one type of house outline is used. Instead, it is divided into two types of outlines of the outdoor part of the house and straight lines inside the house roof.
  • straight line classification may be set according to the actual application purpose. Specifically, for example, the entire 180 degrees is divided into six equal parts according to the angle of the straight line, and classified into categories according to each angle range.
  • each straight line constituting the outline of the house is classified according to each direction. Thereby, the process of straight line pair determination and straight line pair clustering described later can be realized more easily.
  • Other specific examples will be given. For example, by converting the map of the corresponding area, the image from the aerial photograph is associated with the map, the range information of the block on the map is reflected on the image, and the straight lines are classified on a block basis.
  • the processing rule input unit 30 has a function of inputting all parameters relating to the generation of three-dimensional feature data.
  • the user inputs parameters necessary for processing of stereo parallax calculation and straight line pair determination, which will be described later, to the processing rule input unit 30.
  • the parameters input from the processing rule input unit 30 include, for example, a reduction scale value used when calculating the stereo parallax using a reduction scale, and a matching score threshold value used when determining the straight line pair.
  • the parameters input from the processing rule input unit 30 are stored in the processing rule storage unit 31. Then, processing parameters are acquired from the processing rule storage unit 31 in a timely manner when performing the respective processes of stereo parallax calculation and straight line pair determination.
  • the stereo parallax calculation unit 40 calculates the stereo parallax of a feature in an area shared by a plurality of aerial images. In the same feature, a change in inclination reflected on each image becomes parallax information reflecting the actual altitude of the feature. In order to obtain the parallax, it is first necessary to find corresponding portions on different aerial images. In the case of two aerial images, a stereo matching process is performed in order to obtain the correlation between the portions on the left and right images. In the stereo matching process, the degree of approximation of each part on the left and right images is calculated by a certain calculation method within the area shared by the left and right images. The degree of approximation indicates the possibility that two parts to be matched on the left and right images correspond.
  • color information or luminance information in units of pixels on the image may be directly used.
  • calculation may be performed for each divided region, or may be performed using general feature amounts such as feature points, feature lines, feature curves, and the like.
  • stereo matching first, relative orientation is performed on the left and right images, so that the search range of the corresponding part can be limited from two dimensions to one dimension. That is, after mutual orientation, the corresponding portions of the left and right images exist only on the same epipolar line.
  • the parallax acquired by the stereo parallax calculation unit 40 is still a predicted value of parallax, and is corrected by the information on the straight line pair in the stereo parallax correction unit 90 as described later.
  • the parallax that can be corrected by the stereo parallax correcting unit 90 is matching noise or the like generated due to the influence of image noise.
  • the parallax information cannot be restored only with the original left and right images, and cannot be corrected.
  • the parallax acquired by the stereo parallax calculation unit 40 is not yet an actual altitude, but is simply relative height information having a direct proportional relationship with the altitude.
  • the parallax can reflect the relative height relationship of the features, it is used as auxiliary information in the straight line pair determination process and the straight line pair clustering process described later.
  • the height of the feature may be reflected so as to be directly proportional to the altitude. Based on this, the parallax may be converted to actual elevation.
  • the stereo parallax calculator 40 is not limited to the method of directly calculating the parallax with the original size stereo image, and other methods may be used.
  • a method may be used in which parallax is calculated on a stereo image reduced at a certain reduction scale according to the purpose, and the parallax of all images is acquired by mapping the acquired parallax on the original size image. .
  • the left and right images are reduced at the same reduction scale, and the optimum corresponding points in the search range can be acquired more efficiently in the reduced image than in the original size image.
  • accurate parallax can be acquired more efficiently by this method.
  • the processing time is naturally long.
  • the calculation efficiency is the target, by setting the average search range of all images to each pixel, the range from the lowest negative parallax to the highest positive parallax in the image can be set as the search range The processing time is further shortened.
  • a correct parallax cannot be obtained for a pixel having a very high positive parallax and a very low negative parallax outside the average search range, it cannot be matched in the same manner as an occlusion area.
  • the average search range is first set on all images and the parallax is calculated, and only the unmatched part of the calculated result is manually expanded to a certain extent. Then, the method of performing stereo matching once again was adopted. Even with this method, the parallax information of all the images can be obtained correctly with a certain efficiency, but it is not an automatic method because user adjustment is required. In addition, when expanding the search range, knowledge about the range of possible values of parallax of the image is required. On the other hand, in the present invention, by performing stereo matching on the reduced stereo image, the parallax on all the pixels can be correctly acquired automatically and efficiently. Specifically, as shown in FIG. 3, in the reduced stereo image, the search range is set to the width of the image.
  • the degree of approximation of all points from Ps to Pe on the same epipolar line 302 in the right image 301b is calculated with respect to the point P on the left image 301a, and the highest degree of approximation among them is calculated. Is determined as the corresponding point.
  • the search range is the width of the reduced image, the maximum positive parallax and the minimum negative parallax can be correctly acquired in addition to the occlusion point.
  • the search range is the width of the image and is performed on the reduced image, the processing time is shortened as the reduction scale is increased.
  • the larger the reduction scale the more pixels whose parallax information is undetermined on the original size image.
  • the parallax information is undetermined.
  • the reduction scale is 10
  • the parallax acquired on the reduced image is used as auxiliary information for stereo matching of the stereo image of the original size, instead of mapping directly to the original size.
  • a fixed search range is set with the parallax as a center value, and more accurate parallax is calculated within the range.
  • a corresponding point is searched for a point for which parallax is undetermined.
  • the straight line extraction unit 50 processes the left and right images of the stereo image, first extracts edge features in the image, and later extracts straight lines based on the edge features.
  • edge feature extraction methods There are various edge feature extraction methods and straight line extraction methods, but the method used in this embodiment is not limited.
  • the Canny extraction method may be used as the edge feature extraction method.
  • the Hough transform method may be used as a straight line extraction method.
  • the straight line classification determination unit 60 performs the processing on the left and right images of the stereo image, and classifies all straight lines in the image according to the classification of the straight lines desired to be used for the current stereo image input by the straight line classification input unit 20. .
  • the criteria for straight line classification may be one specific criterion or a combination of multiple classification criteria. It is desirable to set the straight line classification to be applied according to the content of the image. For example, the method of classifying straight lines by block unit is applied to a residential area without high-rise buildings. Since high-rise buildings have large positive parallax, it is assumed that the straight line of the rooftop contour usually exists in a different block area on the image.
  • the straight line classification determination unit 60 classifies all straight lines in the image based on the straight line classification information input by the straight line classification input unit 20. At this time, the straight line classification determination unit 60 also uses straight line characteristics, for example, an angle, a position, a length, the parallax acquired by the stereo parallax calculation unit 40, and a stereo image characteristic. There are various methods for classifying straight lines depending on classification criteria and characteristics used for classification, but the method used in the present embodiment is not limited. As an example, the classification method described below may be used.
  • a parallax threshold value for distinguishing between the ground and a house is set, and a straight line having an average parallax lower than the threshold value is a straight line unrelated to features such as a house and a building. Then, the remaining straight line is divided into a noise straight line on the tree and a straight line related to the feature based on the length of the straight line, the color distribution of the area around the straight line, and the uniformity of the texture distribution.
  • the straight line classification determination unit 60 further classifies straight lines related to the feature into outlines of outdoor parts of the house and straight lines inside the roof using the parallax information and the features of the image. When the difference in parallax between both sides of the straight line is large and the color characteristics on both sides are also different, it is determined that the contour line is outside the house.
  • a straight line unrelated to the feature may be further classified. For example, a shadow area can be determined based on the color feature of the image, and the outline of the shadow area can be distinguished in a straight line.
  • the straight line along the white line on the road is recognized as a road line, and the range of the block area can be determined in determining the intersection relationship of the road lines.
  • this is also a method for obtaining one block area information. For example, water surface extraction is performed using color features, texture features of images, and texture features on parallax, and all straight lines in the water surface region are determined to be noise lines on the water surface.
  • the area can also be specified from the information on the map.
  • straight line pair determination By dividing straight lines into several categories, straight line pair determination, meaningless straight line removal, and straight line pair clustering described later can be realized more easily.
  • the straight lines on the left and right images are classified according to the same classification setting, and when determining the straight line pair, the straight line on one image is searched for the corresponding straight line on the other image, and the search range is processed. Can be limited to only the same type of straight line.
  • straight line classification information can also be used. For example, since there is a high possibility that straight line pairs in the same block area belong to the same house, the straight line pairs in the same block are preferentially determined during clustering.
  • the process of removing the meaningless straight line can be executed more efficiently based on the result of the straight line classification. For example, if the straight line classification criterion is a straight line unrelated to the straight line related to the feature, only the straight line unrelated to the feature can be easily removed. When all straight lines are classified for each block area, all straight lines other than the block to be processed can be removed as meaningless straight lines.
  • the meaningless straight line removal unit 70 determines that all straight lines that are not processed by the processing unit such as straight line pair determination and straight line pair clustering are meaningless straight lines, removes those straight lines, and determines the efficiency and accuracy rate of the subsequent processing. Further improve.
  • the definition of meaningless straight lines varies depending on the specific application. For example, when paying attention only to a house of a certain size or larger, a straight line having a length equal to or shorter than the threshold is determined as a meaningless straight line by applying a threshold to the length of the straight line. If the meaningless straight line removal unit 70 uses the processing result of the straight line category determination unit 60 and can determine whether it is meaningless for each category, it uses a method of removing a large number of meaningless straight lines. Also good.
  • all other straight lines are judged as meaningless straight lines and removed so as not to affect the subsequent processing.
  • all the straight lines are classified into categories such as the outline of the outdoor part of the house, the straight line inside the roof, the road line, the outline of the shadow area, the tree noise line, and the noise line on the water surface.
  • the outline of the shadow area should be removed as a meaningless straight line because there is no corresponding straight line on the other image in the real world.
  • tree noise lines and water surface noise lines are randomly distributed on the left and right images and should be removed because there are no straight lines corresponding to the real world.
  • Road lines can be used to determine the block area, but if each block can be determined, it will be a straight line that will not be used for 3D models of features such as houses and buildings in the future processing, so it may be removed .
  • the straight line pair determination unit 80 finds a corresponding straight line on the other image and associates it with each straight line on one image, with all the straight lines remaining after the process of removing the meaningless straight line as a processing target.
  • searching for a corresponding straight line first, a straight line classification result is used, and a straight line matching degree is calculated using only the same type of straight line as a latent corresponding straight line on the other image. Further, when searching for the corresponding straight line, the parallax acquired by the stereo parallax calculation unit 40 is used, and each pixel corresponding to the other image is based on the parallax on each pixel of the currently processed straight line.
  • Points are obtained, and straight lines in the neighboring region of the set of corresponding points are found, and the degree of matching with straight lines that are processing those straight lines as latent corresponding straight lines is calculated to determine whether or not to match.
  • Determining the search range of potential corresponding straight lines with disparity information is a case that cannot be solved especially by the conventional method (for example, when there are areas or high-rise buildings where houses with similar colors and similar heights are concentrated) However, both the accuracy rate and efficiency of processing are improved.
  • the straight line being processed and the latent corresponding straight line are straight lines from the left and right images, and various features may be used when calculating the degree of matching.
  • the degree of matching is acquired based on the degree of approximation such as the characteristics of the color distribution on both sides of the straight line, the texture features on both sides of the straight line, the angle of the straight line, and the length of the straight line.
  • a threshold value is applied to the value of the matching degree, and straight line pairs having a matching degree equal to or higher than the threshold value are determined as corresponding straight lines, and all other pairs are determined not to correspond.
  • the present invention employs a method of matching in stages. First, the correspondence relationship of the straight line pair with high reliability is determined, and the determined correspondence relationship of the straight line pair is used as a matching restriction in the future. The set of straight line pairs having the highest credibility among the remaining straight line pairs is determined.
  • all the determined straight line pairs are used as a restriction for future matching.
  • the reliability of the correspondence relationship of the straight line pair can be increased as a whole.
  • the reliability of the linear correspondence relationship is not limited to the feature used in this embodiment, and various features may be used.
  • the value of matching degree, the length of a straight line, the size of parallax, and the like can be used. When these are used, it is possible to reduce erroneous matching by first determining the correspondence relationship of the straight line pair having a high degree of matching. Since there are usually few large features in the image, it is possible to reduce false matching by determining the correspondence of long straight line pairs first.
  • the search when searching for a corresponding straight line, the search is simply performed in a neighboring area. Therefore, it is most difficult to match the outlines of tall buildings such as high-rise buildings. For this problem, the correspondence between straight lines on a high-rise building is first determined using the parallax information. As a result, mismatching related to a high-rise building can be eliminated, and mismatching of contour lines of other houses and buildings in the neighborhood can be reduced.
  • the stereo parallax correction unit 90 further corrects the parallax between the left and right images using the correspondence relationship of the straight line pairs determined by the straight line pair determination unit 80.
  • a corresponding point on the same epipolar line for example, a correspondence relationship between N and M is also determined.
  • the intersection with one epipolar line can be used as a corresponding point from all the straight line pairs, so that it can be used as a limiting condition for searching for a corresponding point of another point on the epipolar line.
  • the intersections with the epipolar line 402 are M1, M2, and N1, N2, respectively.
  • the start and end points on the left image 401a in the epipolar line 402 are S1 and E1, and the start and end points on the right image 401b are S2 and E2.
  • the corresponding point for the point between S1 and M1 is always between S2 and M2.
  • the corresponding point for the point between M1 and N1 is always between M2 and N2.
  • the corresponding point for the point between N1 and E1 is always between N2 and E2.
  • the parallax of the points between the straight line pairs is corrected under the restriction conditions as described above.
  • the straight line pairs used here are all straight lines related to features such as houses and buildings.
  • the straight-line pair clustering unit 110 creates a cluster of the straight-line pairs determined by the straight-line pair determining unit 80 for each house and building unit to which the straight-line pair belongs.
  • the straight line pair clustering process all straight line pairs belonging to one house and building are combined into one cluster, and the connection relationship between the straight lines is also found.
  • a straight line pair consists only of straight lines related to features such as houses and buildings, and since there is also parallax information, the relationship between straight line pairs is analyzed in a three-dimensional space, and straight line pair clustering is performed. Execute. Thereafter, since the straight line pair is analyzed in the three-dimensional space, the straight line pair is named as a three-dimensional straight line.
  • two three-dimensional straight lines that satisfy all of the following restrictions are determined as three-dimensional straight lines that belong to the same feature and are connected.
  • Two 3D straight lines intersect, or the vertex of one 3D straight line is in the vicinity of the vertex of another 3D straight line.
  • the two straight lines of interest must further satisfy the following conditions:
  • the area of the region surrounded by the two three-dimensional straight lines is higher than a preset house area threshold.
  • the parallax in the area surrounded by the two 3D straight lines is the same as or higher than the average parallax on the two 3D straight lines, and the parallax in the area is set to the two cubics currently processed in advance.
  • FIG. 5A shows this case.
  • FIG. 5A shows this case.
  • the parallax in the acquired polygon area is equal to or higher than the average parallax of each 3D straight line that composes this polygon, and satisfies the condition higher than the preset parallax threshold that represents the height of the house in this block. There must be.
  • all of the straight lines may be used, or a part of the straight lines may be used.
  • Using only a part of a straight line considers that one straight line may extend over the outlines of multiple houses. This is because the outline of each house in the same direction may be extracted as one straight line from a plurality of houses that are built in the same direction and are very close to each other.
  • FIG. 5B shows this case.
  • the straight lines L (b1) are separated from each other and belong to R (b1), R (b2), and R (b3), respectively. Further, as shown in FIG.
  • each three-dimensional straight line is not limited to one house, and may belong to many houses.
  • FIG. 5B there is a possibility that a large number of houses in which one three-dimensional straight line is built in the same direction may be shared.
  • FIG.5 (d) two adjacent houses may share one three-dimensional straight line L (d1).
  • the complete rooftop cannot be extracted using only color and texture features, but there is disparity information.
  • the complete rooftop area can be extracted by satisfying the parallax restriction in the contour area formed from each three-dimensional straight line belonging to the rooftop.
  • FIG. 5E represents this case.
  • the vertical relationship or the parallel relationship is used, but the three-dimensional straight line affiliation determination of the method of the present invention does not use any geometric relationship between the straight lines. This is because there is no restriction on the structure of the roof of the feature, such as a house or a building, or the shape of the outline.
  • the plane extraction unit 120 extracts all planes constituting the roof of the feature from the three-dimensional straight line cluster belonging to each feature acquired by the straight line pair clustering.
  • polygons constituting the rooftop of each feature can be extracted.
  • the extracted polygons there are contour polygons indicating the outer contour of the roof, and internal polygons expressing the inner structure of the roof.
  • the roof outline polygon of one house is any one of the following cases.
  • houses 201 and 202 are “multiple planes” cases
  • house 203 is a “one plane” case.
  • the plane combination unit 130 further determines the geometric relationship of each part constituting the rooftop based on the structure of the rooftop of each feature determined by the plane extraction unit 120, and determines the tertiary of each feature. Extract the original model.
  • the plane combination unit 130 performs the following different processes. (1) When the roof of the house is a single plane, a three-dimensional model of the feature is generated based on the parallax of the roof plane as it is. (2) If the roof is composed of many planes, analyze the adjacency of each plane based on the disparity information, and finally reveal the three-dimensional structure of the roof and generate a three-dimensional model of the feature To do. (3) When the roof is a curved surface, the adjoining relationship of each plane is determined as in (2), and then a three-dimensional model of the feature is generated.
  • FIG. 6 is a block diagram illustrating an example of a physical configuration when the 3D feature data generation apparatus 100 according to the first embodiment is mounted on a computer.
  • the three-dimensional feature data generation apparatus 100 according to the present invention can be realized by a hardware configuration similar to a general computer apparatus, and includes a control unit 201, an input / output unit 202, a display unit 203, an operation unit 204, a main unit.
  • a storage unit 205, an external storage unit 206, and a system bus 207 are included.
  • the input / output unit 202, the display unit 203, the operation unit 204, the main storage unit 205, and the external storage unit 206 are all connected to the control unit 201 via the system bus 207.
  • the control unit 201 includes, for example, a CPU (Central Processing Unit).
  • the control unit 201 executes a three-dimensional feature data generation process, which will be described later, according to the control program 300 stored in the external storage unit 206.
  • the input / output unit 202 includes, for example, a wireless transceiver, a wireless modem or a network termination device, and a serial interface or a LAN (Local Area Network) interface connected thereto.
  • the image data to be processed, processing parameters, straight line classification information, and the like can be received via the input / output unit 202, and operator instructions can be input. Then, the processed result data can be transmitted from the input / output unit 202.
  • the display unit 203 includes, for example, a display such as CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display), a printer, and the like.
  • the display unit 203 displays input image data, a processing result of the 3D feature data generation apparatus 100, and the like.
  • the operation unit 204 includes an interface device that connects a pointing device such as a keyboard and a mouse to the system bus 207. Stereo image data, processing parameters, straight line classification information, and the like can be input via the operation unit 204. In addition, an instruction for transmission / reception, an instruction for displaying a processing result, and the like are input and supplied to the control unit 201.
  • the main storage unit 205 is a main memory such as a RAM (Random Access Memory).
  • the main storage unit 205 loads the control program 300 stored in the external storage unit 206 and is used as a work area for the control unit 201.
  • the external storage unit 206 includes a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disk Random Access Memory), a ROM (Read Only Memory), a magnetic disk, and a nonvolatile memory such as a semiconductor memory.
  • the external storage unit 206 stores in advance a control program 300 for causing the control unit 201 to perform 3D feature data generation processing and the like. Further, the external storage unit 206 supplies data stored in the control program 300 to the control unit 201 in accordance with an instruction from the control unit 201. Further, the external storage unit 206 stores data supplied from the control unit 201.
  • each component of the three-dimensional feature data generation apparatus 100 shown in FIG. 1 described above is performed via the control program 300, the control unit 201, the input / output unit 202, the display unit 203, the operation unit 204, the main unit. It is executed using the storage unit 205, the external storage unit 206, and the like as resources.
  • the control program 300 that performs the above functions by the control unit 201 on the computer processing apparatus, the three-dimensional feature data generation apparatus 100 can be realized in software.
  • the control unit 201 loads and executes the control program 300 stored in the external storage unit 206 to the main storage unit 205, controls the operation of each unit, and causes each of the above functions to be performed.
  • the feature data generation apparatus 100 is realized by software.
  • the central part of the processing of the three-dimensional feature data generation apparatus 100 according to the present invention can be realized by using a normal computer system without using a dedicated system. Further, a circuit composed of hardware components such as an LSI (Large Scale Integration) incorporating a circuit that realizes the above three-dimensional data generation function can be mounted and configured as an electronic circuit.
  • LSI Large Scale Integration
  • FIG. 7 is a flowchart showing a three-dimensional feature data generation process.
  • the three-dimensional feature data generation apparatus 100 includes stereo image data in the stereo image data input unit 10, straight line classification information in the straight line classification input unit 20, and processing parameters in the processing rule input unit 30. When input, the three-dimensional feature data generation process of FIG. 7 is started.
  • the three-dimensional feature data generation apparatus 100 performs a stereo image relative orientation process (step S100), and performs a stereo parallax acquisition process (step S110). That is, the stereo parallax calculation unit 40 first calculates the stereo parallax by performing the relative orientation of the left and right images based on the input stereo image and shooting conditions. Note that the stereo parallax calculator 40 performs stereo matching to calculate stereo parallax.
  • the 3D feature data generation apparatus 100 performs straight line acquisition processing (step S120). That is, the straight line extraction unit 50 extracts straight lines from the left and right images of the input stereo image.
  • the 3D feature data generation apparatus 100 performs straight line classification determination processing (step S130). That is, the straight line classification determination unit 60 uses all the straight lines extracted by the straight line extraction unit 50 in different classifications based on the input straight line classification information and also using the parallax acquired by the stereo parallax calculation unit 40. Divide. This step is also executed for the left and right images.
  • the 3D feature data generation apparatus 100 performs a meaningless straight line removal process (step S140). That is, the meaningless straight line removal unit 70 removes meaningless straight lines for each category. After the processing of this step, only a straight line related to the feature remains. This step is also executed for each of the left and right images.
  • the 3D feature data generation apparatus 100 performs a straight line pair determination process (step S150). That is, the straight line pair determination unit 80 uses the parallax acquired by the stereo parallax calculation unit 40 to determine the correspondence relationship of the straight line related to the feature from the left and right images.
  • the three-dimensional feature data generation apparatus 100 performs stereo parallax correction processing (step S160). That is, the stereo parallax correction unit 90 corrects the parallax first calculated by the stereo parallax calculation unit 40 based on the straight line pair acquired by the straight line pair determination unit 80.
  • the 3D feature data generation apparatus 100 performs straight line pair clustering processing (step S170). That is, the straight line pair clustering unit 110 determines the affiliation relationship of the straight line pair acquired by the straight line pair determining unit 80 to each feature based on the parallax corrected by the stereo parallax correcting unit 90, and further, the straight line pair with parallax, That is, a closed polygon that constitutes the rooftop of each feature is extracted from a three-dimensional straight line.
  • the three-dimensional feature data generation apparatus 100 performs a plane extraction process (step S180).
  • the plane extraction unit 120 approximates one plane, multiple planes, or a curved surface of the roof from the closed polygons constituting the roof of each feature determined by the straight line pair clustering unit 110 depending on the actual situation. Extract many planes.
  • the three-dimensional feature data generation apparatus 100 performs plane combination processing (step S190). That is, the plane combination unit 130, based on the plane representing the roof structure of each house extracted by the plane extraction unit 120, if there are a plurality of planes, finds the geometric relationship between those planes, and finally A three-dimensional model of each house is generated.
  • the stereo image data input unit 10 inputs a stereo aerial image (step S101). That is, stereo image data such as a stereo image and shooting conditions are input.
  • the stereo parallax calculation unit 40 performs the relative orientation of the left and right images based on these input stereo images and shooting conditions (step S102). That is, by performing relative orientation on the left and right images, the search range of the corresponding part can be limited from two dimensions to one dimension. Therefore, after the relative orientation, the corresponding portions of the left and right images exist only on the same epipolar line.
  • the stereo parallax calculation unit 40 inputs a reduction scale stored in advance in the processing rule storage unit 31 (step S111), generates reduced stereo images of the left and right images based on the input reduction scale (step S112), Stereo matching processing is performed on the reduced left and right images (step S113), and parallax on the reduced stereo image is mapped to the original size (step S114).
  • the straight line extraction unit 50 extracts edges on the image (step S121), and performs straight line extraction based on the extracted edges (step S122).
  • the straight line category determination unit 60 inputs straight line category information (step S131). In other words, the straight line classification information stored in advance in the straight line classification storage unit 21 is input.
  • the straight line classification determining unit 60 determines the straight line classification based on the classification (step S132). That is, all straight lines are classified based on the input straight line classification information.
  • the meaningless straight line removal unit 70 determines whether or not the straight line is irrelevant to the feature (step S141). If it is determined that the straight line is not irrelevant (step S141; No), the process proceeds to the subsequent step S143, and is determined to be irrelevant. In this case (step S141; Yes), the straight line is removed (step S142). Then, it is determined whether or not the confirmation of all straight lines has been completed (step S143). If it is determined that the confirmation of all straight lines has not been completed (step S143; No), the process proceeds to the next straight line (step S144). The process returns to S141. On the other hand, if it is determined that the confirmation of all straight lines has been completed (step S143; Yes), the process of removing the meaningless straight lines is completed.
  • the straight line pair determination unit 80 extracts a corresponding straight line from the straight line on the left image (Step S151). That is, a corresponding straight line on the right image is extracted for each straight line on the left image.
  • the threshold value of the matching score stored in advance in the processing rule storage unit 31 is input (step S151-1), The corresponding straight line label of each straight line is initialized (step S151-2). Also, a potential corresponding straight line region is acquired on the right image of the straight line of interest by parallax (step S151-3).
  • step S151-4 a potential corresponding straight line possible area in which the target straight line to be processed is on the right image is acquired. Then, it is determined whether or not there is a straight line in the area (step S151-4). If it is determined that there is no straight line in the region (step S151-4; No), the process proceeds to step S151-11 described later. On the other hand, if it is determined that there is a straight line in the region (step S151-4; Yes). Then, the matching score between the target straight line and the current straight line is calculated (step S151-5), and it is determined whether the score is equal to or higher than the threshold (step S151-6), and it is determined whether it is the highest score in the target straight line. (Step S151-7).
  • step S151-6; No when it is determined that the score is smaller than the threshold value (step S151-6; No), or when it is determined that the score is not the highest in the straight line of interest (step S151-7; No), this will be described later.
  • the process proceeds to step S151-9.
  • step S151-6; Yes if it is determined that the score is equal to or higher than the threshold (step S151-6; Yes), and it is determined that the score is the highest in the straight line of interest (step S151-7). ; Yes), the current line number is substituted into the corresponding line label of the line of interest (step S151-8).
  • step S151-9 It is determined whether or not all straight lines have been confirmed within the area (step S151-9). If it is determined that all straight lines have not been confirmed within the area (step S151-9; No), The process proceeds to the next straight line (step S151-10), and the process returns to step S151-5 described above. If it is determined that the confirmation of all straight lines in the region has been completed (step S151-9; Yes), it is determined whether or not the confirmation of all straight lines has been completed in the left image (step S151-11). If it is determined that the confirmation of all straight lines in the image has not been completed (step S151-11; No), the process proceeds to the next straight line (step S151-12), and the process returns to step S151-3 described above. On the other hand, when it is determined that the confirmation of all the straight lines in the left image has been completed (step S151-11; Yes), the processing for extracting the corresponding straight line from the straight line on the left image is finished here.
  • the straight line pair determination unit 80 performs the corresponding straight line extraction of the straight line on the right image (step S152).
  • the same process as in FIG. 14 described above is performed by switching the left image and the right image. For this reason, a flowchart for the process of extracting the corresponding straight line on the right image is omitted.
  • the straight-line pair determining unit 80 combines the correspondence relationships of the straight lines on the left and right images (step S ⁇ b> 153).
  • a corresponding straight line Rf on the right image of the target straight line Lf to be processed is acquired on the left image (step S153-1).
  • step S153-2 if it is determined that the corresponding line of Rf is Lf (step S153-2; Yes), the pair relationship between Lf and Rf is determined (step S153-3). Then, it is determined whether or not all straight lines have been confirmed in the left image (step S153-4). If it is determined that all straight lines have not been confirmed (step S153-4; No), the process proceeds to the next straight line. (Step S153-5), the process returns to Step S153-1. On the other hand, when it is determined that the confirmation of all straight lines has been completed (step S153-4; Yes), the correspondence combination on the left and right images is finished.
  • the stereo parallax correction unit 90 acquires the intersection of the epipolar line of interest and the straight line pair (step S161). That is, the intersections of the attention epipolar line to be processed and all straight line pairs are acquired.
  • the stereo parallax correction unit 90 corrects the parallax between the intersections (step S162). That is, the parallax between the intersections is corrected based on the correspondence relationship between the intersections in the left and right images.
  • the stereo parallax correcting unit 90 determines whether or not the confirmation of all epipolar lines has been completed (step S163). If it is determined that the confirmation of all epipolar lines has not been completed (step S163; No), the stereo parallax correcting unit 90 moves to the next epipolar line (step S164), and returns the process to the above-described step S161.
  • the stereo parallax correction unit 90 ends the stereo parallax correction processing here.
  • the straight line pair clustering unit 110 initializes the cluster to which each straight line pair belongs (step S171).
  • the straight line pair clustering unit 110 determines the mutual connection relationship for all straight line pairs (step S172).
  • the straight line pair clustering unit 110 extracts closed polygons (step S173).
  • a closed polygon is extracted from the established straight line pair connection relationship based on parallax restriction, area restriction, convex restriction, and the like.
  • the straight line pair clustering unit 110 determines the belonging relationship of each closed polygon-related straight line pair for each house (step S174).
  • the plane extraction unit 120 classifies all closed polygons into internal polygons and contour polygons (step S181).
  • this closed polygon classification specifically, as shown in FIG. 19, it is determined whether or not the target side on the polygon to be processed is a rooftop internal line (step S181-1). If it is determined (step S181-1; Yes), it is determined that the target polygon is an internal polygon (step S181-2). On the other hand, when it is determined that the line is not the roof internal line (step S181-1; No), it is determined whether or not all the sides of the polygon have been checked (step S181-3).
  • Step S181-3; No the process proceeds to the next side (Step S181-4), and the process returns to Step S181-1.
  • step S181-3; Yes it is determined that the target polygon is a contour polygon (step S181-5).
  • the plane extraction unit 120 performs plane determination processing of the internal polygon (step S ⁇ b> 182). Specifically, in this plane determination process, as shown in FIG. 20, it is determined whether the region inside the polygon to be processed is a plane (step S182-1), and if it is determined to be a plane (step S182-2). 1; Yes), the area within the polygon is displayed on one plane (step S182-2). On the other hand, when it is determined that it is not a plane (step S182-1; No), it is determined whether the polygonal area can be divided into a large number of planes (step S182-3), and if it cannot be divided (step S182-3).
  • step S182-4 the region in the polygon is approximated by a large number of planes.
  • step S182-3 the region in the polygon is divided into a large number of planes.
  • the plane extraction unit 120 performs plane determination processing for areas other than the internal polygon in the outline polygon area (step S ⁇ b> 183). Also in this plane determination process, the same process as in FIG. 20 described above is performed.
  • the plane combination unit 130 determines whether or not the feature roof is one plane (step S191). That is, it is determined whether or not the roof of the target feature to be processed at present is one plane.
  • step S191 determines that there is one plane (step S191; Yes)
  • the process proceeds to step S193 described later.
  • step S191; No determines an adjacency relationship between multiple planes (step S192). That is, the adjacent relationship between a plurality of planes displaying the roof is determined.
  • the plane combination unit 130 extracts a three-dimensional feature model (step S193). That is, a three-dimensional feature model of the feature of interest is extracted.
  • the plane combination unit 130 determines whether or not all the features have been confirmed (step S194). If the plane combination unit 130 determines that the confirmation of all the features has not been completed (step S194; No), the plane combination unit 130 proceeds to the next feature (step S195), and returns the process to step S191 described above.
  • step S194 if it is determined that the confirmation of all the features has been completed (step S194; Yes), the plane combination unit 130 ends the plane combination process here.
  • the three-dimensional feature data generation process shown in FIG. 7 (FIGS. 8 to 21) is used to generate a stereo from a plurality of images taken from different viewpoints from above the area where there is a house or building to be analyzed. Based on the information and the linear characteristic information inherent to the house or building, a three-dimensional model of the feature including the house or building can be created.
  • the second embodiment of the present invention is the first in that the stereo parallax calculator 40 in the first embodiment shown in FIG. 1 is replaced with a multiscale stereo parallax calculator 140. Different from the embodiment.
  • the multi-scale stereo parallax calculation unit 140 generates a multi-scale stereo image using a large number of scales, calculates the parallax on each scale, and finally collects the parallax information on the multi-scale to collect the original size stereo image. Get the parallax above. In this case, a stereo image with a large reduction scale can be efficiently acquired in a multi-scale image, and a wide parallax range can be efficiently acquired. Parallax can be acquired. When a multi-scale stereo image is used, it is possible to use both of the above merits at the same time. At the time of implementation, it is desirable to set the number of layers of multiscale analysis, the number of steps of scale change for each layer in accordance with processing efficiency, processing effect, and image content.
  • the basic function of the processing rule input unit 30 is the same as that of the first embodiment.
  • the parameters input from the processing rule input unit 30 to the multiscale stereo parallax calculation unit 140 in the stereo parallax calculation are the number of layers and the reduced scale on each layer.
  • the parameters for straight line pair determination processing are the same as those in the first embodiment, and thus the description thereof is omitted.
  • the physical configuration when the three-dimensional feature data generation apparatus 100 according to the second embodiment is mounted on a computer is basically the configuration as shown in the block diagram of FIG. 6 as in the first embodiment. Therefore, the description is omitted.
  • FIG. 23 is a flowchart showing a three-dimensional feature data generation process in the second embodiment.
  • stereo image data is input to the stereo image data input unit 10
  • straight line classification information is input to the straight line classification input unit 20
  • processing parameters are input to the processing rule input unit 30.
  • the three-dimensional feature data generation process of FIG. 23 is started.
  • step S210 The processing in each step in the overall processing flow is the same as that in the first embodiment except for the multiscale stereo parallax acquisition (step S210), and thus the description thereof is omitted.
  • the multi-scale stereo parallax calculation unit 140 inputs the number of image layers and the reduction scale on each layer stored in advance in the processing rule storage unit 31 (step S211), and the input parameters (number of image layers and reduction scale). Based on the above, a multi-scale stereo image of each of the left and right images is generated (step S212), and stereo matching processing is performed on each layer (step S213). Then, the parallax combining process of each layer is performed (step S214). In other words, the parallax on each layer is combined to obtain the stereo parallax on the original size.
  • FIG. 25 a schematic configuration of a three-dimensional feature data generation apparatus 100 according to the third embodiment of the present invention is shown in a block diagram of FIG.
  • the third embodiment of the present invention is different from the first embodiment in that the straight line extraction unit 50 in the first embodiment shown in FIG. Different from form.
  • the second embodiment is also different from the second embodiment in the same points described above.
  • the multiscale straight line extraction unit 150 performs straight line extraction on the images of each layer from the multiscale image pyramid, and finally uses a certain restriction on the straight lines from each layer, and outputs the result of a single straight line set. .
  • a straight line extracted from a multi-scale image has fewer noise straight lines than a single scale, and actually meaningful straight lines, such as outline lines of houses, can be extracted with higher connectivity.
  • a multiscale line detection method may be used.
  • the basic function of the processing rule input unit 30 is the same as that of the first embodiment.
  • the number of layers and the parameters of the reduction scale on each layer are input from the processing rule input unit 30.
  • the parameters for straight line pair determination processing are the same as those in the first embodiment, and thus description thereof is omitted.
  • the physical configuration when the three-dimensional feature data generation apparatus 100 according to the third embodiment is mounted on a computer is basically the configuration shown in the block diagram of FIG. 6 as in the first embodiment. Therefore, the description is omitted.
  • FIG. 26 is a flowchart showing a three-dimensional feature data generation process in the third embodiment.
  • stereo image data is input to the stereo image data input unit 10
  • straight line classification information is input to the straight line classification input unit 20
  • processing parameters are input to the processing rule input unit 30.
  • the three-dimensional feature data generation process of FIG. 26 is started.
  • step S320 Since the processing of each step in the overall processing flow is the same as that of the first embodiment except for the multiscale straight line acquisition (step S320), the description thereof will be omitted.
  • the multiscale straight line extraction unit 150 inputs the number of image hierarchies and the reduction scale stored in advance in the processing rule storage unit 31 (step S321), and each of the left and right images based on the input parameters (the number of image hierarchies and the reduction scale). Multi-scale images are generated (step S322), edges are extracted on each layer (step S323), and straight lines are extracted on each layer (step S324). Then, the process of combining the hierarchical straight lines is performed (step S325). That is, the straight lines extracted on each layer are combined, and finally one straight line set is acquired.
  • FIG. 28 a schematic configuration of a three-dimensional feature data generation apparatus 100 according to the fourth embodiment of the present invention is shown in a block diagram of FIG.
  • the fourth embodiment of the present invention is the point that the meaningless straight line removal unit 70 in the first embodiment shown in FIG.
  • the difference from the first embodiment is that a map data input unit 160 is added.
  • the second embodiment and the third embodiment differ in the same points described above.
  • the map data input unit 160 has a function of inputting map data, and inputs map data as auxiliary data for defining an effective area when a noise line or the like is deleted.
  • the map data is data that holds geographical information in the target area, for example, information such as the position, range, and shape of features such as houses, roads, rivers, green spaces, and trees.
  • the map data used in the present invention may be any map data that reflects the basic topography and geographic information of features based on longitude and latitude information with a certain accuracy. For example, commercially available maps, base maps, topographic maps, etc. Available.
  • map data as shown in FIG. 29 can be used as an example.
  • map data shown in FIG. 29 landforms such as residential areas, roads, railways, rivers, and green spaces where houses are concentrated are represented.
  • map data actually used is shown in color in accordance with the provisions of the application drawing. However, the map data actually used is shown in color. Are color-coded in different colors.
  • map data map digital data
  • FIG. 29 a case where map data (map digital data) as shown in FIG. 29 is used will be described as an example.
  • the map data used in the present invention is a vector map having the longitude and latitude information of the coordinates of each point on the outline of buildings, roads, rivers, etc., but may be a raster map of a fixed scale.
  • symbol information indicating an actual location such as a town name or a river name may be given to each terrain or feature. When symbol information is given, it can be used to determine whether or not the terrain and features associated with the symbol information are to be processed.
  • the map-related meaningless straight line removal unit 170 uses a method for removing meaningless straight lines based on map information.
  • An area unrelated to a house or a building is an invalid area for the processing of the present invention, while an effective area is a house or a building. If the range of the invalid area can be clearly distinguished from the range of the valid area, by extracting the invalid area, all the straight lines in the invalid area are removed as meaningless straight lines. It can be executed more efficiently.
  • Water areas such as rivers, ponds, and seas are not related to houses and buildings, and usually occupy areas that are independent of other features, so that they can be extracted as invalid areas in the 3D model generation process.
  • a green area of a certain area in an urban area for example, a park, a forest area, a dandelion, a field, or the like can be excluded from the 3D model generation process as an invalid area.
  • terrain and features unrelated to houses and buildings, such as roads, railways, and roadside trees are often mixed with houses and buildings. It cannot be divided from a certain area. The region extraction and the region exclusion processing are not performed on the topography and features as described above.
  • the outline of the area can be written manually, but it is more efficient to automatically extract the airline to be processed. Realized by a combination of photos and map data. After extracting the water area and the green area from the map data, the area extracted by the overlap of the map data and the aerial photograph can be reflected in the aerial photograph, and the excluded area is automatically determined on the aerial photograph.
  • the coordinates of the shooting center point indicate the real world position of the aerial photograph
  • the angle indicating the attitude of the airplane at the time of shooting determines the real world orientation of the aerial photograph
  • Size and resolution determine the real-world range of aerial photography.
  • the results of aerial triangulation are acquired based on the coordinates of the center point of the shooting point and the attitude of the airplane at the time of shooting, and then the stereo image is relative to each other.
  • the map can be geometrically transformed to determine the correspondence between the map and the same position on the image, and the map can overlap the image.
  • geometric transformation of the map is performed. Basically, based on the shooting information of the image and the content in the image, for example, the position correspondence relationship with the image in the same region is acquired by converting the map by affine transformation.
  • the map of FIG. 29 described above is displayed in monochrome according to the provisions of the application drawing, but is displayed as follows on an actual color map.
  • buildings are gray
  • ordinary roads are white
  • main roads are yellow
  • water areas are blue
  • green spaces are green.
  • different terrain can be distinguished, and each region of the different terrain is identified. Since the correspondence between the map and the image is performed in advance, the contour lines of the extracted water area and green area can be directly reflected on the image.
  • each region is normally displayed as a polygon, and color information is stored as one attribute of the polygon.
  • the terrain displayed in the area is easily determined by the color information, and the water area and the green area are extracted.
  • the outline of the region cannot be used directly on the aerial photograph as a vector, it is necessary to first convert pixels at the same position on the aerial photograph as outline pixels.
  • image division is performed based on color information, contour lines in pixel units of water areas and green areas are extracted, and the outline lines are reflected in the aerial photograph.
  • the physical configuration when the three-dimensional feature data generation apparatus 100 according to the fourth embodiment is mounted on a computer is basically the configuration as shown in the block diagram of FIG. 6 as in the first embodiment. It is. However, only the following part is different from the first embodiment.
  • Data that can be input via the input / output unit 202 includes map data in addition to image data to be processed, processing parameters, processing method type, straight line classification information, and the like.
  • the data that can be displayed includes map data in addition to the input image data and the processing result of the three-dimensional feature data generation apparatus 100.
  • Data that can be input via the operation unit 204 includes map data in addition to the stereo image data, processing parameters, and line category information described in the first embodiment.
  • FIG. 30 is a flowchart showing a three-dimensional feature data generation process in the fourth embodiment.
  • stereo image data is input to the stereo image data input unit 10
  • line category information is input to the line category input unit 20
  • map data is input to the map data input unit 160
  • processing rules are input.
  • step S440 The processing in each step in the overall processing flow is the same as that in the first embodiment except for the map-related meaningless straight line removal (step S440), and thus the description thereof is omitted.
  • the map-related meaningless straight line removal unit 170 inputs map data via the map data input unit 160 (step S441), and extracts water areas and green areas (areas unrelated to the features of houses and buildings) on the map.
  • Step S442 In order to refer to the image, the map is geometrically transformed (Step S443), and the region extracted on the map is reflected on the image (Step S444). Then, the straight line in the extraction region is removed (step S445). That is, all straight lines in the water area and the green area reflected on the image are removed.
  • the three-dimensional feature data generation apparatus 100 captures a plurality of images taken from different viewpoints from above the area where the analysis target house or building is located.
  • a three-dimensional model of a feature including a house or a building can be created on the basis of stereo information from the image and the linear characteristic information inherent to the house or the building. That is, the three-dimensional feature data generation apparatus 100 according to the second embodiment uses the parallax calculated on the multiscale in the stereo parallax calculation, and finally acquires the parallax on the original size stereo image.
  • multi-scale stereo parallax calculation means it is possible to obtain more accurate parallax than parallax calculation on a single scale.
  • the 3D feature data generation apparatus 100 extracts a straight line on the multiscale at the time of straight line extraction, and finally outputs a single straight line set in which straight lines from each layer are collected. Therefore, the number of noise straight lines can be reduced and the connectivity of the extracted straight lines can be improved as compared with the straight line extraction on a single scale.
  • the 3D feature data generation apparatus 100 according to the fourth embodiment uses the map information when removing the meaningless straight line, and thus the area unrelated to the house and the building is found as an invalid area. All the straight lines in the invalid area are removed as meaningless straight lines, and the meaningless straight line removal can be executed more efficiently.
  • a three-dimensional feature data generation device that generates three-dimensional data of features including houses and buildings from stereo images, Stereo parallax calculation means for calculating a predicted value of stereo parallax related to the terrain and feature height information;
  • a straight line extracting means for extracting a straight line on an image including a feature line indicating the internal structure of the top of the feature, a contour line indicating the outer shape of the feature, and a feature line on the non-feature;
  • Using the parallax information from the stereo parallax calculation means and the color and texture distribution around each straight line a correspondence relationship including the classification of the straight line in one image and the straight line in the other image is established.
  • Straight line pair determining means for determining whether or not Stereo parallax for calculating a more accurate parallax value on the basis of the straight line pair having the correspondence determined by the straight line pair determining unit and correcting the predicted parallax value obtained by the stereo parallax calculating unit Correction means; Among the straight line pairs having the correspondence determined by the straight line pair determining unit, only the pair related to the feature including the house and the building is selected, and the parallax information of each straight line pair and the plurality of straight line pairs are selected.
  • a straight line pair clustering means for determining straight line pairs belonging to the same feature using a restriction including a geometric relationship;
  • Plane extraction means for extracting a basic plane constituting the feature based on the geometric relationship in the straight line pair belonging to each feature determined by the straight line pair clustering means, and parallax information;
  • Plane combination means for determining a positional relationship in a three-dimensional space in the plane of each feature extracted by the plane extraction means, and generating a three-dimensional model representing the whole feature,
  • a three-dimensional feature data generation apparatus comprising:
  • the stereo parallax calculation means obtains a reduced stereo image with a certain reduction scale according to the purpose, and calculates the parallax with the reduced stereo image, and calculates the parallax based on the reduction scale as an original size.
  • the stereo parallax calculation means generates a multi-scale reduced stereo image for a stereo image as a processing target, calculates the parallax on each scale, and summarizes the multi-scale parallax information, thereby predicting the parallax on the original size
  • the three-dimensional feature data generation device according to any one of supplementary notes 1 to 3, characterized in that:
  • the straight line extraction means extracts a straight line from one of the stereo images based on an edge extracted by a predetermined image processing method.
  • the three-dimensional feature data generation apparatus according to Supplementary Note 1, wherein
  • the straight line extraction means constructs an image pyramid from a reduced image acquired in multi-scale with one image of a stereo image as a processing target, performs straight line extraction on each layer image on the image pyramid, and extracts the extracted image Combine straight lines with certain restrictions and output one straight line set.
  • the three-dimensional feature data generation device according to appendix 1 or 5, characterized in that.
  • the straight line classification determining unit is configured to convert the straight line extracted by the straight line extracting unit based on the parallax acquired by the stereo parallax calculating unit and the input stereo image, to a straight line related to the feature and unrelated to the feature. Classify into straight lines,
  • the three-dimensional feature data generation device according to any one of supplementary notes 1 to 6, characterized in that:
  • the straight line classification determining means based on the parallax acquired by the stereo parallax calculating means and the input stereo image, shows a straight line related to the feature in the straight line extracted by the straight line extracting means, and further has a rooftop structure. From different features including, classify into the straight line inside the feature roof and the outline outside the feature,
  • the three-dimensional feature data generation device according to any one of appendices 1 to 7, characterized in that:
  • the straight line classification determining means further selects a straight line irrelevant to the feature in the straight line extracted by the straight line extracting means based on the parallax acquired by the stereo parallax calculating means and the input stereo image, and further outlines the shadow region. Classify into lines, road lines and other straight lines,
  • the three-dimensional feature data generation device according to any one of supplementary notes 1 to 8, wherein
  • the straight line classification determining means classifies the straight lines extracted by the straight line extracting means based on the parallax acquired by the stereo parallax calculating means and the input stereo image according to the application purpose specific to the user.
  • the three-dimensional feature data generation device according to any one of supplementary notes 1 to 9, characterized in that.
  • the straight line classification determining means is a classification rule generated by combining the straight lines extracted by the straight line extracting means with a larger number of classification criteria based on the parallax acquired by the stereo parallax calculating means and the input stereo image.
  • the meaningless straight line removal means excludes straight lines generated by the influence of image noise and shadow areas extracted from the processing object, together with straight lines that are meaningful in the real world by the straight line extraction means,
  • the three-dimensional feature data generation device according to appendix 1, 5 or 6, characterized in that.
  • the meaningless straight line removal means inputs map information including the area represented on the stereo image from the outside, determines the correspondence of the approximate same position by adjusting the overlap between the map and the stereo image, Confirm the invalid area and delete all the straight lines in the invalid area as noise straight lines.
  • the three-dimensional feature data generation device according to Supplementary Note 1, 5, 6 or 12, wherein
  • the meaningless straight line removing means deletes a noise straight line defined according to the application purpose specific to the user from the straight lines extracted by the straight line extracting means.
  • the three-dimensional feature data generation device according to appendix 1, 5, 6, 12 or 13, characterized by
  • the straight line pair determining unit searches for a straight line corresponding to the other image from the straight line in one of the stereo images based on the classification of the straight line extracted by the straight line extracting unit by the straight line classification determining unit.
  • the straight line pair determining unit searches for a straight line corresponding to the other image from the straight line in one of the stereo images based on the classification of the straight line extracted by the straight line extracting unit by the straight line classification determining unit.
  • the straight line pair determining means determines a straight line partially or wholly associated with the straight line extracted by the straight line extracting means from one image of the stereo image in the other image,
  • the three-dimensional feature data generation device according to appendix 1, 5, 6, 7, 8, 9, 10, 11 or 15 characterized by the above.
  • the stereo parallax correction unit acquires a more accurate parallax value based on the straight line pair acquired by the straight line pair determination unit, with a straight line correspondence as a matching restriction condition for other points on the same epipolar line on the left and right images. , Correcting the parallax prediction value acquired by the stereo parallax calculation means, The three-dimensional feature data generation device according to Supplementary Note 1, 2, 3, 4, 15 or 16 characterized by the above.
  • the stereo parallax correcting unit uses the correspondence relationship of the straight line pair acquired by the straight line pair determining unit as a matching restriction condition for other points on the same epipolar line, and a range of an occlusion region generated in the vicinity of a feature having a certain height Correct the parallax prediction value obtained from the stereo parallax calculation means by more accurately determining
  • the three-dimensional feature data generation device according to appendix 1, 2, 3, 4, 15, 16 or 17, characterized by the above.
  • the straight line pair clustering unit selects a straight line pair related to the feature among the straight line pairs determined by the straight line pair determining unit, and calculates the parallax acquired by the stereo parallax correcting unit and the geometric relationship of the plurality of straight line pairs. Use and determine the straight pairs that belong to each feature,
  • the three-dimensional feature data generation apparatus according to appendix 1, 15, 16, 17 or 18, characterized by the above.
  • the straight line pair clustering unit adjusts the straight line pair determined by the straight line pair determining unit to the application purpose based on a condition that the straight line pair belonging to the same feature must satisfy the specific application purpose according to the user. Determine the affiliation of the straight line pair, The three-dimensional feature data generation device according to Supplementary Note 1, 15, 16, 17, 18, or 19 characterized by that.
  • the plane extraction unit includes the parallax information acquired by the stereo parallax correction unit, the parallax associated with each straight line pair, and the neighborhood area of the straight line pair, from the straight line group belonging to each feature acquired by the straight line pair determination unit. Based on the disparity distribution in the The three-dimensional feature data generation device according to Supplementary Note 1, 15, 16, 17, 18, 19 or 20, wherein
  • the plane extraction unit is configured to convert the parallax information acquired by the stereo parallax correction unit and the color information in the related area of the linear pair group with respect to the linear pair group belonging to each feature acquired by the linear pair determination unit. Based on the constraint of plane constraints and the condition of smoothness of color distribution or texture distribution on the plane, The three-dimensional feature data generation device according to Supplementary Note 1, 15, 16, 17, 18, 19, 20, or 21, characterized by the above.
  • the plane combination means generates a three-dimensional structure of the roof from each plane constituting the roof of the feature determined by the plane extraction means, and uses the parallax information acquired by the stereo parallax correction means, Generate a 3D model of The three-dimensional feature data generation apparatus according to Supplementary Note 1, 17, 18, 21, or 22, wherein
  • a three-dimensional feature data generation method for generating three-dimensional data of features including houses and buildings from stereo images, A stereo parallax calculation step for calculating a predicted value of stereo parallax related to the terrain and feature height information;
  • a straight line extraction step of extracting a straight line on an image including a feature line indicating an internal structure of the feature roof, a contour line indicating a shape outside the feature, and a feature line on the non-feature;
  • a straight line classification determination step for classifying the straight line extracted in the straight line extraction step into a straight line including a straight line inside a feature roof, a feature external contour line, and a shadow region contour line by matching the meaning in the real world,
  • a meaningless straight line removal step for excluding straight lines that do not exist in the real world caused by effects including shadows and noise from the processing target;
  • Using the parallax information from the stereo parallax calculation step and the color and texture distribution around each straight line a correspondence relationship including the classification of the straight line in one image and the straight line in
  • a straight line pair determining step for determining whether or not Stereo parallax for calculating a more accurate parallax value based on the correspondence relationship, and correcting the predicted parallax value obtained in the stereo parallax calculation step for the straight line pair having the correspondence relationship determined in the straight line pair determination step Correction steps;
  • the straight line pair having the correspondence determined in the straight line pair determining step only a pair related to a feature including a house and a building is selected, disparity information of each straight line pair, and a plurality of straight line pairs.
  • a straight line pair clustering step for determining straight line pairs belonging to the same feature using a restriction including a geometric relationship;
  • a plane extraction step for extracting a basic plane constituting the feature based on the geometric relationship in the straight line pair belonging to each feature determined in the straight line pair clustering step and information on the parallax;
  • a plane combination step of determining a positional relationship in a three-dimensional space in the plane of each feature extracted in the plane extraction step, and generating a three-dimensional model representing the entire feature;
  • a three-dimensional feature data generation method comprising:
  • Computer Stereo parallax calculation means for calculating a predicted value of stereo parallax related to the height information of the terrain and the feature,
  • a straight line extraction means for extracting a feature line indicating the internal structure of the top of the feature, a contour line indicating the outer shape of the feature, and a straight line on the image including the feature line on the non-feature;
  • a straight line classification judging means for classifying the straight lines extracted by the straight line extracting means into straight lines that match the meaning in the real world and include the straight line inside the feature roof, the external contour line of the feature, and the shadow area contour line, Meaningless straight line removal means for excluding straight lines that do not exist in the real world caused by effects including shadows and noise from the processing target, Using the parallax information from the stereo parallax calculation means and the color and texture distribution around each straight line, a correspondence relationship including the type of the straight line in one image and the straight line in the other image is established.
  • Straight line pair judging means for judging whether or not, Stereo parallax for calculating a more accurate parallax value on the basis of the straight line pair having the correspondence determined by the straight line pair determining unit and correcting the predicted parallax value obtained by the stereo parallax calculating unit Correction means, Among the straight line pairs having the correspondence determined by the straight line pair determining unit, only the pair related to the feature including the house and the building is selected, and the parallax information of each straight line pair and the plurality of straight line pairs are selected.
  • Straight line pair clustering means for determining straight line pairs belonging to the same feature using restrictions including geometric relationships
  • a plane extracting means for extracting a basic plane constituting the feature based on the geometric relationship in the straight line pair belonging to each feature determined by the straight line clustering means, and information on the parallax
  • Plane combination means for determining a positional relationship in a three-dimensional space in the plane of each feature extracted by the plane extraction means, and generating a three-dimensional model representing the whole feature

Abstract

 ステレオ視差計算部(40)は、ステレオ視差の予測値を計算する。直線抽出部(50)は、画像上の直線を抽出する。直線類別判定部(60)は、地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線等を含む直線に分類する。無意味直線除去部(70)は、実世界に存在しない直線等処理対象から除外する。ステレオ視差修正部(90)は、直線ペア判定部(80)に判定された直線ペア関係に基づき、視差の予測値を修正する。直線ペアクラスタリング部(110)は、同一の地物に属している直線ペアを決定する。平面組合せ部(130)は、平面抽出部(120)により抽出された各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する。

Description

三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラムを記録した記録媒体
 本発明は、詳細な屋上構造を反映した高精度の三次元地物データを低いコストで生成することのできる三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラムを記録した記録媒体に関する。
 従来、地物(地上に存在する天然または人工のすべての物体)の三次元モデルを生成する方法として、空中レーザスキャナから取得した地表表面の三次元点群データを、周波数に基づいて地物と地面に分離し、分離した地物の輪郭ポリゴンの三次元地理座標を取得することによって地物の三次元モデルを生成する技術が知られている。
 このようなレーザスキャナを用いる技術の一例として、特許文献1に三次元市街地空間モデル作成方法およびシステムの発明が開示されている。
 この特許文献1の発明では、通常、レーザデータの解像度の制限により、作成した三次元地物モデルが粗くなり、特に地物の屋上の構造を高い精度で表現することができないという問題があった。例えば、1m解像度のレーザデータを元に作成した三次元地物モデルにおける地物の屋上は、実際の建物の屋上の詳細構造を表現できないものであった。
 最近では、高解像度ステレオ航空写真から同じ解像度のデジタル表層モデルを生成することにより、レーザデータよりも細かい三次元データが生成でき、地物の屋上構造まで細かく表現できるようになっている。また、空中写真測量のコストは、レーザデータを用いた場合よりも低く抑えられる。
 また、特許文献2には、地上で建物の写真を撮影すると同時に、撮影位置の経緯度を記録し、操作員が建物の構成面の頂点位置を入力した上で、建物の三次元モデルの座標を計測する発明が開示されている。
 この特許文献2の発明では、一軒一軒、撮影と手動入力等の作業の必要があるため、例えば、広範囲に家屋の分布密度が高い住宅街等の場合に、多大なコストがかかるという問題があった。また、地上撮影に限界があるため、例えば、市街地にある高層ビルなどは処理不可となるなどの問題があった。
 このような事情から、例えば、非特許文献1において、航空写真のステレオ画像を用いた三次元地物復元方法が提案されている。
 この非特許文献1には、航空写真のステレオ画像から線特徴を抽出し、左右画像上の線と周辺にある線との幾何関係を利用し、perceptual groupingという技術で平行、垂直など特別な幾何関係を確定するとともに長方形輪郭の地物を抽出し、またステレオ計算で地物の輪郭の三次元座標を取得することで地物の三次元モデルを生成する発明が開示されている。
 また、非特許文献2には、基本的に非特許文献1と同じように、perceptual grouping技術で地物と関連するエッジだけをまとめ長方形の家屋の輪郭を決定し、前もってエリアマッチング手法で計算した視差図から三次元家屋モデルを取得する発明が開示されている。
特開2002-074323号公報 特開2004-102474号公報
R. Mohan, R. Nevatia, "Using Perceptual Organization to Extract 3-D Structures", IEEE Transactions on Pattern Recognition and Machine Intelligence, vol. 11, no. 11, pp. 1121-1139, Nov. 1989. T. Dang, O. Jamet, H. Maitre, "Applying Perceptual Grouping and Surface Models to the Detection and Stereo Reconstruction of Building in Aerial Imagery", XVIII Congress of ISPRS, Comm. III, Int. Archives of Photogrammetry and Remote Sensing, Vol. 30, pp. 165-172, Sep. 1994.
 上述した先行技術においては、以下のような問題点があった。
 特許文献1を一例とする技術では、画像内にある家屋、建築物について屋上の細かい構造を反映できないという問題があった。
 その理由は、上述したようにレーザデータの解像度の制限から、屋上の情報を高精度で取得することができないためである。
 特許文献2を一例とする技術では、広範囲に密度の高い住宅群等の処理に多大な作業コストがかかり、また地上撮影の制限から高層ビル等の処理が不可能という問題があった。
 そのため、広域上の各種の建物を処理できるように、航空写真や衛星画像に基づく三次元データを生成する必要があった。
 非特許文献1,2を一例とする技術では、perceptual grouping技術を用いており、簡単な家屋輪郭の形状(例えば長方形の屋上)だけを生成することができる。それでも、このperceptual grouping技術では、家屋の分布密度が高い住宅街の場合に、画像特徴として抽出した線の数が非常に膨大になってしまうという問題があった。また、多くの場合、同じブロック内にある家屋のほとんどは道路と平行な方向に建築されているため、抽出した家屋の線に対し、平行関係や垂直関係となるほかの線の数量も非常に多くなり、簡単な幾何関係だけでは各家屋の輪郭を抽出することができないという問題があった。それ以外でも、高層ビルの場合には、視差が非常に大きいため、左右画像上で本来正しい対応付け関係を持つ直線ペアが、誤ってほかの直線と対応付けられてしまうことが発生するという問題があった。
 本発明は、このような課題を解決するためになされたもので、詳細な屋上構造を反映した高精度の三次元地物データを低いコストで生成することを目的とする。
 本発明の第1の観点に係る三次元地物データ生成装置は、
 ステレオ画像から家屋、及び建築物を含む地物の三次元データを生成する三次元地物データ生成装置であって、
 地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算手段と、
 地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出手段と、
 前記直線抽出手段で抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定手段と、
 影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去手段と、
 前記ステレオ視差計算手段からの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定手段と、
 前記直線ペア判定手段で判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算手段で取得した視差の予測値を修正するステレオ視差修正手段と、
 前記直線ペア判定手段で判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリング手段と、
 前記直線ペアクラスタリング手段で決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出手段と、
 前記平面抽出手段で抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せ手段と、
 を備えることを特徴とする。
 本発明の第2の観点に係る三次元地物データ生成方法は、
 ステレオ画像から家屋、及び建築物を含む地物の三次元データを生成する三次元地物データ生成方法であって、
 地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算ステップと、
 地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出ステップと、
 前記直線抽出ステップで抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定ステップと、
 影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去ステップと、
 前記ステレオ視差計算ステップからの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定ステップと、
 前記直線ペア判定ステップで判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算ステップで取得した視差の予測値を修正するステレオ視差修正ステップと、
 前記直線ペア判定ステップで判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリングステップと、
 前記直線ペアクラスタリングステップで決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出ステップと、
 前記平面抽出ステップで抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せステップと、
 を備えることを特徴とする。
 本発明の第3の観点に係る三次元地物データ生成プログラムを記録した記録媒体に記録されたプログラムは、
 コンピュータを、
 地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算手段、
 地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出手段、
 前記直線抽出手段で抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定手段、
 影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去手段、
 前記ステレオ視差計算手段からの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定手段、
 前記直線ペア判定手段で判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算手段で取得した視差の予測値を修正するステレオ視差修正手段、
 前記直線ペア判定手段で判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリング手段、
 前記直線ペアクラスタリング手段で決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出手段、
 前記平面抽出手段で抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せ手段、
 として機能させることを特徴とする。
 本発明によれば、詳細な屋上構造を反映した高精度の三次元地物データを低いコストで生成することができる。
第1の実施形態に係る三次元地物データ生成装置の概要構成を示すブロック図である。 密集している家屋の輪郭線の一例を示す模式図である。 縮小したステレオ画像上でのステレオマッチングの探索範囲を説明するための模式図である。 エピポーラ線上における探索範囲の制限を説明するための模式図である。 (a)~(e)共に、直線ペアクラスタリングの具体例を説明するための模式図である。 第1の実施形態に係る三次元地物データ生成装置をコンピュータに実装する場合における構成の一例を示すブロック図である。 第1の実施形態に係る三次元地物データ生成処理全体の流れを示すフローチャートである。 第1の実施形態に係るステレオ画像相互標定の処理内容を示すフローチャートである。 第1の実施形態に係るステレオ視差取得の処理内容を示すフローチャートである。 第1の実施形態に係る直線取得の処理内容を示すフローチャートである。 第1の実施形態に係る直線類別判定の処理内容を示すフローチャートである。 第1の実施形態に係る無意味直線除去の処理内容を示すフローチャートである。 第1の実施形態に係る直線ペア判定の処理内容を示すフローチャートである。 第1の実施形態に係る左画像上直線の対応直線を抽出する詳細を示すフローチャートである。 第1の実施形態に係る左右画像上の直線の対応関係を結合する詳細を示すフローチャートである。 第1の実施形態に係るステレオ視差修正の処理内容を示すフローチャートである。 第1の実施形態に係る直線ペアクラスタリングの処理内容を示すフローチャートである。 第1の実施形態に係る平面抽出の処理内容を示すフローチャートである。 第1の実施形態に係る閉合ポリゴンの分類の詳細を示すフローチャートである。 第1の実施形態に係る平面判定処理の詳細を示すフローチャートである。 第1の実施形態に係る平面組合せの処理内容を示すフローチャートである。 第2の実施形態に係る三次元地物データ生成装置の概要構成を示すブロック図である。 第2の実施形態に係る三次元地物データ生成処理全体の流れを示すフローチャートである。 第2の実施形態に係るマルチスケールステレオ視差取得の処理内容を示すフローチャートである。 第3の実施形態に係る三次元地物データ生成装置の概要構成を示すブロック図である。 第3の実施形態に係る三次元地物データ生成処理全体の流れを示すフローチャートである。 第3の実施形態に係るマルチスケール直線取得の処理内容を示すフローチャートである。 第4の実施形態に係る三次元地物データ生成装置の概要構成を示すブロック図である。 具体的な地図データの一例を示す図である。 第4の実施形態に係る三次元地物データ生成処理全体の流れを示すフローチャートである。 第4の実施形態に係る地図関連無意味直線除去の処理内容を示すフローチャートである。
 以下、本発明の実施形態について図面を参照して説明する。
 なお、以下の実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であり、それらの実施形態も本発明の範囲に含まれる。
(第1の実施形態)
 図1は、本発明の第1の実施形態に係る三次元地物データ生成装置100の概要構成を示すブロック図である。この三次元地物データ生成装置100は、分析対象の家屋や建築物がある地域に対し、上空より異なる視点で撮影した複数の画像からのステレオ情報と、家屋や建築物本来の直線特徴情報とに基づき、家屋や建築物を含む地物の三次元モデルを作成する。以下、本図を参照して説明する。
 図1に示すように、三次元地物データ生成装置100は、ステレオ画像データ入力部10と、直線類別入力部20と、直線類別記憶部21と、処理規則入力部30と、処理規則記憶部31と、ステレオ視差計算部40と、直線抽出部50と、直線類別判定部60と、無意味直線除去部70と、直線ペア判定部80と、ステレオ視差修正部90と、直線ペアクラスタリング部110と、平面抽出部120と、平面組合せ部130とを有する。
 ステレオ画像データ入力部10は、画像データを入力する機能を有する。ユーザは、ステレオ画像データ入力部10に、ステレオ情報をもつ左画像と右画像のペア画像(ステレオ画像)を入力する。
 本発明で使用するステレオ画像は、例えば、航空写真から変換したデジタル画像や衛星写真からのデジタル画像等であるが、これらに限られるものではない。また、特に航空写真の場合、アナログカメラで撮影したアナログ写真をスキャニングなどの処理でデジタル化したデジタル画像であってもよい。
 一例として、ステレオ画像が航空画像の場合には、航空機の飛行方向に対して前後の重なりが通常60%、飛行コース間の上下の重なりが30%を標準として撮影された航空写真のデータが用いられる。
 直線類別入力部20は、処理しようとするステレオ画像内にある直線の類別を入力する機能を有する。ユーザは、直線類別入力部20に、直線類別を判定する際に必要な類別を入力する。
 例えば、直線類別入力部20は、普段航空写真に表されるすべての直線類別を提供可能となっている。そして、ユーザは、提供された類別から処理している航空写真内に存在する直線の種類を選択し、直線類別入力部20から選択した直線の種類を入力する。直線類別入力部20から入力した類別は、直線類別記憶部21に保存され、直線類別判定部60が直線類別を判定する際に適時取得される。
 航空写真に表される直線類別として、例えば、影領域輪郭線、家屋外部輪郭線、家屋屋上内部の直線、道路線、駐車場内直線、水面上ノイズ線、樹木上ノイズ線、ほかのノイズ線等がある。このような直線類別は、それぞれ独立している類別として直線類別入力部20から入力してもよいし、多数の類別を組合せた新しい類別であってもよい。例えば、家屋外部輪郭線、家屋屋上内部の直線などは、ともに家屋輪郭線として類別してもよい。また、水面上ノイズ線、樹木上ノイズ線などとほかのノイズ線を合わせてノイズ線類として類別してもよい。また、道路線、駐車場内直線などを統一し路面上直線として類別してもよい。
 実際には、処理している写真のコンテンツ、写真内の各地物、地形の特徴などにより、分類の細かさなどを決めることになる。一例として、図2に示すように、密集している家屋が隣の家屋と近似する構造を持っている場合では、直線ペアの関係をより正確に決定するために、家屋輪郭線を1つの種類ではなく、家屋外部輪郭線、家屋屋上内部の直線の2つの種類に分けるなどである。
 また、実際の応用目的に応じて直線類別を設定してもよい。具体的には、例えば、直線の角度により全体の180度を6等分し、各角度範囲に応じた類別に分類する。また、画像内における家屋や建築物の屋上の構造がポリゴンである場合には、家屋の輪郭を構成する各直線について、各方向に応じて分類する。これにより、後述する直線ペア判定と直線ペアクラスタリングの処理がより簡単に実現できる。
 この他の具体例も挙げておく。例えば、対応地域の地図を変換することで、航空写真からの画像と地図とを対応させ、地図上にある街区の範囲情報を画像上に反映し、街区単位で直線を分類する。つまり、1つの街区内の全ての直線は同じ類別と判定することで、後述する対応直線を捜索する際に、潜在直線の捜索範囲を縮小することができる。
 また、様々な分類基準の組合せで生成した新しい分類ルールを利用してもよい。
 図1に戻って、処理規則入力部30は、三次元地物データ生成に関する全てのパラメータを入力する機能を有する。ユーザは、処理規則入力部30に、後述するステレオ視差計算、直線ペア判定の処理にそれぞれ必要となるパラメータを入力する。
 処理規則入力部30から入力するパラメータは、例えば、ステレオ視差を縮小スケールで計算する際の縮小スケールの値、及び、直線ペア判定の際に使用するマッチングスコアの閾値などを含む。
 処理規則入力部30から入力したパラメータは、処理規則記憶部31に保存される。そして、ステレオ視差計算、及び、直線ペア判定のそれぞれの処理を行う際に処理パラメータが、処理規則記憶部31より適時取得される。
 ステレオ視差計算部40は、複数の航空画像が共有している領域内にある地物のステレオ視差を計算する。同一地物において、各画像上に反映されている傾きの変化がその地物の実際の標高を反映する視差の情報となる。
 視差を求めるため、まず異なる航空画像上に対応する部分を見つける必要がある。2つの航空画像の場合、このような左右画像上の各部分の相関性を求めるためにステレオマッチング処理が行われる。
 ステレオマッチング処理は、左右画像の共有している領域内において、一定の計算方法で、左右画像上それぞれの部分の近似度を算出する。その近似度は左右画像上にマッチングしようとする2つの部分が対応する可能性を示している。
 近似度を計算する際に、直接に画像上のピクセル単位の色情報あるいは輝度情報を利用してもよい。この他にも、画像分割を行った後、分割領域ごとに計算してもよいし、また一般的な特徴量、例えば、特徴点、特徴直線、特徴曲線などで計算してもよい。
 ステレオマッチングを行う前に、左右画像に対し、まず相互標定を行うことで、対応する部分の捜索範囲を二次元から一次元に制限することができる。つまり、相互標定後、左右画像の対応する部分は、同一のエピポーラ線上だけに存在する。
 ステレオ視差計算部40で取得する視差は、まだ視差の予測値であり、後述するように、ステレオ視差修正部90において直線ペアの情報で修正される。なお、ステレオ視差修正部90で修正できる視差は、画像のノイズの影響で発生したマッチングノイズなどである。オクルージョン領域内には、元々の左右画像だけでは視差の情報が復元できないので、修正できない。
 また、ステレオ視差計算部40で取得する視差は、まだ実際の標高ではなく、単に標高と正比例の関係を持つ相対的な高さ情報である。視差は地物の相対的な高低関係を反映することができるため、後述する直線ペア判定の処理と直線ペアクラスタリングの処理では補助情報として使用される。
 最終的に取得する三次元モデル上において、このような視差に基づいて、単に標高と正比例するように地物の高さを反映させてもよいし、また、入力した航空写真の撮影情報などに基づいて、視差を実際の標高に変換してもよい。
 ステレオ視差計算部40では、元サイズのステレオ画像で直接に視差を計算する方法に限られず、他の方法を用いてもよい。例えば、目的に応じて一定の縮小スケールで縮小したステレオ画像上に視差を計算し、そして取得した視差を元サイズの画像上にマッピングすることによって全画像の視差を取得する方法を用いてもよい。
 同じ縮小スケールで左右画像をそれぞれ縮小し、縮小画像では元サイズの画像よりもっと効率的に広い探索範囲内の最適対応点を取得することができる。特にステレオ画像内の視差の可能値の範囲が広い場合、つまり、地形の変化が激しい場合には、この方法によってより効率的に正確な視差を取得できる。
 実際の航空写真では、地形の変化が激しいケースは、様々である。例えば、山間部の場合、大きい正視差と大きい負視差とがある。また、市街地に高層ビルの場合、画像内の平均視差と比べ非常に大きい正視差がある。以上のような視差の可能値の範囲が広い場合では、元の画像サイズで直接にステレオ視差を計算すると、計算の時間と効果を両立させることができない。
 全画像に各ピクセル上の視差を正しく取得することが目標である場合には、一番低い負視差から一番高い正視差までの視差の可能値の範囲を探索範囲として、全画素を対象として計算しなければならない。この場合、当然に処理時間が長くかかる。
 一方、計算効率が目標であれば、全画像の平均探索範囲を各ピクセルに設定することで、当画像内に一番低い負視差から一番高い正視差までの範囲を探索範囲として設定することより処理時間は短縮される。ただし、平均探索範囲外の非常に高い正視差と非常に低い負視差があるピクセルに正しい視差を取得することができないため、見た目ではオクルージョン領域と同じようにマッチングできない状況となる。
 以上の問題を解決するために、従来は、まず全画像上に平均探索範囲を設定し視差を計算し、計算した結果の中にマッチングできていない部分だけを手動で探索範囲を一定程度で拡大してからもう一回ステレオマッチングを行うという方法が採用されていた。この方法でも、一定の効率で全画像の視差情報を正しく取得できるが、ユーザの調整が必要となり自動的な方法ではなかった。また、探索範囲を広げるときには、画像の視差の可能値の範囲についての知識が必要だった。
 これに対し、本願発明では、縮小したステレオ画像上にステレオマッチングを行うことにより、自動的にかつ効率的に全画素上の視差を正しく取得できる。具体的には、図3に示すように、縮小ステレオ画像で、探索範囲を画像の幅に設定する。つまり、左の画像301a上のP点に対し、右の画像301bにおける同一エピポーラ線302上のPsからPeまでの全ての点との近似度を計算し、その中に近似度の一番高い点を対応する点と決める。この場合、探索範囲が縮小画像の幅となるので、オクルージョン点以外に、最大の正視差でも最小の負視差でも正しく取得できる。また、探索範囲が画像の幅であり、縮小画像上で行うので、縮小スケールが大きくほど、処理時間は短縮される。
 縮小ステレオ画像で取得した視差から元のサイズへマッピングするとき、縮小スケールが大きいほど、元サイズの画像上に視差情報が未定のピクセルが多い。一例として説明すると、もし元サイズの画像上に画素の数がNだとして、縮小スケールが2の場合、(1-0.5×0.5)×N=0.75×Nのピクセル上にて視差情報が未定となる。これに対し、縮小スケールが10の場合、(1-0.1×0.1)×N=0.99×Nのピクセル上にて視差情報が未定となる。
 もし効率だけでなく精度に対する要求も高い場合には、直接に元のサイズにマッピングするのではなく、縮小画像上に取得した視差を、元サイズのステレオ画像のステレオマッチングの補助情報として使用する。具体的に、まず元サイズ上に視差情報があるピクセルについて、その視差を中心値として一定の探索範囲を設定し、その範囲内にてより正確な視差を計算する。そして、既に決定した視差の情報を探索制限として使い、視差未定の点について対応点を探索する。これにより、自動的にかつ効率的に各ピクセルに適用の探索範囲を設定することができる。
 実施する際に縮小スケールの値は、このように効率と効果の両方を要求する設定を行うことが望ましい。効率に対する要求がより高い場合には、少し大きい縮小スケールを設定する。逆に視差の精度に対する要求が高い場合には、少し小さい縮小スケールを設定する。また、画像のコンテンツにも関連する。例えば、地物が少ない単一の地形の場合には、大きい縮小スケールであっても最終的な全体の視差への影響が小さい。一方、密集している地物がある場合には、画像の細かいコンテンツをより正確に反映するため、小さい縮小スケールの方がよいと想定する。
 図1に戻って、直線抽出部50は、ステレオ画像の左右画像それぞれを処理し、まず画像内のエッジ特徴を抽出し、後にエッジ特徴に基づき直線を抽出する。
 エッジ特徴の抽出方法と直線抽出方法は、それぞれ様々があるが、本実施例に使用される手法に制限はない。
 例えば、エッジ特徴の抽出方法として、Canny抽出方法を使用してもよい。また、直線抽出方法として、Hough transform方法を使用してもよい。
 直線類別判定部60は、ステレオ画像の左右画像にそれぞれ実行し、直線類別入力部20で入力された現在のステレオ画像に使用したい直線の類別により、画像内の全ての直線を各類別に分類する。
 直線分類の基準は、1つの特定の基準でもよいし、多数の分類基準の組合せでもよい。画像のコンテンツに応じて、適用する直線類別を設定することが望まれる。例えば、街区単位に直線を分類する手法は、高層ビルがない住宅地に適用する。高層ビルには大きい正視差があるため、屋上の輪郭の直線は普段画像上に違う街区領域に存在すると想定する。
 直線類別判定部60は、直線類別入力部20で入力された直線類別の情報により画像内の全ての直線を分類する。このとき、直線類別判定部60は、直線の特徴、例えば、角度、位置、長さなどと、ステレオ視差計算部40で取得した視差と、ステレオ画像の特徴などとも利用する。
 直線を分類する方法は、分類基準と分類する際に利用する特徴により様々あるが、本実施例に使用される手法に制限はない。一例として、以下に説明する分類方法を使用してもよい。
 直線とその近隣領域の視差情報により、直線上の平均視差と直線方向上の視差変化を把握することができる。地面と家屋を区別する視差の閾値を設定し、閾値より低い平均視差をもつ直線は、家屋、建築物などの地物と無関係な直線となる。そして、残る直線を、直線の長さ、直線の周りの領域のカラー分布とテクスチャ分布の均一性から、樹木上のノイズ直線及び地物と関連する直線とに分ける。ただし、全画像内の地形の変化が激しい場合、あるいは地物の高さの変化が激しい場合には、領域ごとに違う閾値の設定が必要となる。
 直線類別判定部60は、地物と関連する直線を、更に視差情報と画像の特徴を用いて、家屋外部輪郭線と屋上内部の直線に分類する。直線の両側の視差の差は大きく、かつ両側のカラー特徴も違う場合に、家屋外部輪郭線と判定する。逆に、直線の方向上において視差が変化するかどうかに拘わらず、直線の垂直方向で取得する両側の近隣領域内それぞれの平均視差がほぼ同じ、かつ画像のカラー特徴も大体同じで、明るさのみが少し違う場合に、屋上内部の直線と判定する。
 家屋、建築物などの地物の三次元モデルを生成するため、地物と無関係な直線を直接に処理することはないが、地物と関連する直線のペア判定、直線ペアクラスタリングなどの処理をより簡単に実行できるように、更に地物と無関係な直線を分類するようにしてもよい。例えば、画像のカラー特徴で影領域を判定し、直線の中に影領域の輪郭線を区別できる。影領域の輪郭線があるところの近所には、必ず家屋、建築物などの地物がある。また、路上の白線に沿う直線は、道路線として認識し、道路線の交差関係を判別する上で、街区領域の範囲が判定できる。地図の情報がないとき、これも1つの街区範囲情報の取得方法となる。
 画像のカラー特徴、テクスチャ特徴、また、視差上のテクスチャ特徴を利用し、例えば、水面抽出を行い、水面領域内の直線は全部水面上ノイズ線と判定する。また、水域と緑地について、地図上の情報からその領域を特定することもできる。
 直線をいくつかの類別に分けることにより、後述する直線ペア判定、無意味直線除去、及び、直線ペアクラスタリングをより簡単に実現できるようになる。
 左右画像上の直線をそれぞれ同じような類別設定で分類し、直線ペア判定の際に、一方の画像上の直線の他方の画像上の対応直線を捜索し、その捜索範囲を処理している直線と同じ種類の直線だけに限定できる。
 また、直線ペアを、各家屋や建築物に属しているか否かを基準としてクラスタリングをする際に、直線類別情報も利用できる。例えば、同じ街区領域内にある直線ペアは同一家屋に属している可能性が高いので、クラスタリングの際同じ街区内の直線ペアを優先し判定する。
 また、直線の分類の結果により、後述する無意味直線を除去する処理もより効率的に実行できるようになる。例えば、直線分類基準が、地物と関連する直線と無関係な直線だった場合には、簡単に地物と無関係な直線だけを除去できる。また、全ての直線が街区領域ごとに分類されたら、処理したい街区以外の直線は、全部無意味直線として除去することができる。
 無意味直線除去部70は、以降の直線ペア判定、直線ペアクラスタリングなどの処理部で処理しない直線を全て無意味直線と判定し、それらの直線を除去し、後の処理の効率と正確率を更に向上させる。
 実施する際に、無意味直線の定義は具体的な応用に応じて変わる。例えば、一定サイズ以上の家屋だけを注目する場合には、直線の長さに閾値をかけることで、この閾値以下の長さの直線を全部無意味直線と判定する。
 無意味直線除去部70において、直線類別判定部60の処理結果を利用し、類別ごとに無意味かどうかの判定が可能であれば、まとめて多数の無意味直線を除去する方法を利用してもよい。基本的に、家屋と関連する直線を除き、ほかの直線を全部無意味直線と判定して除去し、後の処理に影響しないようにする。
 例えば、仮に全ての直線を家屋外部輪郭線、屋上内部の直線、道路線、影領域の輪郭線、樹木ノイズ線、及び、水面上ノイズ線などの類別に分けた場合において、一方の画像からの影領域の輪郭線は、実世界に他方の画像上に対応する直線がないので、無意味直線として除去すべきである。また、樹木ノイズ線、及び、水面上ノイズ線も左右画像上にランダムに分布しているので、実世界に対応する直線がないことから除去すべきである。
 道路線は街区領域の判定に使えるが、街区ごとの判定ができた場合に、これからの処理で家屋、建築物などの地物の三次元モデルに使わない直線となるため、除去してもよい。
 直線ペア判定部80は、無意味直線除去の処理の後に残った全部の直線を処理対象として、一方の画像上の各直線に対し、他方の画像上にある対応直線を見つけ対応関係を付ける。
 対応直線を捜索するときに、まず直線の分類結果を利用し、他方の画像上に同じ類別の直線だけを潜在対応直線として直線マッチング度を計算する。
 また、対応直線を捜索するときに、ステレオ視差計算部40にて取得した視差を利用し、現在処理している直線の各ピクセル上の視差に基づき、各ピクセルが他方の画像上に対応する各点を取得し、そして対応点の集合の近隣領域内にある直線を見つけ、それらの直線を潜在対応直線として処理している直線とのマッチング度を計算し、マッチングするかどうかを判断する。
 視差情報で潜在対応直線の捜索範囲を決定することは、特に従来の方法では解決できないケース(例えば、近似の色、かつ近似の高さの家屋が密集している地域や高層ビルが含まれる場合)でも、処理の正確率と効率が共に向上する。
 処理している直線と潜在対応直線が左右画像それぞれからの直線で、そのマッチング度を計算する際に、様々な特徴を利用してもよい。例えば、直線の両側のカラー分布の特徴、直線の両側のテクスチャ特徴、直線の角度、直線の長さなどの近似度の綜合でマッチング度を取得する。
 従来の方法として、マッチング度の値に閾値をかけ、閾値以上のマッチング度をもつ直線ペアは対応直線と判定し、そうではないペアは全部対応しないと判定する。このような方法では、特に家屋が密集している地域に、直線の数が多く、かつ近所にある直線も大体同じ視差なので、誤マッチングのケースが多い。
 このような問題に対し、本願発明では、段階的にマッチングする方法を採用する。まず信憑度の高い直線ペアの対応関係を決め、そして決めた直線ペアの対応関係をこれからのマッチング制限として利用する。また今度残った直線ペアの中に信憑度の一番高い直線ペアのセットを決定する。さらに、全ての決定した直線ペアがまたこれからのマッチングに制限として利用する。このような段階的な処理で、全体的に直線ペアの対応関係の信憑度を高めることができる。
 直線対応関係の信憑度は、この実施例で使用する特徴に限らず、様々な特徴を利用してもよい。例えば、マッチング度の値、直線の長さ、視差の大きさなども利用できる。これらを利用する場合には、マッチング度の高い直線ペアの対応関係を先に決定することで、誤マッチングを減少させることができる。画像内には、通常大きい地物は少ないので、長い直線ペアの対応関係を先に決定することも誤マッチングを減少させることができる。従来の方法では、対応直線を捜索する際に、単に近隣領域内に捜索する。そのため、高層ビルなどの高い建築物の輪郭線をマッチングすることが一番難しい。この問題に対し、視差の情報を利用し先に高層ビル上の直線の対応関係を決定する。これにより、高層ビル関連の誤マッチングをまずなくし、また近所の別の家屋、建築物の輪郭線の誤マッチングも減少させることができる。
 以下は1つの例として、左右画像上の直線の対応関係を決定する方法を説明する。
 一方の画像の直線から他方の画像内に対応直線を捜索し、例えば左画像内の直線Sl1に対し、右画像内のSr1直線が対応直線と判定できたとする。更に右画像内のSr1直線に対し、左画像内のSl2直線が対応直線と判定できたとする。この場合、直線Sl1と直線Sl2とが同じときだけ、直線Sl1と直線Sr1との対応関係を決定する。
 ステレオ視差修正部90は、直線ペア判定部80で決定した直線ペアの対応関係を利用し、左右画像の視差を更に修正する。
 直線ペアの対応関係がある場合には、同一のエピポーラ線上に対応する点、例えばNとMとの対応関係も決められる。このため全部の直線ペアから、1つのエピポーラ線との交差点を対応点とすることで、エピポーラ線上のほかの点の対応点を捜索する制限条件として使用できる。一例として、図4に示すように、直線ペアA1,A2と直線ペアB1,B2がそれぞれ対応関係ありの場合には、エピポーラ線402との交差点はそれぞれM1,M2とN1,N2となる。そして、エピポーラ線402における左画像401a上の始点と終点はS1,E1となり、右画像401b上の始点と終点はS2,E2となる。この状態において、S1とM1の間の点に対する対応点は、必ずS2とM2の間にある。また、M1とN1の間の点に対する対応点は、必ずM2とN2の間にある。そして、N1とE1の間の点に対する対応点は、必ずN2とE2の間にある。
 上述のような制限条件で、直線ペアの間の点の視差を修正する。ここで使用する直線ペアは、全部家屋、建築物などの地物と関連する直線である。そのため、特に家屋外部輪郭線と屋上の内部直線などの間にある屋上の領域部分について修正し、屋上部分により正確な視差を取得することができる。また、異なる家屋の外部輪郭線の間の領域内にて、その視差を修正する。これにより、主にオクルージョン領域の輪郭線をより精確に取得することが可能となる。また、屋上の領域内の視差ノイズとオクルージョン領域の輪郭周辺の視差ノイズとも修正することが可能となる。
 図1に戻って、直線ペアクラスタリング部110は、直線ペア判定部80で決定した直線ペアを、それぞれ所属している各家屋、建築物単位にクラスタを作成する。直線ペアクラスタリングの処理の結果は、1つの家屋、建築物に属しているすべての直線ペアを1つのクラスタにまとめ、直線の間の連結関係も判明される。
 直線ペアは、家屋、建築物などの地物と関連する直線だけから構成することと分かる上で、また視差情報もあるので、三次元空間上に直線ペア間の関係を分析し、直線ペアクラスタリングを実行する。以降、三次元空間上に直線ペアを分析するので、直線ペアについて三次元直線との名称を付ける。
 まず全ての直線ペアの中に、以下の制限を全部満足する2つの三次元直線が、同じ地物に所属し、かつ連結関係がある三次元直線と決定する。2つの三次元直線は交差している、あるいは1つの三次元直線の頂点は、もう1つの三次元直線の頂点の近傍領域内である。
 注目する2つの直線は、更に以下の条件を満たさなければならない。2つの三次元直線が囲む領域の面積は事前に設定した家屋面積閾値より高い。また、2つの三次元直線が囲む領域内の視差はこの2つの三次元直線上の平均視差とは同じ、あるいはより高く、かつ領域内の視差は事前に設定した現在処理している2つの三次元直線がある街区内の家屋の高さを表す視差閾値より高い。
 そして、決定した連結関係がある三次元直線のペアから、コンベックス制限をかけ、屋上領域の外部の輪郭と屋上内部の構造を表すポリゴンを取得する。図5(a)はこのケースを示している。外部輪郭を閉合輪郭として取得するため、コンベックス制限とともに、お互いに頂点は近傍領域内、かつコンベックス制限で同じ輪郭に属し、形成しているポリゴン領域内の視差も以下の条件を満たすとき、図5(a)に示すように、本来連結関係がない2つの三次元直線L(a1)とL(a2)とを繋げ、R(a1)とする。取得したポリゴンの領域内の視差はこのポリゴンを構成する各三次元直線の平均視差と同じ、あるいはより高く、かつ事前に設定したこの街区内の家屋の高さを表す視差閾値より高い条件を満たさなければならない。
 上述のように、三次元直線の連結関係とか最後の屋上ポリゴンの取得とかの処理では、各直線の全部を使ってもよいし、直線の一部を使ってもよい。直線の一部だけを使うことは、1つの直線が複数の家屋の輪郭にまたがる可能性があるとのことを考える。それは同じ方向に建てられ、かつ間の距離は非常に近い複数の家屋から、同じ方向上の各家屋の輪郭線を1つの直線として抽出されることがあるためである。図5(b)はこのケースを示している。このようなケースでは、図5(b)に示すように、直線L(b1)をそれぞれ切り離し、R(b1),R(b2),R(b3)にそれぞれに属するようにする。また、図5(c)に示すように、ノイズの影響で本当の輪郭線より長い線L(c1)を抽出する可能性もある。この場合、直線の一部だけが家屋の屋上輪郭線であり、その一部だけがR(c1)に属するようにする。
 そして、図5(b)でも示したが、最後のポリゴンを生成するため、元々交差していない2つの直線を交差するように延長してもよい。そうしたら、影などの影響で線の一部しか抽出されていないときでも、家屋の輪郭の一部としての完全な線長を復元することができる。
 また、図5(a)のように、実際の画像では、画像ノイズなどの影響で元々1つの直線が切断されても、閉合ポリゴン取得でまた連結され1つの直線になることができる。
 三次元直線の所属判定の処理では、各三次元直線が1つの家屋に専有する制限はなく、多数の家屋に属していてもよい。まず前述の図5(b)のケースのように、1つの三次元直線が同じ方向に建てられている多数の家屋が共有している可能性があるためである。また、図5(d)で示しているように、隣り合う2つ家屋は、1つの三次元直線L(d1)を共有することもある。
 面積閾値の制限と領域内の視差制限があるので、隣り合う家屋に属している三次元直線が誤って同じ家屋に所属する判定はしない。図5(b)の例に合わせて説明する。一つの例は、線L(b4)と線L(b5)が形成している領域内には地面があるので、視差制限を満たすことができない。また、線L(b4)と線L(b5)が形成している領域の面積は小さすぎ、面積閾値制限を満たすこともできない。線L(b2)と線L(b5)が形成している領域は面積制限を満たすが、領域内に地面があるので、視差制限を満たしていない。
 また、影の影響で屋上の一部の領域はほかの部分と違う明るさを持っているので、カラー特徴とテクスチャ特徴だけでは、完全な屋上を抽出することができないが、視差情報があるので、この屋上に属している各三次元直線から形成している輪郭領域内に視差制限を満たすことで、完全な屋上領域を抽出することができるようになる。図5(e)がこのケースを表している。
 従来の方法では、垂直関係とか平行関係とかは使用しているが、本願発明の方法の三次元直線の所属判定では、直線の間の幾何関係を一切使わないことにしている。それで、家屋、建築物などの地物の屋上の構造、輪郭の形などに一切制限しないためである。
 図1に戻って、平面抽出部120は、直線ペアクラスタリングで取得した各地物に属している三次元直線のクラスタから、地物の屋上を構成する全ての平面を抽出する。
 直線ペアクラスタリングでは、各地物の屋上を構成するポリゴンを抽出することができる。抽出したポリゴンの中には、屋上の外部輪郭を示す輪郭ポリゴンもあるし、屋上の内部構造を表明する内部ポリゴンもある。まず各家屋のクラスタの中に、輪郭ポリゴンの領域内にある各内部ポリゴンが、平面かどうかを判定する。もし平面だったら、1つの屋上平面として抽出する。また、もし領域内の視差の分布平面ではないが、部分的に平面拘束を満足することであったら、その領域をいくつかの平面に分割する。もし以上のいずれでもない場合に、ポリゴン内部領域は曲面があると判定する。次に、輪郭ポリゴンの領域内にて、内部ポリゴン以外の部分は、内部ポリゴンと同じように処理する。
 そう処理する結果、1つの家屋の屋上輪郭ポリゴンは、以下のケースの何れか1つである。
 (1)1つの平面。それは平坦な屋上である。(2)多数の平面。それは平面だけで構成している屋上である。(3)曲面。それはドームなどの曲面の屋上である。この場合、いくつかの平面から近似し、最後には(2)と同じように多数の平面から構成する屋上を生成する。上述した図2で示した家屋の例では、201類と202類の家屋は「多数の平面」のケースであり、203類の家屋は「1つの平面」のケースである。
 図1に戻って、平面組合せ部130は、平面抽出部120で決定した各地物の屋上の内部の構造に基づき、更に屋上を構成している各部分の幾何関係を決定し、各地物の三次元モデルを抽出する。
 平面抽出部120の処理結果に応じて、平面組合せ部130では以下の異なる処理を行う。
 (1)家屋の屋上が1つの平面である場合では、そのままに屋上の平面の視差に基づき地物の三次元モデルを生成する。(2)屋上が多数の平面から構成される場合では、視差情報に基づき各平面の隣接関係を分析し、最後に屋上の三次元構造を明らかにする上に、地物の三次元モデルを生成する。(3)屋上が曲面である場合では、(2)と同じように各平面の隣接関係を決定した上に、地物の三次元モデルを生成する。
 図6は、第1の実施形態に係る三次元地物データ生成装置100をコンピュータに実装する場合における、物理的な構成の一例を示すブロック図である。
 本発明に係る三次元地物データ生成装置100は、一般的なコンピュータ装置と同様のハードウェア構成によって実現することができ、制御部201、入出力部202、表示部203、操作部204、主記憶部205、外部記憶部206、及び、システムバス207から構成される。
 入出力部202、表示部203、操作部204、主記憶部205、及び、外部記憶部206はいずれもシステムバス207を介して制御部201に接続されている。
 制御部201は、例えば、CPU(Central Processing Unit)などから構成される。制御部201は、外部記憶部206に記憶されている制御プログラム300に従い、後述する三次元地物データ生成処理等を実行する。
 入出力部202は、例えば、無線送受信機、無線モデムまたは網終端装置、及びそれらと接続するシリアル・インターフェース又はLAN(Local Area Network)インターフェースなどから構成されている。入出力部202を介して、処理しようとする画像データ、処理パラメータ、直線類別情報などを受信し、またオペレータの指示を入力することができる。そして入出力部202から処理した結果データを送信することもできる。
 表示部203は、例えば、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などのディスプレイやプリンタなどを含む。表示部203は、入力の画像データや三次元地物データ生成装置100の処理結果などを表示する。
 操作部204は、キーボード及びマウスなどのポインティングデバイスなどをシステムバス207に接続するインターフェース装置から構成されている。操作部204を介して、ステレオ画像データ、処理パラメータ、及び、直線類別情報などを入力できる。また、送受信などの指示、処理結果表示の指示などが入力され、制御部201に供給される。
 主記憶部205は、例えば、RAM(Random Access Memory)などのメインメモリである。この主記憶部205は、外部記憶部206に記憶されている制御プログラム300をロードし、制御部201の作業領域として用いられる。
 外部記憶部206は、フラッシュメモリ、ハードディスク、DVD-RAM(Digital Versatile Disk Random Access Memory)、ROM(Read Only Memory)、磁気ディスク、半導体メモリなどの不揮発性メモリから構成される。外部記憶部206は、三次元地物データ生成処理等を制御部201に行わせるための制御プログラム300を予め記憶する。また、外部記憶部206は、制御部201の指示に従い、この制御プログラム300が記憶するデータを制御部201に供給する。更に、外部記憶部206は、制御部201から供給されたデータを記憶する。
 上述した図1に示されている三次元地物データ生成装置100の各構成部分の処理は、制御プログラム300を介して、制御部201、入出力部202、表示部203、操作部204、主記憶部205、外部記憶部206などを資源として利用し実行される。
 上記の各機能を行う制御プログラム300を、コンピュータ処理装置上の制御部201で実行することにより、ソフトウェア的に三次元地物データ生成装置100を実現することができる。その場合、制御部201は、外部記憶部206に格納されている制御プログラム300を、主記憶部205にロードし実行し、各部の動作を制御し上記の各機能を行わせることにより、三次元地物データ生成装置100をソフトウェア的に実現する。
 なお、本発明による三次元地物データ生成装置100の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを利用し実現することも可能である。
 また、上記の三次元データ生成の機能を実現する回路を込み込んだLSI(Large Scale Integration)などのハードウェア部品から構成される回路を実装し、電子回路として構成することもできる。
 以下、このような構成の三次元地物データ生成装置100の動作について、図面を参照して説明する。最初に全体処理の流れを、図7を参照して説明する。図7は、三次元地物データ生成処理を示すフローチャートである。
 三次元地物データ生成装置100は、ステレオ画像データ入力部10にステレオ画像データが、また、直線類別入力部20に直線類別情報が、そして、処理規則入力部30に処理用のパラメータが、それぞれ入力されると、図7の三次元地物データ生成処理を開始する。
 まず、三次元地物データ生成装置100は、ステレオ画像相互標定の処理(ステップS100)を行い、ステレオ視差取得の処理(ステップS110)を行う。つまり、ステレオ視差計算部40が、入力されたステレオ画像及び撮影条件などに基づき、まず左右画像の相互標定を行い、ステレオ視差を計算する。なお、ステレオ視差計算部40は、ステレオマッチングを行ってステレオ視差を計算する。
 三次元地物データ生成装置100は、直線取得の処理(ステップS120)を行う。つまり、直線抽出部50が、入力されたステレオ画像の左右画像のそれぞれから直線を抽出する。
 三次元地物データ生成装置100は、直線類別判定の処理(ステップS130)を行う。つまり、直線類別判定部60が、入力された直線類別の情報に基づき、またステレオ視差計算部40で取得した視差も利用する上で、直線抽出部50により抽出された全ての直線を異なる類別に分ける。このステップも左右画像それぞれに対して実行される。
 三次元地物データ生成装置100は、無意味直線除去の処理(ステップS140)を行う。つまり、無意味直線除去部70が、無意味直線を類別ごとに除去する。このステップの処理の後に、地物と関係ある直線だけが残る。このステップも左右画像それぞれに対して実行される。
 三次元地物データ生成装置100は、直線ペア判定の処理(ステップS150)を行う。つまり、直線ペア判定部80が、ステレオ視差計算部40により取得された視差を利用し、左右画像からの地物と関係ある直線の対応関係を決定する。
 三次元地物データ生成装置100は、ステレオ視差修正の処理(ステップS160)を行う。つまり、ステレオ視差修正部90が、直線ペア判定部80により取得された直線ペアに基づき、最初にステレオ視差計算部40で計算した視差を修正する。
 三次元地物データ生成装置100は、直線ペアクラスタリングの処理(ステップS170)を行う。つまり、直線ペアクラスタリング部110が、ステレオ視差修正部90により修正された視差に基づき、直線ペア判定部80で取得した直線ペアを各地物への所属関係を決定し、更に視差付けの直線ペア、つまり、三次元直線から各地物の屋上を構成する閉合のポリゴンを抽出する。
 三次元地物データ生成装置100は、平面抽出の処理(ステップS180)を行う。つまり、平面抽出部120が、直線ペアクラスタリング部110により決定された各地物の屋上を構成する閉合のポリゴンから、実際の状況により、1つの平面、あるいは多数の平面、あるいは屋上の曲面を近似する多数の平面などを抽出する。
 そして、三次元地物データ生成装置100は、平面組合せの処理(ステップS190)を行う。つまり、平面組合せ部130が、平面抽出部120により抽出された各家屋の屋上の構造を表す平面に基づき、もし複数の平面がある場合に、それらの平面のお互いの幾何関係を判明し、最後に各家屋の三次元モデルを生成する。
 これらステップS100~S190の各処理の詳細について、以下、図8~図21のフローチャートを参照してそれぞれ説明する。
 最初に、図8を参照して、上述したステップS100におけるステレオ画像相互標定の処理について説明する。
 図8に示すように、ステレオ画像データ入力部10は、ステレオ航空画像を入力する(ステップS101)。つまり、ステレオ画像及び撮影条件などのステレオ画像データを入力する。
 そして、ステレオ視差計算部40は、入力されたこれらステレオ画像及び撮影条件などに基づき、左右画像の相互標定を行う(ステップS102)。つまり、左右画像に対して相互標定を行うことで、対応する部分の捜索範囲を二次元から一次元に制限することができる。そのため、相互標定後において、左右画像の対応する部分は、同一のエピポーラ線上だけに存在することになる。
 次に、図9を参照して、上述したステップS110におけるステレオ視差取得の処理について説明する。
 ステレオ視差計算部40は、処理規則記憶部31に予め保持されている縮小スケールを入力し(ステップS111)、入力された縮小スケールに基づき左右画像それぞれの縮小ステレオ画像を生成し(ステップS112)、縮小された左右画像でステレオマッチング処理を行い(ステップS113)、そして、縮小ステレオ画像上の視差を元サイズへのマッピング処理を行う(ステップS114)。
 次に、図10を参照して、上述したステップS120における直線取得の処理について説明する。
 直線抽出部50は、画像上にてエッジを抽出し(ステップS121)、抽出されたエッジに基づき直線抽出を行う(ステップS122)。
 次に、図11を参照して、上述したステップS130における直線類別判定の処理について説明する。
 直線類別判定部60は、直線類別情報を入力する(ステップS131)。つまり、直線類別記憶部21に予め保持されている直線類別の情報を入力する。
 直線類別判定部60は、類別により直線類別を判定する(ステップS132)。つまり、入力された直線類別情報に基づき全部の直線を分類する。
 次に、図12を参照して、上述したステップS140における無意味直線除去の処理について説明する。
 無意味直線除去部70は、当直線が地物と無関係かどうかを判別し(ステップS141)、無関係でないと判別すると(ステップS141;No)、後続するステップS143に進み、一方、無関係と判別した場合(ステップS141;Yes)に、当直線を除去する(ステップS142)。そして、全直線の確認を終えたかどうかを判別し(ステップS143)、全直線の確認を終えていないと判別すると(ステップS143;No)、次の直線へ移行し(ステップS144)、上述したステップS141に処理を戻す。一方、全直線の確認を終えたと判別した場合(ステップS143;Yes)に、この無意味直線除去の処理を終える。
 次に、図13~図15を参照して、上述したステップS150における直線ペア判定の処理について説明する。
 図13に示すように、直線ペア判定部80は、左画像上直線の対応直線抽出を行う(ステップS151)。つまり、左画像上の各直線に対する右画像上の対応直線を抽出する。
 この左画像上直線の対応直線抽出では、具体的に、図14に示すように、処理規則記憶部31に予め保持されているマッチングスコアの閾値を入力し(ステップS151-1)、左画像内の各直線の対応直線ラベルを初期化する(ステップS151-2)。また、視差により注目直線の右画像上に潜在的な対応直線の領域を取得する(ステップS151-3)。つまり、視差情報に基づき現在処理しようとする注目直線が右画像上にある潜在対応直線の可能領域を取得する。そして、その領域内に直線があるかどうかを判別する(ステップS151-4)。
 ここで領域内に直線がないと判別すると(ステップS151-4;No)、後述するステップS151-11に進み、一方、領域内に直線があると判別した場合(ステップS151-4;Yes)に、注目直線と当直線のマッチングスコアを計算し(ステップS151-5)、スコアが閾値以上かどうかを判別し(ステップS151-6)、注目直線の中で一番高いスコアであるかどうかを判別する(ステップS151-7)。
 ここでスコアが閾値より小さいと判別された場合(ステップS151-6;No)や、注目直線の中で一番高いスコアではないと判別された場合(ステップS151-7;No)に、後述するステップS151-9に進み、一方、スコアが閾値以上であると判別され(ステップS151-6;Yes)、かつ、注目直線の中で一番高いスコアであると判別された場合(ステップS151-7;Yes)に、注目直線の対応直線ラベルに当直線番号を代入する(ステップS151-8)。
 領域内にて全直線の確認を終えたかどうかを判別し(ステップS151-9)、領域内にて全直線の確認を終えていないと判別すると(ステップS151-9;No)、領域内にて次の直線へ移行し(ステップS151-10)、上述したステップS151-5に処理を戻す。
 そして、領域内にて全直線の確認を終えたと判別した場合(ステップS151-9;Yes)に、左画像内にて全直線の確認を終えたかどうかを判別し(ステップS151-11)、左画像内にて全直線の確認を終えていないと判別すると(ステップS151-11;No)、次の直線へ移行し(ステップS151-12)、上述したステップS151-3に処理を戻す。一方、左画像内にて全直線の確認を終えたと判別した場合(ステップS151-11;Yes)に、ここで左画像上直線の対応直線抽出の処理を終える。
 図13に戻って、直線ペア判定部80は、右画像上直線の対応直線抽出を行う(ステップS152)。
 この右画像上直線の対応直線抽出では、上述した図14と同様の処理を左画像と右画像とを入れ替えて行う。そのため、右画像上直線の対応直線抽出の処理についてのフローチャートは省略する。
 図13に戻って、直線ペア判定部80は、左右画像上の直線の対応関係を結合する(ステップS153)。
 この左右画像上の対応関係結合では、具体的に、図15に示すように、左画像上に現在処理しようとする注目直線Lfの右画像上の対応直線Rfを取得し(ステップS153-1)、Rfの対応直線がLfかどうかを判別(ステップS153-2)する。
 ここでRfの対応直線がLfでないと判別すると(ステップS153-2;No)、後述するステップS153-4に進み、一方、Rfの対応直線がLfであると判別した場合(ステップS153-2;Yes)に、LfとRfのペア関係を確定する(ステップS153-3)。
 そして、左画像内にて全直線の確認を終えたかどうかを判別し(ステップS153-4)、全直線の確認を終えていないと判別すると(ステップS153-4;No)、次の直線へ移行し(ステップS153-5)、上述したステップS153-1に処理を戻す。一方、全直線の確認を終えたと判別した場合(ステップS153-4;Yes)に、この左右画像上の対応関係結合を終える。
 次に、図16を参照して、上述したステップS160におけるステレオ視差修正の処理について説明する。
 ステレオ視差修正部90は、注目エピポーラ線と直線ペアの交差点を取得する(ステップS161)。つまり、現在処理しようとする注目のエピポーラ線と全ての直線ペアの交差点を取得する。
 ステレオ視差修正部90は、交差点の間の視差を修正する(ステップS162)。つまり、左右画像でのそれぞれの交差点の対応関係に基づき、交差点の間の視差を修正する。
 そして、ステレオ視差修正部90は、全エピポーラ線の確認を終えたかどうかを判別する(ステップS163)。
 全エピポーラ線の確認を終えていないと判別すると(ステップS163;No)、ステレオ視差修正部90は、次のエピポーラ線へ移行し(ステップS164)、上述したステップS161へ処理を戻す。
 一方、全エピポーラ線の確認を終えたと判別すると(ステップS163;Yes)、ステレオ視差修正部90は、ここでステレオ視差修正の処理を終える。
 次に、図17を参照して、上述したステップS170における直線ペアクラスタリングの処理について説明する。
 直線ペアクラスタリング部110は、各直線ペアの所属クラスタを初期化する(ステップS171)。
 直線ペアクラスタリング部110は、全直線ペアについて互いの連結関係を確定する(ステップS172)。
 直線ペアクラスタリング部110は、閉合ポリゴンを抽出する(ステップS173)。つまり、確定された直線ペアの連結関係から、更に視差制限、面積制限、コンベックス制限などに基づき、閉合のポリゴンを抽出する。
 そして、直線ペアクラスタリング部110は、各閉合ポリゴン関連の直線ペアの所属関係をそれぞれ家屋単位で確定する(ステップS174)。
 次に、図18~図20を参照して、上述したステップS180における各地物単位に行う平面抽出の処理について説明する。
 図18に示すように、平面抽出部120は、全ての閉合ポリゴンを内部ポリゴンと輪郭ポリゴンとに分類する(ステップS181)。
 この閉合ポリゴンの分類では、具体的に、図19に示すように、現在処理しようとするポリゴン上の注目辺が屋上内部線かどうかを判別し(ステップS181-1)、屋上内部線であると判別すると(ステップS181-1;Yes)、注目ポリゴンが内部ポリゴンであると決定する(ステップS181-2)。一方、屋上内部線でないと判別した場合(ステップS181-1;No)に、ポリゴン全辺の確認を終えたかどうかを判別し(ステップS181-3)、全辺の確認を終えていないと判別すると(ステップS181-3;No)、次の辺へ移行し(ステップS181-4)、上述したステップS181-1に処理を戻す。一方、全辺の確認を終えたと判別した場合(ステップS181-3;Yes)に、注目ポリゴンが輪郭ポリゴンであると決定する(ステップS181-5)。
 図18に戻って、平面抽出部120は、内部ポリゴンの平面判定処理を行う(ステップS182)。
 この平面判定処理では、具体的に、図20に示すように、現在処理しようとするポリゴン内部の領域が平面かどうかを判別し(ステップS182-1)、平面であると判別すると(ステップS182-1;Yes)、ポリゴン内の領域を1つの平面で表示する(ステップS182-2)。一方、平面でないと判別した場合(ステップS182-1;No)に、ポリゴン内領域が多数の平面に分割できるかどうかを判別し(ステップS182-3)、分割できないと判別すると(ステップS182-3;No)、ポリゴン内の領域を多数の平面で近似する(ステップS182-4)。一方、分割できると判別した場合(ステップS182-3;Yes)に、ポリゴン内の領域を多数の平面に分割する(ステップS182-5)。
 図18に戻って、平面抽出部120は、輪郭ポリゴン領域内で内部ポリゴン以外領域の平面判定処理を行う(ステップS183)。
 この平面判定処理でも、上述した図20と同様の処理を行う。
 最後に、図21を参照して、上述したステップS190における平面組合せの処理について説明する。
 まず、平面組合せ部130は、地物屋上が1つの平面かどうかを判別する(ステップS191)。つまり、現在処理しようとする注目地物の屋上が1つの平面かどうかを判定する。
 平面組合せ部130は、1つの平面であると判別した場合(ステップS191;Yes)、後述するステップS193に処理を進める。
 一方、1つの平面でないと判別すると(ステップS191;No)、平面組合せ部130は、多数平面の隣接関係を判定する(ステップS192)。つまり、屋上を表示する多数の平面のお互いの隣接関係を判定する。
 平面組合せ部130は、三次元地物モデルを抽出する(ステップS193)。つまり、注目地物の三次元地物モデルを抽出する。
 平面組合せ部130は、全地物の確認を終えたかどうかを判別する(ステップS194)。
 平面組合せ部130は、全地物の確認を終えていないと判別すると(ステップS194;No)、次の地物へ移行し(ステップS195)、上述したステップS191に処理を戻す。
 一方、全地物の確認を終えたと判別した場合(ステップS194;Yes)に、平面組合せ部130は、ここで平面組合せの処理を終える。
 このように、図7(図8~図21)に示す三次元地物データ生成処理によって、分析対象の家屋や建築物がある地域に対し、上空より異なる視点で撮影した複数の画像からのステレオ情報と、家屋や建築物本来の直線特徴情報とに基づき、家屋や建築物を含む地物の三次元モデルを作成することができる。
(第2の実施形態)
 次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
 まず、本発明の第2の実施形態に係る三次元地物データ生成装置100の概要構成は図22のブロック図で示される。
 図22に参照すると、本発明の第2の実施形態は、図1に示された第1の実施形態におけるステレオ視差計算部40を、マルチスケールステレオ視差計算部140に置き換えた点で、第1の実施形態と異なる。
 マルチスケールステレオ視差計算部140は、多数のスケールを使い、マルチスケールのステレオ画像を生成し、各スケール上の視差計算を行い、最後にマルチスケール上の視差情報をまとめることで元サイズのステレオ画像上の視差を取得する。
 この場合、マルチスケール画像の中に、縮小スケールの大きいステレオ画像で、広い視差範囲も効率的取得でき、一方、縮小スケールの小さいステレオ画像で、画像の細かい特徴が反映されているのでより正確な視差を取得できる。マルチスケールのステレオ画像を利用した場合には、上述の両方のメリットを同時に利用することが可能となる。
 実施する際には、マルチスケール分析の階層数、階層毎にスケール変化のステップ数などは、処理効率、処理効果や画像のコンテンツを合わせて設定することが望まれる。
 第2の実施形態においても、処理規則入力部30の基本機能は、第1の実施形態と同じである。ただ、ステレオ視差計算の際に、処理規則入力部30からマルチスケールステレオ視差計算部140へ入力するパラメータは、第1の実施形態と違い、階層の数と各階層上の縮小スケールである。また、直線ペア判定処理用のパラメータは、第1の実施形態と同一のため、説明は省略する。
 第2の実施形態に係る三次元地物データ生成装置100をコンピュータに実装する場合における物理的な構成は、基本的に第1の実施形態と同様に、図6に示すブロック図のような構成であるため、説明は省略する。
 次に、第2の実施形態に係る三次元地物データ生成装置100の動作について、図面を参照しながら詳細に説明する。
 まず、全体処理の流れについて、図23を参照して説明する。図23は、第2の実施形態における、三次元地物データ生成処理を示すフローチャートである。
 第1の実施形態と同じように、ステレオ画像データ入力部10にステレオ画像データが、また、直線類別入力部20に直線類別情報が、そして、処理規則入力部30に処理用のパラメータが、それぞれ入力されると、図23の三次元地物データ生成処理を開始する。
 全体処理の流れにおける各ステップの処理は、マルチスケールステレオ視差取得(ステップS210)以外に、第1の実施形態と同じのため、その説明は省略する。
 図24を参照して、上述したステップS210におけるマルチスケールステレオ視差取得の処理について説明する。
 マルチスケールステレオ視差計算部140は、処理規則記憶部31に予め保持されている画像階層数と各階層上の縮小スケールを入力し(ステップS211)、入力されたパラメータ(画像階層数と縮小スケール)に基づき左右画像それぞれのマルチスケールのステレオ画像を生成し(ステップS212)、各階層上でステレオマッチング処理を行う(ステップS213)。そして、各階層の視差の結合処理を行う(ステップS214)。つまり、各階層上の視差を結合し、元サイズ上のステレオ視差を取得する。
(第3の実施形態)
 次に、本発明の第3の実施形態について図面を参照して詳細に説明する。
 まず、本発明の第3の実施形態に係る三次元地物データ生成装置100の概要構成は図25のブロック図で示される。
 図25に参照すると、本発明の第3の実施形態は、図1に示された第1の実施形態における直線抽出部50を、マルチスケール直線抽出部150に置き換えた点で、第1の実施形態と異なる。また、第2の実施形態とも、上述した同じ点で異なる。
 マルチスケール直線抽出部150は、マルチスケールの画像ピラミッドから、各階層の画像に対し直線抽出を行い、最後に各階層からの直線に一定制限を使い、まとめた一つの直線セットの結果を出力する。
 マルチスケール画像から抽出した直線は、単一スケールの場合よりも、ノイズ直線の数が少なくなり、実際に意味のある直線、例えば、家屋の輪郭直線などもより連結性よく抽出することができる。
 このように、様々な方法があるが、本実施例に使用される手法に制限はない。例えば、Multiscale line detection方法を使用してもよい。
 第3の実施形態においても、処理規則入力部30の基本機能は、第1の実施形態と同じである。ただ、直線抽出の際に、第1の実施形態と違い、処理規則入力部30から、階層の数と各階層上の縮小スケールのパラメータを入力する。また、直線ペア判定の処理用のパラメータは、第1の実施形態と同一のため、説明は省略する。
 第3の実施形態に係る三次元地物データ生成装置100をコンピュータに実装する場合における物理的な構成は、基本的に第1の実施形態と同様に、図6に示すブロック図のような構成であるため、説明は省略する。
 次に、第3の実施形態に係る三次元地物データ生成装置100の動作について、図面を参照しながら詳細に説明する。
 まず、全体処理の流れについて、図26を参照して説明する。図26は、第3の実施形態における、三次元地物データ生成処理を示すフローチャートである。
 第1の実施形態と同じように、ステレオ画像データ入力部10にステレオ画像データが、また、直線類別入力部20に直線類別情報が、そして、処理規則入力部30に処理用のパラメータが、それぞれ入力されると、図26の三次元地物データ生成処理を開始する。
 全体処理の流れにおける各ステップの処理は、マルチスケール直線取得(ステップS320)以外に、第1の実施形態と同じのため、その説明は省略する。
 図27を参照して、上述したステップS320におけるマルチスケール直線取得の処理について説明する。
 マルチスケール直線抽出部150は、処理規則記憶部31に予め保持されている画像階層数と縮小スケールを入力し(ステップS321)、入力されたパラメータ(画像階層数と縮小スケール)に基づき左右画像それぞれのマルチスケール画像を生成し(ステップS322)、各階層上でエッジを抽出し(ステップS323)、各階層上で直線を抽出する(ステップS324)。そして、各階層直線の結合処理を行う(ステップS325)。つまり、各階層上に抽出された直線を結合し、最後に1つの直線セットを取得する。
(第4の実施形態)
 次に、本発明の第4の実施形態について図面を参照して詳細に説明する。
 まず、本発明の第4の実施形態に係る三次元地物データ生成装置100の概要構成は図28のブロック図で示される。
 図28に参照すると、本発明の第4の実施形態は、図1に示された第1の実施形態における無意味直線除去部70を地図関連無意味直線除去部170に置き換えた点で、また、地図データ入力部160を追加した点で、第1の実施形態と異なる。また、第2の実施形態と、第3の実施形態とも、上述した同じ点で異なる。
 地図データ入力部160は、地図データを入力する機能を有し、ノイズ直線等を削除する際に有効領域を定義するための補助データとしての地図データを入力する。
 地図データは、対象領域内の地理情報、例えば、家屋、道路、河、緑地、樹木などの地物の位置、範囲、形などの情報を保持しているデータである。
 本発明で使用する地図データは、一定精度の経緯度情報に基づき、基本の地形と地物の地理情報を反映する地図データであればよく、例えば、市販の地図、基盤地図、地形図などが利用できる。
 具体的に基盤地図の場合では、一例として、図29に示すような地図データが利用できる。この図29に示される地図データでは、家屋が集中している住宅地、道路、鉄道、河川、緑地などの地形が表されている。なお、この図29では、出願図面の規定により、モノクロにて示されているが、実際に使用される地図データはカラーで示されており、家屋、池、緑地など、それぞれの地形や地物が異なる色で色分けされている。
 本実施例では、この図29のような地図データ(地図のデジタルデータ)を使用する場合を一例として説明する。
 なお、本発明に使用する地図データは、建物、道路、河川などの輪郭線上に各点の座標の経緯度情報を有するベクター地図であるが、一定縮尺のラスター地図であってもよい。
 また、各地形や地物に、例えば町名、河川名などの実際の場所に示す記号情報が付与されていてもよい。記号情報が付与されている場合、その記号情報と関連する地形や地物が処理対象かどうかを判別するのに役立てることができる。
 地図関連無意味直線除去部170は、地図の情報に基づいて無意味直線を除去する方法を利用する。処理対象となるステレオ航空写真内に、家屋、建築物以外にも様々な地形、地物が存在する可能性がある。家屋、建築物がある有効領域に対し、家屋、建築物と無関係な領域は本発明の処理にとって無効領域となる。もしその無効領域の範囲がはっきりと有効領域の範囲と区別することができる場合には、無効領域を抽出することで、無効領域内のすべての直線は無意味直線として除去され、これからの処理がより効率的に実行されることができるようになる。
 河川、池、海などの水域は、家屋、建築物と関連しないし、通常ほかの地物と独立している領域を占めることで、三次元モデル生成処理の無効領域として抽出することができる。また、市街地にある一定面積の緑地、例えば、公園、林地、たんぽ、畑なども無効領域として三次元モデル生成処理から除外することが可能である。
 ほかに家屋、建築物と無関係な地形、地物、例えば、道路、鉄道、道路側の樹木などが、多くの場合家屋、建築物と混在するので、簡単に地図情報だけで家屋、建築物がある領域から分割することができない。前述のような地形、地物に対し、領域抽出と領域除外する処理はしない。
 水域、緑地などのような、家屋、建築物とはっきり分割できる領域に対し、人手でその領域の輪郭線を書くこともできるが、それよりも効率的に自動で抽出することを処理対象の航空写真と地図データの組合せで実現する。地図データから水域、緑地の領域を抽出してから、地図データと航空写真の重なりで抽出した領域を航空写真に反映することができ、航空写真上に除外領域を自動的に判定する。
 空中撮影時航空写真と一緒に取得した情報の中に、撮影中心点の座標が航空写真の実世界の位置を示し、撮影時飛行機の姿勢を示す角度が航空写真の実世界の方位を決め、サイズと解像度が航空写真の実世界の範囲を決める。
 例えば、ステレオ航空写真に対し、撮影点の中心点座標と撮影時飛行機の姿勢の角度に基づき空中三角測量の成果を取得した上で、ステレオ画像の相互標定を行う。その後、地図の幾何変換をして、地図と画像上同じ位置の対応関係を決め、地図を画像と重なることができる。
 画像と対応することを実現するため、地図の幾何変換を行う。基本的に画像の撮影情報と画像内のコンテンツに基づいて、例えば、アフィン変換で地図を変換することにより同じ地域の画像との位置対応関係を取得する。
 地図上において、通常違う地形と地物を異なる色で表示している。上述した図29の地図は、出願図面の規定により、モノクロにて表示されているが、実際のカラーの地図上では、以下のように表示されている。つまり、建築物はグレーで、普通の道路は白で、主要道路は黄色で、水域は青色で、緑地は緑でそれぞれ表示されている。このような色情報に基づき、違う地形を区別することができ、更に違う地形の各領域を判明する。事前に地図と画像の位置対応を行ったので、抽出した水域と緑地の領域の輪郭線を直接に画像上に反映することができる。
 ベクター地図の場合には、普通各領域はポリゴンで表示され、色情報はポリゴンの1つの属性として保存されている。そこで、簡単に色情報で領域の表示している地形を判別し、水域と緑地の領域を抽出する。ただし、領域の輪郭はベクターで直接に航空写真上に使えないので、航空写真上の同一位置のピクセルを輪郭線ピクセルとしてまず変換する必要がある。一方、ラスター地図画像の場合には、色情報で画像分割を行い、水域と緑地の領域のピクセル単位の輪郭線を抽出し、その輪郭線を航空写真に反映する。
 第4の実施形態に係る三次元地物データ生成装置100をコンピュータに実装する場合における物理的な構成は、基本的に第1の実施形態と同様に、図6に示すブロック図のような構成である。ただ、以下の部分だけについて、第1の実施形態と異なる。
 入出力部202を介して、入力できるデータは、処理しようとする画像データ、処理パラメータ、処理方法種別、直線類別情報など以外に、地図データも含めている。
 表示部203では、表示できるデータは、入力の画像データや三次元地物データ生成装置100の処理結果など以外に、地図データも含めている。
 操作部204を介して、入力できるデータは、第1の実施形態で説明したステレオ画像データ、処理パラメータ、及び、直線類別情報など以外に、地図データも含めている。
 次に、第4の実施形態に係る三次元地物データ生成装置100の動作について、図面を参照しながら詳細に説明する。
 まず、全体処理の流れについて、図30を参照して説明する。図30は、第4の実施形態における、三次元地物データ生成処理を示すフローチャートである。
 第1の実施形態と同じように、ステレオ画像データ入力部10にステレオ画像データが、また、直線類別入力部20に直線類別情報が、地図データ入力部160に地図データが、そして、処理規則入力部30に処理用のパラメータが、それぞれ入力されると、図30の三次元地物データ生成処理を開始する。
 全体処理の流れにおける各ステップの処理は、地図関連無意味直線除去(ステップS440)以外に、第1の実施形態と同じのため、その説明は省略する。
 図31を参照して、上述したステップS440における地図関連無意味直線除去の処理について説明する。
 地図関連無意味直線除去部170は、地図データ入力部160を介して地図データを入力し(ステップS441)、地図上の水域と緑地(家屋、建築物の地物と無関係な領域)を抽出し(ステップS442)、画像を参照するため、地図を幾何変換し(ステップS443)、地図上に抽出された領域を画像上に反映させる(ステップS444)。そして、抽出領域内の直線を除去する(ステップS445)。つまり、画像上に反映された水域と緑地の領域における全ての直線を除去する。
 これら第2~第4の実施形態で説明した方法を採用した場合でも、三次元地物データ生成装置100は、分析対象の家屋や建築物がある地域に対し、上空より異なる視点で撮影した複数の画像からのステレオ情報と、家屋や建築物本来の直線特徴情報とに基づき、家屋や建築物を含む地物の三次元モデルを作成することができる。
 つまり、第2の実施形態に係る三次元地物データ生成装置100は、ステレオ視差計算の際に、マルチスケール上に計算した視差を利用し、最後に元サイズのステレオ画像上の視差を取得するマルチスケールステレオ視差計算手段を使い、単一のスケール上の視差計算より正確な視差を取得することができる。
 また、第3の実施形態に係る三次元地物データ生成装置100は、直線抽出の際に、マルチスケール上に直線を抽出し、最後に各階層からの直線をまとめた一つの直線セットを出力するマルチスケール直線抽出手段を使い、単一のスケール上の直線抽出より、ノイズ直線の数が少なくなり、抽出してきた直線の連結性もよくなることができる。
 また、第4の実施形態に係る三次元地物データ生成装置100は、無意味直線を除去する際に、地図情報を利用することで、家屋、建築物と無関係な領域を無効領域として判明し、無効領域内のすべての直線は無意味直線として除去され、より効率的に無意味直線除去を実行することができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されているが、以下には限られない。
(付記1)
 ステレオ画像から家屋、及び建築物を含む地物の三次元データを生成する三次元地物データ生成装置であって、
 地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算手段と、
 地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出手段と、
 前記直線抽出手段で抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定手段と、
 影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去手段と、
 前記ステレオ視差計算手段からの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定手段と、
 前記直線ペア判定手段で判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算手段で取得した視差の予測値を修正するステレオ視差修正手段と、
 前記直線ペア判定手段で判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリング手段と、
 前記直線ペアクラスタリング手段で決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出手段と、
 前記平面抽出手段で抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せ手段と、
 を備えることを特徴とする三次元地物データ生成装置。
(付記2)
 前記ステレオ視差計算手段は、ステレオ画像から画像内にある地形と全ての地物に関して、相対的な高さの視差を予測する、
 ことを特徴とする付記1に記載の三次元地物データ生成装置。
(付記3)
 前記ステレオ視差計算手段は、ステレオ画像を処理対象として、目的に応じて一定の縮小スケールで縮小ステレオ画像を取得し、縮小したステレオ画像で視差を計算し、前記縮小スケールに基づき前記視差をオリジナルサイズへマッピングすることで全画像内の視差の予測値を取得する、
 ことを特徴とする付記1又は2に記載の三次元地物データ生成装置。
(付記4)
 前記ステレオ視差計算手段は、ステレオ画像を処理対象として、マルチスケールの縮小ステレオ画像を生成し、各スケール上の視差を計算し、マルチスケールの視差情報をまとめることでオリジナルサイズ上の視差の予測値を取得する、
 ことを特徴とする付記1乃至3の何れか1つに記載の三次元地物データ生成装置。
(付記5)
 前記直線抽出手段は、ステレオ画像の一方の画像から、所定の画像処理方法で抽出したエッジに基づいて、直線を抽出する、
 ことを特徴とする付記1に記載の三次元地物データ生成装置。
(付記6)
 前記直線抽出手段は、ステレオ画像の一方の画像を処理対象として、マルチスケールで取得した縮小画像から画像ピラミッドを構築し、当該画像ピラミッド上の各階層の画像に対し直線抽出を行い、当該抽出した直線を一定の制限でまとめ1つの直線セットを出力する、
 ことを特徴とする付記1又は5に記載の三次元地物データ生成装置。
(付記7)
 前記直線類別判定手段は、前記ステレオ視差計算手段で取得した視差と入力したステレオ画像とに基づいて、前記直線抽出手段で抽出した直線を、地物に関連する直線、及び、地物と無関係な直線に分類する、
 ことを特徴とする付記1乃至6の何れか1つに記載の三次元地物データ生成装置。
(付記8)
 前記直線類別判定手段は、前記ステレオ視差計算手段で取得した視差と入力したステレオ画像とに基づいて、前記直線抽出手段で抽出した直線の中の地物と関連する直線を、更に屋上の構造を含む異なる特徴から、地物屋上内部の直線、及び、地物外部輪郭線に分類する、
 ことを特徴とする付記1乃至7の何れか1つに記載の三次元地物データ生成装置。
(付記9)
 前記直線類別判定手段は、前記ステレオ視差計算手段で取得した視差と入力したステレオ画像とに基づいて、前記直線抽出手段で抽出した直線の中の地物と無関係な直線を、更に影領域の輪郭線、道路線、及び、他の直線に分類する、
 ことを特徴とする付記1乃至8の何れか1つに記載の三次元地物データ生成装置。
(付記10)
 前記直線類別判定手段は、前記ステレオ視差計算手段で取得した視差と入力したステレオ画像とに基づいて、前記直線抽出手段で抽出した直線を、利用者特有の応用目的に応じて分類する、
 ことを特徴とする付記1乃至9の何れか1つに記載の三次元地物データ生成装置。
(付記11)
 前記直線類別判定手段は、前記ステレオ視差計算手段で取得した視差と入力したステレオ画像とに基づいて、前記直線抽出手段で抽出した直線を、更に多数の分類基準を組合せることで生成した分類ルールに従って分類する、
 ことを特徴とする付記1乃至10の何れか1つに記載の三次元地物データ生成装置。
(付記12)
 前記無意味直線除去手段は、前記直線抽出手段で実世界にそれぞれ意味がある直線と一緒に抽出した、画像のノイズ、及び影領域の影響で発生した直線を、処理対象から除外する、
 ことを特徴とする付記1、5又は6に記載の三次元地物データ生成装置。
(付記13)
 前記無意味直線除去手段は、ステレオ画像上に表される地域を含める地図情報を外部から入力し、当該地図とステレオ画像との重なりの調整でおおよその同一位置の対応関係を決め、地図情報で無効領域を確定し、当該無効領域内のすべての直線をノイズ直線として削除する、
 ことを特徴とする付記1、5、6又は12に記載の三次元地物データ生成装置。
(付記14)
 前記無意味直線除去手段は、前記直線抽出手段で抽出した直線の中から、使用者特有の応用目的に応じて定義したノイズ直線を削除する、
 ことを特徴とする付記1、5、6、12又は13に記載の三次元地物データ生成装置。
(付記15)
 前記直線ペア判定手段は、前記直線抽出手段で抽出した直線を前記直線類別判定手段で分類した類別に基づいて、ステレオ画像の一方の画像内の直線から他方の画像内に対応する直線を捜索する際に、処理対象の前記直線と同じ類別の直線に対してマッチング度を含む基準で対応しているかどうかを判定する、
 ことを特徴とする付記1、5、6、7、8、9、10又は11に記載の三次元地物データ生成装置。
(付記16)
 前記直線ペア判定手段は、ステレオ画像の一方の画像から前記直線抽出手段で抽出した直線に対し、他方の画像内において使用者により一部又は全部が対応付けられた直線を決定する、
 ことを特徴とする付記1、5、6、7、8、9、10、11又は15に記載の三次元地物データ生成装置。
(付記17)
 前記ステレオ視差修正手段は、前記直線ペア判定手段で取得した直線ペアに基づいて、直線の対応関係を左右画像上同一のエピポーラ線上その他の点のマッチング制限条件としたより正確な視差値を取得し、前記ステレオ視差計算手段で取得した視差予測値を修正する、
 ことを特徴とする付記1、2、3、4、15又は16に記載の三次元地物データ生成装置。
(付記18)
 前記ステレオ視差修正手段は、前記直線ペア判定手段で取得した直線ペアの対応関係を同一エピポーラ線上その他の点のマッチング制限条件として利用し、一定高さの地物の近傍に発生したオクルージョン領域の範囲をより正確に決定することで、前記ステレオ視差計算手段から取得した視差予測値を修正する、
 ことを特徴とする付記1、2、3、4、15、16又は17に記載の三次元地物データ生成装置。
(付記19)
 前記直線ペアクラスタリング手段は、前記直線ペア判定手段で決定した直線ペアの中における地物と関連する直線ペアを選択し、前記ステレオ視差修正手段で取得した視差と複数の直線ペアの幾何関係とを利用し、各地物にそれぞれ属している直線ペアを決定する、
 ことを特徴とする付記1、15、16、17又は18に記載の三次元地物データ生成装置。
(付記20)
 前記直線ペアクラスタリング手段は、前記直線ペア判定手段で決定した直線ペアに対し、使用者特有の応用目的に応じ同一地物に属する直線ペアが満たさなければならない条件に基づいて、当該応用目的に合わせた直線ペアの所属関係を決定する、
 ことを特徴とする付記1、15、16、17、18又は19に記載の三次元地物データ生成装置。
(付記21)
 前記平面抽出手段は、前記直線ペア判定手段で取得した各地物それぞれに属する直線ペア群から、前記ステレオ視差修正手段で取得した視差情報、各直線ペアに関連する視差、及び、直線ペアの近傍領域内の視差分布に基づいて、平面拘束の制限で平面を抽出する、
 ことを特徴とする付記1、15、16、17、18、19又は20に記載の三次元地物データ生成装置。
(付記22)
 前記平面抽出手段は、前記直線ペア判定手段で取得した各地物それぞれに属する直線ペア群に対し、前記ステレオ視差修正手段で取得した視差情報と、前記直線ペア群の関連領域内の色情報とに基づいて、平面拘束の制限と平面上の色分布又はテクスチャ分布のスムーズ性の条件に従って平面を抽出する、
 ことを特徴とする付記1、15、16、17、18、19、20又は21に記載の三次元地物データ生成装置。
(付記23)
 前記平面組合せ手段は、前記平面抽出手段で決定した地物の屋上を構成する各平面から、屋上の三次元構造を生成し、前記ステレオ視差修正手段で取得した視差情報を利用し、該地物の三次元モデルを生成する、
 ことを特徴とする付記1、17、18、21又は22に記載の三次元地物データ生成装置。
(付記24)
 ステレオ画像から家屋、及び建築物を含む地物の三次元データを生成する三次元地物データ生成方法であって、
 地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算ステップと、
 地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出ステップと、
 前記直線抽出ステップで抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定ステップと、
 影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去ステップと、
 前記ステレオ視差計算ステップからの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定ステップと、
 前記直線ペア判定ステップで判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算ステップで取得した視差の予測値を修正するステレオ視差修正ステップと、
 前記直線ペア判定ステップで判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリングステップと、
 前記直線ペアクラスタリングステップで決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出ステップと、
 前記平面抽出ステップで抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せステップと、
 を備えることを特徴とする三次元地物データ生成方法。
(付記25)
 コンピュータを、
 地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算手段、
 地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出手段、
 前記直線抽出手段で抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定手段、
 影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去手段、
 前記ステレオ視差計算手段からの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との種別を含めた対応関係が成立かどうかを判定する直線ペア判定手段、
 前記直線ペア判定手段で判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算手段で取得した視差の予測値を修正するステレオ視差修正手段、
 前記直線ペア判定手段で判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリング手段、
 前記直線ペアクラスタリング手段で決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出手段、
 前記平面抽出手段で抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せ手段、
 として機能させることを特徴とするプログラム。
 なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
 本発明は、2011年6月29日に出願された日本国特許出願2011-143835号に基づく。本明細書中に日本国特許出願2011-143835号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 以上説明したように、詳細な屋上構造を反映した高精度の三次元地物データを低いコストで生成する三次元地物データ生成装置、三次元地物データ生成方法、及び、プログラムを提供することができる。
 100 三次元地物データ生成装置
 10  ステレオ画像データ入力部
 20  直線類別入力部
 21  直線類別記憶部
 30  処理規則入力部
 31  処理規則記憶部
 40  ステレオ視差計算部
 50  直線抽出部
 60  直線類別判定部
 70  無意味直線除去部
 80  直線ペア判定部
 90  ステレオ視差修正部
 110 直線ペアクラスタリング部
 120 平面抽出部
 130 平面組合せ部
 140 マルチスケールステレオ視差計算部
 150 マルチスケール直線抽出部
 160 地図データ入力部
 170 地図関連無意味直線除去部
 201 制御部
 202 入出力部
 203 表示部
 204 操作部
 205 主記憶部
 206 外部記憶部
 207 システムバス
 300 制御プログラム

Claims (10)

  1.  ステレオ画像から家屋、及び建築物を含む地物の三次元データを生成する三次元地物データ生成装置であって、
     地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算手段と、
     地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出手段と、
     前記直線抽出手段で抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定手段と、
     影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去手段と、
     前記ステレオ視差計算手段からの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定手段と、
     前記直線ペア判定手段で判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算手段で取得した視差の予測値を修正するステレオ視差修正手段と、
     前記直線ペア判定手段で判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリング手段と、
     前記直線ペアクラスタリング手段で決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出手段と、
     前記平面抽出手段で抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せ手段と、
     を備えることを特徴とする三次元地物データ生成装置。
  2.  前記ステレオ視差計算手段は、ステレオ画像を処理対象として、マルチスケールの縮小ステレオ画像を生成し、各スケール上の視差を計算し、マルチスケールの視差情報をまとめることでオリジナルサイズ上の視差の予測値を取得する、
     ことを特徴とする請求項1に記載の三次元地物データ生成装置。
  3.  前記直線抽出手段は、ステレオ画像の一方の画像を処理対象として、マルチスケールで取得した縮小画像から画像ピラミッドを構築し、当該画像ピラミッド上の各階層の画像に対し直線抽出を行い、当該抽出した直線を一定の制限でまとめ1つの直線セットを出力する、
     ことを特徴とする請求項1に記載の三次元地物データ生成装置。
  4.  前記直線類別判定手段は、前記ステレオ視差計算手段で取得した視差と入力したステレオ画像とに基づいて、前記直線抽出手段で抽出した直線を、地物に関連する直線、及び、地物と無関係な直線に分類し、更に、地物と関連する直線を、屋上の構造を含む異なる特徴に基づき、地物屋上内部の直線、地物外部輪郭線に分類し、また地物と無関係な直線を、影領域の輪郭線、道路線、及び、他の直線に分類する、
     ことを特徴とする請求項1乃至3の何れか1項に記載の三次元地物データ生成装置。
  5.  前記無意味直線除去手段は、前記直線抽出手段で実世界にそれぞれ意味がある直線と一緒に抽出した、画像のノイズ、及び影領域の影響で発生した直線を、処理対象から除外する、
     ことを特徴とする請求項1又は3に記載の三次元地物データ生成装置。
  6.  前記無意味直線除去手段は、ステレオ画像上に表される地域を含める地図情報を外部から入力し、当該地図とステレオ画像との重なりの調整でおおよその同一位置の対応関係を決め、地図情報で無効領域を確定し、当該無効領域内のすべての直線をノイズ直線として削除する、
     ことを特徴とする請求項1又は3に記載の三次元地物データ生成装置。
  7.  前記直線ペア判定手段は、前記直線抽出手段で抽出した直線を前記直線類別判定手段で分類した類別に基づいて、ステレオ画像の一方の画像内の直線から他方の画像内に対応する直線を捜索する際に、処理対象の前記直線と同じ類別の直線に対してマッチング度を含む基準で対応しているかどうかを判定する、
     ことを特徴とする請求項1又は3に記載の三次元地物データ生成装置。
  8.  前記直線ペアクラスタリング手段は、前記直線ペア判定手段で決定した直線ペアの中における地物と関連する直線ペアを選択し、前記ステレオ視差修正手段で取得した視差と複数の直線ペアの幾何関係とを利用し、各地物にそれぞれ属している直線ペアを決定する、
     ことを特徴とする請求項1又は7に記載の三次元地物データ生成装置。
  9.  ステレオ画像から家屋、及び建築物を含む地物の三次元データを生成する三次元地物データ生成方法であって、
     地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算ステップと、
     地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出ステップと、
     前記直線抽出ステップで抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定ステップと、
     影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去ステップと、
     前記ステレオ視差計算ステップからの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定ステップと、
     前記直線ペア判定ステップで判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算ステップで取得した視差の予測値を修正するステレオ視差修正ステップと、
     前記直線ペア判定ステップで判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリングステップと、
     前記直線ペアクラスタリングステップで決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出ステップと、
     前記平面抽出ステップで抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せステップと、
     を備えることを特徴とする三次元地物データ生成方法。
  10.  コンピュータを、
     地形と地物の高さ情報に関連するステレオ視差の予測値を計算するステレオ視差計算手段、
     地物の屋上の内部構造を示す特徴線、地物の外側の形状を表す輪郭線、及び、非地物上の特徴線を含んだ画像上の直線を抽出する直線抽出手段、
     前記直線抽出手段で抽出した直線を実世界における意味を合わせ地物屋上内部の直線、地物外部輪郭線、及び、影領域輪郭線を含む直線に分類する直線類別判定手段、
     影、及びノイズを含む影響で発生した実世界に存在しない直線を処理対象から除外する無意味直線除去手段、
     前記ステレオ視差計算手段からの視差情報、及び、各直線の周辺の色とテクスチャの分布を利用して、一方の画像内の直線と他方の画像内の直線との類別を含めた対応関係が成立かどうかを判定する直線ペア判定手段、
     前記直線ペア判定手段で判定した対応関係がある直線ペアに対し、当該対応関係に基づいてより正確な視差値の計算を行い、前記ステレオ視差計算手段で取得した視差の予測値を修正するステレオ視差修正手段、
     前記直線ペア判定手段で判定した対応関係がある直線ペアの中に、家屋、及び建築物を含む地物に関連するペアだけを選択し、各直線ペアの視差情報、及び、複数の直線ペアの幾何関係を含む制限を利用し、同一の地物に属している直線ペアを決定する直線ペアクラスタリング手段、
     前記直線ペアクラスタリング手段で決定した各地物に属している直線ペアにおける幾何関係、及び視差の情報に基づいて、地物を構成する基本平面を抽出する平面抽出手段、
     前記平面抽出手段で抽出した各地物の平面における三次元空間上の位置関係を決め、各地物の全体を表す三次元モデルを生成する平面組合せ手段、
     として機能させる三次元地物データ生成プログラムを記録した記録媒体。
PCT/JP2012/066423 2011-06-29 2012-06-27 三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラムを記録した記録媒体 WO2013002280A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280036113.6A CN103703490B (zh) 2011-06-29 2012-06-27 用于产生三维特征数据的设备以及用于产生三维特征数据的方法
JP2013522909A JP5721197B2 (ja) 2011-06-29 2012-06-27 三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラム
US14/127,477 US9245345B2 (en) 2011-06-29 2012-06-27 Device for generating three dimensional feature data, method for generating three-dimensional feature data, and recording medium on which program for generating three-dimensional feature data is recorded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011143835 2011-06-29
JP2011-143835 2011-06-29

Publications (1)

Publication Number Publication Date
WO2013002280A1 true WO2013002280A1 (ja) 2013-01-03

Family

ID=47424170

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066423 WO2013002280A1 (ja) 2011-06-29 2012-06-27 三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラムを記録した記録媒体

Country Status (4)

Country Link
US (1) US9245345B2 (ja)
JP (1) JP5721197B2 (ja)
CN (1) CN103703490B (ja)
WO (1) WO2013002280A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2854106A1 (de) * 2013-09-26 2015-04-01 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
JP2017162024A (ja) * 2016-03-07 2017-09-14 学校法人早稲田大学 ステレオマッチングの処理方法、処理プログラムおよび処理装置
WO2018005552A1 (en) 2016-06-27 2018-01-04 Achillion Pharmaceuticals, Inc. Quinazoline and indole compounds to treat medical disorders
CN108519058A (zh) * 2018-03-21 2018-09-11 国家海洋环境监测中心 一种光学遥感图像估算一年生海冰厚度的方法
JP2020500319A (ja) * 2017-09-13 2020-01-09 ダビオ インク.Dabeeo Inc. 機械学習とイメージプロセッシングを利用した地図製作装置
GB2525120B (en) * 2013-01-11 2021-03-03 Cybercity 3D Inc A computer-implemented system and method for roof modeling and asset management
JP2021117047A (ja) * 2020-01-23 2021-08-10 株式会社フジタ 無人飛行体を用いた写真測量方法および無人飛行体を用いた写真測量システム
JP2021527877A (ja) * 2019-01-31 2021-10-14 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. 3次元人体姿勢情報の検出方法および装置、電子機器、記憶媒体
CN114677481A (zh) * 2022-05-31 2022-06-28 中国飞机强度研究所 空天飞机地面测试的理想加热曲面等效逼近模型构建方法
WO2023085183A1 (ja) * 2021-11-10 2023-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法および移動体

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679680B (zh) * 2012-08-31 2016-12-21 富士通株式会社 立体匹配方法和系统
US9330504B2 (en) * 2013-04-30 2016-05-03 Hover Inc. 3D building model construction tools
JP5906272B2 (ja) * 2014-03-28 2016-04-20 富士重工業株式会社 車両用ステレオ画像処理装置
CN107004276A (zh) * 2014-07-03 2017-08-01 A·古曼 从一对图像中觉察3d结构的方法
JP6159905B2 (ja) * 2015-05-27 2017-07-05 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法
US9870514B2 (en) 2015-07-02 2018-01-16 Qualcomm Incorporated Hypotheses line mapping and verification for 3D maps
KR102565485B1 (ko) * 2016-01-11 2023-08-14 한국전자통신연구원 도시 거리 검색 서비스 제공 서버 및 방법
US10054445B2 (en) * 2016-05-16 2018-08-21 Northrop Grumman Systems Corporation Vision-aided aerial navigation
US10102670B2 (en) * 2016-08-18 2018-10-16 Robert Bosch Gmbh System and method for procedurally generated building graphics within a street network of a three-dimensional virtual environment
US10089712B2 (en) * 2016-09-30 2018-10-02 Oracle International Corporation System and method providing automatic alignment of aerial/satellite imagery to known ground features
KR102562734B1 (ko) 2016-11-24 2023-08-02 삼성전자주식회사 도전성 하우징을 포함하는 전자 장치
KR20180065135A (ko) * 2016-12-07 2018-06-18 삼성전자주식회사 셀프 구조 분석을 이용한 구조 잡음 감소 방법 및 장치
US11158060B2 (en) * 2017-02-01 2021-10-26 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
US11176675B2 (en) 2017-02-01 2021-11-16 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
CN106960097B (zh) * 2017-03-27 2020-06-16 北京图安世纪科技股份有限公司 一种构建三维城市级路网及微观交通流仿真方法及系统
US20180330018A1 (en) * 2017-05-12 2018-11-15 The Boeing Company Methods and systems for part geometry extraction
KR101911447B1 (ko) 2018-05-09 2018-10-24 권오성 구조설계 도면의 패턴분석을 통한 3차원 구조해석 모델 생성 장치
JP6956051B2 (ja) * 2018-09-03 2021-10-27 株式会社東芝 画像処理装置、運転支援システム、画像処理方法及びプログラム
US11100704B2 (en) 2018-12-14 2021-08-24 Hover Inc. Generating and validating a virtual 3D representation of a real-world structure
US10823562B1 (en) 2019-01-10 2020-11-03 State Farm Mutual Automobile Insurance Company Systems and methods for enhanced base map generation
US11256949B2 (en) * 2019-06-28 2022-02-22 Intel Corporation Guided sparse feature matching via coarsely defined dense matches
US11494977B2 (en) * 2020-02-28 2022-11-08 Maxar Intelligence Inc. Automated process for building material detection in remotely sensed imagery
KR102484772B1 (ko) * 2020-11-03 2023-01-05 네이버랩스 주식회사 맵 생성 방법 및 이를 이용한 이미지 기반 측위 시스템
CN113065566B (zh) * 2021-03-19 2024-01-09 南京天巡遥感技术研究院有限公司 一种误匹配去除方法、系统及应用
CN113096250A (zh) * 2021-04-02 2021-07-09 华中师范大学 基于无人机航拍影像序列的三维建筑模型库系统构建方法
CN114972769B (zh) * 2022-06-17 2023-07-28 北京百度网讯科技有限公司 图像处理方法、三维地图生成方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074323A (ja) * 2000-09-01 2002-03-15 Kokusai Kogyo Co Ltd 三次元市街地空間モデル作成方法およびシステム
JP2004102474A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 3次元建物モデルデータ生成装置及び3次元都市モデルデータ生成装置及び3次元建物モデルデータ生成方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2006286019A (ja) * 2001-07-31 2006-10-19 Cad Center:Kk 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP2008082870A (ja) * 2006-09-27 2008-04-10 Setsunan Univ 画像処理プログラム及びこれを用いた路面状態計測システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US6192145B1 (en) * 1996-02-12 2001-02-20 Sarnoff Corporation Method and apparatus for three-dimensional scene processing using parallax geometry of pairs of points
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
JP3910582B2 (ja) 2001-07-31 2007-04-25 株式会社キャドセンター 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
TW550521B (en) 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
CN101236653B (zh) * 2008-03-03 2010-09-29 华为技术有限公司 图像校正方法及系统
CN101726255B (zh) 2008-10-24 2011-05-04 中国科学院光电研究院 从三维激光点云数据中提取感兴趣建筑物的方法
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
WO2011093751A1 (en) * 2010-01-26 2011-08-04 Saab Ab A three dimensional model method based on combination of ground based images and images taken from above
WO2012012943A1 (en) * 2010-07-28 2012-02-02 Shenzhen Institute Of Advanced Technology Chinese Academy Of Sciences Method for reconstruction of urban scenes
CN101976462A (zh) * 2010-10-29 2011-02-16 中国测绘科学研究院 一种三维重建方法
US8467606B2 (en) * 2011-08-25 2013-06-18 Eastman Kodak Company Method for segmenting a composite image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074323A (ja) * 2000-09-01 2002-03-15 Kokusai Kogyo Co Ltd 三次元市街地空間モデル作成方法およびシステム
JP2006286019A (ja) * 2001-07-31 2006-10-19 Cad Center:Kk 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP2004102474A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 3次元建物モデルデータ生成装置及び3次元都市モデルデータ生成装置及び3次元建物モデルデータ生成方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2008082870A (ja) * 2006-09-27 2008-04-10 Setsunan Univ 画像処理プログラム及びこれを用いた路面状態計測システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAICHI OKA ET AL.: "Generation of a 3D map based on altitude data", ITE TECHNICAL REPORT 2003 NEN 3 GATSU KAISAIBUN, vol. 27, no. 21, 18 March 2003 (2003-03-18), pages 5 - 8 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2525120B (en) * 2013-01-11 2021-03-03 Cybercity 3D Inc A computer-implemented system and method for roof modeling and asset management
EP2854106A1 (de) * 2013-09-26 2015-04-01 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
US9473762B2 (en) 2013-09-26 2016-10-18 Sick Ag 3D camera in accordance with the stereoscopic principle and method of detecting depth maps
JP2017162024A (ja) * 2016-03-07 2017-09-14 学校法人早稲田大学 ステレオマッチングの処理方法、処理プログラムおよび処理装置
WO2018005552A1 (en) 2016-06-27 2018-01-04 Achillion Pharmaceuticals, Inc. Quinazoline and indole compounds to treat medical disorders
JP2020500319A (ja) * 2017-09-13 2020-01-09 ダビオ インク.Dabeeo Inc. 機械学習とイメージプロセッシングを利用した地図製作装置
US11238647B2 (en) 2017-09-13 2022-02-01 Dabeeo Inc. Apparatus for building map using machine learning and image processing
CN108519058A (zh) * 2018-03-21 2018-09-11 国家海洋环境监测中心 一种光学遥感图像估算一年生海冰厚度的方法
JP2021527877A (ja) * 2019-01-31 2021-10-14 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. 3次元人体姿勢情報の検出方法および装置、電子機器、記憶媒体
JP2021117047A (ja) * 2020-01-23 2021-08-10 株式会社フジタ 無人飛行体を用いた写真測量方法および無人飛行体を用いた写真測量システム
WO2023085183A1 (ja) * 2021-11-10 2023-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法および移動体
CN114677481A (zh) * 2022-05-31 2022-06-28 中国飞机强度研究所 空天飞机地面测试的理想加热曲面等效逼近模型构建方法

Also Published As

Publication number Publication date
JPWO2013002280A1 (ja) 2015-02-23
CN103703490A (zh) 2014-04-02
CN103703490B (zh) 2016-03-30
US9245345B2 (en) 2016-01-26
JP5721197B2 (ja) 2015-05-20
US20140133741A1 (en) 2014-05-15

Similar Documents

Publication Publication Date Title
JP5721197B2 (ja) 三次元地物データ生成装置、三次元地物データ生成方法、および、三次元地物データ生成プログラム
US11222204B2 (en) Creation of a 3D city model from oblique imaging and lidar data
US9613388B2 (en) Methods, apparatuses and computer program products for three dimensional segmentation and textured modeling of photogrammetry surface meshes
Sampath et al. Segmentation and reconstruction of polyhedral building roofs from aerial lidar point clouds
Lafarge et al. Creating large-scale city models from 3D-point clouds: a robust approach with hybrid representation
US10521694B2 (en) 3D building extraction apparatus, method and system
Zhou et al. Seamless fusion of LiDAR and aerial imagery for building extraction
EP2849117B1 (en) Methods, apparatuses and computer program products for automatic, non-parametric, non-iterative three dimensional geographic modeling
US7509241B2 (en) Method and apparatus for automatically generating a site model
US9576373B2 (en) Geospatial imaging system providing segmentation and classification features and related methods
Canaz Sevgen et al. An improved RANSAC algorithm for extracting roof planes from airborne lidar data
US11804025B2 (en) Methods and systems for identifying topographic features
Awrangjeb et al. Rule-based segmentation of LIDAR point cloud for automatic extraction of building roof planes
US20220148219A1 (en) Method and system for visual localization
CN115564926B (zh) 基于影像建筑物结构学习的三维面片模型构建方法
Rau et al. Automatic roof model reconstruction from ALS data and 2D ground plans based on side projection and the TMR algorithm
Hu et al. Building modeling from LiDAR and aerial imagery
Rau A line-based 3D roof model reconstruction algorithm: Tin-merging and reshaping (TMR)
CN114742876B (zh) 一种土地视觉立体测量方法
Widyaningrum et al. Extraction of building roof edges from LiDAR data to optimize the digital surface model for true orthophoto generation
CN107808160B (zh) 三维建筑物提取方法和装置
Ahmed et al. High-quality building information models (BIMs) using geospatial datasets
Yu et al. A cue line based method for building modeling from LiDAR and satellite imagery
Ni et al. Multiple-primitives-based hierarchical classification of airborne laser scanning data in urban areas
Lavigne et al. Automatic building detection and 3D shape recovery from single monocular electro-optic imagery

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280036113.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12804085

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013522909

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14127477

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12804085

Country of ref document: EP

Kind code of ref document: A1