JP2007139421A - Morphological classification device and method, and variation region extraction device and method - Google Patents

Morphological classification device and method, and variation region extraction device and method Download PDF

Info

Publication number
JP2007139421A
JP2007139421A JP2005329042A JP2005329042A JP2007139421A JP 2007139421 A JP2007139421 A JP 2007139421A JP 2005329042 A JP2005329042 A JP 2005329042A JP 2005329042 A JP2005329042 A JP 2005329042A JP 2007139421 A JP2007139421 A JP 2007139421A
Authority
JP
Japan
Prior art keywords
image data
area
fractal sequence
feature distance
fractal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005329042A
Other languages
Japanese (ja)
Other versions
JP4963824B2 (en
Inventor
Mitsuto Matsubara
三人 松原
Hirotomo Ouchi
宏友 大内
Takashi Kuroiwa
孝 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon University
Original Assignee
Nihon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon University filed Critical Nihon University
Priority to JP2005329042A priority Critical patent/JP4963824B2/en
Publication of JP2007139421A publication Critical patent/JP2007139421A/en
Application granted granted Critical
Publication of JP4963824B2 publication Critical patent/JP4963824B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a morphological classification device for classification by quantitatively analyzing a morphology of an urban area. <P>SOLUTION: The morphological classification device includes: a comparison image storage part 10 for storing the image data formed based on the aerial photograph taken with an arbitrary urban area; a fractal sequence operation part 11 for calculating the fractal sequence of whole of input image data formed on the basis of the aerial photograph of the arbitrary urban area, and calculating the whole of stored image data stored in the comparison image data storage part 10; an image characteristic distance operation part 12 for calculating the image characteristic distance d based on the fractal sequence of whole input image data and whole stored image data calculated by the fractal sequence operation part 11; and a morphological classification part 13 for classifying the morphology of arbitrary urban area based on the image characteristic distance d calculated by the image characteristic operation part 12. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、任意の市街地を撮影した航空写真に基づき、当該市街地の形態を分類する形態分類装置及び方法、並びに当該市街地の変化領域の抽出を行う変化領域抽出装置及び方法に関する。   The present invention relates to a form classification apparatus and method for classifying a form of an urban area based on an aerial photograph taken of an arbitrary urban area, and a change area extraction apparatus and method for extracting a change area of the urban area.

都市計画を実施する際は、周辺の環境への影響を考慮した事前の評価が必要であり、そのためには複雑な都市の構造を定量的に解析することが必要である。また、該当地域における建物や道路の工事、災害による建物の倒壊などによる環境の変化も迅速に把握する必要がある。そのような場合、従来から広く用いられているのは、市街地を撮影した航空写真を人間の目視により判別する人的手法である。この場合、莫大な時間と労力が必要となるため効率が悪く、多大なコストが必要となる。そこで最近では、パターン認識を応用した手法が提案されており、計算機による自動化の試みがなされている(例えば、特許文献1を参照)。   When implementing city planning, it is necessary to conduct a prior assessment that takes into account the impact on the surrounding environment. To that end, it is necessary to quantitatively analyze the structure of a complex city. In addition, it is necessary to quickly grasp changes in the environment due to construction of buildings and roads in the area and collapse of buildings due to disasters. In such a case, a human technique that has been widely used in the past is to discriminate an aerial photograph of a city area by human eyes. In this case, enormous time and labor are required, so the efficiency is low and a great amount of cost is required. Therefore, recently, a method applying pattern recognition has been proposed, and attempts have been made to automate by a computer (see, for example, Patent Document 1).

特開平11−83478号公報Japanese Patent Laid-Open No. 11-83478

しかしながら、パターン認識を利用した手法の場合、一般にアルゴリズムが複雑であり、装置に実装した場合にはコストがかかり、莫大な処理時間を要する。さらに、判定結果は必ずしも人間の感覚とは一致しないという問題点がある。   However, in the case of a method using pattern recognition, the algorithm is generally complicated, and when implemented in an apparatus, the cost is high and a huge amount of processing time is required. Furthermore, there is a problem that the determination result does not necessarily match the human sense.

そこで、本発明は、上述した点に鑑みてなされたものであり、人的手法により作業を行った場合と同等の信頼性の高い解析を行うことができ、かつ迅速・容易に市街地の形態を分類する形態分類装置及び方法、並びに変化領域抽出装置及び方法を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described points, can perform analysis with high reliability equivalent to the case where work is performed by a human technique, and can quickly and easily change the form of an urban area. It is an object of the present invention to provide a form classification apparatus and method for classification, and a change area extraction apparatus and method.

本願発明に係る形態分類装置は、上述したような課題を解決するために、所定の形態の市街地が撮影されている航空写真に基づいて生成された画像データが格納されている画像データ格納手段と、任意の市街地が撮影されている航空写真に基づいて生成された入力画像データのフラクタルシーケンスを算出し、上記画像データ格納手段に格納されている上記画像データのフラクタルシーケンスを算出するフラクタルシーケンス演算手段と、上記フラクタルシーケンス演算手段により算出された、上記入力画像データのフラクタルシーケンスと、上記画像データのフラクタルシーケンスとに基づいて、画像特徴距離を算出する画像特徴距離演算手段と、上記画像特徴距離演算手段により算出された上記画像特徴距離に基づいて、上記任意の市街地の形態を分類する形態分類手段とを備える。   In order to solve the above-described problems, the form classification device according to the present invention includes an image data storage unit that stores image data generated based on an aerial photograph in which an urban area of a predetermined form is captured. Fractal sequence calculation means for calculating a fractal sequence of input image data generated based on an aerial photograph in which an arbitrary urban area is photographed, and calculating a fractal sequence of the image data stored in the image data storage means And image feature distance calculation means for calculating an image feature distance based on the fractal sequence of the input image data and the fractal sequence of the image data calculated by the fractal sequence calculation means, and the image feature distance calculation. Based on the image feature distance calculated by the means, the arbitrary city Of and a form classification means for classifying the form.

また、本発明に係る形態分類方法は、上述したような課題を解決するために、任意の市街地を撮影した航空写真に基づいて生成された入力画像データのフラクタルシーケンスを算出し、画像データ格納部に格納されており、所定の形態の市街地を撮影した航空写真に基づいて生成された格納画像データのフラクタルシーケンスを算出し、上記入力画像データのフラクタルシーケンスと、上記格納画像データのフラクタルシーケンスとに基づいて画像特徴距離を算出し、上記画像特徴距離に基づいて、上記任意の市街地の形態を分類する。   In addition, the form classification method according to the present invention calculates a fractal sequence of input image data generated based on an aerial photograph of an arbitrary urban area in order to solve the above-described problem, and an image data storage unit Is stored in the image data, and a fractal sequence of stored image data generated based on an aerial photograph of an urban area of a predetermined form is calculated, and the fractal sequence of the input image data and the fractal sequence of the stored image data are calculated. An image feature distance is calculated based on the image feature distance, and the form of the arbitrary urban area is classified based on the image feature distance.

また、本発明に係る変化領域抽出装置は、上述したような課題を解決するために、所定の形態の市街地を撮影した航空写真に基づいて生成された画像データが格納されている画像データ格納手段と、上記航空写真が撮影された時期とは異なる時期に撮影された上記市街地の航空写真に基づいて生成された入力画像データを所定のサイズの小領域に分割し、上記画像データ格納手段に格納されている上記画像データを上記所定のサイズと同等サイズの小領域に分割する小領域分割手段と、上記小領域分割手段により小領域に分割された上記入力画像データを、小領域ごとにフラクタルシーケンスを算出し、上記小領域分割手段により小領域に分割された上記画像データを、小領域ごとにフラクタルシーケンスを算出するフラクタルシーケンス演算手段と、上記フラクタルシーケンス演算手段により算出された、上記入力画像データの小領域ごとのフラクタルシーケンスと、上記画像データの小領域ごとのフラクタルシーケンスとに基づいて、対応する小領域ごとに画像特徴距離を算出する画像特徴距離演算手段と、上記画像特徴距離演算手段により算出された上記画像特徴距離に基づいて、上記市街地の変化領域を抽出する変化領域抽出手段とを備える。   In addition, in order to solve the above-described problem, the change area extraction apparatus according to the present invention stores image data generated based on an aerial photograph taken of a city in a predetermined form. And the input image data generated based on the aerial photograph of the city area taken at a time different from the time when the aerial photograph was taken, and divided into small areas of a predetermined size and stored in the image data storage means A small area dividing means for dividing the image data being divided into small areas having the same size as the predetermined size, and the input image data divided into small areas by the small area dividing means for each small area. And the image data divided into small areas by the small area dividing means is used to calculate a fractal sequence for each small area. And an image feature distance for each corresponding small area based on the fractal sequence for each small area of the input image data and the fractal sequence for each small area of the image data calculated by the fractal sequence calculating means. Image feature distance calculating means for calculating the image area, and change area extracting means for extracting the change area of the urban area based on the image feature distance calculated by the image feature distance calculating means.

また、本発明に係る変化領域抽出方法は、上述したような課題を解決するために、画像データ格納部に格納されており、所定の形態の市街地が撮影されている航空写真に基づいて生成された格納画像データを所定のサイズの小領域に分割し、上記航空写真が撮影された時期とは異なる時期に撮影された上記市街地の航空写真に基づいて生成された入力画像データを所定のサイズの小領域に分割し、小領域に分割された上記入力画像データを、小領域ごとにフラクタルシーケンスを算出し、小領域に分割された上記格納画像データを、小領域ごとにフラクタルシーケンスを算出し、上記入力画像データの小領域ごとのフラクタルシーケンスと、上記格納画像データの小領域ごとのフラクタルシーケンスとに基づいて、対応する小領域ごとに画像特徴距離を算出し、算出された上記画像特徴距離に基づいて、上記市街地の変化領域を抽出する。   In addition, in order to solve the above-described problem, the change area extraction method according to the present invention is stored in an image data storage unit and is generated based on an aerial photograph in which a city area of a predetermined form is captured. The stored image data is divided into small areas of a predetermined size, and the input image data generated based on the aerial photograph of the urban area taken at a time different from the time when the aerial photograph was taken is Dividing the input image data divided into small areas, calculating a fractal sequence for each small area, calculating the stored image data divided into small areas, calculating a fractal sequence for each small area, Based on the fractal sequence for each small area of the input image data and the fractal sequence for each small area of the stored image data, an image is generated for each corresponding small area. Calculating a symptom distance, based on the calculated the image feature distance, extracting the city of the changing area.

本発明によれば、人手により作業を行った場合に匹敵する、信頼性の高い市街地の形態に関する解析を迅速かつ容易に行うことができ、都市計画における事前調査や、地図情報の作成、及び災害時の被災地域の把握等に役立てることができる。   According to the present invention, it is possible to quickly and easily analyze the form of a reliable city area comparable to the case where the work is performed manually, pre-survey in city planning, creation of map information, and disaster It can be useful for understanding the affected areas at times.

本発明は、市街地の形態を分類する形態分類装置及び方法、並びに市街地の変化領域の抽出を行う変化領域抽出装置及び方法に適用される。   The present invention is applied to a form classification apparatus and method for classifying urban areas, and a change area extraction apparatus and method for extracting a change area of an urban area.

本発明の発明者等は、フラクタル理論に基づいて、任意の市街地の航空写真のフラクタルシーケンスと、サンプルとなる市街地の航空写真のフラクタルシーケンスとに基づいて、画像特徴距離dを求め、当該画像特徴距離dにより任意の市街地の形態を定量化できることを解明し、本発明を創作した。   The inventors of the present invention obtain an image feature distance d based on a fractal sequence of an aerial photograph of an arbitrary urban area and a fractal sequence of an aerial photograph of a sample urban area based on the fractal theory, and the image feature The present invention was created by elucidating that the form of an arbitrary urban area can be quantified by the distance d.

以下に本発明の実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、フラクタルシーケンスの算出方法と、画像特徴距離dの算出方法について説明する。なお、以下では、画像データの光強度分布(航空写真の画素値)をf(x,y)で表すこととする。   First, a fractal sequence calculation method and an image feature distance d calculation method will be described. Hereinafter, the light intensity distribution (aerial photograph pixel value) of the image data is represented by f (x, y).

まず、r×r[Pixel]の任意の小領域を考え、その四隅における光強度{f(xi,yj),f(xi+r,yj),f(xi,yj+r),f(xi+r,yj+r)}(但し、i,j=0,1,2,・・・,N-1)の最小値をf0とし、その四隅の光強度からf0を差し引き、それぞれを頂点とする小立方体の仮想的な体積をVr(xi,yj)とし、このときの体積の平均V(r)を(1)式に基づいて求める(図1)。 First, an arbitrary small region of r × r [Pixel] is considered, and the light intensity {f (x i , y j ), f (x i + r, y j ), f (x i , y j + at the four corners thereof is considered. r), f (x i + r, y j + r)} (where i, j = 0,1,2, ..., N-1) is f 0, and the light intensity at the four corners F 0 is subtracted from the virtual volume of the small cube with the vertices as V r (x i , y j ), and the average volume V (r) at this time is obtained based on equation (1) ( FIG. 1).

Figure 2007139421
Figure 2007139421

ここで、小領域{r0,r1,・・・,rM-1}に対する体積の平均{V(r0),V(r1),・・・,V(rM-1)}を求めると、フラクタルシーケンスは、{logV(r0),logV(r1),・・・,logV(rM-1)}dで求められる。 Here, the small region {r 0, r 1, ··· , r M-1} average volume to {V (r 0), V (r 1), ···, V (r M-1)} , Fractal sequence is obtained by {logV (r 0 ), logV (r 1 ),..., LogV (r M−1 )} d.

つぎに、解像度の等しい二つの画像データのフラクタルシーケンスをそれぞれS={s0,s1,・・・,sM-1},T={t0,t1,・・・,tM-1}とすると、(2)式に基づいて画像特徴距離dが算出される。 Next, fractal sequences of two image data having the same resolution are respectively expressed as S = {s 0 , s 1 ,..., S M−1 }, T = {t 0 , t 1 ,. 1 }, the image feature distance d is calculated based on the equation (2).

Figure 2007139421
Figure 2007139421

画像特徴距離dは、二つの画像の類似度を表し、例えば、二つの画像が同一であればd=0となる。一方、二つの画像が異なるほど画像特徴距離dの値は大きくなり、その結果は、人間の視覚的感覚に近いものとなる。   The image feature distance d represents the similarity between two images. For example, if the two images are the same, d = 0. On the other hand, the value of the image feature distance d increases as the two images differ, and the result is closer to the human visual sense.

<形態分類装置に関して>
形態分類装置1は、図2に示すように、所定の形態の市街地が撮影されている航空写真に基づいて生成された画像データが格納されている比較画像データ格納部10と、任意の市街地が撮影されている航空写真に基づいて生成された入力画像データの全体のフラクタルシーケンスを算出し、比較画像データ格納部10に格納されている格納画像データの全体のフラクタルシーケンスを算出するフラクタルシーケンス演算部11と、フラクタルシーケンス演算部11により算出された、入力画像データの全体のフラクタルシーケンスと、格納画像データの全体のフラクタルシーケンスとに基づいて、画像特徴距離dを算出する画像特徴距離演算部12と、画像特徴距離演算部12により算出された画像特徴距離dに基づいて、任意の市街地の形態を分類する形態分類部13とを備える。
<Regarding the shape classification device>
As shown in FIG. 2, the form classification apparatus 1 includes a comparison image data storage unit 10 that stores image data generated based on aerial photographs in which urban areas of a predetermined form are captured, and an arbitrary urban area. A fractal sequence calculation unit that calculates the entire fractal sequence of the input image data generated based on the captured aerial photograph and calculates the entire fractal sequence of the stored image data stored in the comparison image data storage unit 10 11 and an image feature distance calculation unit 12 that calculates the image feature distance d based on the entire fractal sequence of the input image data and the entire fractal sequence of the stored image data calculated by the fractal sequence calculation unit 11. Based on the image feature distance d calculated by the image feature distance calculation unit 12, the shape of an arbitrary city area And a form classification unit 13 that classifies.

比較画像データ格納部10は、例えば、形態が格子状である市街地の航空写真に基づいて生成されたグレースケールの格子状画像データが格納されている第1の形状の比較画像データ格納部20と、形態が同心円状である市街地の航空写真に基づいて生成されたグレースケールの同心円状画像データが格納されている第2の形状の比較画像データ格納部21と、形態が放射状である市街地の航空写真に基づいて生成されたグレースケールの放射状画像データが格納されている第3の形状の比較画像データ格納部22とを備える。なお、比較画像データ格納部10は、格子状、同心円状及び放射状以外の形態の市街地の航空写真に基づいて生成されたグレースケールの比較画像データが格納されている他の格納部を有していても良い。なお、フラクタルシーケンス演算部11に入力される入力画像データは、フラクタル性のある画像データである。   The comparison image data storage unit 10 includes, for example, a first shape comparison image data storage unit 20 in which grayscale grid-like image data generated based on an aerial photograph of an urban area having a grid shape is stored. A second-shaped comparative image data storage unit 21 storing gray-scale concentric image data generated based on an aerial photograph of an urban area having a concentric shape, and an aerial image of an urban area having a radial shape A comparison image data storage unit 22 of a third shape in which grayscale radial image data generated based on a photograph is stored. The comparative image data storage unit 10 has another storage unit that stores grayscale comparative image data generated based on aerial photographs of urban areas other than grids, concentric circles, and radial shapes. May be. Note that the input image data input to the fractal sequence calculation unit 11 is fractal image data.

フラクタルシーケンス演算部11は、フラクタル性を有する入力画像データの全体のフラクタルシーケンスを算出する。また、フラクタルシーケンス演算部11は、第1の形状の画像データ格納部20に格納されている格子状画像データを読み出し、当該格子状画像データの全体のフラクタルシーケンスを算出する。また、フラクタルシーケンス演算部11は、第2の形状の画像データ格納部21に格納されている同心円状画像データを読み出し、当該同心円状画像データの全体のフラクタルシーケンスを算出する。また、フラクタルシーケンス演算部11は、第3の形状の画像データ格納部22に格納されている放射状画像データを読み出し、当該放射状画像データの全体のフラクタルシーケンスを算出する。   The fractal sequence calculation unit 11 calculates the entire fractal sequence of input image data having fractal characteristics. Further, the fractal sequence calculation unit 11 reads out the lattice image data stored in the image data storage unit 20 having the first shape, and calculates the entire fractal sequence of the lattice image data. The fractal sequence calculation unit 11 reads the concentric image data stored in the image data storage unit 21 having the second shape, and calculates the entire fractal sequence of the concentric image data. Further, the fractal sequence calculation unit 11 reads the radial image data stored in the image data storage unit 22 having the third shape, and calculates the entire fractal sequence of the radial image data.

つぎに、画像特徴距離演算部12の構成について説明する。画像特徴距離演算部12は、フラクタルシーケンス演算部11により算出された、入力画像データの全体のフラクタルシーケンスと、格子状画像データの全体のフラクタルシーケンスとに基づいて、画像特徴距離dを算出する。また、画像特徴距離演算部12は、フラクタルシーケンス演算部11により算出された、入力画像データの全体のフラクタルシーケンスと、同心円状画像データの全体のフラクタルシーケンスとに基づいて、画像特徴距離dを算出する。また、画像特徴距離演算部12は、フラクタルシーケンス演算部11により算出された、入力画像データの全体のフラクタルシーケンスと、放射状画像データの全体のフラクタルシーケンスとに基づいて、画像特徴距離dを算出する。 Next, the configuration of the image feature distance calculation unit 12 will be described. The image feature distance calculation unit 12 calculates the image feature distance d 1 based on the entire fractal sequence of the input image data and the entire fractal sequence of the grid image data calculated by the fractal sequence calculation unit 11. . Further, the image feature distance calculation unit 12 calculates the image feature distance d 2 based on the entire fractal sequence of the input image data and the entire fractal sequence of the concentric image data calculated by the fractal sequence calculation unit 11. calculate. Further, the image feature distance calculation unit 12 calculates the image feature distance d 3 based on the entire fractal sequence of the input image data and the entire fractal sequence of the radial image data calculated by the fractal sequence calculation unit 11. To do.

また、画像特徴距離dは、二つの画像の類似度を表し、例えば、二つの画像が同一であればd=0となる。一方、二つの画像が異なるほど画像特徴距離dの値は大きくなり、その結果は、人間の視覚的感覚に近いものとなる。   The image feature distance d represents the similarity between two images. For example, if the two images are the same, d = 0. On the other hand, the value of the image feature distance d increases as the two images differ, and the result is closer to the human visual sense.

また、画像特徴距離dは、上述したように二つの画像間の変化の度合いを表しており、主に、建物や道路等の3次元的な配置によって変化するが、車や人等のように極端に小さい物体は誤差(雑音分)となり、変化に寄与しない特徴を有している。   Further, the image feature distance d represents the degree of change between the two images as described above, and changes mainly depending on the three-dimensional arrangement of buildings, roads, etc. An extremely small object has an error (noise component) and has a feature that does not contribute to change.

形態分類部13は、画像特徴距離演算部12により得られた画像特徴距離dと、画像特徴距離dと、画像特徴距離dとを比較し、当該比較結果に基づいて、入力画像データの元になった任意の市街地の形態を、例えば、格子状、同心円状又は放射状と分類する。 The form classification unit 13 compares the image feature distance d 1 obtained by the image feature distance calculation unit 12, the image feature distance d 2, and the image feature distance d 3, and based on the comparison result, the input image data The form of an arbitrary urban area that is the basis of is classified into, for example, a grid, a concentric circle, or a radial pattern.

また、形態分類部13により分類された形態に基づいて、入力画像データを入力画像データ格納部30に登録する登録部31を備える構成であっても良い。また、入力画像データ格納部30は、形態分類部13に分類された結果に応じて、例えば、格子状の形態の入力画像データを格納する第1の形状の入力画像データ格納部30Aと、同心円状の形態の入力画像データを格納する第2の形状の入力画像データ格納部30Bと、放射状の形態の入力画像データを格納する第3の形状の入力画像データ格納部30C等を備える。   Moreover, the structure provided with the registration part 31 which registers input image data into the input image data storage part 30 based on the form classified by the form classification | category part 13 may be sufficient. Further, the input image data storage unit 30 is concentric with the input image data storage unit 30A having the first shape for storing the input image data in a lattice form, for example, according to the result of classification by the form classification unit 13. A second shape input image data storage unit 30B for storing the input image data in the form of a shape, and a third shape input image data storage unit 30C for storing the input image data in the form of a radial shape.

<具体例>
ここで、図3に実際の航空写真に基づく画像データから画像特徴距離dを算出した結果を示す。また、図3では、航空写真の一辺の大きさは、約400[m]の正方形であり、当該航空写真から生成されたグレースケールの画像データの解像度は、512×512[pixel]である。また、撮影条件の違いによる影響を軽減するため、いずれの航空写真も10月中旬の正午頃に撮影された航空写真を用いた。
<Specific example>
FIG. 3 shows the result of calculating the image feature distance d from the image data based on the actual aerial photograph. In FIG. 3, the size of one side of the aerial photograph is a square of about 400 [m], and the resolution of the grayscale image data generated from the aerial photograph is 512 × 512 [pixel]. In addition, in order to reduce the influence due to the difference in the photographing conditions, aerial photographs taken around noon in the middle of October were used for all the aerial photographs.

図3は、「京都府中京区二条城町」を基準として、複数の市街地の画像特徴距離dを求めた結果である。「京都府中京区二条城町」は、「東京都北区小山町」(格子状の市街地)との画像特徴距離dが約0.01となり、「東京都大田区田園調布」及び「神奈川県港北区日吉」(同心円状の市街地)との画像特徴距離dが約0.03となり、「東京都豊島区南大塚」及び「東京都豊島区北大塚」(放射状の市街地)との画像特徴距離dが約0.11となっている。したがって、「京都府中京区二条城町」の市街地の形態は、格子状の市街地である「東京都北区小山町」に近似していることが分かり、また、同心円状の市街地に比べ、放射状の市街地の方が画像特徴距離dが大きいことが分かる。このことは、人間の視覚的感覚とも良く一致している。   FIG. 3 is a result of obtaining image feature distances d of a plurality of urban areas based on “Nijo Castle Town, Nakagyo-ku, Kyoto Prefecture” as a reference. The image feature distance d of “Nijojo-cho, Nakagyo-ku, Kyoto” is about 0.01 from “Oyama-cho, Kita-ku, Tokyo” (lattice-shaped urban area). The image feature distance d with “Hichiyoshi-ku” (concentric urban area) is about 0.03, and the image feature distance d with “Minami-Otsuka, Toshima-ku, Tokyo” and “Kita-Otsuka, Toshima-ku, Tokyo” (radial urban area) Is about 0.11. Therefore, it can be seen that the form of the urban area in Nijo Castle Town, Nakagyo Ward, Kyoto Prefecture is close to that of Oyama Town, Kita Ward, Tokyo, which is a grid-like urban area. It can be seen that the image feature distance d is larger in the urban area. This is in good agreement with the human visual sense.

また、本発明の発明者等は、上述と同様に、他の形態の市街地を基準として画像特徴距離dを求めた結果、市街地の形態が相互に類似している場合には、画像特徴距離dが約0.01となり、また、格子状の市街地と同心円状の市街地の場合には、画像特徴距離dが約0.03となり、同心円状の市街地と放射状の市街地の場合には、画像特徴距離dが約0.09となり、格子状の市街地と放射状の市街地の場合には、画像特徴距離dが約0.11となることを解明した。   In addition, as described above, the inventors of the present invention have obtained the image feature distance d based on other forms of urban areas, and as a result, when the urban areas are similar to each other, the image characteristic distance d is obtained. Is approximately 0.01, and in the case of a concentric urban area with a grid-shaped urban area, the image characteristic distance d is approximately 0.03, and in the case of a concentric urban area and a radial urban area, the image characteristic distance is It was elucidated that d was about 0.09, and the image feature distance d was about 0.11 in the case of a grid-like urban area and a radial urban area.

したがって、市街地の形態の違いが画像特徴距離dに十分に反映されているので、画像特徴距離dを用いることにより、市街地の形態分類が可能となるのである。   Therefore, since the difference in the form of the urban area is sufficiently reflected in the image feature distance d, the form classification of the urban area can be performed by using the image feature distance d.

このようにして、本発明に係る形態分類装置1は、基準とする市街地と異なる複数の市街地との間の画像特徴距離dを求め、求めた画像特徴距離dの大小関係を比較し、その結果、画像特徴距離dがほぼ等しい場合には、同じ形態の市街地として分類することができ、画像特徴距離dが異なる場合には、別の形態の市街地として分類することができる。   In this way, the form classification device 1 according to the present invention obtains the image feature distance d between a reference city area and a plurality of different city areas, compares the obtained image feature distances d, and compares the result. When the image feature distances d are substantially equal, they can be classified as urban areas of the same form, and when the image feature distances d are different, they can be classified as urban areas of different forms.

<変化領域抽出装置に関して>
また、画像特徴距離dは、上述したように二つの画像間の変化の度合いを表している。したがって、本願発明によれば、航空写真に基づく二つの画像データをそれぞれ同等サイズの小領域に分割し、それぞれ対応する小領域ごとの画像特徴距離dを算出することにより、精密に変化領域の抽出を行うことができる。以下に、変化領域抽出装置の構成について説明する。
<Regarding the change area extraction device>
The image feature distance d represents the degree of change between the two images as described above. Therefore, according to the present invention, two image data based on aerial photographs are divided into small areas of the same size, and the image feature distance d for each corresponding small area is calculated, thereby accurately extracting the change area. It can be performed. The configuration of the change area extraction device will be described below.

変化領域抽出装置2は、図4に示すように、ある年代において、任意の市街地を撮影した航空写真に基づいて生成された画像データ(以下、格納画像データという。)が格納されている画像データ格納部40と、当該航空写真が撮影された時期とは異なる時期に撮影された同一の市街地の航空写真に基づいて生成された入力画像データを所定のサイズの小領域に分割し、また、画像データ格納部40に格納されている格納画像データを所定のサイズと同等サイズの小領域に分割する小領域分割部41と、小領域分割部41により小領域に分割された入力画像データを、小領域ごとにフラクタルシーケンスを算出し、また、小領域分割部41により小領域に分割された格納画像データを、小領域ごとにフラクタルシーケンスを算出するフラクタルシーケンス演算部42と、フラクタルシーケンス演算部42により算出された、入力画像データの小領域ごとのフラクタルシーケンスと、格納画像データの小領域ごとのフラクタルシーケンスとに基づいて、対応する小領域ごとに画像特徴距離を算出する画像特徴距離演算部43と、画像特徴距離演算部43により算出された画像特徴距離に基づいて、市街地の変化領域を抽出する変化領域抽出部44とを備える。なお、小領域分割部41に入力される入力画像データは、フラクタル性のある画像データである。   As shown in FIG. 4, the change area extraction device 2 stores image data (hereinafter referred to as stored image data) generated based on aerial photographs of an arbitrary urban area taken at a certain age. The input image data generated based on the storage unit 40 and the aerial photograph of the same urban area taken at a time different from the time when the aerial photograph was taken is divided into small areas of a predetermined size, and the image A small area dividing unit 41 that divides the stored image data stored in the data storage unit 40 into small areas having a size equivalent to a predetermined size, and the input image data divided into small areas by the small area dividing unit 41 Fractal sequence for calculating a fractal sequence for each region, and storing image data divided into small regions by the small region dividing unit 41 to calculate a fractal sequence for each small region. Based on the fractal sequence for each small area of the input image data and the fractal sequence for each small area of the stored image data calculated by the sequence calculation section 42 and the fractal sequence calculation section 42, an image is generated for each corresponding small area. An image feature distance calculation unit 43 that calculates a feature distance and a change region extraction unit 44 that extracts a change region of an urban area based on the image feature distance calculated by the image feature distance calculation unit 43 are provided. Note that the input image data input to the small area dividing unit 41 is fractal image data.

画像データ格納部40には、撮影年代の異なる市街地の航空写真に基づいて生成された画像データが格納されている。   The image data storage unit 40 stores image data generated based on aerial photographs of urban areas with different shooting ages.

小領域分割部41は、フラクタル性を有する入力画像データを所定のサイズの小領域に分割する。また、小領域分割部41は、画像データ格納部40に格納されている格納画像データを読み出し、当該格納画像データを所定のサイズの小領域に分割する。   The small area dividing unit 41 divides input image data having fractal properties into small areas of a predetermined size. The small area dividing unit 41 reads the stored image data stored in the image data storage unit 40 and divides the stored image data into small areas of a predetermined size.

フラクタルシーケンス演算部42は、小領域に分割された入力画像データを、小領域ごとにフラクタルシーケンスを算出する。また、フラクタルシーケンス演算部42は、小領域に分割された格納画像データを、小領域ごとにフラクタルシーケンスを算出する。   The fractal sequence calculation unit 42 calculates a fractal sequence for each small area of the input image data divided into small areas. Further, the fractal sequence calculation unit 42 calculates a fractal sequence for each small area from the stored image data divided into the small areas.

画像特徴距離演算部43は、フラクタルシーケンス演算部42により算出された、入力画像データの小領域ごとのフラクタルシーケンスと、格納画像データの小領域ごとのフラクタルシーケンスとに基づいて、それぞれ対応する小領域ごとの画像特徴距離を算出する。   Based on the fractal sequence for each small area of the input image data and the fractal sequence for each small area of the stored image data calculated by the fractal sequence calculation section 42, the image feature distance calculation section 43 corresponds to each small area. Each image feature distance is calculated.

ここで、フラクタルシーケンス検算部42と、画像特徴距離演算部43による一連の動作について説明する。   Here, a series of operations by the fractal sequence verification unit 42 and the image feature distance calculation unit 43 will be described.

フラクタルシーケンス演算部42は、一の画像データを図5(A)に示すように、大きさu×u[pixel]の小領域{pn}(但し、n=1,2,・・・L2)に分割し、それぞれのフラクタルシーケンスを求める。また、フラクタルシーケンス演算部42は、他の画像データを図5(B)に示すように、大きさu×u[pixel]の小領域{qn}(但し、n=1,2,・・・L2)に分割し、それぞれのフラクタルシーケンスを求める。 As shown in FIG. 5A, the fractal sequence calculation unit 42, as shown in FIG. 5A, has a small area {p n } of size u × u [pixel] (where n = 1, 2,... L 2 ) Divide into 2 ) and find each fractal sequence. In addition, the fractal sequence calculation unit 42, as shown in FIG. 5B, outputs other image data to a small region {q n } having a size u × u [pixel] (where n = 1, 2,... • Divide into L 2 ) and find each fractal sequence.

そして、画像特徴距離演算部43は、一の画像データの小領域{p1}のフラクタルシーケンスと、小領域{p1}に対応する他の画像データの小領域{q1}のフラクタルシーケンスとに基づいて画像特徴距離dを算出し、順次、対応する位置にある小領域のフラクタルシーケンスに基づいて画像特徴距離d(但し、n=1,2,・・・L2)を算出する。 Then, the image feature distance calculator 43, a fractal sequence of the small region {p 1} of one image data, the fractal sequence of small regions subregions other image data corresponding to {p 1} {q 1} The image feature distance d 1 is calculated on the basis of the image feature distance, and the image feature distance d n (where n = 1, 2,... L 2 ) is sequentially calculated on the basis of the fractal sequence of the small area at the corresponding position. .

変化領域抽出部44は、画像特徴距離演算部43により算出された小領域ごとの画像特徴距離dに基づいて、一定の値以上の画像特徴距離dになっている小領域のみを抽出し、抽出した小領域の光強度分布を算出する。変化領域抽出部44は、算出した値が一定値以上の小領域を変化領域として抽出する。   Based on the image feature distance d for each small region calculated by the image feature distance calculation unit 43, the change region extraction unit 44 extracts and extracts only the small regions having the image feature distance d equal to or greater than a certain value. The light intensity distribution of the small area is calculated. The change area extraction unit 44 extracts a small area whose calculated value is a certain value or more as a change area.

また、小領域分割部41により、画像データを小領域に分割する際のサイズを設定するサイズ設定部45を備える構成であっても良い。なお、サイズ設定部45で設定されるサイズが小さい場合には、より精密にフラクタルシーケンスを求められるメリットがあるが、演算に時間が掛かってしまうデメリットがあり、一方、サイズを大きくすれば、演算時間は少なくて済むが、フラクタルシーケンスの値が大まかになってしまう。したがって、設定サイズは、どの程度の精密さが要求されるのかによって適宜決定される。   Moreover, the structure provided with the size setting part 45 which sets the size at the time of dividing | segmenting image data into a small area by the small area dividing part 41 may be sufficient. In addition, when the size set by the size setting unit 45 is small, there is a merit that a fractal sequence can be calculated more precisely. However, there is a demerit that it takes time for the calculation. Although less time is required, the value of the fractal sequence becomes rough. Therefore, the set size is appropriately determined depending on how much precision is required.

<変化領域の抽出>
ここで、図6に示すように、過去の画像データの小領域{p}の内部にある大きさ[wp×hp]の建物が、現在の画像データの小領域{q}においては、大きさ[w×h]の建物に変化している場合を考える。
<Extraction of change area>
Here, as shown in FIG. 6, a building of size [w p × h p ] inside the small area {p L } of the past image data is in the small area {q L } of the current image data. Is considered to be a building of size [w q × h q ].

一般に、地面と建物上部の光強度分布は、かなり異なるため、例えば、小領域の中央部から所定量だけx方向、y方向に沿って光強度分布を求めると、図6(A)及び図6(B)のように、地面と建物上部の境界で光強度分布は変化する。   In general, since the light intensity distribution on the ground and the upper part of the building is quite different, for example, when the light intensity distribution is obtained along the x direction and the y direction by a predetermined amount from the center of the small area, FIG. 6 (A) and FIG. As in (B), the light intensity distribution changes at the boundary between the ground and the upper part of the building.

また、図6(C)には、過去の画像データの小領域{p}及び現在の画像データの小領域{q}について、x方向に沿って走査して求めた光強度分布の比較例をそれぞれ示す。 Further, in FIG. 6 (C), the small regions {q L} subregion {p L} and the current image data of the previous image data, the comparison of the light intensity distribution obtained by scanning along the x-direction Each example is shown.

したがって、光強度分布が異なる範囲(w≦x≦w)を調べることにより、変化している小領域を抽出することができる。 Therefore, a changing small region can be extracted by examining a range (w p ≦ x ≦ w q ) where the light intensity distribution is different.

このようにして、本発明に係る変化領域抽出装置2は、画像データにおいて、目視では判別しにくい小領域の変化を抽出することができるので、例えば、ある市街地において何らかの災害が発生した場合に、災害前の航空写真による画像データと、災害後の航空写真による画像データとに基づいて、小領域ごとの画像特徴距離d及び光強度分布を算出することにより、市街地の変化を迅速に検出することができ、災害場所の把握に利用することができる。   In this way, the change area extraction apparatus 2 according to the present invention can extract changes in small areas that are difficult to visually identify in the image data. For example, when some disaster occurs in a certain urban area, Rapidly detecting changes in urban areas by calculating image feature distance d and light intensity distribution for each small area based on image data from aerial photographs before disaster and image data from aerial photographs after disaster Can be used to identify disaster areas.

また、本発明を応用すれば、例えば、ある場所の過去の航空写真による画像データと、同一場所の現在の航空写真による画像データとに基づいて、小領域ごとの画像特徴距離d及び光強度分布を算出し、変化があった小領域を抽出し、抽出された小領域に対応する画像データのみを更新することにより、地図の作成に役立てることができる。   Further, if the present invention is applied, for example, based on image data based on past aerial photographs at a certain location and image data based on current aerial photographs at the same location, image feature distance d and light intensity distribution for each small area. Can be used to create a map by extracting a small area that has changed, and updating only the image data corresponding to the extracted small area.

また、本発明は、図面を参照して説明した上述の実施例に限定されるものではなく、添付の請求の範囲及びその主旨を逸脱することなく、様々な変更、置換又はその同等のものを行うことができることは勿論である。   The present invention is not limited to the above-described embodiments described with reference to the drawings, and various modifications, substitutions or equivalents thereof can be made without departing from the scope and spirit of the appended claims. Of course, it can be done.

小立方体の仮想体積を示す図である。It is a figure which shows the virtual volume of a small cube. 本発明を適用した形態分類装置の構造を示すブロック図である。It is a block diagram which shows the structure of the form classification device to which this invention is applied. 実際の航空写真に基づく画像データから画像特徴距離dを算出した結果を示す図である。It is a figure which shows the result of having calculated the image feature distance d from the image data based on an actual aerial photograph. 本発明を適用した変化領域抽出装置の構造を示すブロック図である。It is a block diagram which shows the structure of the change area extraction apparatus to which this invention is applied. フラクタルシーケンス演算部により行われる画像の分割の説明に供する図である。It is a figure where it uses for description of the division | segmentation of the image performed by the fractal sequence calculating part. 変化領域の抽出を行う説明に供する図である。It is a figure where it uses for description which extracts a change area | region.

符号の説明Explanation of symbols

1 形態分類装置、2 変化領域抽出装置、10 比較画像データ格納部、11 フラクタルシーケンス演算部、12 画像特徴距離演算部、13 形態分類部、20 第1の形状の比較画像データ格納部、21 第2の形状の比較画像データ格納部、22 第3の形状の比較画像データ格納部、30 入力画像データ格納部、31 登録部、40 画像データ格納部、41 小領域分割部、42 フラクタルシーケンス演算部、43 画像特徴距離演算部、44 変化領域抽出部、45 サイズ設定部   DESCRIPTION OF SYMBOLS 1 Form classification apparatus, 2 Change area extraction apparatus, 10 Comparison image data storage part, 11 Fractal sequence calculation part, 12 Image feature distance calculation part, 13 Form classification part, 20 Comparison image data storage part of 1st shape, 21st 2 shape comparison image data storage unit, 22 3rd shape comparison image data storage unit, 30 input image data storage unit, 31 registration unit, 40 image data storage unit, 41 small region division unit, 42 fractal sequence calculation unit 43 Image feature distance calculation unit 44 Change region extraction unit 45 Size setting unit

Claims (5)

所定の形態の市街地が撮影されている航空写真に基づいて生成された画像データが格納されている画像データ格納手段と、
任意の市街地が撮影されている航空写真に基づいて生成された入力画像データのフラクタルシーケンスを算出し、上記画像データ格納手段に格納されている上記画像データのフラクタルシーケンスを算出するフラクタルシーケンス演算手段と、
上記フラクタルシーケンス演算手段により算出された、上記入力画像データのフラクタルシーケンスと、上記画像データのフラクタルシーケンスとに基づいて、画像特徴距離を算出する画像特徴距離演算手段と、
上記画像特徴距離演算手段により算出された上記画像特徴距離に基づいて、上記任意の市街地の形態を分類する形態分類手段とを備えることを特徴とする形態分類装置。
Image data storage means for storing image data generated based on aerial photographs in which urban areas of a predetermined form are captured;
Fractal sequence calculation means for calculating a fractal sequence of input image data generated based on an aerial photograph in which an arbitrary urban area is photographed, and calculating a fractal sequence of the image data stored in the image data storage means; ,
Image feature distance calculation means for calculating an image feature distance based on the fractal sequence of the input image data calculated by the fractal sequence calculation means and the fractal sequence of the image data;
A form classification device, comprising: a form classification means for classifying the form of any urban area based on the image feature distance calculated by the image feature distance calculation means.
任意の市街地を撮影した航空写真に基づいて生成された入力画像データのフラクタルシーケンスを算出し、
画像データ格納部に格納されており、所定の形態の市街地を撮影した航空写真に基づいて生成された格納画像データのフラクタルシーケンスを算出し、
上記入力画像データのフラクタルシーケンスと、上記格納画像データのフラクタルシーケンスとに基づいて画像特徴距離を算出し、
上記画像特徴距離に基づいて、上記任意の市街地の形態を分類することを特徴とする形態分類方法。
Calculate the fractal sequence of the input image data generated based on the aerial photograph taken of any urban area,
Stored in the image data storage unit, calculates a fractal sequence of the stored image data generated based on the aerial photograph of the urban area of a predetermined form,
Calculating an image feature distance based on the fractal sequence of the input image data and the fractal sequence of the stored image data;
A form classification method characterized in that the form of the arbitrary urban area is classified based on the image feature distance.
所定の形態の市街地を撮影した航空写真に基づいて生成された画像データが格納されている画像データ格納手段と、
上記航空写真が撮影された時期とは異なる時期に撮影された上記市街地の航空写真に基づいて生成された入力画像データを所定のサイズの小領域に分割し、上記画像データ格納手段に格納されている上記画像データを上記所定のサイズと同等サイズの小領域に分割する小領域分割手段と、
上記小領域分割手段により小領域に分割された上記入力画像データを、小領域ごとにフラクタルシーケンスを算出し、上記小領域分割手段により小領域に分割された上記画像データを、小領域ごとにフラクタルシーケンスを算出するフラクタルシーケンス演算手段と、
上記フラクタルシーケンス演算手段により算出された、上記入力画像データの小領域ごとのフラクタルシーケンスと、上記画像データの小領域ごとのフラクタルシーケンスとに基づいて、対応する小領域ごとに画像特徴距離を算出する画像特徴距離演算手段と、
上記画像特徴距離演算手段により算出された上記画像特徴距離に基づいて、上記市街地の変化領域を抽出する変化領域抽出手段とを備えることを特徴とする変化領域抽出装置。
Image data storage means for storing image data generated based on aerial photographs taken of urban areas of a predetermined form;
The input image data generated based on the aerial photograph of the urban area taken at a time different from the time when the aerial photograph was taken is divided into small areas of a predetermined size and stored in the image data storage means. A small area dividing means for dividing the image data being divided into small areas having a size equivalent to the predetermined size;
The input image data divided into small areas by the small area dividing means calculates a fractal sequence for each small area, and the image data divided into small areas by the small area dividing means is divided into fractals for each small area. A fractal sequence calculation means for calculating a sequence;
Based on the fractal sequence for each small area of the input image data and the fractal sequence for each small area of the image data calculated by the fractal sequence calculation means, the image feature distance is calculated for each corresponding small area. Image feature distance calculation means;
A change area extraction device comprising: a change area extraction means for extracting the change area of the urban area based on the image feature distance calculated by the image feature distance calculation means.
上記変化抽出手段は、変化領域の抽出を画像データの光強度分布を走査することにより行うことを特徴とする請求項3記載の変化領域抽出装置。   4. The change area extraction apparatus according to claim 3, wherein the change extraction means extracts the change area by scanning a light intensity distribution of the image data. 画像データ格納部に格納されており、所定の形態の市街地が撮影されている航空写真に基づいて生成された格納画像データを所定のサイズの小領域に分割し、
上記航空写真が撮影された時期とは異なる時期に撮影された上記市街地の航空写真に基づいて生成された入力画像データを所定のサイズの小領域に分割し、
小領域に分割された上記入力画像データを、小領域ごとにフラクタルシーケンスを算出し、
小領域に分割された上記格納画像データを、小領域ごとにフラクタルシーケンスを算出し、
上記入力画像データの小領域ごとのフラクタルシーケンスと、上記格納画像データの小領域ごとのフラクタルシーケンスとに基づいて、対応する小領域ごとに画像特徴距離を算出し、
算出された上記画像特徴距離に基づいて、上記市街地の変化領域を抽出することを特徴とする変化領域抽出方法。
The stored image data that is stored in the image data storage unit and is generated based on the aerial photograph in which the urban area of a predetermined form is captured is divided into small areas of a predetermined size,
The input image data generated based on the aerial photograph of the city area taken at a time different from the time when the aerial photograph was taken is divided into small areas of a predetermined size,
Calculate the input image data divided into small areas, fractal sequences for each small area,
Calculate the fractal sequence for each small area from the stored image data divided into small areas,
Based on the fractal sequence for each small area of the input image data and the fractal sequence for each small area of the stored image data, an image feature distance is calculated for each corresponding small area,
A change area extraction method characterized by extracting a change area of the city based on the calculated image feature distance.
JP2005329042A 2005-11-14 2005-11-14 Change area extraction apparatus and change area extraction method Expired - Fee Related JP4963824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005329042A JP4963824B2 (en) 2005-11-14 2005-11-14 Change area extraction apparatus and change area extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005329042A JP4963824B2 (en) 2005-11-14 2005-11-14 Change area extraction apparatus and change area extraction method

Publications (2)

Publication Number Publication Date
JP2007139421A true JP2007139421A (en) 2007-06-07
JP4963824B2 JP4963824B2 (en) 2012-06-27

Family

ID=38202495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005329042A Expired - Fee Related JP4963824B2 (en) 2005-11-14 2005-11-14 Change area extraction apparatus and change area extraction method

Country Status (1)

Country Link
JP (1) JP4963824B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240968A (en) * 2014-07-22 2014-12-25 オリンパスイメージング株式会社 Map display server and map display method
CN113780829A (en) * 2021-09-14 2021-12-10 中国长江三峡集团有限公司 Hydrologic situation influence evaluation method, hydrologic situation influence evaluation system and storage medium
CN117576324A (en) * 2024-01-16 2024-02-20 青岛蓝海软通信息技术有限公司 Urban three-dimensional space model construction method and system based on digital twin

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056820A (en) * 1999-08-19 2001-02-27 Nippon Hoso Kyokai <Nhk> Still picture retrieval device and recording medium
JP2003216649A (en) * 2002-01-25 2003-07-31 Nippon Hoso Kyokai <Nhk> Image retrieval device and program
JP2003281550A (en) * 2002-12-04 2003-10-03 Matsushita Electric Ind Co Ltd Surface evaluation device and moving device
JP2004318365A (en) * 2003-04-15 2004-11-11 Hokkaido Univ Image search system, image search method, and its program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056820A (en) * 1999-08-19 2001-02-27 Nippon Hoso Kyokai <Nhk> Still picture retrieval device and recording medium
JP2003216649A (en) * 2002-01-25 2003-07-31 Nippon Hoso Kyokai <Nhk> Image retrieval device and program
JP2003281550A (en) * 2002-12-04 2003-10-03 Matsushita Electric Ind Co Ltd Surface evaluation device and moving device
JP2004318365A (en) * 2003-04-15 2004-11-11 Hokkaido Univ Image search system, image search method, and its program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240968A (en) * 2014-07-22 2014-12-25 オリンパスイメージング株式会社 Map display server and map display method
CN113780829A (en) * 2021-09-14 2021-12-10 中国长江三峡集团有限公司 Hydrologic situation influence evaluation method, hydrologic situation influence evaluation system and storage medium
CN117576324A (en) * 2024-01-16 2024-02-20 青岛蓝海软通信息技术有限公司 Urban three-dimensional space model construction method and system based on digital twin
CN117576324B (en) * 2024-01-16 2024-04-12 青岛蓝海软通信息技术有限公司 Urban three-dimensional space model construction method and system based on digital twin

Also Published As

Publication number Publication date
JP4963824B2 (en) 2012-06-27

Similar Documents

Publication Publication Date Title
CN109447994B (en) Remote sensing image segmentation method combining complete residual error and feature fusion
CN110738207B (en) Character detection method for fusing character area edge information in character image
CN109753885B (en) Target detection method and device and pedestrian detection method and system
CN110599537A (en) Mask R-CNN-based unmanned aerial vehicle image building area calculation method and system
CN104700099B (en) The method and apparatus for recognizing traffic sign
CN109918969B (en) Face detection method and device, computer device and computer readable storage medium
Siriborvornratanakul An automatic road distress visual inspection system using an onboard in-car camera
CN106778705B (en) Pedestrian individual segmentation method and device
CN108961180B (en) Infrared image enhancement method and system
CN108305260B (en) Method, device and equipment for detecting angular points in image
CN106845341A (en) A kind of unlicensed vehicle identification method based on virtual number plate
JP2017033197A (en) Change area detection device, method, and program
CN113033516A (en) Object identification statistical method and device, electronic equipment and storage medium
KR102195826B1 (en) Keypoint identification
Tarsha Kurdi et al. Automatic filtering and 2D modeling of airborne laser scanning building point cloud
JP2020038132A (en) Crack on concrete surface specification method, crack specification device, and crack specification system, and program
Ma et al. A convolutional neural network method to improve efficiency and visualization in modeling driver’s visual field on roads using MLS data
JP2007033931A (en) Road recognition system for map generation using satellite image or the like
JP2020160840A (en) Road surface defect detecting apparatus, road surface defect detecting method, road surface defect detecting program
JP4963824B2 (en) Change area extraction apparatus and change area extraction method
CN115346206B (en) License plate detection method based on improved super-resolution deep convolution feature recognition
KR102416714B1 (en) System and method for city-scale tree mapping using 3-channel images and multiple deep learning
Guili et al. A man-made object detection algorithm based on contour complexity evaluation
JP2017004052A (en) Learning device, method, and program
CN113657214B (en) Building damage assessment method based on Mask RCNN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120327

R150 Certificate of patent or registration of utility model

Ref document number: 4963824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees