JPS6320579A - Extraction processing system for feature amount of image - Google Patents

Extraction processing system for feature amount of image

Info

Publication number
JPS6320579A
JPS6320579A JP16361486A JP16361486A JPS6320579A JP S6320579 A JPS6320579 A JP S6320579A JP 16361486 A JP16361486 A JP 16361486A JP 16361486 A JP16361486 A JP 16361486A JP S6320579 A JPS6320579 A JP S6320579A
Authority
JP
Japan
Prior art keywords
shape feature
image
shape
file
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16361486A
Other languages
Japanese (ja)
Inventor
Yoichi Seto
洋一 瀬戸
Nobuo Hamano
浜野 亘男
Fuminobu Furumura
文伸 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP16361486A priority Critical patent/JPS6320579A/en
Publication of JPS6320579A publication Critical patent/JPS6320579A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To improve the extraction accuracy of a fine object in an image without increasing the processing time, by comparing the object with a reference shape feature amount in a reference shape feature amount file, only with regard to a candidate object. CONSTITUTION:A satellite image 21 is inputted to an image analysis processing part 22, the processing is divided into two stages and executed, and in the first stage, a rough selection processing for extracting an object candidate point is executed while extending over the whole image. This processing is a processing extending over the whole image, therefore, it does not take a calculation time. For instance, the rough shape extracting parameter of an area, etc., is used. It is derived in advance with regard to a known object, and the rough shape extracting parameter is stored in advance in a reference shape parameter file 23 for rough selection. Subsequently, only with regard to each candidate point after a rough selection is processed, a fine specific shape object is extracted by a precise shape extraction processing using a Fourier descriptor. After the precise shape extraction processing is executed, the extracted fine shape object is outputted to an image display device 25.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像の特徴量抽出処理方式に関し、特に画像か
ら特定の形状を抽出するのに好適な、画像の特徴量抽出
処理方式に関するものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an image feature extraction processing method, and more particularly to an image feature extraction processing method suitable for extracting a specific shape from an image. be.

〔従来の技術〕[Conventional technology]

従来、画像中の形状特徴量抽出処理方式としては、田村
秀行著「コンピュータ画像処理入門(総研出版社、19
85年3月)」第87〜94頁に記載されている如く、
2値化画像に対して形状特徴量を算出し、各特徴量を比
較し特定形状を抽出する処理が行われていた。
Conventionally, as a processing method for extracting shape features from images, Hideyuki Tamura, "Introduction to Computer Image Processing" (Souken Publishing, 1993)
March 1985)”, pages 87-94,
A process of calculating shape feature amounts for a binarized image, comparing each feature amount, and extracting a specific shape has been performed.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上述の処理においては、微細対象物を抽出するには、各
候補形状すべてについて、詳細な特徴量を算出する必要
があり、処理時間が増大するという問題があった。
In the above-mentioned processing, in order to extract a minute object, it is necessary to calculate detailed feature amounts for each candidate shape, which has the problem of increasing processing time.

本発明は上記事情に鑑みてなされたもので、その目的と
するところは、従来の画像処理装置における上述の如き
問題を解消し、処理時間を増加させることなく、画像中
の微細対象物の抽出精度を向上させることが可能な画像
処理方式を提供することにある。
The present invention has been made in view of the above circumstances, and its purpose is to solve the above-mentioned problems in conventional image processing devices, and to extract fine objects in images without increasing processing time. An object of the present invention is to provide an image processing method that can improve accuracy.

〔問題点を解決するための手段〕[Means for solving problems]

本発明の上記目的は、画像の2値化処理部と、2値化画
像から形状特徴量を算出する形状特徴量算出処理部と、
基準形状特徴量ファイルと、前記形状特徴量算出処理部
で算出した形状特徴量と前記基準形状特徴量ファイル内
の基準形状特徴量との比較を行う形状時mu比較検出処
理部を有する画像解析システムにおいて、前記形状特徴
量算出処理部を、粗形状特徴量算出処理部と精密形状特
徴量算出処理部とから構成するとともに、前記形状特徴
量比較検出処理部を、粗形状特徴量比較検出処理部と精
密形状特徴量比較検出処理部とから構成して、前記2値
化処理部において2値化した画像から、前記粗形状特徴
量算出処理部により候補対象物を選択した後、該候補対
象物についてのみ、前記精密形状特徴量比較検出処理部
により、前記基準形状特徴量ファイル内の基準形状特徴
量との比較を行うことを特徴とする画像の特徴量抽出処
理方式によって達成される。
The above objects of the present invention include: an image binarization processing unit; a shape feature calculation processing unit that calculates a shape feature from the binarized image;
An image analysis system having a reference shape feature amount file, and a shape time mu comparison detection processing section that compares the shape feature amount calculated by the shape feature amount calculation processing section and the reference shape feature amount in the reference shape feature amount file. In the above, the shape feature amount calculation processing section is constituted by a coarse shape feature amount calculation processing section and a precise shape feature amount calculation processing section, and the shape feature amount comparison detection processing section is constituted by a coarse shape feature amount comparison detection processing section. and a precise shape feature comparison detection processing section, and after selecting a candidate object by the coarse shape feature calculation processing section from the image binarized by the binarization processing section, This is achieved by an image feature extraction processing method characterized in that the precise shape feature comparison and detection processing unit performs a comparison with a reference shape feature in the reference shape feature file.

〔作用〕[Effect]

本発明においては、画像解析を!(マクロ的)形状特徴
量、例えば、円形度2周囲長、モーメントを用いて候補
対象物を選択した後、候補対象物のみから精密形状特徴
量を算出する、2段階方式としているものである。
In this invention, image analysis! This is a two-step method in which candidate objects are selected using (macroscopic) shape features, such as circularity, circumference, and moments, and then precise shape features are calculated from only the candidate objects.

上記マクロ的形状特微量処理は次の如く行う。The above macroscopic shape feature amount processing is performed as follows.

(1)搬影画像の2値化と、閉曲面つまり連結領域のラ
ベル付けを行う。
(1) Binarize the projected image and label closed surfaces, that is, connected regions.

(2)ラベル付けされた対象物に対し、マクロ的形状特
微量を算出する。ここで、マクロ的形状特微量としては
、処理時間が短い、面積9周囲長2円形度、モーメント
等を用いる。
(2) Calculate macroscopic shape features for the labeled object. Here, as the macroscopic shape feature amount, use is made of area, 9 perimeter, 2 circularity, moment, etc., which require a short processing time.

(3)マクロ的形状特微量に対して、閾値処理を行い、
明らかに抽出すべき対象物と異なるものは、精密形状特
徴量処理の候補に入れない。
(3) Perform threshold processing on macroscopic shape features,
Objects that are clearly different from those to be extracted are not included as candidates for precise shape feature processing.

以上により、算出時間の短い特徴量を用い、撮影画像全
体に閾値処理を施すことで、処理時間のかかる精密形状
特徴量処理用入力候補点の数を減らすことができる。
As described above, the number of input candidate points for precise shape feature processing, which requires processing time, can be reduced by performing threshold processing on the entire captured image using feature quantities that require a short calculation time.

次に行う精密形状特徴量処理は次の流で行う。The next precise shape feature amount processing is performed in the following flow.

(1)候補対象物に対し、センサ開口特性を考慮した拡
大処理を行う。
(1) Perform an enlargement process on the candidate object in consideration of the sensor aperture characteristics.

(2)2値化とラベル付けを行う。(2) Perform binarization and labeling.

(3)ラベル付けされた対象物に対し、精密形状特徴量
を算出する。上記精密形状特徴量としては、対象物の微
細構成情報を有するフーリエ記述子を用いる。
(3) Calculate precise shape features for the labeled object. As the precise shape feature amount, a Fourier descriptor having fine structure information of the object is used.

(4)精密形状特徴量に対して閾値処理を行い、目的と
する対象物を抽出する。
(4) Perform threshold processing on the precise shape features to extract the target object.

以上により、予め、候補点の数を減じておき、精密形状
特徴量による閾値処理を行うことで、処理時間を増加さ
せることなく、抽出精度の向上が可能になる。
As described above, by reducing the number of candidate points in advance and performing threshold processing using precise shape features, it is possible to improve extraction accuracy without increasing processing time.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて詳細に説明する
Embodiments of the present invention will be described in detail below with reference to the drawings.

以下に説明する実施例は、衛星画像から特定の形状をも
つ対象物、例えば、H型建屋を抽出する画像処理システ
ムである。
The embodiment described below is an image processing system that extracts an object having a specific shape, for example, an H-shaped building, from a satellite image.

上記衛星画像中の建屋は、大きくても数画素四方(TM
画像1画素30mとして)程度であり、H型建屋として
形状を識別するには、1画素程度の精度で対象物を抽出
する必要がある。
The building in the satellite image above is at most several pixels square (TM
In order to identify the shape as an H-shaped building, it is necessary to extract the object with an accuracy of about 1 pixel.

第2図は本発明の一実施例である微細な画像中の特定形
状を抽出する画像解析システムの構成例を示すものであ
る。図において、21は衛星画像ファイル、22は画像
解析処理部、23は粗選択用基準形状パラメータファイ
ル、24は精密選択用基準形状パラメータファイル、2
5は画像表示装置を示している。
FIG. 2 shows an example of the configuration of an image analysis system for extracting a specific shape from a minute image, which is an embodiment of the present invention. In the figure, 21 is a satellite image file, 22 is an image analysis processing unit, 23 is a reference shape parameter file for rough selection, 24 is a reference shape parameter file for fine selection, 2
5 indicates an image display device.

本システムにおける動作の概要は以下の通りである。ま
ず、画像解析処理部22に衛星画像21を入力する。処
理は2段階に分けて行われる。第1段階は画像全体にわ
たって、対象候補点を抽出する処理であり、これを組選
択処理という。この処理は全画像にわたる処理なので、
計算時間がかからない、例えば、面積等の粗形状抽出用
パラメータを用いる。事前に既知の対象物について、求
めておいて、粗形状抽出パラメータを粗選択用基準形状
パラメータファイル23に格納しておく。
The outline of the operation of this system is as follows. First, the satellite image 21 is input to the image analysis processing section 22. The processing is performed in two stages. The first stage is a process of extracting target candidate points over the entire image, and this is called a set selection process. Since this processing applies to the entire image,
A parameter for rough shape extraction, such as area, which does not require calculation time, is used. The rough shape extraction parameters are determined in advance for a known object and stored in the rough selection reference shape parameter file 23.

次に、組選択処理後の各候補点についてのみ、フーリエ
記述子を用いた精密形状抽出処理によって、微細な特定
形状対象物を抽出する。精密選択用基準形状パラメータ
は、精密形状パラメータファイル24に格納しておく。
Next, only for each candidate point after the set selection process, a fine specific shape object is extracted by a precise shape extraction process using a Fourier descriptor. The reference shape parameters for precision selection are stored in the precision shape parameter file 24.

精密形状抽出処理後、抽出した微細形状対象物を画像表
示装置25に出力する。
After the precise shape extraction process, the extracted fine shape object is output to the image display device 25.

以下、画像解析処理部22の機能について、第1図に従
って詳細に説明する。
The functions of the image analysis processing section 22 will be described in detail below with reference to FIG.

(1)マクロ的形状特微量に基づく組選択入力衛星画像
11を2値化(処理12)シ、連結領域のラベル付けを
行った後、各領域のマクロ的形状パラメータ(特徴量)
の算出を行う(処理13)、ここで、マクロ的形状パラ
メータとしては、面積:A 円形率: P”/A(P :周囲長) モーメント:MiJ=硲Σ(X−x)’(y−y)’J (x y V ) :対象物の重心の座標(ピクセル、
ライン) lyJ:モーメントのそれぞれのピクセル方向、ライン
方向の次数 (x、y):対象物内の全座標 (ピクセル、ライン) 等がある。
(1) Group selection based on macroscopic shape features After binarizing the input satellite image 11 (processing 12) and labeling the connected regions, the macroscopic shape parameters (features) of each region are
(Process 13), where the macroscopic shape parameters are: Area: A Circularity: P"/A (P: Perimeter) Moment: MiJ=硲Σ(X-x)'(y- y)'J (x y V): Coordinates of the center of gravity of the object (pixel,
line) lyJ: order of moment in each pixel direction, line direction (x, y): total coordinates within the object (pixel, line), etc.

これらの特徴量について、それぞれ閾値を設定し対象候
補の検出を行う(処理14)、上記閾値は、事前に既知
の代表的な形状の対象物について算出しておく0例えば
、前述のH型建屋については、面積:a工画素以上、a
1画素以下 円形率:b0以上、b1以下 2次のモーメント二〇□以上、06以下というように、
前記粗選択用基準形状パラメータファイル23に格納し
ておく。
Thresholds are set for each of these feature quantities and target candidates are detected (process 14). For, area: more than a pixel, a
Circularity of 1 pixel or less: b0 or more, b1 or less quadratic moment 20□ or more, 06 or less, etc.
It is stored in the rough selection reference shape parameter file 23.

すべてにラベル付けした2値化画像に対して、上記処理
を行う、vA値を満たす形状のみを上記対象物候補検出
14の出力とする。
The above-mentioned processing is performed on the binarized image that has been completely labeled, and only the shapes that satisfy the vA value are outputted from the object candidate detection 14.

出力結果の画像を第3図(a)に示す0次の段階の拡大
画像に基づく精密選択を行うため、同一ラベルのみを枠
で囲む。これが拡大領域設定処理15である。第3図(
a)では、5つの候補が組選択で抽出できたことを示し
ている。
In order to perform precise selection of the output result image based on the 0th-order enlarged image shown in FIG. 3(a), only the same labels are surrounded by a frame. This is the enlargement area setting process 15. Figure 3 (
In a), it is shown that five candidates were extracted by group selection.

(2)拡大画像に基づく精密選択 上記処理で対象候補領域を絞り込んだ後、入力画像11
のうち、各枠領域内の部分をキュービックコンボリュー
ション等により拡大する(処理16)。
(2) Precise selection based on enlarged image After narrowing down the target candidate area by the above processing, input image 11
Of these, the portion within each frame area is expanded by cubic convolution or the like (processing 16).

拡大画像に対して2値化を行う(処理17)。このとき
、第3図(b)に示す如く、枠1を拡大した枠IAの内
部には、対象とする対象物Aのみを残すために次の処理
を行う。
Binarization is performed on the enlarged image (processing 17). At this time, as shown in FIG. 3(b), the following process is performed in order to leave only the target object A inside the frame IA which is an enlarged version of the frame 1.

■枠IAと接している対象物Cを除去する9例えば、各
対象物を構成する点の(x、y)座標が枠IAの各辺上
にあるが否かを判定する。
(2) Removing the object C that is in contact with the frame IA 9 For example, it is determined whether the (x, y) coordinates of the points forming each object are on each side of the frame IA.

■次に、対象物Bを除去するために、枠IA内の対象物
すべてに外接する枠を設定し、その内で面積の最も大き
い対象物のみを選ぶ。
(2) Next, in order to remove object B, a frame is set that circumscribes all the objects in frame IA, and only the object with the largest area is selected within the frame.

結局、対象物Aが選択される(第3図(C))。Eventually, object A is selected (FIG. 3(C)).

選択された対象物へのフーリエ記述子を算出する(形状
パラメータ算出処理18)。
A Fourier descriptor for the selected object is calculated (shape parameter calculation process 18).

フーリエ記述子μ。tanyt)nは、松のように算出
する。
Fourier descriptor μ. tanyt)n is calculated like a pine.

ここで、m:対象物を表わす閉曲線により作られる多角
形の頂点の数 π:円周率 n:フーリエ係数の高周波成分指定番 号(n=1.2.・・・・) L:閉曲面の周囲長 ΔΦに+flk:第4図参照 次に、前記f#密選択用基準形状パラメータファイル2
4に予め蓄えられているトレーニングデータと、上記算
出したフーリエ記述子とを比較し判定する(処理1g)
Here, m: Number of vertices of a polygon formed by a closed curve representing the object π: Pi ratio n: High frequency component designation number of Fourier coefficient (n = 1.2...) L: Number of vertices of a polygon formed by a closed curve representing the object Perimeter length ΔΦ +flk: See Figure 4 Next, the reference shape parameter file 2 for f# dense selection
4. Compare and judge the training data stored in advance with the Fourier descriptor calculated above (process 1g)
.

例えば、算出したフーリエ記述子an、bn5個(n=
1.2.・・・・5)を用いて、トレーニングデータの
フーリエ記述子をaTn* btn(n”1+2+・・
For example, 5 calculated Fourier descriptors an, bn (n=
1.2. ...5), the Fourier descriptor of the training data is aTn* btn(n''1+2+...
.

・5)とのマルラノビス距離D2を計算する。・Calculate the Marlanobis distance D2 with 5).

D”=(X−y)Σ−tx−y)   ・・・・(4)
ここで、X:フーリエ記述子のN項ベクトルΣ:トレー
ニングデータの共分散行列 y:トレーニングデータの平均値 上記距離D2が閾値、例えば、D2ア、より小さければ
、対象物はトレーニングデータと同クラスであると判定
する。閾値D”?Hは、実験により最適値を設定する(
対象検出処理19)。
D"=(X-y)Σ-tx-y)...(4)
Here, It is determined that The threshold value D"?H is set to an optimal value through experiments (
Object detection processing 19).

上記閾値により、同クラスと判定されたものを出力画像
20として表示する。
Images determined to be in the same class based on the threshold value are displayed as output images 20.

本実施例によれば、マクロ的な形状解析に加えて対象の
微細形状特徴量を算出することにより、形状分類精度を
向上させることができる。また、マクロ的形状解析を第
1段階として行うことにより、演算量の多い第2段階の
処理を行う対象領域を削減することにより、全体の処理
時間の短縮に効果がある。
According to this embodiment, shape classification accuracy can be improved by calculating the fine shape feature amount of the object in addition to macroscopic shape analysis. Further, by performing macroscopic shape analysis as the first step, the target area for the second step processing, which requires a large amount of calculation, is reduced, which is effective in shortening the overall processing time.

次に、上記実施例においても用いた、基準形状パラメー
タファイル21内のトレーニングデータの効率的に作成
方式と、その利用方式について実施例を示して説明する
Next, a method for efficiently creating training data in the reference shape parameter file 21 and a method for using the same, which were also used in the above embodiments, will be explained by showing an example.

以下に述べる実施例は、トレーニングデータとしてのフ
ーリエ記述子は、項数が多い程、形状の細部を表現でき
るという性質に着目し、上記フーリエ記述子の、解析対
象となる画像の解像度に応じた項数までを抜出してトレ
ーニングデータとするようにしたものである。
The example described below focuses on the property that the Fourier descriptor used as training data can express the details of the shape as the number of terms increases, and the Fourier descriptor used as the training data is modified according to the resolution of the image to be analyzed. This is so that up to the number of terms are extracted and used as training data.

第5図は本発明の第2の実施例を示す、異なるセンサに
より撮影された衛星画像から、特定の地表対象物、例え
ば、建屋を自動抽出する画像解析処理システムである1
図において、記号21および25は先に第2図に示した
と同じ構成要素を示しており、22Aは画像解析処理部
、26はモデル図形フーリエ記述子ファイルを示してい
る。
FIG. 5 shows a second embodiment of the present invention, which is an image analysis processing system that automatically extracts specific ground objects, such as buildings, from satellite images taken by different sensors.
In the figure, symbols 21 and 25 indicate the same components as previously shown in FIG. 2, 22A indicates an image analysis processing section, and 26 indicates a model graphic Fourier descriptor file.

本システムにおける動作の概要は以下の通りである。ま
ず、衛星画像21を画像解析処理部22に読込む、また
、上記入力画像の解像度情報を画像表示装置25から使
用者が入力する。入力された解像度情報に合致したモデ
ル図形のフーリエ記述子係数(レーニングデータ)がフ
ァイル26から選択される0次に、上記入力画像から算
出したフーリエ記述子と、上記トレーニングデータとを
比較することにより、トレーニングデータと合致する形
状を入力画像から自動抽出する。
The outline of the operation of this system is as follows. First, the satellite image 21 is read into the image analysis processing section 22, and the user inputs the resolution information of the input image from the image display device 25. The Fourier descriptor coefficients (training data) of the model figure that match the input resolution information are selected from the file 26. Next, by comparing the Fourier descriptor calculated from the input image with the training data. , automatically extracts shapes that match the training data from the input image.

ここで、解像度の異なる入力画像からの形状抽出を行う
には、上記モデル図形のフーリエ記述子ファイル26か
ら選択するフーリエ記述子係数の項数を選択することに
よって対処できる。
Here, shape extraction from input images with different resolutions can be handled by selecting the number of terms of Fourier descriptor coefficients to be selected from the Fourier descriptor file 26 of the model figure.

以下、上述の画像解析処理部22Aの機能について、第
6図に従って詳細に説明する。
Hereinafter, the functions of the above-mentioned image analysis processing section 22A will be explained in detail with reference to FIG. 6.

入力衛星画像を2値化(処理12)シ、2値化画像に対
し、前記フーリエ記述子μ。jantbnを算出する(
処理18)0次に、特徴空間内距離比較処理19により
、特徴空間内距離として、マルラノビス距離D2を計算
して用いる。
The input satellite image is binarized (processing 12), and the Fourier descriptor μ is applied to the binarized image. Calculate jantbn (
Process 18) 0 Next, in the feature space distance comparison process 19, the Marulanobis distance D2 is calculated and used as the feature space distance.

上記比較処理にあたって、2つの過程が必要となる。The above comparison process requires two steps.

(1)モデル図形フーリエ記述子算出処理27複数個の
モデル図形28のフーリエ記述子を算出し、結果をモデ
ル図形フーリエ記述子ファイル26に格納する0例えば
、第7図(a)に示すモデル図形のフーリエ記述子テー
ブルは、第8図(a)に示す如く、N=100までテー
ブル化しておく。
(1) Model figure Fourier descriptor calculation process 27 Calculates the Fourier descriptors of a plurality of model figures 28 and stores the results in the model figure Fourier descriptor file 260 For example, the model figure shown in FIG. 7(a) The Fourier descriptor table of is made into a table up to N=100, as shown in FIG. 8(a).

なお、第7図(a)〜(c)は、それぞれ、モデル図形
、高解像センサによる画像、低解像センサによる画像を
示している。
Note that FIGS. 7(a) to (c) respectively show a model figure, an image obtained by a high-resolution sensor, and an image obtained by a low-resolution sensor.

(2)フーリエ記述子選択処理29 センサの解像度に応じたフーリエ記述子を選択する。こ
こでは、高解像のフランスHRVセンサによる画像とし
て、モデル図形の第7図(b)に対応する再生能力を有
するフーリエ記述子第10項までを選択する。
(2) Fourier descriptor selection process 29 A Fourier descriptor is selected according to the resolution of the sensor. Here, up to the 10th term of the Fourier descriptor having the reproduction ability corresponding to the model figure shown in FIG. 7(b) is selected as the image taken by the high-resolution French HRV sensor.

以上の処理の後、比較対象となっている閉曲線のフーリ
エ記述子第10項分から、ベクトルXを算出し、上記マ
ルラノビス距離D2を算出し、この値が先に使用者が入
力した閾値より小さければ、モデル図形のクラスに属す
ると判定する。
After the above processing, the vector , it is determined that it belongs to the model figure class.

また、上と異なったセンサ画像、例えば、アメリカLA
NDSAT衛星MSS画像(解像度80m)については
、MSS画像中のH型建屋は、第7図(C)に示す如く
不化しているので、これに対応するフーリエ記述子とし
ては、第8図(0)に示す如く、N=4までを用いれば
充分である。
Also, a sensor image different from the above, for example, LA in the United States.
Regarding the NDSAT satellite MSS image (resolution 80 m), the H-shaped building in the MSS image has disappeared as shown in Figure 7 (C), so the corresponding Fourier descriptor is shown in Figure 8 (0 ), it is sufficient to use up to N=4.

本発明は上記実施例に示したりモートセンシング分野の
他に、工業検査、医療画像処理等に適用可能である。
The present invention is applicable not only to the field of moat sensing as shown in the above embodiments, but also to industrial inspection, medical image processing, and the like.

例えば、前述の第1の実施例の好適な適用対象としては
、工業検査では製品のキズ検査の自動化がある。製品の
撮影画像をから組選択により、キズの候補点を絞り込み
、候補点のみを精密に形状解析し、キズを抽出する。
For example, a suitable application target of the first embodiment is automation of inspection for scratches on products in industrial inspection. By selecting a set of photographed images of the product, candidate points for flaws are narrowed down, and the shape of only the candidate points is precisely analyzed to extract flaws.

また、上記第2の実施例の適用対象としては、同じ検出
器を用いて物体の内部あるいは外部のキズを検査するシ
ステムが考えられる。この場合、キズはある特定の形状
を有するが大きさが異なるものとすれば、撮影画像から
特定の大きさのキズを抽出する場合、キズの大きさに係
わらず、1組のトレーニングデータを設定しておけば良
い。
Furthermore, the second embodiment may be applied to a system that uses the same detector to inspect for scratches on the inside or outside of an object. In this case, assuming that scratches have a specific shape but different sizes, when extracting scratches of a specific size from a photographed image, one set of training data is set regardless of the size of the scratch. You should do it.

〔発明の効果〕〔Effect of the invention〕

以上述べた如く、本発明によれば、画像の2値化処理部
と、2値化画像から形状特徴量を算出する形状物微量算
出処理部と、基準形状特徴量ファイルと、前記形状物微
量算出処理部で算出した形状特徴量と前記基準形状特徴
量ファイル内の基準形状特徴量との比較を行う形状特徴
量比較検出処理部を有する画像解析システムにおいて、
前記形状物微量算出処理部を、粗形状特徴量算出処理部
と精密形状特徴量算出処理部とから構成するとともに、
前記形状特徴量比較検出処理部を、粗形状特徴量比較検
出処理部と精密形状特徴量比較検出処理部とから構成し
て、前記2値化処理部において2値化した画像から、前
記粗形状特徴量算出処理部により候補対象物を選択した
後、該候補対象物についてのみ、前記精密形状特徴量比
較検出処理部により、前記基準形状特徴量ファイル内の
基準形状特徴量との比較を行うようにしたので、処理時
間を増加させることなく、画像中の微細対象物の抽出精
度を向上させることが可能な画像処理方式を実現できる
という顕著な効果を奏するものである。
As described above, according to the present invention, there is provided an image binarization processing unit, a shaped object trace amount calculation processing unit that calculates a shape feature amount from the binarized image, a reference shape feature amount file, and the shaped object trace amount. In an image analysis system having a shape feature comparison detection processing unit that compares the shape feature calculated by the calculation processing unit and the reference shape feature in the reference shape feature file,
The shaped object trace amount calculation processing section is configured from a coarse shape feature amount calculation processing section and a precise shape feature amount calculation processing section,
The shape feature comparison and detection processing section includes a coarse shape feature comparison and detection processing section and a fine shape feature comparison and detection processing section, and the rough shape is extracted from the image binarized in the binarization processing section. After the candidate object is selected by the feature calculation processing section, the precise shape feature comparison detection processing section compares only the candidate object with the reference shape feature in the reference shape feature file. This has the remarkable effect of realizing an image processing method that can improve the accuracy of extracting minute objects in images without increasing processing time.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例である画像の形状特徴量抽出
処理のフローチャート、第2図は本発明の一実施例であ
る画像解析システムの構成例を示す図、第3図(a)〜
(c)は処理画像を示す図、第4図はフーリエ記述子の
説明図、第5図は本発明の他の実施例である画像処理シ
ステムを示す図、第6図はその処理フローチャート、第
7図(a)〜(Q)はモデル画形とセンサ撮影画像の説
明図、第8図(a)〜(c)はそのフーリエ記述子テー
ブルの説明図である。 11:入力衛星画像、13:組選択用形状パラメータ算
出処理、14:対象候補検出処理、16:拡大領域内画
像拡大処理、18:精密選択用形状パラメータ算出処理
、19:対象候補検出処理、zl;衛星画像ファイル、
22.22A :画像解析処理部、23:組選択用基準
形状パラメータファイル、24:精密選択用基準形状パ
ラメータファイル、25:画像表示装置、26:モデル
図形フーリエ記述子ファイル。 鵠人介■小 月1 勝、Jび 第7目 (呻   (b)    (C) 第1図
Fig. 1 is a flowchart of image shape feature extraction processing which is an embodiment of the present invention, Fig. 2 is a diagram showing a configuration example of an image analysis system which is an embodiment of the present invention, and Fig. 3(a). ~
(c) is a diagram showing a processed image, FIG. 4 is an explanatory diagram of a Fourier descriptor, FIG. 5 is a diagram showing an image processing system that is another embodiment of the present invention, and FIG. 7(a) to (Q) are explanatory diagrams of model image shapes and sensor photographed images, and FIGS. 8(a) to (c) are explanatory diagrams of their Fourier descriptor tables. 11: Input satellite image, 13: Shape parameter calculation process for group selection, 14: Target candidate detection process, 16: Image enlargement process in enlarged area, 18: Shape parameter calculation process for precise selection, 19: Target candidate detection process, zl ;Satellite image file,
22.22A: Image analysis processing unit, 23: Reference shape parameter file for group selection, 24: Reference shape parameter file for precision selection, 25: Image display device, 26: Model figure Fourier descriptor file. Kujinsuke ■ Small month 1 win, J and 7th eyes (moan (b) (C) Fig. 1

Claims (1)

【特許請求の範囲】 1、画像の2値化処理部と、2値化画像から形状特徴量
を算出する形状特徴量算出処理部と、基準形状特徴量フ
ァイルと、前記形状特徴量算出処理部で算出した形状特
徴量と前記基準形状特徴量ファイル内の基準形状特徴量
との比較を行う形状特徴量比較検出処理部を有する画像
解析システムにおいて、前記形状特徴量算出処理部を、
粗形状特徴量算出処理部と精密形状特徴量算出処理部と
から構成するとともに、前記形状特徴量比較検出処理部
を、粗形状特徴量比較検出処理部と精密形状特徴量比較
検出処理部とから構成して、前記2値化処理部において
2値化した画像から、前記粗形状特徴量算出処理部によ
り候補対象物を選択した後、該候補対象物についてのみ
、前記精密形状特徴量比較検出処理部により、前記基準
形状特徴量ファイル内の基準形状特徴量との比較を行う
ことを特徴とする画像の特徴量抽出処理方式。 2、前記粗形状特徴量算出処理部による候補対象物の選
択処理が、候補対象物を囲む枠内における最大面積を有
する対象物を選択する処理であることを特徴とする、特
許請求の範囲第1項記載の画像の特徴量抽出方式。 3、画像の2値化処理部と、2値化画像から形状特徴量
を算出する形状特徴量算出処理部と、基準形状特徴量フ
ァイルと、前記形状特徴量算出処理部で算出した形状特
徴量と前記基準形状特徴量ファイル内の基準形状特徴量
との比較を行う形状特徴量比較検出処理部を有する画像
解析システムにおいて、前記形状特徴量をフーリエ記述
子とし、前記基準形状特徴量ファイル内に蓄積するトレ
ーニングデータ用のモデル図形のフーリエ記述子算出処
理部と、前記トレーニングデータを格納するファイルと
、該ファイルから画像分解能に合致するフーリエ記述子
情報を選択するフーリエ記述子選択処理部とを設け、該
フーリエ記述子選択処理部により、入力画像の解像度に
対応する項数の、前記フーリエ記述子を選択することを
特徴とする画像の特徴量抽出処理方式。
[Claims] 1. An image binarization processing unit, a shape feature calculation processing unit that calculates a shape feature from the binarized image, a reference shape feature file, and the shape feature calculation processing unit In an image analysis system having a shape feature comparison detection processing unit that compares the shape feature calculated in the above with the reference shape feature in the reference shape feature file, the shape feature calculation processing unit includes:
The shape feature comparison and detection processing section is composed of a coarse shape feature comparison and detection processing section and a precise shape feature comparison and detection processing section. After selecting a candidate object by the rough shape feature calculation processing section from the image binarized by the binarization processing section, the fine shape feature comparison detection process is performed only for the candidate object. An image feature extracting processing method, characterized in that a comparison is made with a reference shape feature in the reference shape feature file by means of the reference shape feature file. 2. The process of selecting a candidate object by the rough shape feature amount calculation processing unit is a process of selecting an object having the maximum area within a frame surrounding the candidate object. Image feature extraction method described in Section 1. 3. An image binarization processor, a shape feature calculation processor that calculates shape features from the binarized image, a reference shape feature file, and the shape feature calculated by the shape feature calculation processor. In an image analysis system having a shape feature comparison detection processing unit that compares the shape feature with a reference shape feature in the reference shape feature file, the shape feature is used as a Fourier descriptor, and A Fourier descriptor calculation processing unit for a model figure for training data to be accumulated, a file for storing the training data, and a Fourier descriptor selection processing unit for selecting Fourier descriptor information matching an image resolution from the file are provided. An image feature amount extraction processing method, characterized in that the Fourier descriptor selection processing unit selects the Fourier descriptors of a number of terms corresponding to the resolution of the input image.
JP16361486A 1986-07-14 1986-07-14 Extraction processing system for feature amount of image Pending JPS6320579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16361486A JPS6320579A (en) 1986-07-14 1986-07-14 Extraction processing system for feature amount of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16361486A JPS6320579A (en) 1986-07-14 1986-07-14 Extraction processing system for feature amount of image

Publications (1)

Publication Number Publication Date
JPS6320579A true JPS6320579A (en) 1988-01-28

Family

ID=15777271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16361486A Pending JPS6320579A (en) 1986-07-14 1986-07-14 Extraction processing system for feature amount of image

Country Status (1)

Country Link
JP (1) JPS6320579A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100353798B1 (en) * 1999-12-01 2002-09-26 주식회사 코난테크놀로지 Method for extracting shape descriptor of image object and content-based image retrieval system and method using it
JP2008525731A (en) * 2004-12-23 2008-07-17 ベーエスハー ボッシュ ウント ジーメンス ハウスゲレーテ ゲゼルシャフト ミット ベシュレンクテル ハフツング Valve device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100353798B1 (en) * 1999-12-01 2002-09-26 주식회사 코난테크놀로지 Method for extracting shape descriptor of image object and content-based image retrieval system and method using it
JP2008525731A (en) * 2004-12-23 2008-07-17 ベーエスハー ボッシュ ウント ジーメンス ハウスゲレーテ ゲゼルシャフト ミット ベシュレンクテル ハフツング Valve device

Similar Documents

Publication Publication Date Title
EP0338677B1 (en) Image processing method for shape recognition
JPH05500874A (en) Polygon-based method for automatic extraction of selected text in digitized documents
JPH10214346A (en) Hand gesture recognizing system and its method
CN110751154B (en) Complex environment multi-shape text detection method based on pixel-level segmentation
Zoizou et al. A new hybrid method for Arabic multi-font text segmentation, and a reference corpus construction
CN103455816B (en) Stroke width extraction method and device and character recognition method and system
JP2700440B2 (en) Article identification system
Kukreja Segmentation and Contour Detection for handwritten mathematical expressions using OpenCV
CN114723724A (en) Dangerous goods identification method, device, equipment and storage medium based on artificial intelligence
Nguyen et al. Tensor voting based text localization in natural scene images
JPH0338628B2 (en)
JPS6320579A (en) Extraction processing system for feature amount of image
Kumar et al. An efficient algorithm for text localization and extraction in complex video text images
Chia et al. A parallel algorithm for generating chain code of objects in binary images
CN109086327A (en) A kind of method and device quickly generating webpage visual structure graph
KR101048399B1 (en) Character detection method and apparatus
Khatib et al. A hybrid multilevel text extraction algorithm in scene images
Ekram et al. Book organization checking algorithm using image segmentation and ocr
Snoussi et al. Arabic document segmentation on a smartphone towards Big Data HAJJ rules extraction
CN112861860A (en) Natural scene lower word detection method based on upper and lower boundary extraction
MAARIR et al. Building detection from satellite images based on curvature scale space method
JPH0760462B2 (en) Image area dividing device
US20180108159A1 (en) Dynamic detection of an object framework in a mobile device captured image
JPH01177682A (en) Graphic recognizing device
CN115984316B (en) Industrial image edge extraction method and device for complex environment