WO1994003871A1 - Method and apparatus for splitting region by texture analysis - Google Patents

Method and apparatus for splitting region by texture analysis Download PDF

Info

Publication number
WO1994003871A1
WO1994003871A1 PCT/JP1993/001068 JP9301068W WO9403871A1 WO 1994003871 A1 WO1994003871 A1 WO 1994003871A1 JP 9301068 W JP9301068 W JP 9301068W WO 9403871 A1 WO9403871 A1 WO 9403871A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture
cell
edge
cells
boundary
Prior art date
Application number
PCT/JP1993/001068
Other languages
English (en)
French (fr)
Inventor
Togo Ito
Original Assignee
Kabushiki Kaisha Komatsu Seisakusho
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Komatsu Seisakusho filed Critical Kabushiki Kaisha Komatsu Seisakusho
Publication of WO1994003871A1 publication Critical patent/WO1994003871A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • the present invention relates to a technique for dividing a grayscale image into regions by using texture analysis.Therefore, the density difference from a background such as irregular surface defects or stains generated on a rough surface such as a concrete surface is sufficiently large.
  • Field of the Invention The present invention relates to a method and apparatus for dividing a region using texture analysis that can be applied to the extraction of the shape of a non-closed region and the recognition of the type.
  • a region segmentation method using texture analysis has attracted attention as a technique for performing region segmentation from a grayscale image in which the density difference between an object to be extracted and the background is not sufficient and focusing on the difference in texture between the two.
  • an image is first divided into cells such as a grid, and then a texture feature amount for each cell is calculated.
  • the area is divided.
  • an image is divided into a plurality of cells, and cells having similar texture features are merged to perform region division. Therefore, the geometrical resolution of the divided region is determined by the size of the cell and the size of the cell. Determined by the shape. For example, when a rectangular cell is used, the image after the region division becomes a rattle like an aggregate of the square.
  • the cell size is set to be small. This means that information for calculating the texture feature amount is reduced, and the texture calculated in the cell is reduced. The statistical reliability of the features is low. In other words, by reducing the size of the cell, only a small part of the area determined to be the same texture is targeted for calculating the feature value. There is a risk of splitting.
  • the cell size should be set large, but if the cell size is increased carelessly, the geometric resolution of the divided image is low, that is, there is a rattle Become.
  • the present invention has been made in view of the above circumstances, and provides an area division method and apparatus using texture analysis that can perform area division with a relatively small amount of calculation and high resolution regardless of cell size or shape. With the goal.
  • the present invention divides an image into a plurality of cells, In addition to calculating the amount of the image, a cell adjacent to the cell is merged with a cell having a similar texture feature amount to all the cells, so that a plurality of images each having the cell as a basic unit are obtained.
  • a first step of dividing into two different textures, and extracting a boundary cell including a texture edge generated as a result of mixing two different textures adjacent to the divided area A second step of estimating the position and direction of the texture edge existing in the boundary cell from the relationship between the arrangement and the texture feature amount, and representative coordinates of the texture edge based on the estimated position and direction of the texture edge And interpolating the representative coordinates of the plurality of discretely detected texture edges using an interpolation function. Characterized in that had by Unishi comprising a fourth step of performing a more shape reconstruction texture edge.
  • an image is divided into a plurality of cells, a texture feature amount for each cell is calculated, and a cell having a similar texture feature amount among cells adjacent to the cell is merged with the cell.
  • the second to fourth steps are added to the first step of dividing the image into a plurality of different regions using the cell as a basic unit by performing the processing for all the cells.
  • a boundary cell including a texture edge is extracted from the region-divided image, and a boundary cell existing in the boundary cell is determined based on the arrangement of the boundary cell and the divided region and the relationship between the texture feature amounts.
  • the position and direction of the texture edge to be estimated are estimated, the representative coordinates of the texture edge are detected based on the estimated position and direction of the texture edge, and the calculated representative coordinates of the plurality of texture edges are interpolated using an interpolation function. By performing interpolation, the shape of the texture edge is restored, and the area division faithful to the original image is performed.
  • a texture edge analogy process, an edge representative coordinate detection process, and an interpolation process using an interpolation function are added to the region segmentation process based on the texture analysis based on a plurality of cells.
  • the shape of the area can be faithfully restored with high resolution without being largely specified by the size and shape of the cell. Can be increased, which results in texture edge fluctuations
  • the direction and coordinates of the texture edge are inferred from the relationship between the arrangement of the cell at the boundary of the divided area and the cell adjacent thereto and the texture feature amount. From this analogy result, the operator for edge detection in an appropriate direction can be selected, and the initial coordinates for the detection process can be set with high accuracy, thereby achieving accurate edge coordinate detection with a small amount of calculation. obtain.
  • the representative coordinates of the edge to be detected are set to the center coordinates of the cell boundary at the maximum feature value difference point between the two cells of the edge detection operator. It is possible to reduce the error in the detected coordinates due to the deviation from the direction.
  • FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention
  • FIG. 2 is a flowchart showing an outline of a processing procedure of the embodiment of the present invention
  • FIG. 3 is a processing procedure of the embodiment of the present invention.
  • Fig. 4 is a flowchart showing the detailed procedure of the texture analysis processing
  • Fig. 5 is a flowchart showing the detailed procedure of the area classification processing
  • Fig. 6 is a flowchart showing the detailed procedure of the area classification processing.
  • FIG. 7 is a flowchart showing the detailed procedure of the edge detection processing
  • FIG. 8 is a flowchart showing the detailed procedure of the interpolation function operation processing
  • FIG. 10 is a flowchart showing the detailed procedure of the feature recognition process.
  • Fig. 10 is an explanatory diagram of the texture analysis process.
  • Fig. 11 is an explanatory diagram of the region segmentation process.
  • Fig. 12 is a diagram of the edge analogy process.
  • Fig. 13 is an explanatory diagram of the edge analogy process, and
  • Fig. 14 is FIG. 15 is an explanatory diagram of the edge analogy process
  • FIG. 15 is a diagram illustrating the edge analogy process
  • FIG. 16 is a diagram illustrating the result of the edge analogy process
  • FIG. 17 is a diagram illustrating an operator used in the edge detection process
  • FIG. 18 is an explanatory diagram of the edge detecting process
  • FIG. 19 is an explanatory diagram of the edge detecting process,
  • FIG. 10 is an explanatory diagram of the texture analysis process.
  • Fig. 11 is an explanatory diagram of the region segmentation process.
  • Fig. 12 is a diagram of the edge analog
  • FIG. 20 is an explanatory diagram of the edge detecting process
  • FIG. 21 is a diagram of the interpolation function calculating process.
  • Explanatory diagram Fig. 22 is an explanatory diagram of the interpolation function operation processing
  • Fig. 23 is a diagram showing the interpolation result
  • Fig. 24 is an explanatory diagram when the nonlinear interpolation function operation processing is performed.
  • FIG. 2 is a flowchart showing a processing procedure of an embodiment of the area dividing method according to the present invention.
  • the processing procedure of image area division according to the present invention is roughly divided into the following four stages.
  • the image is divided into a plurality of cells of an appropriate size, the texture features for each cell are calculated, and the neighboring cells with similar properties (the ones with similar texture features) are merged to form a rough image. Region division.
  • the image processing apparatus includes a camera 1 for capturing an image, a VTR 2 for storing the image as an analog signal, a VTR interface 3 for converting an analog signal into a digital signal (for example, 256 gradations), A data server 4 for storing signals, a texture analyzer 5 for dividing an image into rectangular cells to calculate a texture feature value T, a region dividing device 6 for roughly classifying a region, and analogizing the position and direction of a texture edge.
  • a camera 1 for capturing an image
  • VTR 2 for storing the image as an analog signal
  • VTR interface 3 for converting an analog signal into a digital signal (for example, 256 gradations)
  • a data server 4 for storing signals
  • a texture analyzer 5 for dividing an image into rectangular cells to calculate a texture feature value T
  • a region dividing device 6 for roughly classifying a region, and analogizing the position and direction of a texture edge.
  • An edge estimating device 7 for detecting the coordinates of a texture edge an edge detecting device 8 for detecting the coordinates of a texture edge, and an interpolation function calculating device 9 for reproducing a shape by performing an interpolation calculation.
  • a feature recognition device 10 that classifies the types of the divided regions by calculating a texture feature amount or the like for each divided region, displays 11 and 12 that display images, a printer 13 and a plotter 14, and stores information. It comprises a magnetic tape 15, a floppy disk 16, a keyboard terminal 17 for performing operations, and a controller 20 for controlling these.
  • the target image is a closed area Ka with a different texture such as an irregular planar defect area in the whole area Kb such as a concrete surface.
  • the controller 1 controls the data server 4 to sequentially designate the addresses of the cut-out area (for example, a 512 ⁇ 512-bit image) and sequentially transfer the cut-out image data from the data server 4 to the texture analyzer 5. . ( Figure 3, step 200, 300).
  • an appropriate size such as 16x16 or 64x64 can be selected depending on the shape and size of the region to be extracted and the statistical properties.
  • this cell size the height of the extracted area It is important to choose a size that is at least insensitive to texture fluctuations, without unnecessarily reducing the cell size to obtain resolution.
  • the texture feature amount of each cell is calculated using a mathematically defined evaluation function ⁇ to obtain the feature amount T (i, j) Create a map (steps 3220 and 330 in Figure 4).
  • the parameter can be used.
  • the region segmentation device 6 performs rough region segmentation in the cut-out region based on the relationship between the texture feature amount of the cell and the adjacent cell, and also divides the region segmentation result together with the address of each cell and the texture feature amount thereof. (Steps 4 0 1 and 5 0 0 in FIG. 3).
  • the region dividing device 6 first creates a histogram of the characteristic amount T in units of cells for each of the cutout regions (step 410 in FIG. 5).
  • Such a region division process is performed for each feature amount, and a comprehensive determination is made thereafter to obtain a final region division result.
  • the region dividing device 6 checks whether or not an isolated cell exists in the merged region (steps 4 14 and 4 15). If an isolated cell exists, the feature between each cell in the merged region is determined.
  • the variance cT2 ⁇ 2 corresponds to the square of the quantity (step 4 16), and the maximum value max T of the difference between the feature quantities of the isolated cell and the eight cells adjacent to it is calculated ( Step 4 17).
  • the maximum value niaxA T of the feature difference is compared with the variance ⁇ (step 418), and if the condition of maxA T ⁇ n ⁇ (1 ⁇ 3) is satisfied, the isolated cell is placed The cells are merged (step 4 19), and the processing is terminated.
  • Fig. 11 shows an expected diagram of the result of region segmentation using the above method.
  • This figure shows the segmentation result when there is only one closed region of the same texture surrounded by a closed curve with respect to the background.
  • This image shows the boundary line (texture edge) corresponding to the closed region Ka. ),
  • the merged area A of cells containing almost no, the boundary cell group C generated as a result of the texture of both the background Kb and the closed area Ka including the boundary line, and the background excluding these It is classified into the area B corresponding to Kb. Note that there are cases where there are isolated areas in the areas A and B due to minute fluctuations in the texture, but these isolated areas are determined in advance by the processing in steps 417 to 419 described above. Merged into A or area B.
  • the region dividing result calculated in this way is used as an address of each cell. Then, it is transferred to the edge analogization device 7 together with the texture and its texture feature (step 500 in FIG. 3).
  • Fig. 12 (a) shows a part of the area classification results shown in Fig. 11.
  • Fig. 12 (a) each cell belonging to boundary cell group C is shown in Fig. 12 (b). It represents which of the four types (a) to (e) it belongs to.
  • the edge analogization device 7 checks whether or not an area D equivalent to one cell width is generated between the area A and the area B. (Step 510 in Figure 6).
  • T (a ")-T (b-) T (a)-T (b)... (2)
  • the boundary cell group that satisfies the above condition (1) is used.
  • the process is executed assuming that the cell c belongs to C (steps 520 and 530 in FIG. 6; hereinafter, the cell c 'that satisfies the above equation (1) is used synonymously with the cell c).
  • the detection process of the representative coordinates of the texture edge of the third stage described later Make sure it runs in the middle.
  • the edge analogization device 7 classifies each cell c satisfying the above equation (1) from one of the type (a) to the type (e) as shown in FIG. Based on, the direction of the texture edge in cell c is inferred (step 540 in FIG. 6). In this analogy, it is assumed that the cell size is small enough for the actual bending of the texture edge.
  • cell c and region A are in contact only on one side, and the direction of the texture edge in this case is analogous to the direction parallel to the boundary side with region A. it can.
  • cell c and region A are in contact at two orthogonal sides, and the direction of the texture edge in this case is orthogonal to the diagonal of cell c passing through the intersection of the two adjacent sides. It can be inferred that it is the direction to do.
  • the cell c and the region A are in contact with three sides, and the direction of the texture edge in this case is a direction in which two opposite sides of the above three tangent sides are orthogonal to each other. It can be analogized.
  • This type is a case where the cell c and the region A are in contact with each other at a corner, and the direction of the texture edge in this case is a direction orthogonal to the diagonal of the cell c passing through the corner. I can analogy.
  • the direction of the texture edge in each cell is inferred.
  • the edge analogizing device 7 analogizes the position of the texture edge in each cell as follows.
  • the texture feature T (c) of the boundary cell c is a value generated as a result of the mixture of two different textures with the texture edge as a boundary, the region A mixed in the cell c
  • the same texture area SA as that shown in Fig. 14 (a) (b) can be approximately obtained by the following equation (step 550 in Fig. 6) c SA ⁇ SO (T (c) one T (b)) / (T (a) _T (b))
  • Fig. 14 (a) shows the texture area SA when the direction of the estimated texture edge is the type (a) or ( ⁇ ) in Fig. 12, and Fig. 14 (b) shows the direction of the texture edge.
  • FIG. 12 shows the case of type (a) or (e).
  • the position of the texture edge is estimated as follows (step 560 in FIG. 6).
  • the position of the texture edge is defined as a distance 5 hor from the boundary side with the region A or a distance 5 inc from the boundary point with the region A, as shown in FIG.
  • FIG. 15 (a) corresponds to the type (a) in FIG. 12.
  • the distance 5 hor is the distance from the boundary side of the area A.
  • Fig. 15 (b) corresponds to the type (a) in Fig. 12, and the distance Sine is the distance from the intersection of the boundary side with the area A.
  • Fig. 15 (c) corresponds to the type ( ⁇ ) in Fig. 12, and the distance 5 hor is the distance from the non-opposite boundary side of the three boundary sides with the region A.
  • Fig. 15 (d) corresponds to the type (e) in Fig. 12, and the distance Sine is the distance from the corner which is the boundary with the area A.
  • Fig. 16 shows the boundary of a certain closed area obtained by the above method. It shows the position and direction.
  • the edge analogization device 7 transfers the analogization result estimated in this way to the edge detection device 8 together with the area classification result, the address of each cell and its texture feature amount (step 600 in FIG. 3).
  • the edge detection device 8 sets the initial value (origin) as the representative coordinate detection process of the texture edge, the boundary portion test process, and the like. Execute
  • the boundary test process is a process in which the cells assumed to be boundary cells in the first stage of the region division process described above are true boundary cells (region division is performed by mixing two textures of region A and region B). This is a process for identifying whether or not the cell is a cell that is generated as a result of) or a cell that satisfies the above formula (1) and that is a real area equivalent to the cell if. In such a case, a new area D is formed.
  • the edge detection device 8 selects an operator for detecting the exact coordinates of the texture edge (step 610 in FIG. 7).
  • the inclination angle of the analogized texture edge is 0 for each direction as shown in FIG. , 45 °, 90 °, and 135 °, and the corresponding operator is selected according to the direction of the analogized texture edge. That is, when the direction of the texture edge belongs to the type (a) or ( ⁇ ) in FIG. 12, the operator selects the operator whose inclination angle is 0 ° or 90 °, and when the direction is the type (a) or (e), Selects operators with inclination angles of 45 ° and 135 ° respectively. These operators are composed of two cells corresponding to the size of MxM, like the cells of the block division.
  • the selected operator is moved several pixels in a direction orthogonal to the edge (arrow q direction) starting from the analogized texture edge within a predetermined range (for example, each pixel). (Half a cell in the direction), and calculate the texture features T (a ") and T (b ⁇ ⁇ ⁇ ) in the operator cell at each movement position, and calculate the texture features T (&" The position where the difference of) To detect.
  • the edge detection device 8 calculates the square value ⁇ of the difference between the left side and the right side of the above equation (6) according to the following equation (7), compares the calculated value ⁇ with a predetermined threshold eth, If the condition of £ ⁇ eth is satisfied, the cell is determined as a boundary cell including a texture edge (steps 620 and 630 in FIG. 7).
  • Na, oh, _2 represents the square.
  • the edge detection device 8 detects representative coordinates of the texture edge (step 650).
  • the representative coordinates of the texture edge of the boundary cell are, as shown in FIG. 20, when the operator is positioned such that the difference between the texture features T (a ") and T (b") is maximized.
  • the center point of the operator is positioned such that the difference between the texture features T (a ") and T (b") is maximized.
  • FIG. 19 shows the initial position of the operator for detecting the boundary between the area A and the area D.
  • the edge detecting device 8 compares the calculated representative coordinates with each of the divided areas (Step 660), and identifies to which of the plurality of closed areas the representative coordinates are located. Based on the identification result, a belonging number of a closed region to which the coordinate belongs is added to each representative coordinate. Then, these representative coordinates and the belonging number added thereto are transferred to the interpolation function operation device 9 (step 700 in FIG. 3).
  • the interpolation function operation device 9 interpolates the representative coordinates discretely calculated by the above processing using an interpolation function, thereby obtaining the texture of the object having an arbitrary shape in the image as shown in FIG.
  • the edge is accurately restored (step 710).
  • the length of the curve from Q0 to Qi is S i
  • the unit tangent vector in Qi is Q 'i
  • the chord length between the representative coordinates is ci (see Fig. 22)
  • the S between the representative coordinates is S Interpolate with a cubic curve as a parameter to calculate the unit tangent vector Q'i that satisfies the following equations (9) to (11).
  • H0,0 (t), H0, l (t), Hl, 0 (t), Hl, l (t) are
  • the interpolation is performed from a region in which the area can be estimated to be large based on the number of belonging numbers.
  • the result of segmentation in this way is displayed on another display 12 and transferred to the feature recognition device 10 (step 800 in FIG. 3).
  • the feature recognition device 10 calculates, for example, the area / closed curve length, the texture feature amount, and the gradation average for each region (steps 810 to 840 in FIG. 9), and generates a map of the relationship (steps 810 to 840). 850), classify the type of the divided area (for example, the type of planar defect) (step 860), save the recognition result on the magnetic tape 15 or floppy disk 16 (step 900 in FIG. 3), or print on the printer 13 or plotter. Print and display on 14 and display 12.
  • the representative coordinates of the texture edge of the third stage are detected.
  • the processing is required when the evaluation function T of the texture feature is non-linear, and can be omitted when the evaluation function is linear such as the density average value.
  • the shape of the cells used for the area division is not limited to a square, and an appropriate polygon may be used.

Description

明 細 書
テクスチャ解析を用いた領域分割方法及び装置
技術分野
この発明は、 濃淡画像をテクスチャ解析を用いて領域分割する技術に関するも ので、 例えばコンクリート表面などの粗面に発生した不定形の面状欠陥や汚れな どのように、 背景との濃度差が十分でない閉領域の形状の抽出や種別の認識等に 応用できるテクスチャ解析を用いた領域分割方法および装置に関する。
背景技術
昨今、 取り出したい対象物と背景との濃度差が十分でない濃淡画像から両者の テクスチャの相違に着目して領域分割を実行する技術としてテクスチャ解析を用 いた領域分割法が注目されている。
テクスチャの厳密な定義は定かではないが、 Pickettによれば、 "テクスチャは 多^の要素からなり要素の各々はある程度見えるものであり、 全体的に密に均質 に (ときにはランダムに) 配置されており、 そこには明確な特徴のある繰り返し パターンが存在する" 。 とされている。
かかるテクスチャ解析を用いた従来の画像処理の領域分割技術としては、 '第 7回画像工学コンファレンス論文集, pp l 3— 16, (昭 51)
「線形推定によるテクスチャ解析」 , (出口, 森下) • PRU91— 31, pp35-40, (91— 7)
「空間/空間周波数の特徴による画像の領域分割」 (重永)
' テレビジョン誌, VOL31, No l 2 (1977) , pp951-956 「等質領域の境界線抽出法」 (安居院、 細村)
などが知られている。
これらの従来技術では、 まず画像を格子状などのセルに分割した後、 各セル毎 のテクスチャ特徴量を算出する。
そして、
(1)隣接するセルの特徴量の差を得るためのグラジェント演算等を行い、 特徴量 の差の大きい部分を境界としたり、
あるいは (2)算出された特徴量の値にしたがってセルを分類し、 隣接するセルのうち同一 の特徴量に分類されるものを併合する
などして領域分割を行うものである。
上述の従来技術によれば、 画像を複数のセルに分割し、 テクスチャ特徴量の近 いセル同士を併合することにより領域分割するため、 分割された領域の形状的な 分解能は、 セルの大きさと形状によって決定される。 たとえば、 方形状のセルを 用いた場合は、 領域分割後の画像は該方形の集合体のようながたがたのものとな つてしまう。
そこで、 高い分解能で領域分割を所望する場合には、 セルサイズを小さく設定 することになるが、 このことはテクスチャ特徴量を算出するための情報を減らす ことになり、 セル内で算出されるテクスチャ特徴量の統計的な信頼度は低いもの になる。 即ち、 セルを小さくすることにより同一のテクスチャと判断される領域 のごく一部しか特徴量を算出するための対象にしないため、 局所的なテクスチャ のゆらぎの影響を直接受けて不必要な併合 ·分割を行う危険性を生じる。
一方、 統計的な信頼度を得る場合にはセルサイズを大きく設定することになる が、 不用意にセルを大きくすると、 分割された画像の形状的分解能は低い、 すな わち、 がたがたのものになってしまう。
このため、 抽出したい画像の統計的な性質、 形状、 大きさに応じた適切なセル のサイズを設定する必要があるが、 いかに適切なセルサイズを選択したとしても、 分割領域の形状的な分解能には限度があり、 セルのサイズ以上の精度は得られな い。
従って、 例えばコンクリート表面の面状欠陥や汚れの検査など抽出面の形状や 面積が評価の重要なパラメ—タになるものに適用した場合には、 従来技術による 方法では十分な精度が得られないという問題がある。
この発明は上記実情に鑑みてなされたもので、 比較的少ない計算量でかつセル の大きさや形状にとらわれず高い分解能で領域分割をなし得るテクスチャ解析を 用いた領域分割方法及び装置を提供することを目的とする。
発明の開示
そこでこの発明は、 画像を複数のセルに分割し、 前記セル毎のテクスチャ特徴 量を算出するとともに、 当該セルに隣接するセルのうち前記算出したテクスチャ 特徴量の近いものを当該セルに併合する処理を全てのセルについて行うことによ り画像を前記セルを基本単位にした複数の異なる領域に分割する第 1の工程と、 前記分割領域に隣接する 2つの異なるテクスチャが混在して結果的に生成された テクスチャエッジを含む境界セルを抽出し、 当該境界セルと分割領域との配置お よび前記テクスチヤ特徴量の関係から当該境界セル内に存在するテクスチャエツ ジの位置及び方向を類推する第 2の工程と、 前記類推したテクスチャエツジの位 置及び方向に基づき当該テクスチヤエツジの代表座標を検出する第 3の工程と、 前記離散的に検出された複数のテクスチャエッジの代表座標を内挿関数を用いて 補間することによりテクスチャエツジの形状復元を行う第 4の工程とを具えるよ うにしたことを特徴とする。
この発明によれば、 画像を複数のセルに分割し、 前記セル毎のテクスチャ特徴 量を算出するとともに、 当該セルに隣接するセルのうち前記算出したテクスチャ 特徴量の近いものを当該セルに併合する処理を全てのセルについて行うことによ り画像を前記セルを基本単位にした複数の異なる領域に分割する第 1の工程に、 上記第 2〜第 4の工程を追加するようにしている。
すなわち、 第 1〜第 4の工程では、 領域分割した画像からテクスチャエッジを 含む境界セルを抽出し、 当該境界セルと分割領域との配置および前記テクスチャ 特徴量の関係から当該境界セルの内に存在するテクスチャエッジの位置及び方向 を類推し、 該類推したテクスチャエッジの位置及び方向に基づき当該テクスチャ エッジの代表座標を検出し、 さらに該算出された複数のテクスチャエッジの代表 座標を内挿関数を用いて補間することによりテクスチャエッジの形状復元を行う ことにより元画像に忠実な領域分割を行うようにしている。
したがつてこの発明によれば、 複数のセルに基づくテクスチャ解析による領域 分割処理に、 テクスチャエッジの類推処理、 エッジ代表座標検出処理、 内挿関数 による補間処理を追加するようにしているので、 セルのサイズや形状にほとんど 規定されることなく、 高い分解能で領域の形状を忠実に復元することができる- また、 分割する領域の形状的な分解能がセルサイズに規定されにくいことから、 設定するセルを大きくすることができ、 これによりテクスチャエッジのゆらぎに 対して安定なテクスチヤ特徴量を算出し得ることができるとともに、 特徴量算出 に要する計算量を低減することが可能となる。
またこの発明では、 テクスチャ解析処理による領域分割処理の後、 分割領域の 境界部のセルとそれに隣接するセルの配置およびテクスチャ特徴量の関係からテ クスチヤエツジの方向及び座標を類推するようにしているので、 この類推結果か ら適切な方向のエツジ検出用オペレータが選択できるとともに、 検出処理のため の初期座標を精度良く設定することができ、 これにより少ない計算量で精度の良 いエッジ座標検出をなし得る。
また本発明では、 検出するエツジの代表座標をエツジ検出用オペレータの 2つ のセルの特徴量差最大点におけるセル境界の中心座標とする様にしているので、 類推したェッジの方向と真のェッジの方向とのずれに起因する検出座標の誤差を 低減することが可能となる。
図面の簡単な説明
第 1図はこの発明の実施例構成を示すプロック図、 第 2図はこの発明の実施例 の^理手順の概略を示すフローチヤ一ト、 第 3図はこの発明の実施例の処理手順 を図 1の構成例に対応づけて示したフローチヤ一ト、 第 4図はテクスチャ解析処 理の詳細手順を示すフローチヤ一ト、 第 5図は領域分類処理の詳細手順を示すフ ローチャー ト、 第 6図はエッジ類推処理の詳細手順を示すフローチャー ト、 第 7 図はエッジ検出処理の詳細手順を示すフローチヤ—ト、 第 8図は内挿関数演算処 理の詳細手順を示すフローチヤ一ト、 第 9図は特徴認識処理の詳細手順を示すフ 口一チャー ト、 第 1 0図はテクスチャ解析処理の説明図、 第 1 1図は領域分割処 理の説明図、 第 1 2図はエッジ類推処理の説明図、 第 1 3図はエッジ類推処理の 説明図、 第 1 4図はエッジ類推処理の説明図、 第 1 5図はエッジ類推処理の説明 図、 第 1 6図はエッジ類推処理結果を示す図、 第 1 7図はエッジ検出処理に用い るオペレータを例示する図、 第 1 8図はエッジ検出処理の説明図、 第 1 9図はェ ッジ検出処理の説明図、 第 2 0図はエッジ検出処理の説明図、 第 2 1図は内挿関 数演算処理の説明図、 第 2 2図は内挿関数演算処理の説明図、 第 2 3図は内挿結 果を示す図、 第 2 4図は非線形な内挿関数演算処理を行った場合の説明図である :
発明が実施しょうとする最良の形態 以下、 この発明の実施例について添付図面を参照して説明する。
図 2は、 この発明の領域分割方法の一実施例の処理手順を示すフローチヤ一ト である。
この発明の画像の領域分割の処理手順は、 大別すると下記の 4ステージに分割 される。
( 1 ) 第 1ステージ…画像の領域分割処理
まず、 画像を適当な大きさの複数のセルに分割し、 各セル毎のテクスチャ特徴 量を算出するとともに、 隣接するセルのうち性質の似たもの (テクスチャ特徴 量の近いもの) を併合し大まかな領域分割を行う。
( 2 ) 第 2ステージ…テクスチャエツジの位置と方向の類推処理
次に、 上記分割された領域の境界部に接するセルに着目し、 当該セルとこれに 接する分割領域のセルの配置およびテクスチャ特徴量の関係から或る所定の条 件 ^満足した際に当該セル内に存在する可能性のあるテクスチャエッジの位置 と方向を類推する。
( 3 ) 第 3ステージ…テクスチャエツジの代表座標の算出処理
次に、 類推されたェッジ座標付近をさらに詳細に調べてテクスチャエツジの代 表座標を検出する。
( 4 ) 第 4ステージ…内挿関数によるエッジ座標の補間処理
最後に、 離散的に算出された複数の代表座標を内挿関数を用いて補間すること によりセルサイズの分解能で大まかに分割された画像中の任意形状の対象物の テクスチャエッジを精度良く復元する。
かかる 4ステージの処理は、 図 1に示す画像処理装置によって実行される。 この画像処理装置は、 画像を撮像するカメラ 1と、 この画像をアナログ信号で 記憶する VT R 2と、 アナログ信号をデジタル信号 (例えば 2 5 6諧調) に変換 する VT Rインタフェース 3と、 このデジタル信号を記憶するデータサーバ 4と、 画像を矩形のセルに分割しテクスチャ特徴量 Tを算出するテクスチャ解析装置 5 と、 大まかな領域分類を行う領域分割装置 6と、 テクスチャエッジの位置と方向 を類推するエツジ類推装置 7と、 テクスチャエツジの座標を検出するエツジ検出 装置 8と、 内挿演算を行うことにより形状再現を行う内挿関数演算装置 9と、 分 割領域毎のテクスチヤ特徴量等を算出することにより分割領域の種別の分類を行 う特徴認識装置 10と、 画像を表示するディスプレイ 11および 12と、 プリン タ 13、 プロッタ 14と、 情報を保存するマグネッ トテープ 15、 フロッピディ スク 16と、 操作を行うためのキ—ボ一 ドタ一ミナル 17と、 これらを制御する コントローラ 20から構成される。
以下、 図 2に示したステージ順に、 その詳細動作を図 3〜図 9のフローチヤ一 トなどを参照して説明する。
.第 1ステージ…画像の領域分割処理
(1)画像切り出し (図 3ステップ 200)
ここでは、 対象とする画像が、 図 10 (a) に示すように、 例えばコンクリー ト表面などのような全領域 Kb中に不定形の面状欠陥領域などのようなテクスチャ の異なる閉じた領域 Kaを含んでいる場合を考える。
閎じた領域 Kaと背景領域 Kbとはテクスチャに相違があり、 どちらの領域もテ クスチヤは局部的な微小なみだれはあるものの、 ほぼ均一であるものとする。 このような画像は、 カメラ 1によって撮像された後、 VTR2にアナログ信号 として記録され、 さらに VTRインタフヱ一ス 3によって AZD変換された後デ —タザ一パ 4に記憶される。 データサーバ 4に記憶された画像データはディスプ レイ 11に表示される。
コン トローラ 1は、 データサーバ 4に切り出し領域 (例えば 512 X 512ビ ッ トの画像) のァ ドレスを順次指定し、 切り出した画像データをデータサーバ 4 からテクスチャ解析装置 5に順次転送させるよう制御する。 (図 3ステップ 20 0、 300) 。
(2)テクスチャ解析処理 (図 3ステップ 301、 図 4)
テクスチャ解析装置 5は、 入力された画像に対し、 図 10 (b) に示すように、 例えば Mx M= 32 x 32画素などのような矩形のセルを設定することにより、 画像全体を mx n個の複数のセルに分割する (図 4ステップ 310) 。
このセルのサイズは、 32x 32の他に、 抽出したい領域の形状や大きさ、 統 計的性質によって 16x 16や 64x 64などのように適当なサイズを選択する ことができる。 このセルサイズを選択する際には、 抽出した領域の形状的な高分 解能を得るためにいたずらにセルサイズを小さくせずに、 少なくともテクスチャ のゆらぎに影響されない大きさを選ぶことが重要である。
次に、 同図に示すように、 各セルのテクスチャの特徴量を数学的に定義した所 定の評価関数 τを用いてそれぞれ算出することにより、 同図に示すような特徴量 T ( i , j ) のマップを作成する (図 4ステップ 3 2 0、 3 3 0 ) 。
この評価関数 Tとしては、 例えば
濃度共起行列、
自己相関関数、
濃度差分統計量、
ランレングス行列
フーリエ . パワースペク トル
などをパラメ一タとしたものを用いることができる。
力、かる評価関数 Tとしては、 必要に応じて 1つまたは複数の上記パラメータを 適宜導入するようにする。
テクスチャ解析装置 5はこのようにして算出した各セルの特 J¾量 T ( i , j ) を当該セルのアドレスとともに領域分割装置 6に転送する (図 3ステップ 4 0 0 ) =
(3)領域分割処理 (図 3ステップ 4 0 1、 図 5 )
領域分割装置 6では、 当該セルと隣接するセルのテクスチャ特徴量の関係から 切り出し領域内の大まかな領域分割を実行するとともに、 領域分割結果を各セル のァドレスおよびそのテクスチャ特徴量とともにエッジ類推装置 7に転送する (図 3ステップ 4 0 1、 5 0 0 ) 。
具体的には、 領域分割装置 6は、 まず各切り出し領域毎にセルを単位とした特 徴量 Tのヒストグラムを作成する (図 5ステップ 4 1 0 ) 。
複数の特徴量 Tが用いられる場合は、 各特徴量毎にヒストグラムを作成する。 つぎに、 領域分割装置 6では、
(1)複数の異なる闥値を用いて各セルを特徴量毎に複数の領域 (グループ) に 分類することにより隣接セルの併合処理を行ったり (ステップ 4 1 1、 4 1 2、 4 1 3 )
あるいは (2)グラジェント演算等を用いて隣接するセル間の特徴量の差を算出し、 この 特徴量の差に応じてセルの併合 非併合の判定を行う
ことにより境界を含まないセルについて大まかな領域分割を実行する。
かかる領域分割処理を、 各特徴量毎に行って、 その後総合的に判断することに より最終的な領域分割結果を得る。
さらに領域分割装置 6では、 併合領域内に孤立セルが存在するか否かを確認し (ステップ 4 1 4、 4 1 5 ) 、 孤立セルが存在する場合には、 併合領域内各セル 間の特徴量の分散値 cT2 Γ2は 2乗に対応する) を算出するとともに (ステップ 4 1 6 ) 、 孤立セルとこれに隣接する 8つセルとの特徴量の差の最大値 max厶 Tを 算出する (ステップ 4 1 7 ) 。
そして、 特徴量の差の最大値 niaxA Tと分散値 σを比較し (ステップ 4 1 8 ) 、 maxA T≤n σ ( 1≤η≤3 ) の条件を満足する場合には、 孤立セルを隣接セルに 併合して (ステップ 4 1 9 ) 、 処理を終了する。
なお、 複数の特徴量を用いる場合の他の例として、 例えば複数の特徴量 T a、 T b、 Tc……にそれぞれ所定の重みをつけた以下のような評価関数 Hを用い、
Figure imgf000010_0001
α、 、 r '·重み
この評価関数 Hに直接閾値処理或いは差分処理実行後、 閾値処理を行うことによ り領域分割結果を得る手法もある。
以上のような方法を用いて領域分割した結果の予想図を図 1 1に示す。 この図 は、 背景に対して閉曲線で囲まれる同一テクスチャの閉領域が 1つだけ存在する 場合の分割結果を表したもので、 この画像は、 前記閉領域 Kaに対応して境界線 (テクスチャエッジ) をほとんど含まないセルの併合領域 Aと、 境界線を含むこ とにより背景 Kbと閉領域 Kaの両方のテクスチャが混在したため結果的に生成さ れた境界セル群 Cと、 これらを除く前記背景 Kbに対応する領域 Bとに分類されて いる。 なお、 領域 Aおよび B内には、 テクスチャの微小なゆらぎのために孤立す る領域が存在することもあるが、 これらの孤立領域は前記ステップ 4 1 7〜4 1 9の処理によって事前に領域 Aまたは領域 Bに併合される。
領域分割装置 6では、 このようにして算出した領域分割結果を各セルのァドレ スおよびそのテクスチャ特徴量とともにエッジ類推装置 7に転送する (図 3ステ ップ 500 ) 。
'第 2ステージ…テクスチャエツジの位置と方向の類推処理
(4)エッジ類推処理 (図 3ステップ 501、 図 6)
図 12 (a) は図 11に示した領域分類結果の一部を示したもので、 この図 1 2 (a) においては、 境界セル群 Cに属する各セルが図 12 (b) に示した 4つ のタイプ (ァ) 〜 (ェ) の何れに属するかを表している。
エッジ類推装置 7では、 境界セル群 Cに属する境界セルの上記タイプ分類をす る前に、 領域 A—領域 B間に 1セル幅相当の領域 Dが生成されたか否かを確認す るようにする (図 6ステップ 510) 。
図 12 (a) において、 領域 Aの境界 (図中の太線) に境界セル群 Cに属する セル cが接している場合はテクスチャエツジはセル c内に存在するはずであり、 また領域 Aの境界にセル cが接していない場合はテクスチャエッジはほぼこの領 域 Aの境界に等しいと考えることができる。
一方、 領域 Aに属するセル aおよび領域 Bに属するセル b間に生成されたセル c 'が境界セル群 Cに属するためには、 セル aおよび b間にセル c,がただ 1っ存 在し、 且つこれらのセルのテクスチャ特徴量 T (a) 、 T (b) 、 T (c,)は、 下記の条件を満足する必要がある。
T (a) <T (c'XT (b)
あるいは、
T (a) >Τ (c,)>T (b) …… (1) さらに、 図 13に示すように、 テクスチャエッジに直交するように設定した 2 つのセル a '·および b "の特徴量 T ( a ··)および T (b ··)の差が下式 (2) の 条件を満足しなければならない。
T ( a " ) - T (b -) = T (a) — T (b) … (2) この第 2ステージのエッジ類推処理では、 上記 (1) 式の条件を満足するもの を境界セル群 Cに属するセル cと仮定して処理を実行し (図 6ステップ 520、 530、 以下では上記 (1) 式を満足したセル c'をセル cと同義で用いる) 、 (2) 式の判定は後述する第 3ステージのテクスチャエツジの代表座標の検出処 理中に実行するようにする。
次に、 エッジ類推装置 7では上記 (1 ) 式を満足した各セル cを、 図 1 2 ( b ) に示すようなタイプ (ァ) からタイプ (ェ) のいずれかに分類し、 該分類結果に 基づきセル c内のテクスチャエッジの方向を類推する (図 6ステップ 5 4 0 ) 。 この類推においては、 セルの大きさがテクスチャエツジの実際の曲りに対して十 分小さいと仮定している。
: タイプ (ァ)
このタイプは、 セル cと領域 Aとが 1つの辺でのみ接している場合であり、 こ の場合のテクスチャエツジの方向は、 領域 Aとの境界辺に対して平行な方向であ ると類推できる。
: タイプ (ィ)
このタイプは、 セル cと領域 Aとが直交する 2つの辺で接している場合であり、 この場合のテクスチャエツジの方向は、 上記 2つの接する辺の交点を通るセル c の対角線に対して直交する方向であると類推できる。
: タイプ (ゥ)
このタイプは、 セル cと領域 Aとが 3つの辺で接している場合であり、 この場 合のテクスチャエツジの方向は、 上記 3接辺のうちの相対する 2辺を直交する方 向であると類推できる。
: タイプ (ェ)
このタイプは、 セル cと領域 Aとが互いの角部で接している場合であり、 この 場合のテクスチャエツジの方向は、 上記角部を通るセル cの対角線に対して直交 する方向であると類推できる。
以上のようにして各セル内のテクスチャエツジの方向を類推する。
次に、 ェッジ類推装置 7では各セル内のテクスチャエツジの位置を以下のよう にして類推する。
当該境界セル cのテクスチャ特徴量 T ( c ) は、 テクスチャエッジを境界とす る 2つの異なるテクスチャが混在することにより結果的に生成された値であるた め、 セル c内に混在する領域 Aと同一のテクスチャ面積 SA (図 1 4 (a) (b)の太線 枠内) を次式によって近似的に求めることができる (図 6ステップ 5 5 0 ) c SA^SO (T (c) 一 T (b) ) / (T (a) _T (b) )
… (3)
なお、 上式中の SOはセル cの面積を表す。
また、 図 14 (a) は類推したテクスチャエッジの方向が図 12のタイプ (ァ) または (ゥ) の場合のテクスチャ面積 SAを示したものであり、 図 14 (b) はテ クスチヤエッジの方向が図 12のタイプ (ィ) または (ェ) の場合を示したもの である。
そして、 上記のようにして算出したテクスチャ面積 SAを用いてテクスチャエツ ジの位置を下記のようにして類推する (図 6ステップ 560) 。
このとき、 上記テクスチャエッジの位置は、 図 15に示すように、 領域 Aとの 境界辺からの距離 5 horまたは領域 Aとの境界点からの距離 5 incで定義する。 なお、 図 15 (a) は図 12のタイプ (ァ) に対応するものでこの場合距離 5 horは領域 Aの境界辺からの距離とする。 図 15 (b) は図 12のタイプ (ィ) に 対応するもので、 距離 Sineは領域 Aとの境界辺の交差点からの距離とする。 図 1 5 (c) は図 12のタイプ (ゥ) に対応するもので、 距離 5 horは領域 Aとの 3つ の境界辺のうちの相対していない境界辺からの距離とする。 図 15 (d) は図 1 2のタイプ (ェ) に対応するもので、 距離 Sineは領域 Aとの境界となる角部から— の距離とする。
そして、 上記各距離 Shorまたは δ incは、 セル cの面積 Soおよび上記求めたテ クスチヤ面積 SAを用いて、 下記 (4) 式または (5) 式のようにして算出する- 5hor=SA/ (SO) 1 2
… (4)
SA≤S0Z2の場合
5inc= (SA) 1/2
SA〉S0Z2の場合
5inc= (2 SO) 1/2— (SO— SA) 1/2
… (5)
このようにしてセル c内のテクスチャエツジの方向および位置を大まかに類推 することができる。 図 16は、 上記手法によって得られた或る閉領域の境界面の 位置と方向を示したものである。
エツジ類推装置 7では、 このようにして類推した類推結果を先の領域分類結果、 各セルのァドレスおよびそのテクスチャ特徴量とともにエツジ検出装置 8に転送 する (図 3ステップ 600) 。
-第 3ステージ…テクスチャエツジの代表座標の算出処理
(5)エッジ検出処理 (図 3ステップ 601、 図 7)
上記のようにして閉領域の境界面の方向と位置との大まかな類推ができたら、 エッジ検出装置 8ではこれを初期値 (起点) としてテクスチャエッジの代表座標 検出処理と境界部の検定処理とを実行する。
なお、 境界部検定処理とは、 先の第 1ステージの領域分割処理で境界セルであ ると仮定したセルが、 真の境界セル (領域 Aと領域 Bの 2つのテクスチャが混在 して領域分割の結果生成されたセル) か、 あるいは先の第 (1) 式を満足するセ ル if 相当の実際に存在する領域であるか否かを識別する処理であり、 後者のセル であると判定された場合は新たな領域 Dを形成するようにする。
まず、 エッジ検出装置 8では、 テクスチャエッジの正確な座標を検出するため のオペレータを選択する (図 7ステップ 610) 。 エッジ検出用ォペレ一夕には、 図 17に示すように、 類推されたテクスチャエッジの方向別に、 その傾斜角が 0 。 、 45° 、 90° 、 135° のものの 4種類があり、 類推されたテクスチャェ ッジの方向によって対応するオペレータが選択される。 即ち、 テクスチャエッジ の方向が図 12のタイプ (ァ) 又は (ゥ) に属する場合には傾斜角が 0° 、 90 ° のオペレータを各々選択し、 またタイプ (ィ) または (ェ) の場合には傾斜角 が 45° 、 135° のオペレータを各々選択する。 これらのオペレータは、 前記 プロック分割のセル同様、 MxMのサイズに相当する 2つのセルで構成されてい る。
そして、 このように選択されたオペレ一タを、 図 18に示すように、 類推した テクスチャエッジを起点にエッジと直交する方向 (矢印 q方向) に数画素ずつ所 定の範囲内で (例えば各方向に半セル分ずつ) 移動し、 各移動位置毎にオペレー タセル内のテクスチャ特徴量 T (a ")および T (b ··)をそれぞれ算出するとと もに、 このテクスチャ特徴量 T (& ")ぉょび丁 (b ")の差が最大になる位置を 検出する。
ここで、 上記ェッジ検定を行っている境界セルと仮定したセル内にテクスチャ エッジが実際に存在するならば、 テクスチャ特徴量 T (a ")および T (b ")の 差の最大値は、 下式 (6) を満足するはずである。
MAX I T ( a " ) - T ( b " ) I
^ I T (aう _T (b) I … (6)
したがって、 エッジ検出装置 8においては、 上記 (6) 式の左辺と右辺の差の 2乗値 εを下記 (7) 式にしたがって算出し、 該算出値 εを所定の閾値 ethと比 較し、 £ <ethを満足するは、 当該セルをテクスチャエッジを含む境界セルと判 定する (図 7ステップ 620、 630) 。
ε = [MAX {T ( a " ) - T (b ··)} - {T (a)-T (b)} 〕 ~2
… (7)
な,お、 _2は 2乗を表している。
このようにして当該セルが境界セルであると判定されると、 エッジ検出装置 8 では、 テクスチャエッジの代表座標を検出する (ステップ 650)
すなわち、 この場合当該境界セルのテクスチャエッジの代表座標は、 図 20に 示すように、 テクスチャ特徴量 T (a ")および T (b ")の差が最大になるよう にオペレータを位置した場合におけるオペレータの中心点とする。
前述したように、 類推したテクスチャエッジの方向 (=選択されたオペレータ の方向) は 45° 刻みであり、 実際のテクスチャエッジの方向とはずれを生じて いる。 したがって、 テクスチャエッジの代表座標を、 図 20に示すように、 オペ レー夕のセル内のテクスチャ特徴量 T (a')および T (b')の差が最大になる位 置におけるオペレータの中心点とすることによって、 類推したテクスチャエツジ の方向のずれに起因する検出座標の誤差を低減するようにしている。
また、 上記ステップ 630において ε <£thを満足しない場合は、 図 19に示 すように、 領域 Aと領域 Bとの間に、 下記 (8) 式を満足する、 セル幅相当の分 割すべき領域 Dが存在する可能性があるので
T (a) <T (D) <T (b)
あるいは、 T (a) >T (D) >T (b) … (8)
この場合は、 図 19に示すように、 領域 Aと領域 D (セル c ') との境界付近、 および領域 Bと領域 D (セル c ') との境界付近にオペレータを移動して (ステ ップ 640) 、 上記と同様な操作を繰り返すことにより、 領域 Aのテクスチャ特 徵量 T (a) と領域 Dのテクスチャ特徴量 (D) の差が最大になる位置、 および 領域 Bのテクスチャ特徴量 T (b) と領域 Dのテクスチャ特徴量 (D) の差が最 大になる位置をそれぞれ検出するとともに、 これらの検出値に基づき領域 Dを新 たに領域分割する。
なお、 図 19においては、 領域 Aと領域 Dの境界を検出するためのオペレータ の初期位置を示している。
以上の処理が終了すると、 エッジ検出装置 8は、 算出した代表座標を各分割領 域と照合することにより (ステップ 660) 、 当該代表座標が複数の閉領域の何 れに釋するかを識別し、 該識別結果に基ずき各代表座標にその座標が属する閉領 域の所属番号を付加する。 そして、 これらの代表座標およびこれに付加される所 属番号は内挿関数演算装置 9に転送される (図 3ステップ 700) 。
'第 4ステージ…内挿関数によるエツジ座標の補間処理
(6)内挿関数演算 (図 3ステップ 701、 図 8)
内挿関数演算装置 9では、 上記の処理のよって離散的に算出された代表座標を 内挿関数を用いて補間することにより、 図 23に示すように、 画像中の任意形状 の対象物のテクスチャエッジを精度良く復元する (ステップ 710) 。
補間の種類としては、
スプライン補間、
Bスプライン補間、
ラグランジヱ補間、
線形補間、
ヘルミ ッ ト補間
等があるが、 線形補間を用いた場合には実際の領域よりも補間により求められた 閉領域の面積が小さくなることが多いので、 ここではスプライン関数を用いた例 について説明する。 まず、 図 21に示すように、 検出されたテクスチャエッジの代表座標べク トル が、 Q0、 Ql、 ··'、 Qn (Qn=Q0) であるとき、 n個の曲線セグメン ト Pi (i = 1, 2, 一n) によって曲率まで連続した曲線で補間することを考える:
ここで、 Q0から Qiに至る曲線長を S iとし、 Qiにおける単位接線ベク トルを Q ' iとし、 代表座標間の弦長を c i とし (図 22参照) 、 各代表座標間を Sをパ ラメ—タとする 3次曲線で内挿して、 下記の (9) 〜 (1 1) 式を満足する単位 接線べク トル Q ' iを算出する。
Q 0
Q 1
O 2 = M B (9
Q n
ただし、
3
{ CI ( Q2 - Ql) + C2 ( Qi - Qo)}
C1C2
3
{C22 ( Q3 - Q2) +C3 ( Q2- Ql )}
C2 C3
B = ( 11 )
3 {Cn— (Q。- Qn— Cn 2( Q0 - Qn2)
Cn-lCn-2
3一 {Cn ( Qi— Q o )+ Ci ( Q0- Q
CnC n-1 )} そして、 算出された単位接線べク トル iを下記 (12) 式に代入することに より、 離散化されたテクスチャエッジの代表座標間を補間することができ、 図 2 3に示すような形状復元ができる。
Qi-l
Qi ♦
p i(
) =HC H 0,] Η l,0(t ) Hia( ) CiQi i-1
C i Q i' i
( 12) ここで、 上記 (12) 式中の tは Si-l≤S≤Si+lに対して、
S = S (i一 1) + {S i—S ( i + 1) } t (0≤ t≤ 1) としたときの媒介変数を表し、
また、 H0,0(t)、 H0,l(t)、 Hl,0(t)、 Hl,l(t)は、
H0,0(t) = 2 t 312+ 1
H0,l(t) = -213+3 t2
Hl,0(t)= t 3- 212+ t
Hl,l(t)= t 3- t2
を表している。
なお、 上記 Q0〜Qn、 Pi、 M、 B、 Q' i、 Hはそれぞれベク トルである: ところで、 このような非線形の内挿を用いて形状を復元する場合、 図 24 (a) に示すように、 閉領域 Eおよび閉領域 Fが隣接している場合においては、 図 24 (b) に示すように、 求めた補間曲線が交差することが起こり得る。 この場合に は領域面積の大きい順に優先順位を設けて、 上記交差により発生した不必要な額 域を併合するようにする (図 8ステップ 720、 730) 。
なお、 上記の内挿関数による補間演算は、 所属番号の個数から面積が大きいと 類推できる領域から内挿を実施するようにする。
このようにして領域分割された結果は、 もう 1つのディスプレイ 12に表示さ れると共に、 特徴認識装置 10に転送される (図 3ステップ 800) =
(7)特徴認識処理 (図 3ステップ 801、 図 9)
特徴認識装置 10では、 例えば領域毎に面積ゃ閉曲線の長さやテクスチャ特徴 量や諧調平均などを算出し (図 9ステップ 810〜840) 、 それらの関係のマ ップを生成するなどして (ステップ 850) 、 分割領域の種別 (例えば面状欠陥 の種類) を分類し (ステップ 860) 、 認識結果をマグネッ トテープ 15ゃフロ ッピーディスク 16に保存したり (図 3ステップ 900) 、 プリンタ 13やプロ ッタ 14やディスプレイ 12に印刷表示したりする。
以上のようにして処理を終了する (図 3ステップ 910)
なお、 上記実施例において、 第 3ステージのテクスチャエッジの代表座標検出 処理は、 テクスチャ特徴量の評価関数 Tが非線形な場合に必要なものであり、 評 価関数が濃度平均値などのように線形の場合は、 この処理を省略することができ る。
また、 領域分割に用いるセルの形状も、 方形に限らず、 適宜の多角形を用いる ようにしても良い。
産業上の利用可能性
コンクリート表面などの粗面に発生した不定形の面状欠陥や汚れなどのように、 背景との濃度差が十分でない閉領域の形状の抽出や種別の認識などに利用して有 用である。

Claims

請求の範囲
1 . 画像を複数のセルに分割し、 前記セル毎のテクスチャ特徴量を算出するとと もに、 当該セルに隣接するセルのうち前記算出したテクスチャ特徴量の近いもの を当該セルに併合する処理を全てのセルについて行うことにより画像を前記セル を基本単位にした複数の異なる領域に分割する第 1の工程と、
前記分割領域とこれに隣接するテクスチャエッジを含む境界セルを抽出し、 当 該境界セルと分割領域との配置および前記テクスチャ特徴量の関係から当該境界 セル内に存在するテクスチャエツジの位置及び方向を類推する第 2の工程と、 前記類推したテクスチャエッジの位置及び方向に基づき当該テクスチャエツジ の代表座標を検出する第 3の工程と、
前記算出された複数のテクスチャエッジの代表座標を内挿関数を用いて補間す ることによりテクスチャエッジの形状復元を行う第 4の工程と、
を えるようにしたことを特徴とするテクスチャ解析を用いた領域分割方法。
2 . 前記第 1の工程では、 テクスチャ特徴量に対応する所定の評価関数を定義し、 前記分割したセル毎に前記評価関数値を算出し、 該評価関数値を複数の閾値で闉 値処理することにより画像を前記セルを基本単位にした複数の異なる領域に分割 することを特徴とする請求項 1記載のテクスチャ解析を用いた領域分割方法。
3 . 前記第 1の工程では、 テクスチャ特徴量に対応する所定の評価関数を定義し、 前記分割したセル毎に前記評価関数値を算出し、 当該セルと隣接セルとの差に応 じてセルの併合を行うことにより画像を前記セルを基本単位にした複数の異なる 領域に分割することを特徴とする請求項 1記載のテクスチャ解析を用いた領域分 割方法。
4 . 前記第 1の工程では、 画像は、 背景領域に対応する第 1の領域と、 この背景 内に存在する閉領域に対応する第 2の領域と、 前記背景領域及び前記閉領域のテ クスチヤがセル内に混在することにより結果的に生成された境界セル群とに分割 されることを特徴とする請求項 1記載のテクスチャ解析を用いた領域分割方法。
5 . 前記第 2の工程では、 前記境界セル群に含まれる境界セルのテクスチャ特徴 量を T ( c ) 、 前記第 1の領域に含まれるセルのテクスチャ特徴量を T ( a ) 、 前記第 2の領域に含まれるセルのテクスチャ特徴量を T ( b ) とするとき、 前記第 1の領域に含まれるセルと前記第 2の領域に含まれるセルとの間に境界 セルと類推される
T (a) <T (c ' ) <T (b)
または
T (a) >T (c ' ) >T (b)
の条件を満足するセル c 'がただ 1つ存在し、 さらに
テクスチャエツジに直交して設定した 2つのセルのテクスチャ特徴量を T ( a ·') 、 T (b ") とするとき
T (a ·')一 T (b ") = T (a) — T (b)
が成立した場合に
当該セルを境界セルと判定することを特徴とする請求項 4記載のテクスチャ解析 を用いた領域分割方法。
6. ,前記セルは方形状であり、 前記第 2の工程では、 前記境界セルを^下の 4つ のタイプ (ァ) 〜 (ェ) に分類し、
: タイプ (ァ)
境界セルと前記第 2の領域とが 1つの辺でのみ接している
: タイプ (ィ)
境界セルと前記第 2の領域とが直交する 2つの辺で接している
: タイプ (ゥ)
境界セルと前記第 2の領域とが 3つの辺で接している
: タイプ (ェ)
境界セルと前記第 2の領域とが互いの角部で接している
前記タイプ (ァ) の場合はテクスチャエッジの方向を前記第 2の領域との境界 辺に対して平行な方向であると類推し、 前記タイプ (ィ) の場合はテクスチャェ ッジの方向を上記 2つの接する辺の交点を通る前記境界セルの対角線に対して直 交する方向であると類推し、 前記タイプ (ゥ) の場合はテクスチャエッジの方向 を上記 3接辺のうちの相対する 2辺に直交する方向であると類推し、 前記タイプ (ェ) の場合はテクスチャエツジの方向を上記角部を通る境界セルの対角線に対 して直交する方向であると類推することを特徴とする請求項 4記載のテクスチャ 解析を用いた領域分割方法。
7. 前記第 2の工程では、 当該境界セルとこれを中心に隣接する 2つのセルのテ クスチヤ特徴量から当該境界セル内の 2つのテクスチャの混在面積を算出し、 該 混在面積と当該境界セルに隣接するセルの配置関係から当該境界セル内に存在す るテクスチャエツジの位置及び方向を類推する請求項 1記載のテクスチヤ解析を 用いた領域分割方法。
8. 前記第 2の工程では、 前記類推したテクスチャエッジに直交して当該境界セ ルに隣接する 2つのセルのテクスチャ特徴量を T (a) 、 T (b) とし、 当該境 界セルのテクスチャ特徴量を T (c) 、 境界セルの面積を SOとするとき、 下式に したがって当該境界セル内に混在する特徴量 T (a) で表わされるテクスチャの 面積 SAを算出し、
SA=S0 (T (c) — T (b) ) / (T (a) _T (b) )
当該境界セルが前記タイプ (ィ) または (ェ) のときは
5hor=SA/ (SO) 1/2
にしたがってテクスチャエッジの位置 δ horを算出し、
当該境界セルが前記タイプ (ァ) または (ゥ) のときは
SA≤S0Z2の場合
Sinc= (SA) 1/2
SA〉S0Z2の場合
5inc= (2 SO) 1/2_ (SO— SA) 1/2
にしたがってテクスチャエッジの位置 Sineを算出することを特徴とする請求項 6 記載のテクスチヤ解析を用いた領域分割方法。
9. 前記第 3の工程では、 前記類推したテクスチャエッジの方向に直交するよう に 2つのセルで構成されるエツジ検出用オペレータを設定し、 かつ該エツジ検出 用オペレータを前記類推したテクスチャエッジの位置を初期位置として前記直交 方向に移動させることによりエツジ検出用オペレータを構成する 2つのセルのテ クスチヤ特徴量の差が最大になる位置を検出し、 該検出した位置におけるォペレ 一夕境界の中心座標を前記テクスチャエッジの代表座標とすることを特徴とする 請求項 1記載のテクスチャ解析を用いた領域分割方法。
1 0 . 前記第 4の工程では、 離散的に検出したテクスチャエッジの代表座標をス プラインなどの非線形の内挿関数を用いて補間することを特徴とする請求項 1記 載のテクスチャ解析を用いた領域分割方法。
1 1 . 画像を複数のセルに分割し、 前記セル毎のテクスチャ特徴量を算出するテ クスチヤ特徴量演算手段と、
当該セルに隣接するセルのうち前記算出したテクスチャ特徴量の近いものを当 該セルに併合する処理を全てのセルについて行うことにより画像を前記セルを基 本単位にした複数の異なる領域に分割する画像分割手段と、
前記分割領域に隣接するテクスチャエツジを含む境界セルを抽出し、 当該境界 セルと分割領域との配置および前記テクスチャ特徴量の関係から当該セルの内に 存在するテクスチャエツジの位置及び方向を類推するテクスチャエツジ類推手段 と、
前記類推したテクスチャエツジの位置及び方向に基づき当該テクスチャエツジ の代表座標を検出するテクスチャエッジ検出手段と、
前記算出された複数のテクスチャェッジの代表座標を内挿関数を用いて補間す ることによりテクスチャエッジの形状復元を行う補間演算手段と、
を具えるようにしたことを特徴とするテクスチャ解析を用いた領域分割装置。
PCT/JP1993/001068 1992-08-04 1993-07-29 Method and apparatus for splitting region by texture analysis WO1994003871A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP4/208192 1992-08-04
JP4208192A JPH0660182A (ja) 1992-08-04 1992-08-04 テクスチャ解析を用いた領域分割方法及び装置

Publications (1)

Publication Number Publication Date
WO1994003871A1 true WO1994003871A1 (en) 1994-02-17

Family

ID=16552191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1993/001068 WO1994003871A1 (en) 1992-08-04 1993-07-29 Method and apparatus for splitting region by texture analysis

Country Status (2)

Country Link
JP (1) JPH0660182A (ja)
WO (1) WO1994003871A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1431913A1 (en) * 2002-12-20 2004-06-23 Fujitsu Limited Method for detecting boundaries between areas having different features in image data
WO2008055290A1 (en) * 2006-11-10 2008-05-15 National Ict Australia Limited Texture feature extractor
US7907775B2 (en) 2005-04-27 2011-03-15 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4095208B2 (ja) * 1999-07-29 2008-06-04 キヤノン株式会社 画像処理方法、画像処理装置及び記憶媒体
US7003161B2 (en) * 2001-11-16 2006-02-21 Mitutoyo Corporation Systems and methods for boundary detection in images
JP4832794B2 (ja) * 2005-04-27 2011-12-07 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理プログラム
JP4855709B2 (ja) * 2005-04-27 2012-01-18 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61239367A (ja) * 1985-04-15 1986-10-24 Nec Corp 画像の基準点位置決定方法
JPH03164876A (ja) * 1989-11-22 1991-07-16 Fujitsu Ltd テクスチャ特徴を用いた画像処理方式

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61239367A (ja) * 1985-04-15 1986-10-24 Nec Corp 画像の基準点位置決定方法
JPH03164876A (ja) * 1989-11-22 1991-07-16 Fujitsu Ltd テクスチャ特徴を用いた画像処理方式

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1431913A1 (en) * 2002-12-20 2004-06-23 Fujitsu Limited Method for detecting boundaries between areas having different features in image data
US7539344B2 (en) 2002-12-20 2009-05-26 Fujitsu Limited Boundary detection method between areas having different features in image data
US7907775B2 (en) 2005-04-27 2011-03-15 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
US8204287B2 (en) 2005-04-27 2012-06-19 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
WO2008055290A1 (en) * 2006-11-10 2008-05-15 National Ict Australia Limited Texture feature extractor

Also Published As

Publication number Publication date
JPH0660182A (ja) 1994-03-04

Similar Documents

Publication Publication Date Title
Karathanassi et al. A texture-based classification method for classifying built areas according to their density
Sinha et al. Segmentation of buried concrete pipe images
JP3348167B2 (ja) 画像2値化装置
Kim et al. Automated rebar diameter classification using point cloud data based machine learning
EP0380659A1 (en) Method of recognizing linear pattern
JP6099479B2 (ja) ひび割れ検出方法
WO1996023290A1 (en) Automated lane definition for machine vision traffic detector
CN115236628A (zh) 一种基于激光雷达检测车厢残留货物的方法
CN111145120A (zh) 能见度检测方法、装置、计算机设备和存储介质
CN115641327A (zh) 一种基于大数据的建筑工程质量监理和预警系统
WO1994003871A1 (en) Method and apparatus for splitting region by texture analysis
Ham et al. Recognition of raised characters for automatic classification of rubber tires
Jahanshahi et al. A novel crack detection approach for condition assessment of structures
CN108805896B (zh) 一种应用于城市环境的距离图像分割方法
CN113470063B (zh) 一种基于特征集的多目标追踪方法、装置及介质
CN114332006A (zh) 一种城垛缺失自动定量评估方法
JP2988097B2 (ja) 濃淡画像の領域分割方法
JPS62284485A (ja) 線状パタ−ン認識方法
Alicandro et al. Enhanced Algorithms to Extract Decay Forms of Concrete Infrastructures from Uav Photogrammetric Data
Gupta et al. Segmentation, modeling and classification of the compact objects in a pile
Branca et al. Defect detection on leather by oriented singularities
Yu et al. Use of interferometric directionality for noise reduction [also Letter 34 (7) 2168 (Jul1995)]
CN109993762B (zh) 一种基于非对称逆布局模式的快速边缘检测方法
JP2859067B2 (ja) エッジ検出方法
Fitzgerald et al. A Review of Computer Vision Techniques in the Detection of Metal Failures

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): GB US

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)