JPH1091782A - Method for extracting specific site for gradation picture - Google Patents

Method for extracting specific site for gradation picture

Info

Publication number
JPH1091782A
JPH1091782A JP8239243A JP23924396A JPH1091782A JP H1091782 A JPH1091782 A JP H1091782A JP 8239243 A JP8239243 A JP 8239243A JP 23924396 A JP23924396 A JP 23924396A JP H1091782 A JPH1091782 A JP H1091782A
Authority
JP
Japan
Prior art keywords
vector
image
sub
specific
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8239243A
Other languages
Japanese (ja)
Inventor
Mikihiko Terajima
寺島幹彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP8239243A priority Critical patent/JPH1091782A/en
Publication of JPH1091782A publication Critical patent/JPH1091782A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for extracting a specific site for a gradation picture in which the specific site of a lump-shaped shadow and a specific site in a structure except the lump-shaped shadow can be precisely extracted from a gradation picture such as an X-ray picture. SOLUTION: This method is constituted of a featured value extracting step 1, and a learning recognizing step 2 constituted of a learning sub-step 22 for learning the corresponding relation of a featured value vector group (b) calculated by the featured value extracting step 1 with a teaching signal (d) indicating whether or not a picture element from which the vector is extracted is a specific site to be extracted in an input picture by using a neural network, and a recognizing sub-step 23 for inputting the featured value vector (b) to the neural network, and outputting a signal indicating whether or not the picture element from which the featured value vector group (b) is the specific site to be extracted in the picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、濃淡画像用特定部
位抽出方法に関し、特に、濃淡情報からなる画像から抽
出したい特定部位のみを精度良く抽出する方法に関し、
例えば、X線画像から塊状陰影等の病変部を自動的に抽
出する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting a specific part for a gray-scale image, and more particularly to a method for accurately extracting only a specific part to be extracted from an image composed of gray-scale information.
For example, the present invention relates to a method for automatically extracting a lesion such as a massive shadow from an X-ray image.

【0002】[0002]

【従来の技術】濃淡画像から特定の部位のみを精度良く
抽出する方法の従来例として、X線画像から塊状陰影で
示される病変部を自動的に抽出する以下のような方法が
ある(清水、長谷川、鳥脇:「胸部X線像計算機診断の
ための新しい異常陰影強調フィルタとその特性評価」信
学技報PRU91−132(1991)、以下では、m
inDDfilterの方法と略す。)。なお、ここ
で、濃淡情報からなる画像とは、単に白黒画像のみをさ
すのではなく、カラー画像の特定のカラーの強度の濃淡
値を用いた画像や、カラー画像から適当な変換によって
濃淡画像にしたもの等、広く濃淡情報からなる画像をさ
すことにする。以下では、単に濃淡画像とも表記する。
2. Description of the Related Art As a conventional example of a method for accurately extracting only a specific part from a gray-scale image, there is the following method for automatically extracting a lesion indicated by a massive shadow from an X-ray image (Shimizu, Hasegawa, Toriwaki: "New abnormal shadow enhancement filter for chest X-ray image computer diagnosis and its characteristic evaluation" IEICE Technical Report PRU91-132 (1991)
Abbreviated as inDDfilter method. ). Here, the image composed of the grayscale information does not simply refer to only a black-and-white image, but to an image using a grayscale value of a specific color intensity of a color image or a grayscale image by appropriate conversion from a color image. An image composed of a wide range of grayscale information, such as an image that has been rendered. Hereinafter, it is simply referred to as a grayscale image.

【0003】この従来の方法の概略を図13を用いて説
明する。まず、図13(a)に示すような塊状陰影を含
むようなX線原画像に対し、同図(b)に示すように、
複数個の方向性微分フィルター(図中では、例えば4
個)を画像全体に施す。その結果、同図(c)に示した
ようなF1(x,y),F2(x,y),F3(x,
y),F4(x,y)という4枚の画像が得られたとす
る。x,yは画像中の座標である。続いて、同図(d)
及び以下の(1)式のように、4枚の画像の中の同じあ
る画素に対し、4方向で最も小さいフィルター出力をそ
の画素の出力とする。この出力をminDD(x,y)
と定義する。
An outline of this conventional method will be described with reference to FIG. First, as shown in FIG. 13B, an X-ray original image including a massive shadow as shown in FIG.
A plurality of directional differential filters (for example, 4
Is applied to the entire image. As a result, F1 (x, y), F2 (x, y), F3 (x, y) as shown in FIG.
It is assumed that four images y) and F4 (x, y) are obtained. x and y are coordinates in the image. Next, FIG.
And, as shown in the following equation (1), for the same certain pixel in the four images, the smallest filter output in four directions is set as the output of that pixel. Output this minDD (x, y)
Is defined.

【0004】 続いて、同図(e)及び以下の(2)式のように、
(1)式で得られた出力を閾値処理し、ある値より大き
な値を持つ画素のみを例えば1(1は黒を、0は白を表
示することにする。)と表示することによって、塊状陰
影を抽出する。
[0004] Subsequently, as shown in FIG. 11E and the following equation (2),
The output obtained by the equation (1) is subjected to threshold processing, and only pixels having a value larger than a certain value are displayed as, for example, 1 (1 indicates black, 0 indicates white). Extract the shadows.

【0005】 output(x,y)=1:if minDD(x,y)>閾値 0:else ・・・(2) 塊状陰影付近では、F1(x,y),F2(x,y),
F3(x,y),F4(x,y)が何れも比較的大きな
出力であるのに対し、それ以外の例えば血管陰影等の線
分状のものの付近では、そのうち一つが大きく、その他
の出力は小さくなる傾向があるので、以上の操作で塊状
陰影が抽出されるのである。なお、図13(e)中の抽
出結果を示す画像中において、線分状のものはノイズを
示している。
Output (x, y) = 1: if minDD (x, y)> threshold 0: else (2) In the vicinity of a massive shadow, F1 (x, y), F2 (x, y),
While F3 (x, y) and F4 (x, y) are relatively large outputs, in the vicinity of other line-shaped objects such as blood vessel shadows, one of them is large and the other outputs are large. Since there is a tendency to be small, the above operation extracts a massive shadow. Note that, in the image showing the extraction result in FIG. 13E, a line segment indicates noise.

【0006】なお、ここでいう画素とは、画像中の1ピ
クセルに限定されず、複数個の近傍画素を集めた画素群
の意味も含めることにする。この手法は、一つの値、す
なわちスカラー量がある画素のもつ特徴量となってい
る。
[0006] The pixel here is not limited to one pixel in an image, but includes a pixel group in which a plurality of neighboring pixels are collected. In this method, one value, that is, a scalar amount is a characteristic amount of a certain pixel.

【0007】一方、複数個の値の組、すなわちベクトル
量をある画素のもつ特徴量として抽出して、その後で濃
淡画像を大まかに領域分割する方法がある(A.K.Jain,a
nd F.Farrokhnia,"Unsupervised texture segmentation
using Gabor filters",Pattern Recognition,vol.24,n
o.12,pp.1167-1186,1991. 以下では、A.K.Jain
の方法と略す。)。
On the other hand, there is a method of extracting a set of a plurality of values, that is, a vector amount as a feature amount of a certain pixel, and thereafter roughly dividing the grayscale image into regions (AKJain, a
nd F. Farrokhnia, "Unsupervised texture segmentation
using Gabor filters ", Pattern Recognition, vol.24, n
o.12, pp.1167-1186,1991. K. Jain
Abbreviation of the method. ).

【0008】この方法の概略を図8〜図11を用いて説
明する。まず、図8(a)に示すように、複数個(図中
では、例として3個)のテクスチャーを含む画像に対
し、同図(b)及び(c)に示すように、画像中の特定
の方向と特定のサイズに選択的に反応する選択的空間周
波数フィルターとして、後述する(3)式(実空間)、
(4)式(周波数空間)で示されるようなフィルター
を、反応する特定の方向と特定のサイズ(以下では、両
者をフィルターパラメータとも呼ぶ。)を変えて複数種
類(例として、4方向と5つのサイズとして、20種
類)施す。ここで、特定の方向と特定のサイズとは、実
空間画像中での方向とサイズを意味する。周波数空間で
の方向とサイズとは、概念が大きく異なるので注意す
る。そこで、今後は、実空間での特定の方向と特定のサ
イズをそれぞれ「実空間方向」と「実空間サイズ」と呼
び、周波数空間での方向とサイズをそれぞれ「周波数空
間方向」と「周波数空間サイズ」と呼ぶことにする。図
9に示すような実空間画像中の複数の線分からなる格子
を例として説明すると、線分の方向が「実空間方向」、
格子間隔が「実空間サイズ」に相当する。
The outline of this method will be described with reference to FIGS. First, as shown in FIG. 8A, for an image including a plurality of textures (three in the figure, for example), identification in the image is performed as shown in FIGS. As a selective spatial frequency filter selectively reacting to the direction and a specific size, the following equation (3) (real space):
(4) A filter as represented by the expression (frequency space) may be changed in a specific direction and a specific size (hereinafter, both are also referred to as filter parameters) by changing a plurality of types (for example, four directions and five types). 20 sizes). Here, the specific direction and the specific size mean the direction and the size in the real space image. It should be noted that the concept and the size in the frequency space are greatly different. Therefore, in the future, a specific direction and a specific size in the real space will be referred to as “real space direction” and “real space size”, respectively, and the direction and size in the frequency space will be referred to as “frequency space direction” and “frequency space direction”, respectively. I will call it "size". Taking a grid composed of a plurality of line segments in a real space image as shown in FIG. 9 as an example, the direction of the line segments is “real space direction”,
The grid spacing corresponds to the “real space size”.

【0009】続いて、フィルターについて説明する。以
下の(3)式のようなGaussian型の包絡線関数
(右辺第1成分)と振動関数(第2成分)からなるメキ
シカンハット状のフィルターは、Gabor filt
erと呼ばれている。なお、一般的なGabor fi
lterの式は、(3)式の形態に限らず、一般に、フ
ーリエ変換後が(4)式のようにガウシアン形状になる
ものであればよく、種々の変形がある。
Next, the filter will be described. A Mexican hat-shaped filter composed of a Gaussian-type envelope function (first component on the right side) and a vibration function (second component) as in the following equation (3) is a Gabor filter.
It is called er. In addition, general Gabor fi
The expression of liter is not limited to the form of the expression (3), but generally may be any as long as it becomes a Gaussian shape after the Fourier transform as shown in the expression (4), and there are various modifications.

【0010】 Gabor(x,y) = exp[-2π{(x2+y2)(u0 2+v0 2)}/σ2 ] exp{j2π(u0x+v0y) } ・・・(3) F(Gabor(x,y)) ={σ2 /(2u0v0) } exp[- πσ2/2 {(u-u0)2/u0 2+(v-v0)2/v0 2 }] ・・・(4) (3)式及び(4)式で、x,yは実空間(画像中)で
の座標系、u及びvは周波数空間での座標系、u0 及び
0 は振動関数の周波数、σはGaussian型の包
絡線関数の広がりをそれぞれ規定する変数もしくは定数
である。F()は関数のフーリエ変換を示している。フ
ィルターパラメータの中の「実空間方向」は(3)、
(4)式の場合には、ベクトル(u0 ,v0 )と垂直な
方向に相当し、フィルターパラメータの中の「実空間サ
イズ」は、実空間の入力画像の大きさをM×Mとして、
M/√(u0 2 +v0 2 )に相当する。
Gabor (x, y) = exp [−2π {(x 2 + y 2 ) (u 0 2 + v 0 2 )} / σ 2 ] exp {j2π (u 0 x + v 0 y)} · ·· (3) F (Gabor ( x, y)) = {σ 2 / (2u 0 v 0)} exp [- πσ 2/2 {(uu 0) 2 / u 0 2 + (vv 0) 2 / v 0 2 }] (4) In equations (3) and (4), x and y are coordinate systems in the real space (in the image), u and v are coordinate systems in the frequency space, u 0 And v 0 are the frequencies of the vibration function, and σ is a variable or constant that defines the spread of the Gaussian type envelope function, respectively. F () indicates the Fourier transform of the function. "Real space direction" in the filter parameters is (3),
In the case of the expression (4), the direction corresponds to the direction perpendicular to the vector (u 0 , v 0 ), and the “real space size” in the filter parameter is obtained by setting the size of the input image in the real space to M × M. ,
M / √ (u 0 2 + v 0 2 ).

【0011】図10に、(3)及び(4)式で表される
Gabor Filterの概形を示した。図10
(a)は(3)式に基づく実空間での概形(斜視図と平
面図)、図10(b)は(4)式に基づく周波数空間で
の概形(斜視図と平面図)である。フィルターパラメー
タ(実空間方向、実空間サイズ)の概念を図10
(a)、(b)を用いて定性的に説明する。図10
(a)は、実空間でのフィルターの概形を示すが、中心
対称でなく、特定の方向に対して線対称なメキシカンハ
ット状の形をしており、図10(a)の斜視図中で細い
矢印の方向の微分を行う作用がある。この場合、細い矢
印と垂直な方向(太い矢印の方向)の画像中のエッジに
強く反応する。この太い矢印がフィルターパラメータの
中の「実空間方向」に対応している。なお、微分量を求
めるとき、片方から微分すれば、もう一方は正負が入れ
替わるだけなので、図中では、便宜上、正負の両方向に
矢印を付けてある。なお、「実空間サイズ」の大小と図
10(a)での山の裾野の広がりの大小とは比例関係に
ある。
FIG. 10 shows an outline of the Gabor Filter represented by the equations (3) and (4). FIG.
10A is a schematic shape (perspective view and plan view) in real space based on equation (3), and FIG. 10B is a schematic shape (perspective view and plan view) in frequency space based on equation (4). is there. FIG. 10 illustrates the concept of filter parameters (real space direction, real space size).
A qualitative explanation will be given using (a) and (b). FIG.
FIG. 10A shows a schematic shape of the filter in a real space. The filter is not centrally symmetric but has a Mexican hat shape that is line-symmetric with respect to a specific direction. Has the effect of differentiating in the direction of the thin arrow. In this case, it reacts strongly to the edge in the image in the direction perpendicular to the thin arrow (the direction of the thick arrow). This thick arrow corresponds to the “real space direction” in the filter parameters. When calculating the amount of differentiation, if one is differentiated from the other, the other is only switched between positive and negative. For convenience, in the drawing, arrows are provided in both positive and negative directions. It should be noted that the magnitude of the “real space size” is proportional to the magnitude of the extent of the foot of the mountain in FIG.

【0012】図10(b)は、周波数空間での概形を示
すが、原点(図中の中心)を中心として対称の位置にあ
る2つのピークからなっている。フィルターパラメータ
の中の「実空間方向」は、原点からみたピークの方向
(図の例では、v軸の方向)に対して垂直な方向(図の
例では、u軸の方向)が対応している。フィルターパラ
メータの中の「実空間サイズ」の大小は、原点からピー
クまでの距離の逆数の大小と対応している。なお、一般
的に、「実空間サイズ」が大きいフィルターは画像中の
低周波成分をとらえることができ、「実空間サイズ」が
小さいフィルターは画像中の高周波成分をとらえること
ができる。
FIG. 10 (b) shows an outline in the frequency space, which is composed of two peaks at symmetrical positions with respect to the origin (center in the figure). The “real space direction” in the filter parameters corresponds to the direction perpendicular to the peak direction (v-axis direction in the example in the figure) viewed from the origin (u-axis direction in the example in the figure). I have. The magnitude of the “real space size” in the filter parameters corresponds to the magnitude of the reciprocal of the distance from the origin to the peak. In general, a filter having a large “real space size” can capture low frequency components in an image, and a filter having a small “real space size” can capture high frequency components in an image.

【0013】続いて、図8(d)に示すように、その2
0種類の各々の画像中で平均化処理をする。平均化処理
では、次の(5)式のように、ある画素()とそ
の周辺の複数の画素からなる適当な大きさのウィンドー
xyで、フィルター出力に次の(6)式のシグモイド関
数φ(z)を施したものの絶対値の平均値を求め、その
値をその画素の出力H Ga()とする。I
(x,y)を画像の強度、NをWxy内の画素数、μを適
当な定数、記号*をコンボリューション積とする。
Subsequently, as shown in FIG.
The averaging process is performed in each of the 0 types of images. In the averaging process, as shown in the following equation (5), a window W xy of an appropriate size including a certain pixel ( x , y ) and a plurality of pixels around the pixel ( x , y ) is used to output the following equation (6) to the filter output The average value of the absolute value of the result of applying the sigmoid function φ (z) of Ga ( x , y ). I
(X, y) is the intensity of the image, N is the number of pixels in Wxy , μ is an appropriate constant, and the symbol * is the convolution product.

【0014】 H Ga() = Σ |φ(Gabor(x,y)*I(x,y)|/N (x,y)∈Wxy ・・・(5) φ(z)={1−exp(−2μz)}/{1+exp(−2μz)} ・・・(6) 続いて、図8(e)に示すように、平均化処理した20
種類の画像中で、同じ位置にある画素の出力を並べて2
0次元のベクトルとし、そのベクトルをその画素の特徴
量とする。なお、図8(e)中における画素(
に対する特徴量ベクトルの成分の表記として、相異なる
フィルターパラメータに対応させるため、各成分に対し
Gai ),i=1〜20のように添字を付
けた。
H Ga (x, y) = Σ | φ (Gabor (x, y) * I (x, y) | / N (x, y) ∈W xy ··· (5) φ (z) = {1-exp (−2 μz)} / {1 + exp (−2 μz)} (6) Subsequently, as shown in FIG.
By arranging the outputs of the pixels at the same position in
A zero-dimensional vector is defined, and the vector is defined as a feature amount of the pixel. Note that the pixel ( x , y ) in FIG.
In order to correspond to different filter parameters as the notation of the component of the feature amount vector with respect to Ga i ( x , y ), i = 1-20.

【0015】そして、この特徴量を画像中の全画素に対
し抽出して、そのベクトル群を、k−means法とい
う教師なしクラスタ分類法で3つに分ける。図示を容易
にするために特徴量を20次元ではなく3次元ベクトル
とすれば、そのベクトル群は図11(a)に示すように
なる。そのベクトル群をk−means法で3つに分け
ると、図11(b)のようになる。3つの分けられたベ
クトル群にそれぞれラベル(この場合、A,B,C)を
付け、そのベクトルが抽出された画素に対しそのラベル
を付けることにより、原画像は図11(c)のように領
域分割される。なお、領域分割した境界線は、通常、原
画像の境界線と完全に一致する訳ではなく、少し歪曲し
ていることが多い。
The feature amount is extracted for all pixels in the image, and the vector group is divided into three by an unsupervised cluster classification method called a k-means method. If the feature amount is set to a three-dimensional vector instead of 20 to facilitate the illustration, the vector group is as shown in FIG. When the vector group is divided into three by the k-means method, the result is as shown in FIG. A label (in this case, A, B, and C) is attached to each of the three divided vector groups, and the label is attached to the pixel from which the vector is extracted, so that the original image becomes as shown in FIG. The area is divided. It should be noted that the region-divided boundary line usually does not completely match the boundary line of the original image, and is often slightly distorted.

【0016】[0016]

【発明が解決しようとする課題】しかしながら、前述し
たminDDfilterの方法は、ある程度の精度で
は塊状陰影を抽出できるが、ある画素に関して複数個
(ここでは、4個)の出力の中、最小値の出力しか用い
ていないため、分類するための情報量が不足して、抽出
すべき特定部位以外の部位も抽出する場合がある。ま
た、抽出したい特定の部位が塊状陰影以外の構造を有す
る場合(例えば、線状部位)に対しては、考慮されてい
ない。
However, the above-described minDDfilter method can extract massive shadows with a certain degree of accuracy. However, among a plurality of (here, four) outputs for a certain pixel, the minimum value output is obtained. However, there is a case where the amount of information for classification is insufficient and a part other than the specific part to be extracted is also extracted. In addition, no consideration is given to a case where a specific part to be extracted has a structure other than a block shadow (for example, a linear part).

【0017】また、前述したA.K.Jainの方法
は、ある画素に対する特徴量をベクトル量にしているの
で、画像中の特徴量をminDDfilterの方法の
場合より有効に抽出していると言えるが、ベクトル群を
分類する手法がk−means法という教師なしクラス
タ分類法を用いているので、大まかな領域分割しかでき
ない。したがって、そこから特定の部分を抽出するに
は、さらに処理を必要とする。
The above-described A.I. K. Since the feature of Jain uses a vector for the feature for a certain pixel, it can be said that the feature in the image is more effectively extracted than in the case of the minDDfilter method. However, the method of classifying the vector group is k-means. Since the method uses the unsupervised cluster classification method called the method, only rough region division can be performed. Therefore, further processing is required to extract a specific portion therefrom.

【0018】また、その大まかな領域分割は、図8
(a)の原画像のように、基本構造やその配列が比較的
はっきりしたテクスチャーの場合は、ある程度精度良く
行えるが、基本構造もその配列もはっきりしないテクス
チャーの場合には、その大まかな領域分割でさえも困難
になる。この場合、特定の部分を抽出することは、さら
に処理を施すとしても、非常に困難である。
The rough area division is shown in FIG.
In the case of a texture whose basic structure and its arrangement are relatively clear, as in the original image of (a), it can be performed with a certain degree of accuracy. However, in the case of a texture whose basic structure and its arrangement are not clear, the rough region division is performed. Even it becomes difficult. In this case, it is very difficult to extract a specific part even if further processing is performed.

【0019】以上のことを理解するために、図8、図1
1、図12を用いて説明する。図8(a)のように各テ
クスチャーが比較的明確な基本構造とその配列を持ち、
かつ、それぞれが相異なっている複数個(ここでは、3
個)のテクスチャーを含む原画像の場合の特徴量ベクト
ル群は、図11(a)のように、特徴量ベクトル空間で
も明確に複数個(ここでは、3個)に分かれるので、こ
の場合、k−means法という教師なしクラスタ分類
法で分類することが可能である。
In order to understand the above, FIGS.
This will be described with reference to FIG. As shown in FIG. 8A, each texture has a relatively clear basic structure and its arrangement.
And a plurality of different types (here, 3
In the case of an original image including textures, the feature amount vector group is clearly divided into a plurality (here, three) in the feature amount vector space as shown in FIG. It is possible to perform classification by an unsupervised cluster classification method called a means method.

【0020】ところで、一般の画像というのは、基本構
造と配列がはっきりしたテクスチャーのみからなるとは
限らない。基本構造もその配列もはっきりしないテクス
チャーが混在することもあれば、テクスチャーが全くな
い場合もあり得る。その場合は、図12に示すように、
特徴量ベクトル群空間で、クラスタが明確に分類できる
ように分布しない場合が多い。例えばX線画像に代表さ
れる医用画像は、そのような場合に相当する。すなわ
ち、塊状陰影のように、画像中において、その部位が特
定の基本構造から構成されず、また、その配列も明確に
定義できない場合は、特徴量ベクトル空間でも、明確に
分類できるクラスタにならない。例えば、図11(a)
のような塊状陰影を示す特徴量ベクトル群が特徴量ベク
トル空間内で明確に分類できるクラスタを形成していな
い。このような場合は、教師なしクラスタ分類法では、
特徴量ベクトル空間内でクラスタの分布に応じた精度の
良いクラスタを分類することができない。したがって、
画像平面で考えると、精度の良い領域分割ができない。
例えば、この場合に領域分割すると、抽出したい特定の
部位を分割してしまう可能性もある。抽出したい特定の
部位が分割されてしまった後で、その部位を抽出するこ
とは非常に困難である。よって、A.K.Jainの方
法を一般の画像に適用すると、大まかに領域分割するこ
とも困難であり、したがって、その後に特定の部分を抽
出することはさらに困難になることが分かる。
Incidentally, a general image does not always consist only of a texture whose basic structure and arrangement are clear. There may be a mixture of textures whose basic structure and their arrangement are not clear, or there may be no texture at all. In that case, as shown in FIG.
In many cases, clusters are not distributed in the feature vector space so that they can be clearly classified. For example, a medical image represented by an X-ray image corresponds to such a case. In other words, if the site in the image is not composed of a specific basic structure and its arrangement cannot be clearly defined, as in the case of a massive shadow, the cluster will not be clearly classified even in the feature vector space. For example, FIG.
A feature vector group showing a blocky shadow does not form a cluster that can be clearly classified in the feature vector space. In such cases, the unsupervised cluster classification method uses
It is not possible to classify clusters with high accuracy according to the distribution of clusters in the feature vector space. Therefore,
Considering the image plane, accurate region division cannot be performed.
For example, in this case, if the area is divided, a specific part to be extracted may be divided. After a specific part to be extracted has been divided, it is very difficult to extract that part. Therefore, A. K. When the method of Jain is applied to a general image, it is also difficult to roughly divide a region, and hence it is further difficult to extract a specific portion thereafter.

【0021】以上のA.K.Jainの方法についての
問題点をまとめると、 A−1)大まかな領域分割しかできないので、特定の部
位を抽出するには何らかの後処理を必要とする。 A−2)画像中の特徴量が、特徴量ベクトル空間で明確
に分類できるクラスタになっていない場合は、その大ま
かな領域分割でさえも困難になり、特定の部位を抽出す
るのはさらに困難である。
The above A. K. To summarize the problems of the Jain method: A-1) Since only rough segmentation can be performed, some post-processing is required to extract a specific part. A-2) When the feature amount in the image is not a cluster that can be clearly classified in the feature amount vector space, even rough segmentation becomes difficult, and it is more difficult to extract a specific part. It is.

【0022】ところで、前述したA.K.Jainの方
法では、複数の選択的空間周波数フィルターを施す場
合、フィルターパラメータの中の実空間サイズの大きさ
の変化によって出力値のダイナミックレンジが大きく変
わる。具体的には、実空間サイズが大きい程、得られる
出力値は実空間サイズが小さいものに比べて大きくな
る。したがって、この出力値をそのまま並べて特徴量ベ
クトルを作成した場合、フィルターパラメータの実空間
サイズが大きいものの成分、すなわち、画像中で言えば
低周波成分が他の成分に比べて分類への寄与が大きいこ
とになる。よって、フィルターパラメータの実空間サイ
ズが小さい場合の成分、すなわち、画像中で言えば高周
波成分も分類に必要となる場合には、良好な分類が難し
くなるのである。一般の濃淡画像は、低周波成分のみや
高周波成分のみからなるとは限らない。例えば、X線画
像の場合、低周波成分である背景や心臓陰影と、高周波
成分である血管陰影を一枚の画像中に含んでいる。そこ
で、低周波成分も高周波成分も同様に分類に寄与させる
ことで、画像中の低周波成分も高周波成分も用いたより
汎用性の高い画像からの特定部位抽出が可能になる。
Incidentally, the above-described A. K. In the method of Jain, when a plurality of selective spatial frequency filters are applied, the dynamic range of the output value greatly changes due to a change in the size of the real space size in the filter parameters. Specifically, the larger the real space size is, the larger the obtained output value is compared to the one having a small real space size. Therefore, when the feature value vector is created by arranging the output values as they are, components having a large real space size of the filter parameters, that is, low-frequency components in the image contribute more to the classification than other components. Will be. Therefore, when components in the case where the real space size of the filter parameter is small, that is, when high-frequency components are required for classification in an image, good classification becomes difficult. A general gray-scale image does not always include only low-frequency components or only high-frequency components. For example, in the case of an X-ray image, a single image includes a background or a heart shadow as a low-frequency component and a blood vessel shadow as a high-frequency component. Therefore, by making the low-frequency component and the high-frequency component contribute to the classification in the same manner, it becomes possible to extract a specific portion from a more versatile image using both the low-frequency component and the high-frequency component in the image.

【0023】本発明はこのような従来技術の問題点に鑑
みてなされたものであり、本発明の第1の目的は、以下
に示すB−1)の条件を満たす濃淡画像用特定部位抽出
方法を提供することにある。続いて、第2の目的は、B
−2)の条件を満たす濃淡画像用特定部位抽出方法を提
供することにある。続いて、第3の目的は、B−3)の
条件を満たす濃淡画像用特定部位抽出方法を提供するこ
とにある。
The present invention has been made in view of such problems of the prior art, and a first object of the present invention is to provide a method for extracting a specific portion for a gray-scale image satisfying the following condition B-1): Is to provide. Then, the second purpose is B
Another object of the present invention is to provide a method for extracting a specific portion for a grayscale image that satisfies the condition of -2). Subsequently, a third object is to provide a method for extracting a specific portion for a grayscale image that satisfies the condition of B-3).

【0024】B−1)濃淡画像から塊状陰影の特定部位
も塊状陰影以外の構造の特定部位も精度良く抽出する。 B−2)濃淡画像の画像中の全領域からその1画素毎に
特徴量ベクトル量を抽出しながらベクトル群を作成した
とき、そのベクトル群が明確に分類できるクラスタを持
たない場合にも、X線画像の塊状陰影等のように、画像
中でその部位を明確に分類することが困難な部位を精度
良く抽出する。 B−3)画像中の低周波成分も高周波成分も同様に分類
に寄与させることで、より汎用性の高い画像からの特定
部位抽出を行う。
B-1) A specific portion of a massive shadow and a specific portion of a structure other than the massive shadow are accurately extracted from the grayscale image. B-2) When a vector group is created while extracting a feature vector amount for each pixel from the entire area in the grayscale image, even when the vector group does not have a cluster that can be clearly classified, X A portion, such as a block shadow of a line image, in which the portion is difficult to classify clearly in the image is accurately extracted. B-3) A low-frequency component and a high-frequency component in an image are similarly contributed to classification, thereby extracting a specific portion from a more versatile image.

【0025】[0025]

【課題を解決するための手段】上記目的を達成する本発
明の濃淡画像用特定部位抽出方法は、濃淡情報からなる
入力画像を入力する画像入力サブステップと、前記入力
画像に対し、画像中の実空間における特定の方向と実空
間における特定のサイズに選択的に反応する選択的空間
周波数フィルタリングを施す選択的空間周波数フィルタ
リングサブステップと、前記のフィルタリング結果の画
像において、ある特定の画素とその周辺の複数の画素か
ら構成されると共に、前記の実空間の特定のサイズに比
例した大きさを持つウィンドー内で、前記フィルタリン
グの結果を平均化し、その平均化された値を前記ウィン
ドー内の特定の画素の特徴量として出力する平均化サブ
ステップと、相異なる少なくとも2つ以上の選択的空間
周波数フィルターに対する前記の平均化した出力を前記
特定の画素の持つ特徴量の成分としたベクトルを作成す
る特徴量ベクトル作成サブステップとからなる特徴量抽
出ステップと、前記特徴量抽出ステップによって求めら
れた特徴量ベクトルと、そのベクトルが抽出された画素
が入力画像中で抽出すべき特定部位であるか否かの教師
信号とを用いて、前記特徴量ベクトルと前記教師信号と
の対応関係をニューラルネットワークを用いて学習する
学習サブステップと、前記特徴量ベクトルを前記ニュー
ラルネットワークに入力して、その特徴量ベクトルが抽
出された画素が画像中で抽出すべき特定部位であるか否
かの信号を出力する認識サブステップとからなる学習認
識ステップと、からなることを特徴とする方法である。
To achieve the above object, a method for extracting a specific portion of a grayscale image according to the present invention comprises: an image input sub-step of inputting an input image comprising grayscale information; A selective spatial frequency filtering sub-step of performing selective spatial frequency filtering selectively responding to a specific direction in the real space and a specific size in the real space; and in the image of the filtering result, a specific pixel and its surroundings. Averaging the result of the filtering in a window composed of a plurality of pixels and having a size proportional to the specific size of the real space, and averaging the averaged value in a specific window in the window. An averaging sub-step for outputting as a pixel feature, and at least two or more different selective spatial frequency filters A feature amount vector creating sub-step for creating a vector using the averaged output as a component of the feature amount of the specific pixel, and a feature amount obtained by the feature amount extracting step. Using a vector and a teacher signal indicating whether or not the pixel from which the vector is extracted is a specific part to be extracted in the input image, use a neural network to determine the correspondence between the feature amount vector and the teacher signal. A learning sub-step of inputting the feature vector to the neural network and outputting a signal indicating whether or not the pixel from which the feature vector is extracted is a specific part to be extracted in the image. And a learning recognition step comprising a sub-step.

【0026】この第1の方法の作用を説明する。この方
法は、後記の第1、第4の実施形態が対応する。特徴量
抽出ステップでは、まず、濃淡情報からなる入力画像を
入力し(画像入力サブステップ)、その入力画像に対
し、画像中の実空間における特定の方向と特定のサイズ
に選択的に反応する選択的空間周波数フィルタリングを
施す(選択的空間周波数フィルタリングサブステッ
プ)。この場合、実空間方向と実空間サイズを変えて複
数種類について施す。続いて、複数種類の各々の画像中
で、そのフィルタリング出力に対して平均化処理をする
(平均化サブステップ)。平均化処理では、ある特定の
画素とその周辺の複数の画素から構成されると共に、前
記の実空間の特定のサイズに比例した大きさを持つウィ
ンドー内で、前記フィルタリング出力を平均化し、その
値をウィンドー内の特定の画素の出力とする。この場
合、フィルタリング出力そのものを平均化してもよい
し、シグモイド関数を施したものを平均してもよい。ま
た、何れの場合も、平均する前に絶対値を取っておいて
もよい。以上のように平均化処理をした出力を、前記複
数種類のフィルターに応じて順番に並べることによりベ
クトルを作成し(特徴量ベクトル作成サブステップ)、
そのベクトルをその画素の持つ特徴量とする。以上が特
徴量抽出ステップの作用である。
The operation of the first method will be described. This method corresponds to first and fourth embodiments described later. In the feature amount extraction step, first, an input image composed of grayscale information is input (image input sub-step), and a selection is made for the input image to selectively react to a specific direction and a specific size in a real space in the image. Applying spatial frequency filtering (selective spatial frequency filtering sub-step). In this case, the processing is performed on a plurality of types by changing the real space direction and the real space size. Subsequently, an averaging process is performed on the filtering output in each of the plurality of types of images (averaging sub-step). In the averaging process, the filtering output is averaged in a window including a specific pixel and a plurality of pixels around the pixel, and having a size proportional to the specific size of the real space, and averaging the filtered output. Is the output of a particular pixel in the window. In this case, the filtering output itself may be averaged, or the sigmoid function may be averaged. In any case, the absolute value may be obtained before averaging. A vector is created by sequentially arranging the outputs subjected to the averaging process according to the plurality of types of filters (feature amount vector creation sub-step).
The vector is set as a feature amount of the pixel. The above is the operation of the feature amount extraction step.

【0027】続いて、この特徴量を用いて濃淡画像から
特定部位を抽出する。そのための学習認識ステップとし
て、学習と認識作用を有するニューラルネットワークを
用いる。すなわち、ニューラルネットワークの入力デー
タを特徴量抽出ステップで抽出した特徴量ベクトルと
し、教師信号を、そのベクトルが抽出された画素が画像
中で抽出すべき特定部位てあるか否かの信号とする。学
習時には、特徴量ベクトルと、そのベクトルが抽出され
た画素が画像中で抽出すべき特定部位であるか否かの教
師信号とをニューラルネットワークに同時に提示するこ
とによって、その対応関係を学習し(学習サブステッ
プ)、認識時には、特徴量ベクトルをニューラルネット
ワークに入力し、そのベクトルが抽出された画素が画像
中で抽出すべき特定部位であるかどうかの信号を出力す
る(認識サブステップ)。以上が、学習認識ステップの
作用である。
Subsequently, a specific part is extracted from the grayscale image by using the feature amount. As a learning / recognition step for this purpose, a neural network having learning and recognition actions is used. That is, the input data of the neural network is used as a feature vector extracted in the feature extraction step, and the teacher signal is used as a signal indicating whether or not the pixel from which the vector is extracted is a specific part to be extracted in the image. At the time of learning, the correspondence is learned by simultaneously presenting a feature amount vector and a teacher signal indicating whether or not the pixel from which the vector is extracted is a specific part to be extracted in the image to the neural network ( At the time of recognition, a feature vector is input to the neural network, and a signal is output as to whether the pixel from which the vector is extracted is a specific part to be extracted in the image (recognition substep). The above is the operation of the learning recognition step.

【0028】上記の特徴量抽出ステップにおいて、濃淡
画像の各画素から特徴量ベクトルを抽出し、その特徴量
ベクトルを用いて、学習認識ステップでそのベクトルが
抽出された画素が画像中で抽出すべき特定部位か否かの
信号を学習した後、認識することにより、濃淡画像から
特定部位を抽出することができる。
In the above-described feature amount extraction step, a feature amount vector is extracted from each pixel of the grayscale image, and the pixel from which the vector is extracted in the learning recognition step should be extracted in the image using the feature amount vector. By learning and recognizing a signal indicating whether or not a specific portion is present, the specific portion can be extracted from the grayscale image.

【0029】以上の作用をさらに具体的に説明する。ま
ず、特徴量抽出ステップについて説明する。画像中には
様々な実空間方向と実空間サイズを特徴とする部位が存
在するので、ある特定部位を抽出するためには、単純に
は特定の実空間方向と特定の実空間サイズに選択的に反
応する選択的空間周波数フィルターをかけて、その出力
を特徴量として取り出せばよい。ところが、一般には、
特定部位に反応する特定の実空間方向と特定の実空間サ
イズを予め決定しておくことは難しい。抽出したい特定
部位を示す実空間方向と実空間サイズが必ずしも一意的
に決まるとは限らないからである。そこで、特定の実空
間方向と特定の実空間サイズに選択的に反応する選択的
空間周波数フィルターをその特定の実空間方向と特定の
実空間サイズを変えて複数種類用意し、その複数種類の
フィルターに対する出力を用いれば、様々な構造の部位
を表すことが可能となり、したがって、画像中から出力
したい特定部位を抽出できることになる。ある特定部位
を抽出するには、選択的空間周波数フィルターとして、
例えは実空間で図10(a)のような形を持つフィルタ
ーにすればよい。図10(a)の山の裾野の広がりの大
小と、反応する特定の実空間サイズの大小は比例関係に
あり、また、その山の向き(図10(a)中の太い矢印
方向)が反応する特定の実空間方向に相当する。
The above operation will be described more specifically. First, the feature amount extraction step will be described. In the image, there are parts characterized by various real space directions and real space sizes, so to extract a specific part, simply select a specific real space direction and a specific real space size. May be applied as a feature quantity by applying a selective spatial frequency filter that responds to the above. However, in general,
It is difficult to determine in advance a specific real space direction and a specific real space size that react to a specific site. This is because the real space direction indicating the specific part to be extracted and the real space size are not always uniquely determined. Therefore, a plurality of types of selective spatial frequency filters that selectively respond to a specific real space direction and a specific real space size are prepared by changing the specific real space direction and the specific real space size, and the plural types of filters are prepared. By using the output for, it is possible to represent sites having various structures, and therefore, it is possible to extract a specific site to be output from the image. To extract a specific part, as a selective spatial frequency filter,
For example, a filter having a shape as shown in FIG. The magnitude of the extent of the foot of the mountain in FIG. 10A is proportional to the magnitude of the specific real space size that reacts, and the direction of the mountain (the direction of the thick arrow in FIG. 10A) is a response. Corresponding to a specific real space direction.

【0030】さらに、前記の複数種類の出力は、そのま
ま最終的な特徴量ベクトルの成分となるのではなく、そ
の前に平均化処理を行う。前記のフィルターは微分作用
を有するかなり局所的なフィルターである。特定部位
は、画像中である程度の大きさを持つ部位であるので、
局所的な特徴量よりも、画像中である程度の大きさを持
つウィンドー内でのグローバルな特徴量の方が特定部位
の特徴を良く表すと言える。局所的な特徴量をウィンド
ー内でのグローバルな特徴量にするには、画像中のウィ
ンドー内でその特徴量を平均化すればよい。この場合、
出力そのものを平均してもよいし、出力にシグモイド関
数を施したものを平均してもよい。また、何れの場合
も、平均する前に絶対値を取っておいてもよい。絶対値
を取ると、微分結果の正負を考慮しないことに相当す
る。塊状陰影を抽出するような場合は、塊状陰影の境界
の左右を区別する必要はないので、このようにしておく
方がよい。また、絶対値を取ると、ウィンドー内での変
動の絶対量を抽出できるので、よりグローバルな特徴量
を抽出できる。また、ウィンドーの大きさは、Gabo
rfilterの実空間サイズの大きさに比例して変化
させるとよい。すなわち、例えば、画像中の実空間サイ
ズの大きなものに反応するフィルターをかける場合は、
平均化処理も大きなウィンドーで行う方が精度良く特徴
が抽出できるし、実空間サイズが小さなものに反応する
フィルターをかける場合は、平均化処理も小さなウィン
ドーで行う方がよい。
Further, the plurality of types of outputs are not directly used as components of the final feature amount vector, but are subjected to an averaging process before that. Said filter is a fairly local filter with a differentiating action. Since the specific part is a part having a certain size in the image,
It can be said that a global feature value in a window having a certain size in an image expresses a feature of a specific portion better than a local feature value. In order to make the local feature amount a global feature amount in the window, the feature amount may be averaged in the window in the image. in this case,
The output itself may be averaged, or the output obtained by applying a sigmoid function to the output may be averaged. In any case, the absolute value may be obtained before averaging. Taking the absolute value is equivalent to not considering the positive or negative of the differential result. In the case where a massive shadow is extracted, it is not necessary to distinguish between the left and right of the boundary of the massive shadow. Further, when the absolute value is obtained, the absolute amount of variation in the window can be extracted, so that a more global feature amount can be extracted. The size of the window is Gabo
The rfilter may be changed in proportion to the real space size. That is, for example, when applying a filter that responds to a large real space size in an image,
If the averaging process is also performed with a large window, the feature can be extracted with higher accuracy. When a filter that responds to an object with a small real space size is applied, the averaging process is preferably performed with a small window.

【0031】以上、特徴量抽出ステップについて説明し
た。特徴量として、複数種類の特定の実空間方向と特定
の実空間サイズに選択的に反応するフィルターの出力を
用いるので、様々な構造の部位を表すことが可能にな
る。また、画像中のウィンドー内で平均化してあるの
で、画像中である程度の大きさを持つ部位の特徴を良く
表すことができる。また、様々な構造の部位を表すこと
ができるので、塊状陰影だけでなく、塊状陰影以外の構
造の特定部位も表すことが可能である。
The feature extraction step has been described above. Since the output of a filter that selectively responds to a plurality of types of specific real space directions and specific real space sizes is used as the feature amount, it is possible to represent sites having various structures. In addition, since the image is averaged in the window in the image, the feature of a part having a certain size in the image can be well represented. Also, since various structural parts can be represented, it is possible to represent not only massive shadows but also specific parts of structures other than massive shadows.

【0032】なお、図10(a)、(b)の特定の実空
間方向と特定の実空間サイズに選択的に反応するフィル
ターは、図10(c)のように、周波数空間で単純な開
口状のものを用いてもよい。コンボリューション積は、
周波数空間では単純な積になるので、コンボリューショ
ン積の実行は周波数空間で行われることがよく行われ
る。したがって、周波数空間でのフィルター形状が単純
な方が、例えばハードウエア上でこの処理を実現するよ
うな場合、フィルターの設計が容易であるという利点を
持つ。また、図10(c)のような形状の場合、実空間
では図10(a)の場合より局在性が小さく、画像中で
より広い範囲の情報を抽出するフィルターになる。すな
わち、画像中でグローバルな特徴量になるので、画像の
特定部位を抽出するような場合により有効になる。
The filters selectively responding to a specific real space direction and a specific real space size shown in FIGS. 10A and 10B have a simple aperture in the frequency space as shown in FIG. 10C. May be used. The convolution product is
The execution of the convolution product is often performed in the frequency space, since it is a simple product in the frequency space. Therefore, the simpler filter shape in the frequency space has an advantage that the filter design is easier when this processing is realized on hardware, for example. In the case of the shape as shown in FIG. 10C, the locality is smaller in the real space than in the case of FIG. 10A, and the filter extracts a wider range of information in the image. That is, since the feature amount becomes a global feature amount in the image, it is more effective when a specific part of the image is extracted.

【0033】続いて、学習認識ステップで用いるニュー
ラルネットワークについて説明する。学習と認識作用を
有するニューラルネットワークは、様々な入出力関係を
精度良く学習できるアルゴリズムとして知られ、特に入
力がベクトルのとき、従来よく用いられる最小二乗法等
の関数近似に比べて、精度が良いと言われている。
Next, a neural network used in the learning recognition step will be described. A neural network having learning and recognition functions is known as an algorithm capable of learning various input / output relations with high accuracy. Particularly when the input is a vector, the neural network has higher accuracy than a function approximation such as a least squares method which is conventionally often used. It is said that.

【0034】学習時に、入力データとその入力データに
対する教師信号をニューラルネットワークに同時に提示
することによって、その対応関係を学習し、認識時には
入力データをニューラルネットワークに入力し、学習し
た対応関係に基づいて信号を出力する。学習アルゴリズ
ムとしては、例えば、バックプロパゲーション法(以下
では、BP法と略す。)を用いればよい(D.E.Rumelhar
t,G.E.Hinton and R.J.Williams:Learning representat
ion by back-propagating errors,Nature,1986a )。
At the time of learning, input data and a teacher signal corresponding to the input data are simultaneously presented to the neural network to learn the corresponding relationship. At the time of recognition, the input data is input to the neural network, and based on the learned correspondence, Output a signal. As the learning algorithm, for example, a back propagation method (hereinafter abbreviated as BP method) may be used (DERumelhar
t, GEHinton and RJWilliams: Learning representat
ion by back-propagating errors, Nature, 1986a).

【0035】BP法の学習アルゴリズムについて、簡単
に説明する。入力層と中間層と出力層からなる階層型ニ
ューラルネットワークを考える。入力層と中間層と出力
層には信号処理を行う素子が存在する。一般的に、入力
値を入力する素子の層を入力層、出力値を取り出す素子
の層を出力層と呼び、それ以外の素子の層を中間層と呼
ぶ。出力層と中間層の素子はそれぞれ前層の素子と結合
しており、それぞれの結合には結合荷重値が割り当てら
れる。出力層と中間層の素子には、前層の各素子の出力
に結合荷重値を掛けた値が入力され、その総和が計算さ
れる。場合により、素子に固有の値であるバイアス項を
持たせて、これに総和を加算してもよい。得られた総和
の値に対し入出力関数と呼ばれる関数を施した結果がそ
の素子の出力値となる。結合荷重値とバイアスの値を様
々な値に設定することにより、求めたい入出力関係をニ
ューラルネットワークに学習させることができる。学習
の方法としては、ある入力に対する望ましい出力(教師
信号と呼ばれる。)と、出力層の実際の出力との二乗誤
差を最小化するようにすればよい。BP法は、二乗誤差
が最小となるように、ネットワークの結合荷重値とバイ
アス値を変更するアルゴリズムである。
The learning algorithm of the BP method will be briefly described. Consider a hierarchical neural network consisting of an input layer, a hidden layer, and an output layer. Elements for performing signal processing exist in the input layer, the intermediate layer, and the output layer. Generally, a layer of an element for inputting an input value is called an input layer, a layer of an element for extracting an output value is called an output layer, and layers of other elements are called an intermediate layer. The elements of the output layer and the intermediate layer are respectively coupled to the elements of the preceding layer, and a coupling weight value is assigned to each of the couplings. A value obtained by multiplying the output of each element of the preceding layer by the coupling load value is input to the elements of the output layer and the intermediate layer, and the sum is calculated. In some cases, the element may have a bias term which is a unique value, and the sum may be added thereto. The result of performing a function called an input / output function on the obtained sum value is the output value of the element. By setting the value of the connection weight and the value of the bias to various values, it is possible to make the neural network learn the input / output relationship to be obtained. As a learning method, a square error between a desired output for a certain input (called a teacher signal) and an actual output of the output layer may be minimized. The BP method is an algorithm that changes the network connection weight value and the bias value so that the square error is minimized.

【0036】以上のようなBP法を、学習と認識作用を
有するニューラルネットワークとして用い、前述した特
徴量抽出ステップで抽出した特徴量を用いて学習と認識
を行う。その場合、特徴量ベクトルを入力層への入力と
し、例えば認識すべきクラス数を2として、BP法の教
師信号、すなわち出力層が出すべき望ましい出力を1と
0にし、1がそのベクトルが抽出したい特定部位内から
抽出されたもの、0がそのベクトルが抽出したい特定部
位外から抽出されたものとすればよい。
The BP method as described above is used as a neural network having learning and recognition functions, and learning and recognition are performed using the feature values extracted in the above-described feature value extraction step. In this case, the feature amount vector is used as an input to the input layer. For example, the number of classes to be recognized is set to 2, the teacher signal of the BP method, that is, the desired output to be output from the output layer is set to 1 and 0, and 1 is the vector extracted. What is necessary is that the vector extracted from the inside of the specific part to be extracted, and 0 is the vector extracted from outside the specific part to be extracted.

【0037】学習と認識作用を有するニューラルネット
ワークは、学習時に入力と対応する教師信号を与えるこ
とにより、入出力の様々な非線形の対応関係を学習でき
る性質があるので、特徴量ベクトル群が明確に分類でき
るクラスタを持たない場合にも、抽出したい特定部位を
表す特徴量ベクトル群からなるクラスタを分類し、抽出
することが可能となる。
A neural network having learning and recognition functions has a property of learning various non-linear correspondences between input and output by providing a teacher signal corresponding to an input at the time of learning. Even when there is no cluster that can be classified, it is possible to classify and extract a cluster consisting of a feature vector group representing a specific part to be extracted.

【0038】本発明の以上の第1の方法によると、濃淡
画像からの特徴量として、複数種類の特定の実空間方向
と特定の実空間サイズに選択的に反応するフィルターの
出力を用いており、かつ、画像中で設定したウィンドー
内で平均化しているので、濃淡画像から塊状陰影で示さ
れる特定部位も、塊状陰影以外の構造で示される特定部
位も精度良く抽出することができる。また、特徴量を学
習認識する学習認識ステップとして、学習と認識作用を
有するニューラルネットワークを用いているので、特徴
量ベクトル群が明確に分類できるクラスタを持たない場
合にも、抽出したい特定部位を表す特徴量ベクトル群か
らなるクラスタを特徴量空間で分類し、抽出することが
できる。したがって、X線画像の塊状陰影のように、画
像中で明確な基本構造や配列を持たないためにその部位
を明確に分類することが困難な場合にも、精度良くその
部位を抽出することができる。
According to the first method of the present invention, the output of a filter selectively reacting to a plurality of specific real space directions and a specific real space size is used as a feature amount from a grayscale image. In addition, since the image is averaged in the window set in the image, it is possible to accurately extract a specific portion represented by a massive shadow and a specific portion represented by a structure other than the massive shadow from the grayscale image. In addition, since a neural network having learning and recognition functions is used as a learning and recognition step for learning and recognizing a feature, even if the feature vector group does not have a cluster that can be clearly classified, it represents a specific part to be extracted. Clusters composed of feature amount vector groups can be classified and extracted in the feature amount space. Therefore, even when it is difficult to clearly classify the site because it does not have a clear basic structure or arrangement in the image, such as a massive shadow of an X-ray image, it is possible to accurately extract the site. it can.

【0039】本発明の第2の方法は、第1の方法におい
て、前記学習認識ステップで用いるニューラルネットワ
ークが、前記の特徴量ベクトルと前記ニューラルネット
ワークに設定されている重みベクトル群の類似度を計算
して、学習あるいは認識を行うニューラルネットワーク
であり、前記学習認識ステップが、少なくとも一つの重
みベクトルに抽出すべき特定部位を示すラベルを予め付
与するラベル付与サブステップを備え、前記特徴量ベク
トルと前記重みベクトル群の類似度を計算する類似度計
算サブステップと、前記の類似度の大きな重みベクトル
を選択する重みベクトル選択サブステップと、その選択
された重みベクトルに付与されたラベルを検出するラベ
ル検出サブステップと、そのラベルと前記教師信号とを
用いて前記重みベクトルを更新する重みベクトル更新サ
ブステップとからなり、前記特徴量ベクトルと前記教師
信号との対応関係を学習する学習サブステップと、前記
特徴量ベクトルと前記重みベクトル群の類似度を計算す
る類似度計算サブステップと、前記の類似度の大きな重
みベクトルを選択する重みベクトル選択サブステップ
と、その重みベクトルに付与されたラベルを検出するラ
ベル検出サブステップとからなり、前記特徴量ベクトル
が抽出された画素が画像中で抽出すべき特定部位である
か否かの信号を出力する認識サブステップと、からなる
ことを特徴とする方法である。
According to a second method of the present invention, in the first method, the neural network used in the learning / recognition step calculates a similarity between the feature amount vector and a weight vector group set in the neural network. A neural network for learning or recognizing, wherein the learning and recognizing step includes a labeling sub-step of pre-applying a label indicating a specific part to be extracted to at least one weight vector, wherein the feature amount vector and the A similarity calculation sub-step for calculating the similarity of the weight vector group, a weight vector selection sub-step for selecting the weight vector having the large similarity, and a label detection for detecting a label assigned to the selected weight vector Sub-step, and using the label and the teacher signal, A weight vector updating sub-step of updating the torque vector, a learning sub-step of learning a correspondence relationship between the feature amount vector and the teacher signal, and a similarity calculating a similarity between the feature amount vector and the weight vector group. A calculation sub-step, a weight vector selection sub-step for selecting a weight vector having a large similarity, and a label detection sub-step for detecting a label assigned to the weight vector, wherein the feature amount vector is extracted. A recognition sub-step of outputting a signal indicating whether or not the pixel is a specific part to be extracted in the image.

【0040】この第2の方法の作用を説明する。この方
法は、後記の第1、第4の実施形態が対応する。第1の
方法のニューラルネットワークとして、特徴量抽出ステ
ップにおいて抽出された特徴量ベクトルとニューラルネ
ットワークに設定された重みベクトル群の類似度を計算
して、学習あるいは認識を行うニューラルネットワーク
を用意する。その際、少なくとも一つの重みベクトルに
特定部位を示すラベルを予め付与しておく(ラベル付与
サブステップ)。
The operation of the second method will be described. This method corresponds to first and fourth embodiments described later. As a neural network of the first method, a neural network for learning or recognition is prepared by calculating the similarity between the feature vector extracted in the feature extraction step and the weight vector set in the neural network. At this time, a label indicating a specific portion is assigned to at least one weight vector in advance (label assignment sub-step).

【0041】このニューラルネットワークは、学習時及
び認識時に、何れも基本操作として、第1の方法の特徴
量抽出ステップで抽出された特徴量ベクトルに対し、ニ
ューラルネットワークに設定された各重みベクトルとの
類似度を計算して、類似度の最も大きい重みベクトルを
選択し、その重みベクトルの持つラベルを出力する作用
を持つ。
In this neural network, at the time of learning and at the time of recognition, as a basic operation, the feature vector extracted in the feature extracting step of the first method is compared with each weight vector set in the neural network. It has the effect of calculating the similarity, selecting the weight vector having the highest similarity, and outputting the label of the weight vector.

【0042】学習時には、上記特徴量抽出ステップで抽
出された特徴量ベクトルと、その特徴量ベクトルが抽出
された画素が画像中の特定部位か否かの教師信号とをニ
ューラルネットワークに提示することにより、特定部位
の画素から抽出された特徴量ベクトルが入力されたとき
に、上記特定部位を示すラベル付けがされた重みベクト
ルが選択されるように、重みベクトルを更新(ベクトル
の成分の変更)する(学習サブステップ)。
At the time of learning, the feature vector extracted in the feature extraction step and a teacher signal indicating whether or not the pixel from which the feature vector is extracted is a specific part in the image are presented to the neural network. When the feature vector extracted from the pixel of the specific part is input, the weight vector is updated (the component of the vector is changed) so that the weight vector labeled with the specific part is selected. (Learning sub-step).

【0043】認識時には、第1の方法の特徴量抽出ステ
ップで抽出された特徴量ベクトルを入力したときに、上
記の類似度の大きな重みベクトルを選択し、その重みベ
クトルの持つラベルを出力することにより、そのベクト
ルが抽出された画素が画像中の特定部位か否かを出力す
る(認識サブステップ)。以上の操作により、濃淡画像
から特定部位を抽出する。
At the time of recognition, when the feature amount vector extracted in the feature amount extraction step of the first method is input, the above-described weight vector having a large similarity is selected, and the label of the weight vector is output. Outputs whether or not the pixel from which the vector is extracted is a specific part in the image (recognition sub-step). By the above operation, a specific part is extracted from the grayscale image.

【0044】次に、特徴量ベクトルと重みベクトル群の
類似度を計算して、学習あるいは認識を行うニューラル
ネットワークについて、具体的に説明する。まず、その
概念を大まかに説明すると、学習時には、特徴量ベクト
ルに相当する入力ベクトルとその入力ベクトルがどのク
ラスに属するかの情報(ラベル)を用いて、重みベクト
ルを適当に更新し、認識時には入力ベクトルがどの重み
ベクトルに属するかを決めることにより、クラス分類を
行う。入力ベクトルがどの重みベクトルに属するかは、
その入力ベクトルと各重みベクトルの類似度を計算し、
最も近いものを属する重みベクトルとすることよって行
う。重みベクトルには予めクラス毎のラベルを付与して
おき、入力ベクトルが属する重みベクトルのクラスを入
力ベクトルのクラスにすることによって、入力ベクトル
のクラス分類が行われることになる。類似度としては、
ベクトル間の距離が用いられることが多い。
Next, a neural network for learning or recognizing by calculating the similarity between the feature vector and the weight vector group will be specifically described. First, the concept is roughly explained. At the time of learning, a weight vector is appropriately updated using an input vector corresponding to a feature vector and information (label) indicating to which class the input vector belongs. Classification is performed by determining which weight vector the input vector belongs to. Which weight vector the input vector belongs to
Calculate the similarity between the input vector and each weight vector,
This is performed by using the closest one as the weight vector to which the closest one belongs. The weight vector is assigned a label for each class in advance, and the class of the input vector belongs to the class of the input vector, whereby the class classification of the input vector is performed. As the similarity,
The distance between vectors is often used.

【0045】具体的な学習認識のアルゴリズムをまとめ
ると、次のようになる。 C−1)重みベクトルを大まかに配置する(初期化に相
当する)。 C−2)クラスの分かっているラベル付き入力ベクトル
を用いて重みベクトルをラベル付けする。 C−3)ラベル付けされた重みベクトルを入力ベクトル
を用いて逐次更新する。図7に、重みベクトルと入力デ
ータの関係を2次元ベクトルデータとして示してある。
The specific learning recognition algorithm can be summarized as follows. C-1) The weight vectors are roughly arranged (corresponding to initialization). C-2) Label the weight vectors using labeled input vectors of known class. C-3) Update the labeled weight vector sequentially using the input vector. FIG. 7 shows the relationship between the weight vector and the input data as two-dimensional vector data.

【0046】上記のC−2)が、第2の方法の「少なく
とも一つの重みベクトルに抽出すべき特定部位を示すラ
ベルを予め付与するラベル付与サブステップ」という部
分に対応し、C−3)が、「前記特徴量ベクトルと前記
重みベクトル群の類似度を計算する類似度計算サブステ
ップと、前記の類似度の大きな重みベクトルを選択する
重みベクトル選択サブステップと、その選択された重み
ベクトルに付与されたラベルを検出するラベル検出サブ
ステップと、そのラベルと前記教師信号とを用いて前記
重みベクトルを更新する重みベクトル更新サブステップ
とからなり、前記特徴量ベクトルと前記教師信号との対
応関係を学習する学習サブステップ」という部分に対応
している。
The above-mentioned C-2) corresponds to the portion of the second method "labeling sub-step of pre-assigning a label indicating a specific portion to be extracted to at least one weight vector", and C-3). Is a similarity calculation sub-step of calculating the similarity between the feature amount vector and the weight vector group, a weight vector selection sub-step of selecting the weight vector having a large similarity, and the selected weight vector A label detecting sub-step of detecting the assigned label, and a weight vector updating sub-step of updating the weight vector using the label and the teacher signal, wherein a correspondence relationship between the feature amount vector and the teacher signal is provided. Learning sub-step for learning ".

【0047】C−1)の重みベクトルを大まかに配置す
る方法としては、ランダムにベクトルを発生させたり、
特殊なベクトル量子化法(例えば、Self-organizing ma
p ,以下、SOMとも略す。T.Kohonen,Self-Organizin
g and Associative Memory,Third Edition,Springer-Ve
rlag,Berlin,1989)を使ってもよい。
As a method of roughly arranging the weight vectors of C-1), vectors may be randomly generated,
A special vector quantization method (for example, Self-organizing ma
p, hereinafter also abbreviated as SOM. T.Kohonen, Self-Organizin
g and Associative Memory, Third Edition, Springer-Ve
rlag, Berlin, 1989).

【0048】C−2)のラベル付けとしては、例えば、
クラスの分かっているラベル付き入力データと各重みベ
クトルの類似度を計算して、最も類似度の大きい重みベ
クトルに対し、その入力データのクラスのラベルを付与
すればよい。以下では、これを標準ラベル付け法とも呼
ぶことにする。
As the labeling of C-2), for example,
The similarity between the labeled input data whose class is known and each weight vector is calculated, and the weight vector having the highest similarity may be labeled with the class of the input data. Hereinafter, this is also referred to as a standard labeling method.

【0049】C−3)の重みベクトルの更新には、例え
ば、Learning Vector quantiz
ation法(以下、LVQ法と略す。)(T.Kohonen,
Self-Organizing and Associative Memory,Third Editi
on,Springer-Verlag,Berlin,1989)を用いればよい。L
VQ法は、以下の(15)、(16)式で示される。
The updating of the weight vector in C-3) is performed, for example, by learning vector quantization.
nation method (hereinafter abbreviated as LVQ method) (T. Kohonen,
Self-Organizing and Associative Memory, Third Editi
on, Springer-Verlag, Berlin, 1989). L
The VQ method is represented by the following equations (15) and (16).

【0050】 〔更新〕 mC (t+1)=mC (t)+α(t){x(t)−mC (t)} at Class(x(t))=Class(mC (t)) mC (t+1)=mC (t)−α(t){x(t)−mC (t)} at Class(x(t))≠Class(mC (t)) mi (t+1)=mi (t) at i≠C ・・・(16) ここで、xは入力ベクトル、mi は重みベクトル、|x
−mi |はxとmi のユークリッド距離、添字Cはその
距離が最も小さかった素子(勝利素子、すなわち、mC
は最も類似度の高い重みベクトル)、Class(x
(t))、class(mC (t))はそれぞれx、m
C の属するクラス、α(t)は正の定数、tは更新回数
を示す。更新を繰り返しながら、α(t)の大きさを徐
々に小さくする。
[0050] [Update] m C (t + 1) = m C (t) + α (t) {x (t) −m C (t)} at Class (x (t)) = Class (m C (t)) m C ( t + 1) = m C (t) −α (t) {x (t) −m C (t)} at Class (x (t)) ≠ Class (m C (t)) mi (t + 1) = mi (T) at i ≠ C (16) where x is an input vector, mi is a weight vector, | x
-M i | x and the Euclidean distance m i, subscript C is the distance is smallest was elements (winner element, i.e., m C
Is the weight vector with the highest similarity), Class (x
(T)) and class (m C (t)) are x and m, respectively.
The class to which C belongs, α (t) is a positive constant, and t indicates the number of updates. While repeating updating, the magnitude of α (t) is gradually reduced.

【0051】定性的に(15)、(16)式を説明す
る。まず、入力ベクトルxに最も近い重みベクトルmC
を選ぶ((15)式)。次に、その重みベクトルmC
属するクラスと入力ベクトルxの属するクラスが同じ場
合は、その重みベクトルを入力ベクトルの方に近づけ
((16)式中の第1式)、異なる場合は遠ざける
((16)式中の第2式)ことを行う。mC 以外の重み
ベクトルは更新しない((16)式中の第3式)。この
作用により、認識率が高くなるように分類境界が調整さ
れることになる。なお、学習時に入力ベクトルxの属す
るクラスの情報(ラベル)を与えているので、これが教
師信号に対応している。
The equations (15) and (16) will be described qualitatively. First, the weight vector m C closest to the input vector x
Is selected (Equation (15)). Next, when the class to which the weight vector m C belongs and the class to which the input vector x belongs are the same, the weight vector is brought closer to the input vector (the first expression in the expression (16)), and if different, the distance is moved away ( (The second expression in the expression (16)). Weight vectors other than m C are not updated (third expression in expression (16)). By this operation, the classification boundary is adjusted so that the recognition rate is increased. Since information (label) of the class to which the input vector x belongs is given at the time of learning, this corresponds to the teacher signal.

【0052】前述したBP法は、結合荷重値の複雑な組
み合わせで、複雑な非線形の入出力関係を実現しようと
する方法であるが、本方法の特徴量ベクトルと重みベク
トル群の類似度を計算して、学習るあいは認識を行うニ
ューラルネットワークは、重みベクトルの配置により非
線形境界を作成する方法であり、より複雑な非線形境界
を作成することが可能である。かつ、その配置の方法も
非常に単純である。したがって、前記のBP法を用いた
ニューラルネットワークよりクラスの境界を容易にかつ
精度良く求められるという利点がある。また、医用画像
はいろいろな症例の画像があり、学習後にさらに追加学
習をする必要がある。本ニューラルネットワークは、例
えば重みベクトルの追加等の方法で簡単に追加学習が可
能であり、その点でもBP法より有効である。
The BP method described above is a method for realizing a complicated non-linear input / output relationship by a complicated combination of connection weight values. However, the similarity between a feature vector and a weight vector group of the present method is calculated. The neural network that performs recognition during learning is a method of creating a nonlinear boundary by arranging weight vectors, and can create a more complicated nonlinear boundary. In addition, the arrangement method is very simple. Therefore, there is an advantage that the class boundary can be easily and accurately obtained as compared with the neural network using the BP method. Further, medical images include images of various cases, and it is necessary to perform additional learning after learning. The neural network can easily perform additional learning by a method such as adding a weight vector, and is also more effective than the BP method.

【0053】なお、C−1)の重みベクトルを大まかに
配置するときに、教師なしニューラルネットワークとし
て知られているSOMを使うと、重みベクトルの分布と
特徴量ベクトルの分布が近似的に一致するように、重み
ベクトルが配置されるので、その後に学習する際に、ク
ラスの分類境界が精度良く求めやすくなり、かつ、学習
の収束も速くなる。
When the weight vector of C-1) is roughly arranged, if the SOM known as an unsupervised neural network is used, the distribution of the weight vector approximately matches the distribution of the feature amount vector. As described above, since the weight vectors are arranged, when learning is performed later, it becomes easier to accurately determine the class classification boundary, and the convergence of the learning also becomes faster.

【0054】本発明の以上の第2の方法によると、特徴
量ベクトルと重みベクトル群の類似度を計算して、学習
あるいは認識を行うニューラルネットワークを用いてい
るので、特徴量ベクトル空間内で抽出したい特定部位を
示すベクトル群をさらに精度良く、かつ、容易に分類し
抽出することができる。したがって、画像中での特定部
位をさらに精度良く容易に抽出することができる。
According to the second method of the present invention, since the neural network for learning or recognizing by calculating the similarity between the feature vector and the weight vector group is used, it is extracted in the feature vector space. A vector group indicating a specific part to be obtained can be classified and extracted more accurately and easily. Therefore, the specific part in the image can be more easily and accurately extracted.

【0055】本発明の第3の方法は、第1又は第2の方
法において、前記特徴量抽出ステップが、前記特徴量ベ
クトルの各成分のダイナミックレンジを揃えるため、さ
らに、ダイナミックレンジ調節サブステップを有してい
ることを特徴とする方法である。
A third method of the present invention is the method according to the first or second method, wherein the feature amount extracting step includes a dynamic range adjusting sub-step in order to make a dynamic range of each component of the feature amount vector uniform. It is a method characterized by having.

【0056】この第3の方法の作用を説明する。この方
法は、後記の第2の実施形態が対応する。第1、第2の
方法において、特徴量抽出ステップにおいて求められる
特徴量ベクトルの各成分のダイナミックレンジを備えて
から(ダイナミックレンジ調節サブステップ)、学習認
識ステップに入力する。ここで、ダイナミックレンジを
揃えるとは、出力するデータの成分毎の取り得る範囲を
大まかに一致させておくことを意味する。したがって、
各成分のダイナミックレンジを揃える方法としては、種
々の方法が考えられ、各成分毎の取り得る最大値を一定
にすることにしてもよいし((17式))、最大値と最
小値を一定にすることにしてもよい((18)式)。ま
た、各成分毎の平均値を一定にすることにしてもよい
((19)式)。
The operation of the third method will be described. This method corresponds to a second embodiment described later. In the first and second methods, after the dynamic range of each component of the feature vector obtained in the feature extraction step is provided (dynamic range adjustment sub-step), the dynamic range is input to the learning recognition step. Here, to make the dynamic range uniform means to roughly match the possible range for each component of the output data. Therefore,
Various methods can be considered as a method of equalizing the dynamic range of each component. The maximum value that can be taken for each component may be made constant (Equation 17), or the maximum value and the minimum value may be made constant. (Equation (18)). Further, the average value of each component may be fixed (Equation (19)).

【0057】 ただし、nを成分数として、ダイナミックレンジを揃え
る前の入力ベクトルをiX=( i1 i2 ,・・・
・, in )、揃えた後の入力ベクトルを i' =( i
1 ' i2 ' ,・・・・, in ' )、iはベクト
ルに付けた番号(i=1〜k)、jはベクトルの成分に
つけた番号(j=1〜n)とした。
[0057] However, n as the number of components, the input vector before aligning the dynamic range i X = (i X 1, i X 2, ···
, I X n ), and the aligned input vector is given by i X = ( i
X 1 , i X 2 ,..., I Xn ), i is the number assigned to the vector (i = 1 to k), and j is the number assigned to the vector component (j = 1 to n) And

【0058】各特徴ベクトルの成分は画像の持つ高周波
成分や低周波成分を反映している。したがって、本発明
の以上の第3の方法により、特徴量抽出ステップにおい
て求められる特徴量ベクトルの各成分のダイナミックレ
ンジを揃えることにより、その後の学習認識ステップに
おいて、画像中の低周波成分も高周波成分も同様に分類
に寄与するようになる。よって、画像中の低周波成分も
高周波成分も用いたより汎用性の高い画像からの特定部
位抽出が可能になる。
The components of each feature vector reflect the high-frequency components and low-frequency components of the image. Therefore, according to the third method of the present invention, the dynamic range of each component of the feature amount vector obtained in the feature amount extracting step is made uniform, so that in the subsequent learning and recognition step, the low-frequency component and the high-frequency component in the image are removed. Also contributes to the classification. Therefore, it is possible to extract a specific portion from a more versatile image using both low-frequency components and high-frequency components in the image.

【0059】本発明の第4の方法は、第2の方法におい
て、前記ラベル付与サブステップが、入力画像中での抽
出したい特定部位の大きさの比率に応じて、抽出したい
特定部位を示すラベルが付与される重みベクトルの数が
占める比率を変動させることを特徴とする方法である。
According to a fourth method of the present invention, in the second method, the label assigning sub-step further comprises the step of: labeling the specific portion to be extracted according to a ratio of the size of the specific portion to be extracted in the input image. Is varied by varying the ratio of the number of weight vectors to which the weight vector is assigned.

【0060】この第4の方法の作用を説明する。この方
法は、後記の第3の実施形態が対応する。第2の方法の
ニューラルネットワークにおいて、重みベクトル群に予
めラベルを付与する場合に、画像中に占める抽出したい
特定部位の大きさの比率に応じて、特定部位を示すラベ
ルが付与される重みベクトル数が占める比率を変動させ
る。
The operation of the fourth method will be described. This method corresponds to a third embodiment described later. In the neural network of the second method, when a label is assigned to a weight vector group in advance, the number of weight vectors to which a label indicating a specific portion is assigned according to the ratio of the size of the specific portion to be extracted in the image The ratio occupied by.

【0061】この方法の有効性を具体的に説明する。濃
淡画像から抽出する特定部位の全画像中に対する面積比
は一般に小さい。したがって、抽出したい特定部位から
抽出される特徴量ベクトルの数は、特定部位以外から抽
出される特徴量ベクトル数に比べて少ない。よって、こ
のような場合、入力ベクトルデータ(特徴量ベクトルに
相当する。)の個数がクラス毎に大きく異なっていると
言える。
The effectiveness of this method will be specifically described. In general, the area ratio of the specific portion extracted from the grayscale image to the entire image is small. Therefore, the number of feature vectors extracted from a specific part to be extracted is smaller than the number of feature vectors extracted from parts other than the specific part. Therefore, in such a case, it can be said that the number of input vector data (corresponding to a feature amount vector) greatly differs for each class.

【0062】前述のように、第2の方法で用いるニュー
ラルネットワークにおいては、予めラベル付けを行う
が、入力ベクトルデータの個数がクラス毎に大きく異な
るような場合、データの個数が少ないクラスのラベルが
付与される重みベクトル数が少なくなるため、学習時に
クラスを分ける境界を入力ベクトルデータに対して精度
良く作成することが困難になり、十分な認識率が得られ
ない場合がある。このように、入力ベクトルデータの個
数がクラス毎に大きく異なる場合、学習のアルゴリズム
を変更して認識率を向上させる方法が、特開平4−25
9000号に開示されている。この方法は、入力ベクト
ルデータの個数がクラス毎に大きく異なるような場合
に、学習方法を変更しているが、ラベル付けという過程
に関しては考慮していない。入力ベクトルデータの個数
が少ないために、そのクラスを示すラベルが付与される
重みベクトルの数が少ないと、学習において工夫して
も、十分な認識率が得られない場合がある。
As described above, in the neural network used in the second method, labeling is performed in advance, but when the number of input vector data greatly differs from class to class, a label of a class having a small number of data is assigned. Since the number of weight vectors to be given is small, it becomes difficult to accurately create a boundary for classifying the input vector data during learning, and a sufficient recognition rate may not be obtained. As described above, when the number of input vector data greatly differs from class to class, a method for improving the recognition rate by changing the learning algorithm is disclosed in Japanese Patent Laid-Open No. 4-25 / 1990.
No. 9000. This method changes the learning method when the number of input vector data greatly differs from class to class, but does not consider the labeling process. Since the number of input vector data is small, if the number of weight vectors to which a label indicating the class is given is small, a sufficient recognition rate may not be obtained even if the learning is devised.

【0063】そこで、入力ベクトルデータの個数がクラ
ス毎に大きく異なるような場合、クラスに属する入力ベ
クトルデータの個数に応じて、そのクラスのラベルが付
与される重みベクトルの数を変動させるようにすればよ
い。例えば、入力ベクトルデータの個数が少ない場合に
は、そのクラスのラベルが付与される重みベクトルの数
を増加させ、入力ベクトルデータの個数が多い場合に
は、逆にそのクラスのラベルが付与される重みベクトル
の数を減少させればよい。クラスに属する入力ベクトル
データの個数の大小に関わらず、各クラス毎に重みベク
トルは十分用意できるので、学習時に入力ベクトルデー
タ空間内でクラスを分ける境界を精度良く作成すること
が可能になる。
Therefore, when the number of input vector data greatly differs from class to class, the number of weight vectors to which labels of the class are assigned is changed according to the number of input vector data belonging to the class. I just need. For example, when the number of input vector data is small, the number of weight vectors to which the label of the class is given is increased, and when the number of input vector data is large, the label of the class is given conversely. What is necessary is just to reduce the number of weight vectors. Regardless of the magnitude of the number of input vector data belonging to a class, a sufficient weight vector can be prepared for each class, so that it is possible to accurately create a boundary for dividing a class in the input vector data space during learning.

【0064】ラベル付与サブステップにおいて、クラス
に属する入力ベクトルデータの個数に応じて、そのクラ
スのラベルが付与される重みベクトルの数を変動させる
には、例えば以下のようにすればよい。なお、以下で
は、例としてデータの個数が少ないクラスのラベルが付
与される重みベクトルの数を増やす場合を示した。
In the labeling substep, the number of weight vectors to which a label of the class is assigned is changed according to the number of input vector data belonging to the class, for example, as follows. In the following, a case where the number of weight vectors to which labels of classes having a small number of data are assigned are increased is shown as an example.

【0065】D−1)ラベルを付与するとき、クラス毎
の入力ベクトルデータの個数を求めてから、個数が少な
いクラスの入力ベクトルデータだけを用いる。例えば、
2クラス(例:Aクラス,Bクラスとする。)の場合、
入力ベクトルデータの個数が少ないクラスAの入力ベク
トルデータだけを用いて、重みベクトルにラベルを付与
し、そのクラスのラベルが付与されなかった重みベクト
ルにクラスBのラベルを与える。
D-1) When assigning a label, the number of input vector data for each class is determined, and then only the input vector data of the class with a small number is used. For example,
In the case of two classes (example: class A and class B)
A label is assigned to the weight vector using only the class A input vector data having a small number of input vector data, and a class B label is assigned to the weight vector to which the class label is not assigned.

【0066】D−2)ラベルを付与するとき、クラス毎
の入力ベクトルデータの個数を求めてから、入力ベクト
ルデータの個数が少ないクラスは、重みベクトルにラベ
ルが付きやすくなるようにし、入力ベクトルデータの個
数が多いクラスは、重みベクトルにラベルが付き難くす
る。ラベルの付きやすさ、付き難さの調整は、例えば次
のようにすればよい。
D-2) When assigning a label, the number of input vector data for each class is obtained, and then, for a class having a small number of input vector data, a label is easily attached to the weight vector. For classes with a large number of, it is difficult to label the weight vector. Adjustment of ease of label attachment and difficulty of attachment may be performed, for example, as follows.

【0067】入力ベクトルデータと重みベクトルの類似
度を計算する際に、入力ベクトルデータの個数が少ない
クラスの入力ベクトルデータと重みベクトルの類似度を
実際の類似度より大きくなるように類似度に係数を掛け
たり、類似度の定義を変えたりすれば、ラベルが付きや
すくなるし、入力ベクトルデータの個数が多いクラスの
入力ベクトルデータと重みベクトルの類似度を実際の類
似度より小さくなるように類似度に係数を掛けたり、類
似度の定義を変えたりすれば、ラベルが付き難くなる。
When calculating the similarity between the input vector data and the weight vector, the similarity between the input vector data and the weight vector of the class having a small number of input vector data is set to a coefficient such that the similarity becomes larger than the actual similarity. Multiplying or changing the definition of similarity makes it easier to attach a label, and the similarity between input vector data of a class with a large number of input vector data and the weight vector is smaller than the actual similarity. If the degree is multiplied by a coefficient or the definition of the similarity is changed, the label becomes difficult to be attached.

【0068】以上のようにすれば、データの個数が少な
いクラスのラベルが付与される重みベクトルの数を増加
させることができる。なお、データの個数が多いクラス
のラベルが付与される重みベクトルの数を減らす場合の
説明は、上記のD−1)、D−2)の説明から簡単に類
推できるので省略する。
As described above, the number of weight vectors to which labels of classes having a small number of data are assigned can be increased. The description of the case of reducing the number of weight vectors to which labels of classes having a large number of data are added is omitted because it can be easily analogized from the above description of D-1) and D-2).

【0069】このようにして、第2の方法で用いるニュ
ーラルネットワークにおいて、画像中に占める抽出した
い特定部位の大きさの比率に応じて、特定部位を示すラ
ベルを付与する重みベクトル数の占める比率を変動させ
るようにすれば、特徴量ベクトル空間内でクラスを分け
る境界を精度良く作成することが可能になり、したがっ
て、濃淡画像から特定部位をさらに精度良く抽出するこ
とができる。
As described above, in the neural network used in the second method, the ratio of the number of weight vectors to which the label indicating the specific portion is occupied is determined according to the ratio of the size of the specific portion to be extracted in the image. If it is made to fluctuate, it becomes possible to accurately create a boundary for dividing a class in the feature vector space, and therefore, it is possible to more precisely extract a specific part from a grayscale image.

【0070】本発明の以上の第4の方法によると、ラベ
ル付与サブステップにおいて、あるクラスに属する入力
特徴量ベクトルデータの個数に応じて、そのクラスのラ
ベルが付与される重みベクトルの数を変動させることに
より、クラスに属する特徴量ベクトルデータの個数の大
小に関わらず、各クラス毎の重みベクトルを十分に用意
できるようにしたので、特徴量ベクトル空間内でクラス
を分ける境界を精度良く作成することが可能になり、し
たがって、濃淡画像から特定部位をさらに精度良く抽出
することができる。
According to the fourth method of the present invention, in the label assigning sub-step, the number of weight vectors to which labels of the class are assigned is changed according to the number of input feature quantity vector data belonging to the class. By doing so, a sufficient weight vector can be prepared for each class regardless of the number of feature quantity vector data belonging to the class, so that boundaries for class division in the feature quantity vector space are created with high accuracy. Therefore, it is possible to more precisely extract the specific part from the grayscale image.

【0071】[0071]

【発明の実施の形態】以下、本発明のいくつかの実施形
態について説明する。 〔第1実施形態〕この実施形態は第1の方法、第2の方
法が対応する。まず、図1を参照にして、全体的な処理
の概要を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Some embodiments of the present invention will be described below. [First Embodiment] The first embodiment corresponds to the first method and the second method. First, an overview of the overall processing will be described with reference to FIG.

【0072】まず、画像入力サブステップ11で、濃淡
画像aを入力する。入力された濃淡画像aに対し、選択
的空間周波数フィルタリングサブステップ12におい
て、画像中の特定の実空間方向と特定の実空間サイズに
選択的に反応する選択的空間周波数フィルタリングを施
す。この場合、実空間方向と実空間サイズを変えて複数
種類について施す。
First, in the image input sub-step 11, a gray-scale image a is input. In the selective spatial frequency filtering sub-step 12, the input gray-scale image a is subjected to selective spatial frequency filtering selectively responding to a specific real space direction and a specific real space size in the image. In this case, the processing is performed on a plurality of types by changing the real space direction and the real space size.

【0073】続いて、平均化サブステップ13におい
て、以上のようにして得られた複数種類のフィルタリン
グ出力(フィルタリング画像)各々に対して、特定の画
素とその周辺の画素からなるウィンドーを設定して、そ
の内部で平均化処理をする。平均化処理をした出力を、
特定の画素の持つ1つのフィルターに対する特徴量とし
て、特徴量ベクトル作成サブステップ14において、こ
の複数種類のフィルターの順番に応じて並べることによ
り、ベクトルを作成し、そのベクトルをその特定の画素
の持つ特徴量ベクトルとする。濃淡画像a中の画素毎に
このようなベクトルを作成することにより、一枚の濃淡
画像に対して複数個の特徴量ベクトル群bが作成され
る。以上が特徴量抽出ステップ1の説明である。
Subsequently, in the averaging sub-step 13, a window composed of a specific pixel and its surrounding pixels is set for each of a plurality of types of filtered outputs (filtered images) obtained as described above. Averaging is performed internally. The averaged output is
In the feature amount vector creation sub-step 14, as a feature amount for one filter of a specific pixel, a vector is created by arranging the filters according to the order of the plurality of types of filters, and the vector is stored in the particular pixel. Let it be a feature vector. By creating such a vector for each pixel in the gray image a, a plurality of feature amount vector groups b are generated for one gray image. The above is the description of the feature amount extraction step 1.

【0074】特徴量抽出ステップ1で作成された特徴量
ベクトル群bは、続いて学習認識ステップ2に送られ
る。なお、図中の学習認識ステップ2は、特に第2の方
法に対応している。また、図中、細い破線は学習認識前
のラベル付与サブステップ21の流れ、太い破線は学習
サブステップ22の処理の流れ、太い実線は認識サブス
テップ23の処理の流れをそれぞれ示している。まず、
ラベル付与サブステップ21において、重みベクトル群
cを、予め特徴量ベクトル群bを用いて、第2の方法の
作用の説明のC−2)で述べたように、ラベル付けす
る。このときに用いる特徴量ベクトル群bは、先験的知
識(例えば、X線画像の場合は医師の診断)として特定
部位から取り出されたか否かが分かっているものとす
る。すなわち、特徴量ベクトル群bにはラベルが付与さ
れている。
The feature vector group b created in the feature extraction step 1 is subsequently sent to the learning recognition step 2. Note that the learning recognition step 2 in the figure particularly corresponds to the second method. In the drawing, a thin broken line indicates the flow of the labeling sub-step 21 before learning recognition, a thick broken line indicates the flow of the processing of the learning sub-step 22, and a thick solid line indicates the flow of the processing of the recognition sub-step 23. First,
In the labeling sub-step 21, the weight vector group c is labeled using the feature amount vector group b in advance as described in C-2) of the operation of the second method. It is assumed that the feature amount vector group b used at this time is known as a priori knowledge (for example, in the case of an X-ray image, a doctor's diagnosis) and has been extracted from a specific part. That is, a label is given to the feature amount vector group b.

【0075】続いて、学習サブステップ22では、類似
度計算サブステップ201において、特徴量ベクトル群
b中の任意の一つのベクトルと重みベクトル群cとの類
似度(例えば、ベクトル間の距離)をそれぞれ求め、重
みベクトル選択サブステップ202において、類似度最
大(例えば、ベクトル間の距離が最小)の重みベクトル
を選択し、ラベル検出サブステップ203で選択された
重みベクトルのラベルeを検出する。
Subsequently, in the learning sub-step 22, in the similarity calculation sub-step 201, the similarity (for example, the distance between the vectors) between any one vector in the feature quantity vector group b and the weight vector group c is determined. In the weight vector selection sub-step 202, a weight vector having the maximum similarity (for example, the distance between the vectors is minimum) is selected, and the label e of the weight vector selected in the label detection sub-step 203 is detected.

【0076】そのラベルeと教師信号dを用いて、重み
ベクトル更新サブステップ204で、そのラベルeと教
師信号dがなるべく一致するように、重みベクトル群c
を更新する。特徴量ベクトル群b(前述のように、先験
的知識により、全てラベルが付いている特徴量ベクト
ル)中の全部か、あるいは、その中から適当に取り出し
たベクトルに対して、逐次上記の学習を繰り返す。
Using the label e and the teacher signal d, in the weight vector updating sub-step 204, the weight vector group c is set so that the label e and the teacher signal d match as much as possible.
To update. The above-described learning is sequentially performed on all of the feature amount vector groups b (the feature amount vectors that are all labeled by a priori knowledge as described above) or the vectors appropriately extracted therefrom. repeat.

【0077】続いて、認識サブステップ23では、特徴
量ベクトル群b中の一つのベクトルと重みベクトル群c
との類似度を類似度計算サブステップ201でそれぞれ
求め、重みベクトル選択サブステップ202において、
類似度最大の重みベクトルを選択し、ラベル検出サブス
テップ203で選択された重みベクトルのラベルeを検
出する。すなわち、認識とは、上記特徴量ベクトルに対
してラベルeを出力することに相当している。特徴量ベ
クトル群b中の他のベクトルについても同様に処理すれ
ば、全画素の持つ全特徴量ベクトルに対してラベルeが
付与され、画像中の抽出したい所望の特定部位を抽出す
ることができる。
Subsequently, in the recognition sub-step 23, one of the feature amount vector groups b and the weight vector group c
Are calculated in a similarity calculation sub-step 201, and in a weight vector selection sub-step 202,
The weight vector having the maximum similarity is selected, and the label e of the weight vector selected in the label detection sub-step 203 is detected. That is, the recognition corresponds to outputting the label e for the feature amount vector. If the other vectors in the feature amount vector group b are processed in the same manner, the label e is assigned to all the feature amount vectors of all the pixels, and a desired specific portion to be extracted in the image can be extracted. .

【0078】続いて、上記の方法を実施する濃淡画像用
特定部位抽出装置50について、図2を参照にして説明
する。本装置は、大きく分けて濃淡画像から特徴量を抽
出する特徴量抽出装置30と、この特徴量を用いて学習
認識する学習認識装置40からなっている。
Next, a description will be given, with reference to FIG. 2, of a gray-scale image specific site extracting apparatus 50 for implementing the above method. This device is mainly composed of a feature amount extracting device 30 for extracting a feature amount from a grayscale image, and a learning recognition device 40 for learning and recognizing using the feature amount.

【0079】特徴量抽出装置30は、画像入力装置31
と、複数個の選択的空間周波数フィルタリング演算器3
2と、選択的空間周波数フィルタリング演算器32と同
数個の平均化演算器33と、特徴量ベクトル作成演算器
34と、特徴量ベクトル群用メモリ35とからなる。そ
の作用を説明する。
The feature quantity extracting device 30 includes an image input device 31
And a plurality of selective spatial frequency filtering operators 3
2, a number of averaging calculators 33 equal to the number of selective spatial frequency filtering calculators 32, a feature vector creation calculator 34, and a feature vector group memory 35. The operation will be described.

【0080】まず、画像入力装置31を用いて、濃淡画
像aを入力する(画像入力サブステップ11に相当)。
そして、入力された濃淡画像aに対して、選択的空間周
波数フィルタリング演算器32を用いて、画像中の特定
の実空間方向と特定の実空間サイズに選択的に反応する
選択的空間周波数フィルタリングを施す(選択的空間周
波数フィルタリングサブステップ12に相当)。この場
合、実空間方向と実空間サイズを変えて複数種類につい
て施す。図2中では、選択的空間周波数フィルタリング
演算器32を複数個用意してある。続いて、平均化演算
器33を用いて、以上のようにして得られた複数種類の
フィルタリング出力(フィルタリング画像)各々に対し
て特定の画素とその周辺の画素からなるウィンドーを設
定して、その内部で平均化処理をする(平均化サブステ
ップ13に相当)。平均化処理をした出力を特定の画素
の持つ一つのフィルターに対する特徴量として、特徴量
ベクトル作成演算器34において、前記複数種類のフィ
ルターの順番に応じて並べることにより、ベクトルを作
成し(特徴量ベクトル作成サブステップ14に相当)、
そのベクトルをその画素の持つ特徴量として、特徴量ベ
クトル群用メモリ35に書き込む。
First, a gray-scale image a is input using the image input device 31 (corresponding to the image input sub-step 11).
Then, a selective spatial frequency filtering that selectively reacts to a specific real space direction and a specific real space size in the image is performed on the input grayscale image a by using the selective spatial frequency filtering calculator 32. (Corresponding to the selective spatial frequency filtering sub-step 12). In this case, the processing is performed on a plurality of types by changing the real space direction and the real space size. In FIG. 2, a plurality of selective spatial frequency filtering calculators 32 are prepared. Subsequently, a window including a specific pixel and pixels around the specific pixel is set for each of the plurality of types of filtering outputs (filtering images) obtained as described above using the averaging calculator 33. The averaging process is internally performed (corresponding to the averaging sub-step 13). A vector is created by arranging the averaged output as a feature amount for one filter of a specific pixel in the feature amount vector creation calculator 34 in accordance with the order of the plurality of types of filters (feature amount). (Corresponds to the vector creation sub-step 14),
The vector is written to the feature amount vector group memory 35 as the feature amount of the pixel.

【0081】続いて、学習認識装置40について説明す
る。学習認識装置40は、ラベル付与演算器41と、類
似度計算演算器42と、重みベクトル選択演算器43
と、ラベル検出演算器44と、ラベル出力装置45と、
教師信号用メモリ46と、重みベクトル更新演算器47
と、重みベクトル群用メモリ48とからなる。その作用
としては、学習サブステップ22で示した作用と、認識
サブステップ23で示した作用があるが、まず、学習サ
ブステップ22で示した作用を説明する。
Next, the learning recognition device 40 will be described. The learning recognition device 40 includes a labeling operation unit 41, a similarity calculation operation unit 42, and a weight vector selection operation unit 43.
A label detection calculator 44, a label output device 45,
Teacher signal memory 46 and weight vector update calculator 47
And a weight vector group memory 48. The operation includes the operation shown in the learning sub-step 22 and the operation shown in the recognition sub-step 23. First, the operation shown in the learning sub-step 22 will be described.

【0082】まず、ラベル付与演算器41で、重みベク
トル群用メモリ48に記録されている重みベクトル群に
対し、特徴量ベクトル群用メモリ35に記録されている
特徴量ベクトル群を用いて、第2の発明の作用の説明中
のC−2)で述べたように、ラベル付けする(ラベル付
与サブステップ21に相当)。続いて、類似度計算演算
器42において、特徴量ベクトル群中の任意の一つのベ
クトルと重みベクトル群との類似度(例えば、ベクトル
間の距離)をそれぞれ求め、重みベクトル選択演算器4
3において、類似度最大(例えば、ベクトル間の距離最
小)の重みベクトルを選択し、ラベル検出演算器44
で、選択された重みベクトルのラベルを検出する。その
ラベルと、教師信号用メモリ46から取り出した教師信
号を用いて、重みベクトル更新演算器47で、そのラベ
ルと教師信号がなるべく一致するように重みベクトル群
を更新する(例えば(16)式の方法を用いる。)。特
徴量ベクトル群中の任意のベクトルに対し、逐次上記の
学習を繰り返す。
First, the labeling arithmetic unit 41 compares the weight vector group recorded in the weight vector group memory 48 with the feature vector group recorded in the feature vector group memory 35, Labeling is performed as described in C-2) in the description of the operation of the second invention (corresponding to the labeling sub-step 21). Subsequently, in the similarity calculation calculator 42, the similarity (for example, the distance between the vectors) between any one of the feature amount vector groups and the weight vector group is determined, and the weight vector selection calculator 4
In step 3, the weight vector having the maximum similarity (for example, the minimum distance between the vectors) is selected, and the label detection arithmetic unit 44 is selected.
Then, the label of the selected weight vector is detected. Using the label and the teacher signal extracted from the teacher signal memory 46, the weight vector update calculator 47 updates the weight vector group so that the label and the teacher signal match as much as possible (for example, the expression (16) Method). The above learning is sequentially repeated for an arbitrary vector in the feature vector group.

【0083】続いて、認識サブステップ23の説明に則
して説明する。まず、類似度計算演算器42で、特徴量
ベクトル群中の一つのベクトルと重みベクトル群との類
似度をそれぞれ求め、重みベクトル選択演算器43にお
いて、類似度最大の重みベクトルを選択し、ラベル検出
演算器44で選択された重みベクトルのラベルを検出
し、ラベル出力装置45によって出力する。出力された
ラベルによって、抽出したい特定部位が表示される。
Next, a description will be given in accordance with the description of the recognition sub-step 23. First, the similarity calculation calculator 42 calculates the similarity between one of the feature amount vector groups and the weight vector group, and the weight vector selection calculator 43 selects the weight vector having the maximum similarity, and The detection arithmetic unit 44 detects the label of the selected weight vector and outputs it by the label output unit 45. The specific label to be extracted is displayed by the output label.

【0084】以上、濃淡画像用特定部位抽出装置50に
ついて説明した。画像入力装置31としては、例えば、
スキャナー、2次元撮像素子等、ラベル出力装置45と
しては、CRT、プリンター等を用いればよい。それ以
外のほとんどの部分には、コンピュータを用いて、それ
ぞれの作用をソフトウエア上で行うようにすれば、非常
に簡便に処理を行える。また、電気的なハードウエアと
して、専用のDSP(Digital Signal Processor)やア
ナログ回路を用いれば、処理の高速化が実現できる。ま
た、その際、選択的空間周波数フィルターや内積演算を
並列に行なえるようなハードウエア構成にすれば、より
高速化が実現できる。また、選択的空間周波数フィルタ
リング演算器32として、光学的な並列フィルタリング
装置、あるいは、類似度計算演算器42として、光学的
な内積演算装置を用いれば、同様に高速化できる。さら
に、画像の入力方法としては、以上の他に、IS&C規
格、DICOM規格、MIPS規格等の共通規格でフォ
ーマットされたディジタル画像データを、イーサネット
を介したり、MO装置等で電気的に取り込んだりして、
入力してももちろんよい。この場合、画像入力装置31
は、コンピュータ等の情報取り込みインターフェースあ
るいはMO装置である。
The specific image extracting device 50 for grayscale images has been described above. As the image input device 31, for example,
A CRT, a printer, or the like may be used as the label output device 45 such as a scanner or a two-dimensional image sensor. Most of the other parts can be processed very easily by using a computer to perform the respective operations on software. In addition, if a dedicated DSP (Digital Signal Processor) or an analog circuit is used as electrical hardware, the processing speed can be increased. Further, at this time, if the hardware configuration is such that the selective spatial frequency filter and the inner product operation can be performed in parallel, higher speed can be realized. Also, if an optical parallel filtering device is used as the selective spatial frequency filtering computing device 32 or an optical inner product computing device is used as the similarity calculation computing device 42, the speed can be similarly increased. Furthermore, as an image input method, in addition to the above, digital image data formatted according to a common standard such as the IS & C standard, DICOM standard, MIPS standard, etc. can be transmitted via an Ethernet or an MO device or the like. hand,
Of course you can enter it. In this case, the image input device 31
Is an information capturing interface such as a computer or an MO device.

【0085】続いて、より具体的な濃淡画像データの処
理方法について説明する。濃淡画像aを、図3の模式図
で示される肺野のX線画像(画像サイズ:256×25
6)とした。特定部位として塊状陰影を抽出する例を記
す。本発明は、前述のように、特定部位として塊状陰影
以外のものも抽出できるが、例として塊状陰影を選ん
だ。すなわち、学習認識ステップ2でのラベルeとし
て、塊状陰影内を表すラベルと、塊状陰影外を表すラベ
ルとの2種類を用意すればよい。
Next, a more specific method of processing grayscale image data will be described. The X-ray image (image size: 256 × 25) of the lung field shown in the schematic diagram of FIG.
6). An example in which a massive shadow is extracted as a specific portion will be described. According to the present invention, as described above, a thing other than the massive shadow can be extracted as the specific portion, but the massive shadow is selected as an example. That is, two kinds of labels, a label representing the inside of the massive shadow and a label representing the outside of the massive shadow, may be prepared as the label e in the learning recognition step 2.

【0086】選択的空間周波数フィルタリングサブステ
ップ12で用いる、画像中の特定の実空間方向と特定の
実空間サイズに選択的に反応する選択的空間周波数フィ
ルターとしては、式(3)のようなGabor fil
terを用いた。Gaborfilterの特定の実空
間方向と特定の実空間サイズは、15°刻みの8方向と
大小異なる4サイズとして、上記フィルターの種類を計
32種類とした。なお、Gabor filterとし
ては、包絡線関数の広がりが振動関数の振動数によらず
一定の場合と、式(3)のように振動関数の振動数に応
じて包絡線関数の広がりが変化する場合とが考えられる
が、後者の方がより良好な結果を与える。その理由は、
振動関数の振動数が大きいフィルター(画像中の高周波
成分に反応する。)は、狭い領域で起きる変化を検出す
るために実空間で局在していた方がよく、振動関数の振
動数が小さいフィルター(画像中の低周波成分に反応す
る。)は、広い領域で起きる変化を検出するために実空
間であまり局在していない方がよいからである。また、
式(3)で、フィルター関数の実部のみを使っても実部
と虚部を両方使う場合と同等の作用を得ることができる
ので、フィルターの実部のみを使うようにして処理演算
を軽減してやれば、画素数が多くても高速処理が可能と
なる。
As the selective spatial frequency filter used in the selective spatial frequency filtering sub-step 12 and selectively responding to a specific real space direction and a specific real space size in an image, Gabor as shown in equation (3) is used. fill
ter was used. The specific real space direction and the specific real space size of Gaborfilter are four sizes different in size from eight directions at intervals of 15 °, and the types of the filters are 32 in total. Note that the Gabor filter includes a case where the spread of the envelope function is constant irrespective of the frequency of the vibration function, and a case where the spread of the envelope function changes according to the frequency of the vibration function as in Equation (3). But the latter gives better results. The reason is,
A filter having a large vibration function frequency (which responds to high-frequency components in an image) should be localized in real space to detect a change occurring in a small area, and the vibration function has a small frequency. This is because the filter (which responds to low-frequency components in the image) should not be very localized in the real space in order to detect a change occurring in a wide area. Also,
In equation (3), using only the real part of the filter function can provide the same effect as using both the real part and the imaginary part. Therefore, only the real part of the filter is used to reduce the processing operation. Then, high-speed processing can be performed even if the number of pixels is large.

【0087】平均化サブステップ13では、式(5)の
コンボリューションの出力に施す関数として、シグモイ
ド関数φの代わりに、単純な線形関数を用いた。以上の
上記特徴量抽出ステップ1によって、32次元の特徴量
ベクトルが一枚の画像当たり256×256個作成され
る。このベクトル群を用いて学習認識ステップ2で特定
部位を抽出する。
In the averaging sub-step 13, a simple linear function was used instead of the sigmoid function φ as a function applied to the output of the convolution of the equation (5). Through the above-described feature amount extraction step 1, 256 × 256 32-dimensional feature amount vectors are created per image. A specific part is extracted in the learning recognition step 2 using the vector group.

【0088】重みベクトル更新サブステップ204にお
いての更新方法(第2の方法の作用の説明中のC−3)
も参照)は、LVQ法を用いた。ラベル付与サブステッ
プ21において、重みベクトルをラベル付けするときの
ラベル付け法(C−2)も参照)は、標準ラベル付け法
を用いた。なお、SOMを用いて重みベクトルを大まか
に配置することで、重みベクトル群を初期化した(C−
1)も参照)。
Update method in weight vector update sub-step 204 (C-3 in description of operation of second method)
Also used the LVQ method. In the labeling sub-step 21, a standard labeling method was used as a labeling method for labeling the weight vector (see also C-2). The weight vectors were initialized by roughly arranging the weight vectors using the SOM (C-
See also 1)).

【0089】複数枚の肺野のX線画像から、前記特徴量
抽出ステップ1によって個々のX線画像の各画素から特
徴量ベクトル群bを作成する。続いて、上記特徴量ベク
トル群bを用いて上記の学習認識サブステップ2の学習
サブステップ22で、まず学習を行う。なお、学習に用
いる複数枚の肺野のX線画像としては、塊状陰影が含ま
れるものと含まれないものを両方用いた。続いて、上記
の学習認識ステップ2の認識サブステップ23で、特定
部位内から抽出された特徴量ベクトルを認識することに
より、画像中から特定部位を抽出する。なお、認識時に
おいて、塊状陰影を抽出するX線画像は、学習時に用い
た画像でもよいし、別の新たな画像でもよい。すなわ
ち、認識時に用いる特徴量ベクトル群には、ラベルは付
いていてもいなくてもよい。学習時で使用したX線画像
から特定部位を抽出したい場合は、学習時に用いた特徴
量ベクトル群を、学習後に入力して認識し、画像中から
特定部位を抽出する。学習時で使用しなかったX線画像
から特定部位を抽出したい場合は、改めて特徴量抽出ス
テップ1により、特徴量ベクトル群を作成し、学習後に
入力して認識し、画像中から特定部位を抽出する。
From the X-ray images of a plurality of lung fields, a feature amount vector group b is created from each pixel of each X-ray image in the feature amount extraction step 1. Subsequently, learning is first performed in the learning sub-step 22 of the learning recognition sub-step 2 using the feature amount vector group b. In addition, as the X-ray images of a plurality of lung fields used for learning, both an image including a massive shadow and an image not including the massive shadow were used. Subsequently, in the recognition sub-step 23 of the learning recognition step 2, a specific part is extracted from the image by recognizing a feature amount vector extracted from within the specific part. Note that, at the time of recognition, the X-ray image from which the massive shadow is extracted may be the image used at the time of learning, or another new image. That is, the feature amount vector group used at the time of recognition may or may not have a label. When it is desired to extract a specific part from the X-ray image used at the time of learning, a feature amount vector group used at the time of learning is input and recognized after learning, and the specific part is extracted from the image. When it is desired to extract a specific part from an X-ray image not used at the time of learning, a characteristic amount vector group is created again in the characteristic amount extraction step 1, input after learning, recognized, and a specific part is extracted from the image. I do.

【0090】以上の作用により、肺野のX線画像から塊
状陰影を抽出すると、図4の模式図で示されるようなノ
イズが少ない良好な結果が得られた。抽出したい塊状陰
影以外に抽出されたものは、ノイズ(矢印で示す。)で
ある。従来と比較して、ノイズは格段に減少する。
By extracting the massive shadow from the X-ray image of the lung field by the above operation, a good result with little noise as shown in the schematic diagram of FIG. 4 was obtained. What is extracted other than the massive shadow to be extracted is noise (indicated by an arrow). Noise is significantly reduced as compared to the conventional case.

【0091】なお、以上の第1実施形態では、学習認識
ステップ2として、特徴量ベクトルと重みベクトル群の
類似度を計算して、学習あるいは認識を行うニューラル
ネットワークを用いているが、教師付きニューラルネッ
トワークであるBP法を用いてももちろんよい。
In the above-described first embodiment, a neural network that performs learning or recognition by calculating the similarity between a feature vector and a weight vector group is used as the learning and recognition step 2. Of course, the BP method, which is a network, may be used.

【0092】〔第2実施形態〕この実施形態は第3の方
法が対応する。図5に示すように、第1実施形態の特徴
量抽出ステップ1の特徴量ベクトル作成サブステップ1
4の後に、ダイナミックレンジ調節サブステップ15を
設け、特徴量ベクトル作成サブステップ14において求
められるベクトルの各成分のダイナミックレンジを揃え
た。対応する装置は、図6に示すように、図2の特徴量
ベクトル作成演算器34の後に、ダイナミックレンジ調
節装置36を配置すればよい。ダイナミックレンジを揃
える方法として、第3の方法の作用で説明した(17)
式のように、最大値を一定にするようにした。
[Second Embodiment] This embodiment corresponds to the third method. As shown in FIG. 5, the feature amount vector creation sub-step 1 of the feature amount extraction step 1 of the first embodiment is performed.
After step 4, a dynamic range adjustment sub-step 15 is provided, and the dynamic range of each component of the vector obtained in the feature quantity vector creation sub-step 14 is made uniform. As a corresponding device, as shown in FIG. 6, a dynamic range adjusting device 36 may be disposed after the feature amount vector creation calculator 34 in FIG. The method of making the dynamic range uniform has been described in the operation of the third method (17).
As shown in the equation, the maximum value was made constant.

【0093】図6を参照にして、具体的な作用を説明す
る。まず、濃淡画像a一枚に対し、画像入力装置31
と、選択的空間周波数フィルタリング演算器32と、平
均化演算器33と、特徴量ベクトル作成演算器34によ
って、ダイナミックレンジの揃っていない特徴量ベクト
ル群が作成される。このとき、各特徴量ベクトルの同一
フィルターに対する出力である各成分毎の最大値を記録
しておく。そのためのメモリは、ダイナミックレンジ調
節装置36内に設置しておけばよい。そして、(17)
式に従い、ダイナミックレンジ調節装置36で上記成分
毎の最大値でその成分をそれぞれ除算する。その結果を
新たに特徴量ベクトル群bとする。除算演算はコンピュ
ータで行ってもよいし、もし選択的空間周波数フィルタ
リング演算器32として光学的なフィルタリング装置を
用いた場合には、最大値に基づいて選択的空間周波数フ
ィルタリング演算器32の前段か後段にNDフィルター
等を挿入して光量を調節してもよい。また、アナログ回
路を用いた場合は、除算器を用いたり、抵抗値を変化さ
せて電流電圧値を調節するようにしてもよい。また、前
述の作用では、濃淡画像aを一枚を入力してから特徴量
ベクトルのダイナミックレンジを揃えたが、複数枚を入
力してから、各成分毎に同一の最大値を用いてもよい。
また、学習時と認識時の画像の種類があまり変わらなけ
れば(例えば、同様のX線画像のみを常に対象とす
る。)、学習時に各成分毎の最大値を記録しておき、認
識時には、学習時の各成分毎の最大値を用いて、各成分
を除算してもよい。また、一定にする式は、(18)
式、(19)式を用いてもよく、その場合は、最大値の
他に最小値や平均値等を記録しておけばよい。
The specific operation will be described with reference to FIG. First, the image input device 31 is used for one gray-scale image a.
, A selective spatial frequency filtering calculator 32, an averaging calculator 33, and a feature vector creation calculator 34, a feature vector group having a non-uniform dynamic range is created. At this time, the maximum value for each component, which is the output of each feature vector for the same filter, is recorded. The memory for this may be installed in the dynamic range adjusting device 36. And (17)
In accordance with the formula, each component is divided by the maximum value for each component in the dynamic range adjusting device 36. The result is newly set as a feature vector group b. The division operation may be performed by a computer, or if an optical filtering device is used as the selective spatial frequency filtering arithmetic unit 32, the preceding or following stage of the selective spatial frequency filtering arithmetic unit 32 is determined based on the maximum value. The light amount may be adjusted by inserting an ND filter or the like into the device. Further, when an analog circuit is used, a current voltage value may be adjusted by using a divider or changing a resistance value. In the above-described operation, the dynamic range of the feature amount vector is adjusted after inputting one gray-scale image a. However, the same maximum value may be used for each component after inputting a plurality of gray-scale images a. .
If the types of images at the time of learning and at the time of recognition do not change much (for example, only similar X-ray images are always targeted), the maximum value of each component is recorded at the time of learning, and at the time of recognition, Each component may be divided using the maximum value of each component at the time of learning. In addition, the equation to make constant is (18)
Equation (19) may be used. In this case, a minimum value, an average value, and the like may be recorded in addition to the maximum value.

【0094】以上のようにして、特徴量ベクトルの各成
分のダイナミックレンジを揃えた結果、画像中の低周波
成分も高周波成分も同様に分類に寄与させることができ
るようになり、その特徴量ベクトル群を学習認識ステッ
プ2(学習認識装置40)で分類して塊状陰影を抽出す
ると、さらにノイズが少ない良好な結果が得られた。具
体的には、塊状陰影の面積と塊状陰影以外で抽出された
面積(すなわち、ノイズ)の比が第1実施形態の場合に
比べて、約0.6倍となった。なお、この比が少ない程
ノイズが少ない良好な結果である。
As described above, the dynamic range of each component of the feature vector is made uniform, and as a result, the low-frequency component and the high-frequency component in the image can be similarly contributed to the classification. When the groups were classified in the learning recognition step 2 (learning recognition device 40) to extract massive shadows, a good result with less noise was obtained. Specifically, the ratio of the area of the blocky shadow to the area (that is, noise) extracted outside the blocky shadow is about 0.6 times that in the first embodiment. It should be noted that the smaller the ratio is, the better the result is that the noise is reduced.

【0095】〔第3実施形態〕この実施形態は第4の方
法が対応する。まず、本実施形態を説明する前に、ラベ
ル付与サブステップ21について、より具体的に説明す
る。前述のように、ラベル付与サブステップ21では、
特徴量ベクトル群b(第1実施形態で述べたように、先
験的知識によりラベルが付与されている。)を用いて重
みベクトル群cにラベルを付与する。具体的には、特徴
量ベクトル群bの中の一つと重みベクトル群cとの類似
度を計算し、最も類似している重みベクトルを選択し
て、その選択された重みベクトルに対して、特徴量ベク
トルのラベル(この場合は、特定部位か否か)を付与す
る。よって、このラベル付与の作用は、類似度計算サブ
ステップ201と重みベクトル選択サブステップ202
と同様の作用なので、図2で考えると、ラベル付与演算
器41として、類似度計算演算器42と重みベクトル演
算器43を共用してもよいし、同じものを新たに設置し
てもよい。
[Third Embodiment] This embodiment corresponds to the fourth method. First, before describing the present embodiment, the labeling sub-step 21 will be described more specifically. As described above, in the labeling sub-step 21,
A label is assigned to the weight vector group c using the feature amount vector group b (the label is assigned by a priori knowledge as described in the first embodiment). Specifically, the similarity between one of the feature amount vector groups b and the weight vector group c is calculated, the most similar weight vector is selected, and the feature vector is determined for the selected weight vector. A label of the quantity vector (in this case, whether or not it is a specific part) is given. Therefore, this labeling operation is performed by the similarity calculation sub-step 201 and the weight vector selection sub-step 202.
2, the similarity calculation unit 42 and the weight vector calculation unit 43 may be shared as the label assignment calculation unit 41, or the same unit may be newly provided.

【0096】続いて、本実施形態の作用を説明する。第
1実施形態におけるラベル付与サブステップ21で、第
4の方法の作用の説明中のD−1)に示したように、画
像中の抽出したい特定部位内からの特徴量ベクトルが少
ない場合は、その特徴量ベクトルだけを用いて重みベク
トルのラベルを付与し、そのラベルが付与されなかった
重みベクトルには、特定部以外というラベルを自動的に
与えた。装置で考えると、例えば、特徴量ベクトル群b
を特徴量ベクトル群用メモリ35に記録する際に、特定
部位内からのものと特定部位外からのものに分けて記録
しておき、ラベル付与演算器41では、特定部位内から
の特徴量ベクトルだけを取り出して、重みベクトル群c
のラベル付けを行えばよい。第4の方法の作用の説明中
のD−2)に記載のラベル付け法を用いる場合は、両者
を用いるが、この場合は、ラベルの付きやすさを調整
(例えば、類似度に適当な係数を掛ける等)して、特定
部位内のラベルが付与されやすいようにすればよい。
Next, the operation of the present embodiment will be described. In the labeling sub-step 21 in the first embodiment, as shown in D-1) in the description of the operation of the fourth method, when the number of feature vectors from within a specific part to be extracted in the image is small, A label of a weight vector is assigned using only the feature amount vector, and a label other than the specific portion is automatically assigned to a weight vector to which no label is assigned. Considering the device, for example, a feature vector group b
Is recorded in the feature amount vector group memory 35 separately from those inside the specific portion and those outside the specific portion, and the labeling arithmetic unit 41 stores the feature amount vector from within the specific portion. And extract the weight vector group c
You can label them. When the labeling method described in D-2) in the description of the operation of the fourth method is used, both methods are used. In this case, the ease of labeling is adjusted (for example, a coefficient suitable for the similarity). , Etc.) so that the label in the specific portion is easily applied.

【0097】400個の重みベクトル群cを使った場合
を例にとると、特定部位を含むある濃淡画像に対して、
前述した標準ラベル付け法を用いた場合、特定部位のラ
ベルを付与された重みベクトルの数と、特定部位以外の
ラベルを付与された重みベクトルの数の比が7対393
であったのに対し、D−1)に記載のラベル付け法を行
った場合は、20対380であった。その結果、特定部
位のラベルを付与された重みベクトルの数が増えて、塊
状陰影を抽出した結果はさらにノイズが少なくなった。
具体的には、塊状陰影の面積と、塊状陰影以外で抽出さ
れた面積(すなわち、ノイズ)の比が、第1実施形態の
場合に比べて、約0.5倍となった。
Taking the case where 400 weight vector groups c are used as an example, for a gray-scale image including a specific part,
When the above-described standard labeling method is used, the ratio of the number of weight vectors to which a label is assigned to a specific part to the number of weight vectors to which labels other than the specific part are assigned is 7: 393.
On the other hand, when the labeling method described in D-1) was performed, the ratio was 20 to 380. As a result, the number of weight vectors to which the label of the specific part was given increased, and the result of extracting the massive shadow further reduced the noise.
Specifically, the ratio of the area of the blocky shadow to the area (that is, noise) extracted outside the blocky shadow is about 0.5 times as compared with the case of the first embodiment.

【0098】〔第4実施形態〕第1実施形態の特徴量抽
出ステップ1中の選択的空間周波数フィルタリングサブ
ステップ12で用いるフィルターとして、図10(c)
のような周波数空間で単純な開口状をなすものを用い
た。その結果、特に選択的空間周波数フィルタリング演
算器32として光学的なフィルタリング装置を用いる場
合は、フィルターとして単純な開口を作成するだけでよ
いので、フィルターの作成が容易になった。また、前述
のように、実空間で、図10(a)の場合より局在性が
小さくなり、その結果、画像中でより広い範囲の情報を
抽出するフィルターになり、特徴量ベクトルが画像中で
よりグローバルな特徴量になるので、その特徴量ベクト
ル群を用いて学習認識ステップ2で分類して、ある程度
の大きさを持つ塊状陰影を抽出すると、さらにノイズが
少ない良好な結果が得られた。具体的には、塊状陰影の
面積と、塊状陰影以外で抽出された面積(すなわち、ノ
イズ)の比が、第1実施形態の場合に比べて、約0.7
倍となった。
[Fourth Embodiment] FIG. 10C shows a filter used in the selective spatial frequency filtering sub-step 12 in the feature amount extraction step 1 of the first embodiment.
A simple aperture in the frequency space as described above was used. As a result, particularly when an optical filtering device is used as the selective spatial frequency filtering calculator 32, it is only necessary to create a simple aperture as a filter, so that the creation of the filter is facilitated. Further, as described above, in the real space, the localization is smaller than in the case of FIG. 10A, and as a result, the filter becomes a filter that extracts a wider range of information in the image. Since the feature amount becomes a more global feature amount, when the classification is performed in the learning and recognition step 2 using the feature amount vector group and a massive shadow having a certain size is extracted, a better result with less noise is obtained. . Specifically, the ratio of the area of the blocky shadow to the area (ie, noise) extracted outside the blocky shadow is about 0.7 compared to the case of the first embodiment.
Doubled.

【0099】なお、以上の実施形態は、単独に実施して
もよいが、それぞれを複数個組み合わせてももちろんよ
く、その場合、さらに高い効果を得ることができる。
The above embodiments may be practiced independently, but a plurality of them may be used in combination, in which case higher effects can be obtained.

【0100】以上から明らかなように、本発明の方法を
実施する濃淡画像用特定部位抽出装置は、例えば次のよ
うに構成することができる。 〔1〕 濃淡情報からなる入力画像を入力する画像入力
手段と、前記入力画像に対し、画像中の実空間における
特定の方向と実空間における特定のサイズに選択的に反
応する選択的空間周波数フィルタリングを施す選択的空
間周波数フィルタリング演算手段と、前記のフィルタリ
ング結果の画像において、ある特定の画素とその周辺の
複数の画素から構成されると共に、前記の実空間の特定
のサイズに比例した大きさを持つウィンドー内で、前記
フィルタリングの結果を平均化し、その平均化された値
を前記ウィンドー内の特定の画素の特徴量として出力す
る平均化演算手段と、相異なる少なくとも2つ以上の前
記選択的空間周波数フィルタリング演算手段に対する前
記の平均化した出力を前記特定の画素の持つ特徴量の成
分としたベクトルを作成する特徴量ベクトル作成演算手
段とからなる特徴量抽出装置と、前記特徴量抽出装置に
よって求められた特徴量ベクトルと、そのベクトルが抽
出された画素が入力画像中で抽出すべき特定部位である
か否かの教師信号とを用いて、前記特徴量ベクトルと前
記教師信号との対応関係を学習し、かつ、前記特徴量ベ
クトルを入力して、その特徴量ベクトルが抽出された画
素が画像中で抽出すべき特定部位であるか否かの信号を
出力するニューラルネットワークを備えている学習認識
装置と、からなることを特徴とする濃淡画像用特定部位
抽出装置。
As is apparent from the above, the specific portion extracting apparatus for gray-scale images for implementing the method of the present invention can be constituted, for example, as follows. [1] Image input means for inputting an input image composed of shading information, and selective spatial frequency filtering for selectively responding to the input image in a specific direction in real space and a specific size in real space in the image And a selective spatial frequency filtering operation means for performing the filtering operation, and in the image of the filtering result, a specific pixel and a plurality of pixels around the specific pixel, and a size proportional to the specific size of the real space is determined. Averaging means for averaging the result of the filtering in a window having the same, and outputting the averaged value as a characteristic amount of a specific pixel in the window; and at least two or more different selective spaces different from each other. A vector obtained by using the averaged output to the frequency filtering operation unit as a component of a feature amount of the specific pixel is obtained. A feature amount extraction device including a feature amount vector creation calculation unit to be created, a feature amount vector obtained by the feature amount extraction device, and a pixel from which the vector is extracted is a specific portion to be extracted in the input image. The correspondence between the feature amount vector and the teacher signal is learned using a teacher signal indicating whether or not the feature amount vector is input, and the pixel from which the feature amount vector is extracted is included in the image. And a learning / recognition device including a neural network that outputs a signal indicating whether or not the specific portion is to be extracted.

【0101】〔2〕 上記〔1〕において、前記ニュー
ラルネットワークが、前記の特徴量ベクトルと前記ニュ
ーラルネットワークに設定されている重みベクトル群の
類似度を計算する類似度計算演算手段を備え、前記学習
認識装置が、少なくとも一つの重みベクトルに抽出すべ
き特定部位を示すラベルを予め付与するラベル付与演算
手段を備えており、前記学習認識装置が、さらに、前記
の類似度の大きな重みベクトルを選択する重みベクトル
選択演算手段と、その選択された重みベクトルに付与さ
れたラベルを検出するラベル検出演算手段と、そのラベ
ルと前記教師信号とを用いて前記重みベクトルを更新す
る重みベクトル更新演算手段と、前記ラベル検出演算手
段で検出されたラベルを出力するラベル出力手段とを備
えていることを特徴とする濃淡画像用特定部位抽出装
置。
[2] In the above item [1], the neural network comprises a similarity calculating means for calculating a similarity between the feature quantity vector and a weight vector set in the neural network. The recognizing device includes a label assignment calculating unit that assigns a label indicating a specific part to be extracted to at least one weight vector in advance, and the learning recognizing device further selects a weight vector having a large similarity. Weight vector selection calculation means, label detection calculation means for detecting a label assigned to the selected weight vector, weight vector update calculation means for updating the weight vector using the label and the teacher signal, Label output means for outputting a label detected by the label detection calculation means. A specific image extraction device for gray-scale images.

【0102】〔3〕 上記〔1〕又は〔2〕において、
前記特徴量抽出装置が、前記特徴量ベクトルの各成分の
ダイナミックレンジを揃えるため、さらに、ダイナミッ
クレンジ調節手段を有していることを特徴とする濃淡画
像用特定部位抽出装置。
[3] In the above [1] or [2],
The gray-scale image specific portion extraction device, further comprising a dynamic range adjusting unit for the feature amount extraction device to make a dynamic range of each component of the feature amount vector uniform.

【0103】〔4〕 上記〔2〕において、前記ラベル
付与演算手段が、入力画像中での抽出したい特定部位の
大きさの比率に応じて、抽出したい特定部位を示すラベ
ルが付与される重みベクトルの数が占める比率を変動さ
せることを特徴とする濃淡画像用特定部位抽出装置。
[4] In the above item [2], the label assignment calculating means assigns a label indicating a specific site to be extracted according to a ratio of the size of the specific site to be extracted in the input image. A specific portion extraction device for a gray-scale image, wherein the ratio of the number of images is varied.

【0104】[0104]

【発明の効果】以上の説明から明らかなように、本発明
の濃淡画像用特定部位抽出方法によると、 B−1)濃淡画像から塊状陰影の特定部位も塊状陰影以
外の構造の特定部位も精度良く抽出する。 B−2)濃淡画像の画像中の全領域からその1画素毎に
特徴量ベクトル量を抽出しながらベクトル群を作成した
とき、そのベクトル群が明確に分類できるクラスタを持
たない場合にも、X線画像の塊状陰影等のように、画像
中でその部位を明確に分類することが困難な部位を精度
良く抽出する。 B−3)画像中の低周波成分も高周波成分も同様に分類
に寄与させることで、より汎用性の高い画像からの特定
部位抽出を行う。の条件を満たす濃淡画像用特定部位抽
出方法を得ることができる。
As is apparent from the above description, according to the method for extracting a specific part for a grayscale image of the present invention, B-1) the specific part of the massive shadow and the specific part of the structure other than the massive shadow from the grayscale image are accurate. Extract well. B-2) When a vector group is created while extracting a feature vector amount for each pixel from the entire area in the grayscale image, even when the vector group does not have a cluster that can be clearly classified, X A portion, such as a block shadow of a line image, in which the portion is difficult to classify clearly in the image is accurately extracted. B-3) A low-frequency component and a high-frequency component in an image are similarly contributed to classification, thereby extracting a specific portion from a more versatile image. A method for extracting a specific portion for a grayscale image that satisfies the above condition can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の濃淡画像用特定部位抽出方法の第1実
施形態の処理の流れを示す図である。
FIG. 1 is a diagram showing a processing flow of a first embodiment of a method for extracting a specific part for a grayscale image of the present invention.

【図2】第1実施形態の方法を実施するための濃淡画像
用特定部位抽出装置の構成を示す図である。
FIG. 2 is a diagram showing a configuration of a gray-scale image specific site extraction device for performing the method of the first embodiment.

【図3】肺野のX線画像の模式図である。FIG. 3 is a schematic diagram of an X-ray image of a lung field.

【図4】肺野のX線画像から抽出された塊状陰影とノイ
ズの模式図である。
FIG. 4 is a schematic diagram of massive shadows and noise extracted from an X-ray image of a lung field.

【図5】本発明の濃淡画像用特定部位抽出方法の第2実
施形態の処理の流れの要部を示す図である。
FIG. 5 is a diagram showing a main part of a processing flow of a second embodiment of the grayscale image specific site extraction method of the present invention.

【図6】第2実施形態の方法を実施するための濃淡画像
用特定部位抽出装置の要部の構成を示す図である。
FIG. 6 is a diagram showing a configuration of a main part of a gray-scale image specific site extraction device for performing the method of the second embodiment.

【図7】重みベクトルと入力データ及び境界線の関係を
示す図である。
FIG. 7 is a diagram illustrating a relationship between a weight vector, input data, and a boundary line.

【図8】従来の濃淡画像から特定の部位のみを抽出する
別の方法であって本発明の前提となる方法を説明するた
めの図である。
FIG. 8 is a diagram for explaining another conventional method for extracting only a specific portion from a grayscale image, which is a premise of the present invention.

【図9】実空間方向と実空間サイズを説明するための図
である。
FIG. 9 is a diagram for explaining a real space direction and a real space size.

【図10】Gabor Filter及びその変形Fi
lterの概形を示す図である。
FIG. 10 shows a Gabor Filter and its modified Fi.
It is a figure which shows the outline of liter.

【図11】図8の方法による分類の過程を説明するため
の図である。
FIG. 11 is a diagram for explaining a classification process according to the method of FIG. 8;

【図12】特徴量ベクトル群空間でクラスタが明確に分
類できるように分布しない場合を示す図である。
FIG. 12 is a diagram illustrating a case where clusters are not distributed so as to be clearly classified in a feature amount vector group space.

【図13】従来の濃淡画像から特定の部位のみを抽出す
る1つの方法を説明するための図である。
FIG. 13 is a diagram for explaining one method of extracting only a specific part from a gray-scale image in the related art.

【符号の説明】[Explanation of symbols]

a…濃淡画像 b…特徴量ベクトル群 c…重みベクトル群 d…教師信号 e…ラベル 1、1’…特徴量抽出ステップ 11…画像入力サブステップ 12…選択的空間周波数フィルタリングサブステップ 13…平均化サブステップ 14…特徴量ベクトル作成サブステップ 15…ダイナミックレンジ調節サブステップ 2…学習認識ステップ 21…ラベル付与サブステップ 22…学習サブステップ 23…認識サブステップ 201…類似度計算サブステップ 202…重みベクトル選択サブステップ 203…ラベル検出サブステップ 204…重みベクトル更新サブステップ 30、30’…特徴量抽出装置 31…画像入力装置 32…選択的空間周波数フィルタリング演算器 33…平均化演算器 34…特徴量ベクトル作成演算器 35…特徴量ベクトル群用メモリ 36…ダイナミックレンジ調節装置 40…学習認識装置 41…ラベル付与演算器 42…類似度計算演算器 43…重みベクトル選択演算器 44…ラベル検出演算器 45…ラベル出力装置 46…教師信号用メモリ 47…重みベクトル更新演算器 48…重みベクトル群用メモリ 50…濃淡画像用特定部位抽出装置 a: Grayscale image b: Feature vector group c: Weight vector group d: Teacher signal e: Label 1, 1 '... Feature extraction step 11 ... Image input substep 12 ... Selective spatial frequency filtering substep 13 ... Averaging Substep 14 ... Feature vector creation substep 15 ... Dynamic range adjustment substep 2 ... Learning recognition step 21 ... Label assignment substep 22 ... Learning substep 23 ... Recognition substep 201 ... Similarity calculation substep 202 ... Weight vector selection Substep 203 ... Label detection substep 204 ... Weight vector update substep 30, 30 '... Feature amount extraction device 31 ... Image input device 32 ... Selective spatial frequency filtering calculator 33 ... Averaging calculator 34 ... Feature value vector creation Arithmetic unit 35 ... Feature vector Memory for group 36 ... dynamic range adjustment device 40 ... learning recognition device 41 ... labeling calculation device 42 ... similarity calculation calculation device 43 ... weight vector selection calculation device 44 ... label detection calculation device 45 ... label output device 46 ... teacher signal Memory 47 ... Weight vector update calculator 48 ... Memory for weight vector group 50 ... Specific part extraction device for gray image

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 濃淡情報からなる入力画像を入力する画
像入力サブステップと、前記入力画像に対し、画像中の
実空間における特定の方向と実空間における特定のサイ
ズに選択的に反応する選択的空間周波数フィルタリング
を施す選択的空間周波数フィルタリングサブステップ
と、前記のフィルタリング結果の画像において、ある特
定の画素とその周辺の複数の画素から構成されると共
に、前記の実空間の特定のサイズに比例した大きさを持
つウィンドー内で、前記フィルタリングの結果を平均化
し、その平均化された値を前記ウィンドー内の特定の画
素の特徴量として出力する平均化サブステップと、相異
なる少なくとも2つ以上の選択的空間周波数フィルター
に対する前記の平均化した出力を前記特定の画素の持つ
特徴量の成分としたベクトルを作成する特徴量ベクトル
作成サブステップとからなる特徴量抽出ステップと、 前記特徴量抽出ステップによって求められた特徴量ベク
トルと、そのベクトルが抽出された画素が入力画像中で
抽出すべき特定部位であるか否かの教師信号とを用い
て、前記特徴量ベクトルと前記教師信号との対応関係を
ニューラルネットワークを用いて学習する学習サブステ
ップと、前記特徴量ベクトルを前記ニューラルネットワ
ークに入力して、その特徴量ベクトルが抽出された画素
が画像中で抽出すべき特定部位であるか否かの信号を出
力する認識サブステップとからなる学習認識ステップ
と、からなることを特徴とする濃淡画像用特定部位抽出
方法。
1. An image input sub-step of inputting an input image comprising shade information, and selectively responding to the input image to a specific direction in real space and a specific size in real space in the image. A selective spatial frequency filtering sub-step of performing spatial frequency filtering, and in the image of the filtering result, the image is composed of a specific pixel and a plurality of pixels around the specific pixel, and is proportional to a specific size of the real space. An averaging sub-step of averaging the results of the filtering in a window having a size and outputting the averaged value as a feature value of a specific pixel in the window; The averaged output to the spatial frequency filter as a component of the characteristic amount of the specific pixel. A feature vector extraction sub-step for creating a torque vector, a feature vector obtained in the feature vector extraction step, and a specific region in which a pixel from which the vector is extracted is to be extracted in the input image. A learning sub-step of learning the correspondence between the feature amount vector and the teacher signal using a neural network using a teacher signal of whether or not the feature amount vector is input to the neural network. A recognition sub-step of outputting a signal as to whether or not the pixel from which the feature amount vector is extracted is a specific portion to be extracted in the image. Specific site extraction method.
【請求項2】 請求項1において、前記学習認識ステッ
プで用いるニューラルネットワークが、前記の特徴量ベ
クトルと前記ニューラルネットワークに設定されている
重みベクトル群の類似度を計算して、学習あるいは認識
を行うニューラルネットワークであり、 前記学習認識ステップが、 少なくとも一つの重みベクトルに抽出すべき特定部位を
示すラベルを予め付与するラベル付与サブステップを備
え、 前記特徴量ベクトルと前記重みベクトル群の類似度を計
算する類似度計算サブステップと、前記の類似度の大き
な重みベクトルを選択する重みベクトル選択サブステッ
プと、その選択された重みベクトルに付与されたラベル
を検出するラベル検出サブステップと、そのラベルと前
記教師信号とを用いて前記重みベクトルを更新する重み
ベクトル更新サブステップとからなり、前記特徴量ベク
トルと前記教師信号との対応関係を学習する学習サブス
テップと、 前記特徴量ベクトルと前記重みベクトル群の類似度を計
算する類似度計算サブステップと、前記の類似度の大き
な重みベクトルを選択する重みベクトル選択サブステッ
プと、その重みベクトルに付与されたラベルを検出する
ラベル検出サブステップとからなり、前記特徴量ベクト
ルが抽出された画素が画像中で抽出すべき特定部位であ
るか否かの信号を出力する認識サブステップと、からな
ることを特徴とする濃淡画像用特定部位抽出方法。
2. The learning or recognition method according to claim 1, wherein the neural network used in the learning / recognition step calculates a similarity between the feature amount vector and a weight vector group set in the neural network. A neural network, wherein the learning and recognizing step includes a label assigning sub-step of assigning a label indicating a specific part to be extracted to at least one weight vector in advance, and calculating a similarity between the feature amount vector and the weight vector group. A similarity calculation sub-step, a weight vector selection sub-step of selecting a weight vector having a large similarity, a label detection sub-step of detecting a label given to the selected weight vector, A weight vector for updating the weight vector using a teacher signal. A learning update step comprising learning a correspondence between the feature amount vector and the teacher signal; a similarity calculation substep of calculating a similarity between the feature amount vector and the weight vector group; A weight vector selection sub-step of selecting a weight vector having a large similarity, and a label detection sub-step of detecting a label assigned to the weight vector, wherein the pixel from which the feature amount vector is extracted is included in the image. And a recognition sub-step of outputting a signal indicating whether or not the specific portion is to be extracted.
【請求項3】 請求項1又は2において、前記特徴量抽
出ステップが、前記特徴量ベクトルの各成分のダイナミ
ックレンジを揃えるため、さらに、ダイナミックレンジ
調節サブステップを有していることを特徴とする濃淡画
像用特定部位抽出方法。
3. The feature amount extracting step according to claim 1, wherein the feature amount extracting step further includes a dynamic range adjusting sub-step in order to equalize a dynamic range of each component of the feature amount vector. A method for extracting a specific part for a grayscale image.
【請求項4】 請求項2において、前記ラベル付与サブ
ステップが、入力画像中での抽出したい特定部位の大き
さの比率に応じて、抽出したい特定部位を示すラベルが
付与される重みベクトルの数が占める比率を変動させる
ことを特徴とする濃淡画像用特定部位抽出方法。
4. The weighting vector according to claim 2, wherein the label assigning sub-step includes the step of assigning a label indicating the specific portion to be extracted according to a ratio of the size of the specific portion to be extracted in the input image. A specific portion extraction method for a gray-scale image, wherein a ratio occupied by the specific region is varied.
JP8239243A 1996-09-10 1996-09-10 Method for extracting specific site for gradation picture Withdrawn JPH1091782A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8239243A JPH1091782A (en) 1996-09-10 1996-09-10 Method for extracting specific site for gradation picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8239243A JPH1091782A (en) 1996-09-10 1996-09-10 Method for extracting specific site for gradation picture

Publications (1)

Publication Number Publication Date
JPH1091782A true JPH1091782A (en) 1998-04-10

Family

ID=17041875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8239243A Withdrawn JPH1091782A (en) 1996-09-10 1996-09-10 Method for extracting specific site for gradation picture

Country Status (1)

Country Link
JP (1) JPH1091782A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307087A (en) * 2000-04-08 2001-11-02 Carl Zeiss Vision Gmbh Procedure for cyclic interactive image analysis and computer system and computer program for executing the procedure
JP2002310958A (en) * 2001-04-10 2002-10-23 Mitsubishi Heavy Ind Ltd Evaluation system of material life and evaluation method thereof
JP2005185560A (en) * 2003-12-25 2005-07-14 Konica Minolta Medical & Graphic Inc Medical image processing apparatus and medical image processing system
JP2005192880A (en) * 2004-01-08 2005-07-21 Olympus Corp Method for image processing
JP2007502173A (en) * 2003-08-13 2007-02-08 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Incorporating spatial knowledge into the classification process
JP2008284285A (en) * 2007-05-21 2008-11-27 Image One Co Ltd Diagnostic imaging support system, its method, and its program
JP2008289916A (en) * 2000-06-30 2008-12-04 Hitachi Medical Corp Image diagnosis supporting device
KR101072557B1 (en) * 2003-10-06 2011-10-11 소니 주식회사 Information recording device and information recording method
JP2014113364A (en) * 2012-12-11 2014-06-26 Panasonic Corp Diagnosis support apparatus, and diagnosis support method
JP2017512091A (en) * 2014-02-27 2017-05-18 インパック メディカル システムズ、 インク.Impac Medical Systems Inc. Automatic contour extraction system and method in adaptive radiotherapy
JP2017153763A (en) * 2016-03-03 2017-09-07 富士フイルム株式会社 Image processing apparatus, operating method, and operating program
CN110517177A (en) * 2018-05-21 2019-11-29 上海申通地铁集团有限公司 Generation method, the portrait method and system of rail traffic station of model
JP2021513435A (en) * 2018-02-12 2021-05-27 エイアイ.スコピー, インコーポレイテッドAi.Skopy, Inc. Systems and methods for diagnosing gastrointestinal tumors
CN116612138A (en) * 2023-07-14 2023-08-18 威海职业学院(威海市技术学院) Electrical equipment on-line monitoring method based on image processing

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307087A (en) * 2000-04-08 2001-11-02 Carl Zeiss Vision Gmbh Procedure for cyclic interactive image analysis and computer system and computer program for executing the procedure
JP2008289916A (en) * 2000-06-30 2008-12-04 Hitachi Medical Corp Image diagnosis supporting device
JP2002310958A (en) * 2001-04-10 2002-10-23 Mitsubishi Heavy Ind Ltd Evaluation system of material life and evaluation method thereof
JP2007502173A (en) * 2003-08-13 2007-02-08 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Incorporating spatial knowledge into the classification process
KR101072557B1 (en) * 2003-10-06 2011-10-11 소니 주식회사 Information recording device and information recording method
JP2005185560A (en) * 2003-12-25 2005-07-14 Konica Minolta Medical & Graphic Inc Medical image processing apparatus and medical image processing system
JP2005192880A (en) * 2004-01-08 2005-07-21 Olympus Corp Method for image processing
JP4652694B2 (en) * 2004-01-08 2011-03-16 オリンパス株式会社 Image processing method
JP2008284285A (en) * 2007-05-21 2008-11-27 Image One Co Ltd Diagnostic imaging support system, its method, and its program
JP2014113364A (en) * 2012-12-11 2014-06-26 Panasonic Corp Diagnosis support apparatus, and diagnosis support method
JP2017512091A (en) * 2014-02-27 2017-05-18 インパック メディカル システムズ、 インク.Impac Medical Systems Inc. Automatic contour extraction system and method in adaptive radiotherapy
JP2017153763A (en) * 2016-03-03 2017-09-07 富士フイルム株式会社 Image processing apparatus, operating method, and operating program
CN107153833A (en) * 2016-03-03 2017-09-12 富士胶片株式会社 Image processing apparatus and its method of work
US10521904B2 (en) 2016-03-03 2019-12-31 Fujifilm Corporation Image processing apparatus, operating method, and non-transitory computer readable medium
JP2021513435A (en) * 2018-02-12 2021-05-27 エイアイ.スコピー, インコーポレイテッドAi.Skopy, Inc. Systems and methods for diagnosing gastrointestinal tumors
CN110517177A (en) * 2018-05-21 2019-11-29 上海申通地铁集团有限公司 Generation method, the portrait method and system of rail traffic station of model
CN116612138A (en) * 2023-07-14 2023-08-18 威海职业学院(威海市技术学院) Electrical equipment on-line monitoring method based on image processing
CN116612138B (en) * 2023-07-14 2023-09-19 威海职业学院(威海市技术学院) Electrical equipment on-line monitoring method based on image processing

Similar Documents

Publication Publication Date Title
CN111553837B (en) Artistic text image generation method based on neural style migration
CN112862792B (en) Wheat powdery mildew spore segmentation method for small sample image dataset
CN109191424B (en) Breast mass detection and classification system and computer-readable storage medium
CN110334762B (en) Feature matching method based on quad tree combined with ORB and SIFT
CN112634149B (en) Point cloud denoising method based on graph convolution network
Moreira et al. Neural-based color image segmentation and classification using self-organizing maps
JPH1091782A (en) Method for extracting specific site for gradation picture
CN107301643B (en) Well-marked target detection method based on robust rarefaction representation Yu Laplce's regular terms
CN103996185A (en) Image segmentation method based on attention TD-BU mechanism
CN108256454A (en) A kind of training method based on CNN models, human face posture estimating and measuring method and device
Tangsakul et al. Single image haze removal using deep cellular automata learning
Raval et al. Color image segmentation using FCM clustering technique in RGB, L* a* b, HSV, YIQ color spaces
CN111815640A (en) Memristor-based RBF neural network medical image segmentation algorithm
Kumar et al. Automatic image segmentation using wavelets
Afshar et al. Lung tumor area recognition in CT images based on Gustafson-Kessel clustering
CN114049531A (en) Pedestrian re-identification method based on weak supervision human body collaborative segmentation
Guo et al. Identifying facial expression using adaptive sub-layer compensation based feature extraction
CN105938615B (en) Feature based is oriented to the method for registering images and system of GMM and edge image
CN115331008A (en) End-to-end target detection method based on target probability density graph
CN115188039A (en) Depth forgery video technology tracing method based on image frequency domain information
CN110751189B (en) Ellipse detection method based on perception contrast and feature selection
Chen et al. Image segmentation based on Bethe approximation for Gaussian mixture model
WO2020195958A1 (en) Learning method, determination method, program, learning system, learning data set generation method, and learning data set
Sathananthavathi et al. Improvement of thin retinal vessel extraction using mean matting method
Chhabra et al. Comparison of different edge detection techniques to improve quality of medical images

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20031202