JPH0792090A - Fluorescence antibody judging means - Google Patents

Fluorescence antibody judging means

Info

Publication number
JPH0792090A
JPH0792090A JP5262878A JP26287893A JPH0792090A JP H0792090 A JPH0792090 A JP H0792090A JP 5262878 A JP5262878 A JP 5262878A JP 26287893 A JP26287893 A JP 26287893A JP H0792090 A JPH0792090 A JP H0792090A
Authority
JP
Japan
Prior art keywords
input
image
unit
neural network
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5262878A
Other languages
Japanese (ja)
Inventor
Hitoshi Kubota
整 久保田
Hisashi Chiba
久 千葉
Katsuichi Ono
勝一 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP5262878A priority Critical patent/JPH0792090A/en
Publication of JPH0792090A publication Critical patent/JPH0792090A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

PURPOSE:To automatically perform the precise kind judgement of an antibody in an image, and quickly judge the kind without causing an individual difference in the judgement result. CONSTITUTION:The fluorescence antibody judging device consists of an image input part 10 for inputting an image data including a subject to be judged an image memory part 12 for storing the image data inputted by the image input means 10, a subject extracting means 14 for extracting the subject to be judged from the image data stored in the image memory part 12, an input data forming means 16 for forming an input data by regulating the size of the subject extracted by the subject extracting means 14 to the size consisting of a prescribed number of picture elements, a neural network processing means 18 for conducting a neural network processing to the input data formed by the input data forming means 16, and a kind output part 20 for outputting the kind of the subject on the basis of the processing result of the neural network processing means 18.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、蛍光抗体判定装置に関
し、詳しくは蛍光抗体法により抗核抗体の種類判別を行
う蛍光抗体判定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fluorescent antibody determination apparatus, and more particularly to a fluorescent antibody determination apparatus for determining the type of antinuclear antibody by the fluorescent antibody method.

【0002】[0002]

【従来の技術】抗核抗体とは、正常な免疫機構(機能)
に障害が発生している自己免疫疾患いわゆるアレルギー
の患者の血清中に存在し、細胞の核成分と反応する抗体
をいう。正常な免疫機構に障害が発生すると、自己の体
成分と反応する抗体すなわち自己抗体が生じ、これが原
因となり発病する。かかる抗核抗体は、蛍光抗体法など
により検出される。
2. Description of the Related Art Antinuclear antibody is a normal immune system (function)
Is an antibody that reacts with the nuclear component of cells, which is present in the sera of patients with autoimmune diseases in which disorders occur in so-called allergies. When the normal immune system is impaired, an antibody that reacts with its own body components, that is, an autoantibody, is produced, which causes the disease. Such antinuclear antibody is detected by a fluorescent antibody method or the like.

【0003】すなわち、患者の血清と細胞核とを反応さ
せ、蛍光標識を加えて蛍光顕微鏡を用いて抗核抗体を観
察し、このとき抗核抗体が蛍光を発して見えればその患
者の血清は陽性であり、そうでない場合は陰性と判断さ
れる。
That is, the patient's serum is reacted with the cell nucleus, a fluorescent label is added, and the antinuclear antibody is observed using a fluorescence microscope. At this time, if the antinuclear antibody emits fluorescence, the patient's serum is positive. Otherwise, it is determined to be negative.

【0004】従来の蛍光抗体法による検査では、検査者
が蛍光顕微鏡を直接目視することにより種類判定を行う
か、あるいはCCDカメラ等を介して蛍光顕微鏡が捉え
た画像をCRT上に映し出して検査者の目視により種類
判定を行っていた。
In the conventional inspection by the fluorescent antibody method, the inspector makes a type judgment by directly visually observing the fluorescent microscope, or the image captured by the fluorescent microscope is displayed on a CRT through a CCD camera or the like and the inspector is displayed. The type was determined by visual inspection.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来例においては、目視による種類判定は、抗核抗体が発
する蛍光は微弱であるために、通常は暗室で行われてい
る。そのため、作業環境が悪いという不都合があった。
However, in the above-mentioned conventional example, the type determination by visual observation is normally performed in a dark room because the fluorescence emitted by the antinuclear antibody is weak. Therefore, there is an inconvenience that the working environment is bad.

【0006】さらに、CRT等を使用する場合において
も、蛍光顕微鏡から得られる画像は暗いために、検査者
の目視による処理は困難である。したがって、判断結果
に個人差が伴い、正確な種類判定を行うには熟練を要す
るという問題点もあった。特に、複数の種類に類似する
あいまいな画像に対しては、判断結果に顕著に個人差が
生じていた。
Further, even when a CRT or the like is used, the image obtained from the fluorescence microscope is dark, so that it is difficult for the inspector to perform visual processing. Therefore, there is a problem in that the determination result depends on the individual, and skill is required to accurately determine the type. In particular, for ambiguous images that are similar to a plurality of types, there is a significant individual difference in the determination result.

【0007】[0007]

【発明の目的】本発明の目的は、かかる従来例の有する
不都合を改善し、検査者の目視によらず、画像中におけ
る抗体の正確な種類判定を自動的に行うことができ、し
かも判定結果に個人差が生じることなく種類判定を迅速
に行うことができる蛍光抗体判定装置を提供することに
ある。
An object of the present invention is to improve the inconvenience of the conventional example, and to automatically perform accurate type determination of an antibody in an image without visual inspection by an inspector. It is an object of the present invention to provide a fluorescent antibody determination device capable of quickly performing type determination without causing individual differences.

【0008】[0008]

【課題を解決するための手段】そこで、本発明では、判
定対象物を含む画像データを入力する画像入力部と、こ
の画像入力部で入力した画像データを記憶する画像記憶
部と、この画像記憶部に記憶された画像データの中から
判定対象物を抽出する判定対象物抽出手段と、この判定
対象物抽出手段で抽出された判定対象物の大きさを所定
の画素数から成る大きさに正規化することにより入力デ
ータを作成する入力データ作成手段と、この入力データ
作成手段で作成された入力データに対してニューラルネ
ットワーク処理を行うニューラルネットワーク処理手段
と、このニューラルネットワーク処理手段の処理結果に
基づいて判定対象物の種類を出力する種類出力部とを具
備するという構成を採っている。これによって前述した
目的を達成しようとするものである。
Therefore, in the present invention, an image input section for inputting image data including an object to be judged, an image storage section for storing the image data input by this image input section, and this image storage section. Determination target object extracting means for extracting the determination target object from the image data stored in the unit, and the size of the determination target object extracted by the determination target object extracting means is normalized to a size consisting of a predetermined number of pixels. Input data creating means for creating input data by converting the input data, a neural network processing means for performing a neural network processing on the input data created by the input data creating means, and a processing result of the neural network processing means And a type output unit that outputs the type of the determination target object. This aims to achieve the above-mentioned object.

【0009】[0009]

【作用】画像入力部は、例えば蛍光顕微鏡に装備された
CCDカメラを通して、判定対象物を含む画像データを
入力する。この画像データは、画像記憶部に記憶され
る。判定対象物抽出手段は、記憶された画像データの中
から一個の判定対象物を抽出する。抽出された判定対象
物は、大きさにバラツキがある。そこで、入力データ作
成手段は、判定対象物の大きさを揃えるために、例えば
i×j個の画素数から成る大きさに正規化する。こうし
て、入力データが作成される。一方、ニューラルネット
ワーク処理手段は、入力データに対応して判定対象物の
種類を出力するように予め学習されたニューラルネット
ワークを有している。したがって、ニューラルネットワ
ーク処理手段に入力データを入力すると、判定対象物の
種類に応じた信号が種類出力部へ出力される。種類出力
部は、ニューラルネットワーク処理手段からの出力に基
づいて判定対象物の種類を出力する。
The image input section inputs image data including the object to be judged through, for example, a CCD camera equipped in the fluorescence microscope. This image data is stored in the image storage unit. The determination target extraction means extracts one determination target from the stored image data. The extracted determination target has variations in size. Therefore, in order to make the sizes of the determination objects uniform, the input data creating means normalizes the size to, for example, the number of pixels of i × j. In this way, the input data is created. On the other hand, the neural network processing means has a neural network that has been preliminarily learned so as to output the type of the determination target object corresponding to the input data. Therefore, when input data is input to the neural network processing means, a signal corresponding to the type of the determination target object is output to the type output unit. The type output unit outputs the type of the determination target object based on the output from the neural network processing means.

【0010】[0010]

【発明の実施例】以下、本発明の一実施例を図1乃至図
9に基づいて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS.

【0011】図1の実施例は、判定対象物を含む画像デ
ータを入力する画像入力部10と、画像入力部10で入
力した画像データを記憶する画像記憶部12と、画像記
憶部12に記憶された画像データの中から判定対象物を
抽出する判定対象物抽出手段14と、判定対象物抽出手
段14で抽出された判定対象物の大きさを所定の画素数
から成る大きさに正規化することにより入力データを作
成する入力データ作成手段16と、入力データ作成手段
16で作成された入力データに対してニューラルネット
ワーク処理を行うニューラルネットワーク処理手段18
と、ニューラルネットワーク処理手段18の処理結果に
基づいて判定対象物の種類を出力する種類出力部20と
から構成される。
In the embodiment shown in FIG. 1, an image input section 10 for inputting image data including an object to be judged, an image storage section 12 for storing the image data input by the image input section 10, and an image storage section 12 are stored. The determination target object extracting means 14 for extracting the determination target object from the image data thus obtained, and the size of the determination target object extracted by the determination target object extracting means 14 are normalized to a size consisting of a predetermined number of pixels. Input data creating means 16 for creating input data by this, and neural network processing means 18 for performing neural network processing on the input data created by the input data creating means 16.
And a type output unit 20 that outputs the type of the determination target based on the processing result of the neural network processing unit 18.

【0012】画像入力部10は、判定対象物からの蛍光
を観察する蛍光顕微鏡30と、この蛍光顕微鏡30が捉
えた画像を光電変換しアナログ画像データとして出力す
るCCDカメラ32と、CCDカメラ32から入力した
アナログ画像データをデジタル画像データに変換して画
像記憶部12へ出力するA/D変換器34とから構成さ
れている。このデジタル画像データの例を図2に示す。
図2において、デジタル画像データはI×J個の画素か
ら成り、図中のSが判定対象物の一つである。
The image input unit 10 includes a fluorescence microscope 30 for observing fluorescence from an object to be judged, a CCD camera 32 for photoelectrically converting an image captured by the fluorescence microscope 30 and outputting it as analog image data, and a CCD camera 32. The A / D converter 34 converts the input analog image data into digital image data and outputs the digital image data to the image storage unit 12. An example of this digital image data is shown in FIG.
In FIG. 2, the digital image data is composed of I × J pixels, and S in the figure is one of the determination objects.

【0013】画像記憶部12は、フロッピィーディス
ク,ハードディスク等の外部記憶装置又はビデオ信号用
のRAM等から構成され、画像データを画素ごとに例え
ば 256階調の濃度として記憶している。
The image storage unit 12 is composed of an external storage device such as a floppy disk or a hard disk, or a RAM for video signals, and stores image data for each pixel as a density of, for example, 256 gradations.

【0014】種類出力部20は、ニューラルネットワー
ク処理手段18から出力された判定対象物の種類を表示
するCRT又はプリンタ等から構成されている。
The type output unit 20 is composed of a CRT or a printer which displays the type of the judgment object output from the neural network processing means 18.

【0015】判定対象物抽出手段14,入力データ作成
手段16及びニューラルネットワーク処理手段18は、
例えばコンピュータ及びこれを動作させるプログラムに
よって実現できる。また、ニューラルネットワーク処理
手段18は、ニューロチップによっても実現できる。
The judgment object extracting means 14, the input data creating means 16 and the neural network processing means 18 are
For example, it can be realized by a computer and a program that operates the computer. The neural network processing means 18 can also be realized by a neurochip.

【0016】判定対象物抽出手段14は、画像データを
画素ごとに濃度に応じて、ある一定のしきい値以下を
「0」とすると共にそのしきい値以上を「1」とする。
続いて、このようにして得られた二値画像データの中か
ら、いわゆるラベリング処理により判定対象物を1つだ
け抽出して切り出しを行う。ラベリング処理とは、二値
画像において「1」の画素が連結している部分を一つの
成分とする処理である
The determination object extracting means 14 sets the image data to "0" below a certain threshold value and to "1" above the threshold value according to the density for each pixel.
Then, from the binary image data thus obtained, only one determination target object is extracted and cut out by so-called labeling processing. The labeling process is a process in which a portion in which pixels of "1" are connected in a binary image is one component.

【0017】入力データ作成手段16は、図3に示すよ
うに、切り出された判定対象物を、例えばi×j個の画
素数から成る大きさに正規化する。このようにして、判
定対象物は、その大きさが揃えられて、ニューラルネッ
トワーク処理手段18の入力データとなる。すなわち、
入力データは、図4に示すように「0」又は「1」から
成るi×j個のデータである。
As shown in FIG. 3, the input data creating means 16 normalizes the cut-out decision object to a size composed of, for example, the number of pixels of i × j. In this way, the sizes of the objects to be judged are made uniform and become the input data of the neural network processing means 18. That is,
The input data is i × j data consisting of “0” or “1” as shown in FIG.

【0018】ニューラルネットワーク処理手段18は、
図5に示されるようなニューラルネットワーク部36を
有している。
The neural network processing means 18 is
It has a neural network unit 36 as shown in FIG.

【0019】ニューラルネットワーク部36は、入力デ
ータ作成手段16で作成された入力データが入力される
入力層36aと、中間層36bと、出力層36cとから
構成されている。そして各層はユニットと呼ばれる構成
要素から成り立っており、各ユニットが結合することに
よりニューラルネットワークが構成されている。
The neural network section 36 is composed of an input layer 36a to which the input data created by the input data creating means 16 is input, an intermediate layer 36b, and an output layer 36c. Each layer is made up of constituent elements called units, and a neural network is formed by connecting the units.

【0020】入力層36aの各ユニットは、中間層36
bのそれぞれのユニットとすべて結合している。そし
て、入力層36aのユニット数は入力データの画素数に
対応した個数であり、任意に設定可能である。本実施例
では図5に示されるようにi×j個のユニットを具備し
ている。また、中間層36bの各ユニットは、出力層3
6cのそれぞれのユニットとすべて結合している。
Each unit of the input layer 36a is composed of an intermediate layer 36a.
It is all associated with each unit of b. The number of units of the input layer 36a is the number corresponding to the number of pixels of input data, and can be set arbitrarily. In this embodiment, as shown in FIG. 5, i × j units are provided. In addition, each unit of the intermediate layer 36b corresponds to the output layer 3
All of them are connected to the respective units of 6c.

【0021】出力層36cのユニット数は識別させたい
カテゴリの数だけ設置される。本実施例では、判定対象
物の種類の判定を行うので、図5に示されるように出力
層36cは5個のユニットで構成されている。
The number of units of the output layer 36c is set to the number of categories to be identified. In this embodiment, since the type of the determination target is determined, the output layer 36c is composed of five units as shown in FIG.

【0022】ただし、入力層36aと中間層36b、中
間層36bと出力層36c間の結合方法、および中間層
36bの層数およびユニット数は設計に応じて任意に設
定可能である。
However, the coupling method between the input layer 36a and the intermediate layer 36b, the intermediate layer 36b and the output layer 36c, and the number of layers and the number of units of the intermediate layer 36b can be arbitrarily set according to the design.

【0023】ここで、入力層36aのユニット数をN
i、中間層36bのユニット数をNh、出力層36cのユ
ニット数をNoとする。また、入力層36aのユニット
nから中間層36bのユニットmへの結合の大きさすな
わち結合荷重をWinm、中間層36bのユニットnから
出力層36cのユニットmへの結合荷重をWhnmとす
る。
Here, the number of units of the input layer 36a is N
i, the number of units of the intermediate layer 36b is Nh, and the number of units of the output layer 36c is No. The magnitude of the coupling from the unit n of the input layer 36a to the unit m of the intermediate layer 36b, that is, the coupling load is Winm, and the coupling load from the unit n of the intermediate layer 36b to the unit m of the output layer 36c is Whnm.

【0024】入力層36aは、入力されたデータを単純
にそのまま中間層36bに出力するだけの処理を行う。
また、中間層36bは、入力層36aからのデータに基
づき次式(1)を用いた演算を行う。ここで、Oinは入
力層36aのユニットnからの出力、Ohmは中間層36
bのユニットmからの出力、Thmは中間層36bのユニ
ットmにおけるしきい値である。
The input layer 36a performs a process of simply outputting the input data as it is to the intermediate layer 36b.
Further, the intermediate layer 36b performs a calculation using the following equation (1) based on the data from the input layer 36a. Here, Oin is the output from the unit n of the input layer 36a, and Ohm is the intermediate layer 36a.
The output from unit m of b, Thm, is the threshold in unit m of intermediate layer 36b.

【0025】[0025]

【数1】 [Equation 1]

【0026】ここで、fは変換関数であり、図6に示さ
れるようにシグモイド関数が一般的に用いられている。
Here, f is a conversion function, and a sigmoid function is generally used as shown in FIG.

【0027】[0027]

【数2】 [Equation 2]

【0028】中間層36bから出力層36cへの場合も
同様に次式(3)で示されるような変換が行われる。こ
こで、Ohnは中間層36bのユニットnからの出力、O
omは出力層36cのユニットmからの出力、Tomは出力
層36cのユニットmにおけるしきい値である。
Similarly, in the case of the intermediate layer 36b to the output layer 36c, the conversion represented by the following equation (3) is performed. Here, Ohn is the output from the unit n of the intermediate layer 36b, Oh
om is an output from the unit m of the output layer 36c, and Tom is a threshold value in the unit m of the output layer 36c.

【0029】[0029]

【数3】 [Equation 3]

【0030】このような構成において、入力層36aに
入力される画像の入力データと出力層36cからの出力
すなわち画像の種類判定の結果との関係を得るために、
各ユニット間の結合強度をあらかじめ学習によって求め
る。
In such a configuration, in order to obtain the relationship between the input data of the image input to the input layer 36a and the output from the output layer 36c, that is, the result of the image type determination,
The bond strength between each unit is obtained by learning in advance.

【0031】図3に示す画像には図7(A),(B)等
に示されるようにその形状に違いが見られる。ここで、
ある画像の入力データを入力層36aに入力した時、こ
の画像の入力データが図7(A)に示す種類であれば、
出力層36cの一番目のユニットから1を出力させ、図
7(B)に示す種類であれば、出力層36cの二番目の
ユニットから1を出力させるように学習させる。
In the image shown in FIG. 3, there is a difference in shape as shown in FIGS. 7 (A) and 7 (B). here,
When input data of a certain image is input to the input layer 36a, if the input data of this image is of the type shown in FIG.
7 is output from the first unit of the output layer 36c, and in the case of the type shown in FIG. 7B, the second unit of the output layer 36c is trained to output 1.

【0032】このような学習済みのネットワークを使用
すれば、ある未知の画像の入力データが与えられたと
き、どのユニットから最大値が出力したかを判定するこ
とで種類の判定を行うことができる。
If such a learned network is used, when the input data of a certain unknown image is given, it is possible to determine the type by determining from which unit the maximum value is output. .

【0033】次に、本実施例の動作について図9のフロ
ーチャートを用いて説明する。
Next, the operation of this embodiment will be described with reference to the flowchart of FIG.

【0034】.患者の血清と細胞核を反応させ、さら
に蛍光標識を加えた判定対象物を蛍光顕微鏡30にセッ
トする。
.. The patient's serum and cell nuclei are reacted with each other, and the determination target to which a fluorescent label is added is set on the fluorescence microscope 30.

【0035】.蛍光顕微鏡30を通して得られた画像
は、CCDカメラ32で撮像され光電変換されてアナロ
グ信号としてA/D変換部34に出力される。
.. The image obtained through the fluorescence microscope 30 is picked up by the CCD camera 32, photoelectrically converted, and output to the A / D conversion unit 34 as an analog signal.

【0036】.A/D変換部34は、CCDカメラ3
2からの画像データを入力する(ステップS10)。
.. The A / D conversion unit 34 is the CCD camera 3
The image data from 2 is input (step S10).

【0037】.A/D変換部34は、CCDカメラ3
2からのアナログ画像データをデジタル画像データに変
換し、I×J個の画素についてのデジタル画像データを
画像記憶部12に転送する(ステップS11)。
.. The A / D conversion unit 34 is the CCD camera 3
The analog image data from 2 is converted into digital image data, and the digital image data for I × J pixels is transferred to the image storage unit 12 (step S11).

【0038】ここで、CCDカメラ32から入力された
画像はカラー画像であるが、抗核抗体の蛍光反応はグリ
ーン色の濃度値のみで表すことが可能であるため、A/
D変換部34は、グリーン色信号のみを対象とする。
Here, the image input from the CCD camera 32 is a color image, but since the fluorescence reaction of the antinuclear antibody can be represented only by the density value of green color, A /
The D conversion unit 34 targets only the green color signal.

【0039】.画像記憶部12では、A/D変換部3
4からの画像データはI×J個の画素の組合せとして記
憶される。また、任意の一つの画素において2Pの階調
を持ち、0〜2(P-1)の範囲の濃度値を持つ。従って、
本実施例では8ビットで濃度値を表すために、28=2
56階調、すなわち濃度値は0〜255となる。
.. In the image storage unit 12, the A / D conversion unit 3
The image data from 4 is stored as a combination of I × J pixels. Further, any one pixel has a gray scale of 2 P and has a density value in the range of 0 to 2 (P-1) . Therefore,
In this embodiment, since the density value is represented by 8 bits, 2 8 = 2
56 gradations, that is, the density value is 0 to 255.

【0040】.判定対象物抽出手段14は、画像デー
タを画素ごとに濃度に応じて、ある一定のしきい値以下
を「0」とすると共にしきい値以上を「1」とする。続
いて、このようにして得られた二値画像データの中か
ら、いわゆるラベリング処理により判定対象物を1つだ
け抽出して切り出しを行う(ステップS12)。
.. The determination target extraction means 14 sets the image data to be "0" below a certain threshold value and "1" above the threshold value according to the density for each pixel. Then, from the binary image data thus obtained, only one determination target object is extracted and cut out by so-called labeling processing (step S12).

【0041】.入力データ作成手段16は、図3に示
すように、切り出された判定対象物を、i×j個の画素
数から成る大きさに正規化する(ステップS13)。そ
して、このi×j個の画素は入力データとして、ニュー
ラルネットワーク部36に入力される(ステップS1
4)。
.. As shown in FIG. 3, the input data creating unit 16 normalizes the cut-out determination object to a size including the number of pixels of i × j (step S13). Then, the i × j pixels are input as input data to the neural network unit 36 (step S1).
4).

【0042】.ニューラルネットワーク部36は、入
力層36aの各ユニットに入力されるi×j個の画素か
ら成るデータに基づいて、所定の処理を行い出力層36
cから処理結果を種類出力部20に出力する。
.. The neural network unit 36 performs a predetermined process on the basis of the data of i × j pixels input to each unit of the input layer 36a to perform a predetermined process.
The processing result is output from c to the type output unit 20.

【0043】.種類出力部20では、ニューラルネッ
トワーク部36からの出力に基づいて種類の判定を行
う。本実施例では、出力層36cのユニット数は5個で
ある。それぞれのユニットからの出力が、例えば0,
0,1,0,0であれば、入力データは図8に示す
(C)であると判定される(ステップS15)。
.. The type output unit 20 determines the type based on the output from the neural network unit 36. In this embodiment, the number of units of the output layer 36c is five. The output from each unit is 0,
If it is 0, 1, 0, 0, it is determined that the input data is (C) shown in FIG. 8 (step S15).

【0044】また、ニューラルネットワーク部36で
は、種類のあいまいな入力データに対しても判定が可能
となる。例えば、図7に示す(B)か(C)か判定が難
しい入力データに対しては、0.0, 0.65, 0.45, 0.0, 0.
0 といった出力となる。すなわち、入力データは(B)
又は(C)に近いものであり、その中でも(B)に近い
種類であると判定できる。
Further, the neural network unit 36 can also make a judgment for ambiguous types of input data. For example, 0.0, 0.65, 0.45, 0.0, 0. for input data for which it is difficult to determine (B) or (C) shown in FIG.
The output will be 0. That is, the input data is (B)
Alternatively, it can be determined to be a type close to (C), and a type close to (B) among them.

【0045】次に、ニューラルネットワーク部36での
動作について図9のフローチャートを用いて説明する。
Next, the operation of the neural network unit 36 will be described with reference to the flowchart of FIG.

【0046】.ニューラルネットワーク部36の入力
層36aでは、図4に示すi×j個のデータが、図5に
示すユニット0からユニットi×jまでに入力される
(ステップS21)。
.. In the input layer 36a of the neural network unit 36, the i × j pieces of data shown in FIG. 4 are input from the unit 0 to the unit i × j shown in FIG. 5 (step S21).

【0047】そして、入力層36aの各ユニットは入力
データを中間層36bに出力する(ステップS22)。
Then, each unit of the input layer 36a outputs the input data to the intermediate layer 36b (step S22).

【0048】.中間層36bの各ユニットは入力層3
6aからのデータに基づき、入力の和を求める(ステッ
プS24)。
.. Each unit of the intermediate layer 36b is the input layer 3
Based on the data from 6a, the sum of inputs is calculated (step S24).

【0049】例えば、ユニットmの場合には、次式
(4)を用いて入力の和Ym’を求める。
For example, in the case of the unit m, the sum Ym 'of the inputs is calculated using the following equation (4).

【0050】[0050]

【数4】 [Equation 4]

【0051】.中間層36bの各ユニットは、入力の
和としきい値との差を求める(ステップS25)。
.. Each unit of the intermediate layer 36b obtains the difference between the sum of inputs and the threshold value (step S25).

【0052】例えば、ユニットmの場合には、次式
(5)を用いてしきい値Thmとの差Ymを求める。
For example, in the case of the unit m, the difference Ym from the threshold value Thm is obtained using the following equation (5).

【0053】 Ym =Ym’ − Thm ・・・・・(5)Ym = Ym'-Thm (5)

【0054】.中間層36bの各ユニットは、入力の
和としきい値との差に基づいて式(2)の関数fによる
変換を行い出力値を求める(ステップS26)。
.. Each unit of the intermediate layer 36b obtains an output value by performing conversion by the function f of the equation (2) based on the difference between the sum of inputs and the threshold value (step S26).

【0055】例えば、ユニットmの場合には、次式
(6)を用いて出力値Ohmを求める。
For example, in the case of the unit m, the output value Ohm is obtained using the following equation (6).

【0056】 Ohm = f(Ym) ・・・・・(6)Ohm = f (Ym) (6)

【0057】.中間層36bの全ユニットで出力値の
演算が終了すると(ステップS23)、出力層36cの
各ユニットは、入力の和を求める(ステップS28)。
.. When the calculation of the output value is completed in all the units of the intermediate layer 36b (step S23), each unit of the output layer 36c obtains the sum of the inputs (step S28).

【0058】例えば、ユニットmの場合には、次式
(7)を用いて入力の和Xm’を求める。
For example, in the case of the unit m, the sum Xm 'of the inputs is calculated using the following equation (7).

【0059】[0059]

【数5】 [Equation 5]

【0060】.出力層36cの各ユニットは、入力の
和としきい値との差を求める(ステップS29)。
.. Each unit of the output layer 36c obtains the difference between the sum of the inputs and the threshold value (step S29).

【0061】例えば、ユニットmの場合には、次式
(8)を用いてしきい値Tomとの差Xmを求める。
For example, in the case of the unit m, the difference Xm from the threshold value Tom is obtained using the following equation (8).

【0062】 Xm =Xm’ − Tom ・・・・・(8)Xm = Xm'-Tom (8)

【0063】.出力層36cの各ユニットは、入力の
和としきい値との差に基づいて式(2)の関数fによる
変換を行い出力値を求める(ステップS30)。
.. Each unit of the output layer 36c obtains an output value by performing conversion by the function f of the equation (2) based on the difference between the sum of inputs and the threshold value (step S30).

【0064】例えば、ユニットmの場合には、次式
(9)を用いて出力値Oomを求める。
For example, in the case of the unit m, the output value Oom is obtained using the following equation (9).

【0065】 Oom = f(Xm) ・・・・・(9)Oom = f (Xm) (9)

【0066】.出力層36cの全ユニットで出力値の
演算が終了するまで繰り返し上記処理が行われる(ステ
ップS27)。
.. The above process is repeated until the calculation of the output value is completed in all the units of the output layer 36c (step S27).

【0067】以上説明したように、本実施例によると、
ニューラルネットワーク処理手段18による定量的な種
類の判定がなされるので、判定結果に判定者が異なるこ
とによる個人差を生じる恐れがなくなり、種類の判定の
自動化が可能となり、初心者であっても正確かつ迅速に
抗核抗体の種類の判定を行うことができる。
As described above, according to this embodiment,
Since the neural network processing means 18 makes a quantitative type determination, there is no risk of individual differences in the determination result due to different determiners, and it is possible to automate the type determination, and even a beginner can accurately and accurately It is possible to quickly determine the type of antinuclear antibody.

【0068】[0068]

【発明の効果】本発明によれば、ニューラルネットワー
ク処理手段によって、検査者の目視によらず、抗核抗体
の種類判断を行うことができる。したがって、初心者で
も正確な種類判定を自動的にしかも判定結果に個人差が
生じることなく迅速に行うことができる。
According to the present invention, the type of antinuclear antibody can be judged by the neural network processing means without the visual inspection by the examiner. Therefore, even a beginner can perform accurate type determination automatically and quickly without causing individual differences in determination results.

【0069】また、複数の種類に類似するあいまいな形
状を有する抗核抗体に対しても、そのあいまいさを定量
化でき、正確で再現性に優れた判断結果を得ることがで
きる。
Further, even for antinuclear antibodies having ambiguous shapes similar to a plurality of types, the ambiguity can be quantified, and accurate and reproducible judgment results can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すブロック構成図であ
る。
FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】図1のCCDカメラで得られた画像データを示
す説明図である。
FIG. 2 is an explanatory diagram showing image data obtained by the CCD camera of FIG.

【図3】図2の画像データを正規化した状態を示す説明
図である。
FIG. 3 is an explanatory diagram showing a state where the image data of FIG. 2 is normalized.

【図4】図3の正規化された画像データからニューラル
ネットワーク部の入力データを作成した状態を示す説明
図である。
FIG. 4 is an explanatory diagram showing a state in which input data of a neural network unit is created from the normalized image data of FIG.

【図5】本発明の一実施例のニューラルネットワーク部
を示す説明図である。
FIG. 5 is an explanatory diagram showing a neural network unit according to an embodiment of the present invention.

【図6】シグモイド関数を示す説明図である。FIG. 6 is an explanatory diagram showing a sigmoid function.

【図7】抗核抗体の種類を示す説明図である。FIG. 7 is an explanatory diagram showing types of antinuclear antibodies.

【図8】本発明の一実施例の動作を示すフローチャート
である。
FIG. 8 is a flowchart showing the operation of the embodiment of the present invention.

【図9】本発明の一実施例のニューラルネットワーク部
の動作を示すフローチャートである。
FIG. 9 is a flowchart showing the operation of the neural network unit according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 画像入力部 12 画像記憶部 14 判定対象物抽出手段 16 入力データ作成手段 18 ニューラルネットワーク処理手段 20 種類出力部 DESCRIPTION OF SYMBOLS 10 image input unit 12 image storage unit 14 determination target object extraction unit 16 input data creation unit 18 neural network processing unit 20 type output unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 判定対象物を含む画像データを入力する
画像入力部と、この画像入力部で入力した画像データを
記憶する画像記憶部と、この画像記憶部に記憶された画
像データの中から判定対象物を抽出する判定対象物抽出
手段と、この判定対象物抽出手段で抽出された判定対象
物の大きさを所定の画素数に正規化することにより入力
データを作成する入力データ作成手段と、この入力デー
タ作成手段で作成された入力データに対してニューラル
ネットワーク処理を行うニューラルネットワーク処理手
段と、このニューラルネットワーク処理手段の処理結果
に基づいて判定対象物の種類を出力する種類出力部とを
備えていることを特徴とする蛍光抗体判定装置。
1. An image input unit for inputting image data including an object to be judged, an image storage unit for storing the image data input by the image input unit, and an image data stored in the image storage unit. Determination target object extracting means for extracting the determination target object; and input data creating means for creating input data by normalizing the size of the determination target object extracted by the determination target object extracting means to a predetermined number of pixels. A neural network processing means for performing a neural network processing on the input data created by the input data creating means, and a kind output section for outputting the kind of the judgment object based on the processing result of the neural network processing means. An apparatus for determining a fluorescent antibody, which comprises:
【請求項2】 前記ニューラルネットワーク処理手段
は、前記入力データ作成手段で正規化される画素数に等
しいユニット数から成る入力層と、前記種類出力部で出
力される判定対象物の種類の数に等しいユニット数から
成る出力層とを備えたことを特徴とする請求項1記載の
蛍光抗体判定装置。
2. The neural network processing means determines an input layer having a unit number equal to the number of pixels normalized by the input data creating means, and a number of types of determination objects output by the type output section. The fluorescent antibody determination apparatus according to claim 1, further comprising an output layer having an equal number of units.
【請求項3】 前記画像入力部は、判定対象物からの蛍
光を観察する蛍光顕微鏡と、この蛍光顕微鏡が捉えた画
像を光電変換しアナログ画像データとして出力するCC
Dカメラと、このCCDカメラから入力したアナログ画
像データをデジタル画像データに変換して前記画像記憶
部へ出力するA/D変換器とから構成されていることを
特徴とする請求項2記載の蛍光抗体判定装置。
3. The image input unit, a fluorescence microscope for observing fluorescence from an object to be judged, and a CC for photoelectrically converting an image captured by the fluorescence microscope and outputting it as analog image data.
3. The fluorescence according to claim 2, comprising a D camera and an A / D converter which converts analog image data input from the CCD camera into digital image data and outputs the digital image data to the image storage section. Antibody determination device.
JP5262878A 1993-09-27 1993-09-27 Fluorescence antibody judging means Withdrawn JPH0792090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5262878A JPH0792090A (en) 1993-09-27 1993-09-27 Fluorescence antibody judging means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5262878A JPH0792090A (en) 1993-09-27 1993-09-27 Fluorescence antibody judging means

Publications (1)

Publication Number Publication Date
JPH0792090A true JPH0792090A (en) 1995-04-07

Family

ID=17381892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5262878A Withdrawn JPH0792090A (en) 1993-09-27 1993-09-27 Fluorescence antibody judging means

Country Status (1)

Country Link
JP (1) JPH0792090A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6170261B1 (en) 1997-11-11 2001-01-09 Komatsu, Ltd. Hydraulic fluid supply system
CN104101294A (en) * 2013-04-09 2014-10-15 索尼公司 Analysis apparatus, analysis program, and analysis system
EP3561766A4 (en) * 2016-12-21 2020-07-01 Nikon Corporation Information processing device, image processing device, microscope, information processing method, and information processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6170261B1 (en) 1997-11-11 2001-01-09 Komatsu, Ltd. Hydraulic fluid supply system
CN104101294A (en) * 2013-04-09 2014-10-15 索尼公司 Analysis apparatus, analysis program, and analysis system
JP2014203038A (en) * 2013-04-09 2014-10-27 ソニー株式会社 Analysis apparatus, analysis program, and analysis system
EP3561766A4 (en) * 2016-12-21 2020-07-01 Nikon Corporation Information processing device, image processing device, microscope, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
JP6915349B2 (en) Image processing equipment, image processing method, and image processing program
US9489562B2 (en) Image processing method and apparatus
EP3904866A1 (en) Defect inspecting device, defect inspecting method, and program for same
CN109685765B (en) X-ray film pneumonia result prediction device based on convolutional neural network
EP3564857A1 (en) Pattern recognition method of autoantibody immunofluorescence image
CN112232327A (en) Anti-nuclear antibody karyotype interpretation method and device based on deep learning
CN111680575B (en) Human epithelial cell staining classification device, equipment and storage medium
CN113128522B (en) Target identification method, device, computer equipment and storage medium
JPH0792090A (en) Fluorescence antibody judging means
US20220304617A1 (en) System and method for diagnosing small bowel cleanliness
JPH07239938A (en) Inspection method
CN112270404A (en) Detection structure and method for bulge defect of fastener product based on ResNet64 network
JP7337557B2 (en) Information processing device, system, information processing method and program
CN110969188A (en) Exosome electron microscope picture judgment system and method based on deep learning
CN116129537A (en) Living body detection method, living body detection device, electronic equipment and storage medium
CN113476065B (en) Multiclass pneumonia diagnostic system
CN115330677A (en) Pole piece abnormity detection method, device and system of battery cell and storage medium
CN112116460B (en) Block chain based patent pledge business processing method, system and storage medium
CN114998194A (en) Product defect detection method, system and storage medium
CN114582012A (en) Skeleton human behavior recognition method, device and equipment
JPH06168333A (en) Fluorescent antibody judging device
JP2002163635A (en) System and method for supporting diagnosis of pervasive hepatic disease by utilizing hierarchical neural network on basis of feature amount provided from ultrasonic image of diagnostic part
JPH06167453A (en) Device for judging fluorescent antibody
JPH11120362A (en) Processor and method for image processing and machine-readable recording medium where criterion setting program is recorded
JPH07262379A (en) Article identifying system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001128