JPH03102477A - Radial image processing device - Google Patents

Radial image processing device

Info

Publication number
JPH03102477A
JPH03102477A JP2167514A JP16751490A JPH03102477A JP H03102477 A JPH03102477 A JP H03102477A JP 2167514 A JP2167514 A JP 2167514A JP 16751490 A JP16751490 A JP 16751490A JP H03102477 A JPH03102477 A JP H03102477A
Authority
JP
Japan
Prior art keywords
image
candidate
reading
neural network
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2167514A
Other languages
Japanese (ja)
Inventor
Hideya Takeo
英哉 武尾
Kazuhiro Hishinuma
菱沼 和弘
Kazuo Shimura
一男 志村
Nobuyoshi Nakajima
中島 延淑
Masashi Hara
昌司 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Publication of JPH03102477A publication Critical patent/JPH03102477A/en
Priority to US07/712,214 priority Critical patent/US5157733A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To further improve accuracy while using a device by correcting a data processing by a neural network and inputting corrective information to perform re-learning to the neural network after packaging a learned neural network to the device. CONSTITUTION:The learned neural network is packaged in an arithmetic part, and the final image processed with the data of a radiation field, an image reading condition, and abnormal shading, etc., obtained by computation is outputted to an output part, and is displayed as a visible image. When a display image is an inappropriate one, the corrective information to correct the data processing by the neural network and to perform the re-learning are inputted to the neural network with a corrective input means to obtain an appropriate image. In such a way, when the data processing by the neural network is performed inappropriately after packaging the neural network, a user can correct the processing and perform the re-learning. Thereby, the accuracy can be improved further while using the device.

Description

【発明の詳細な説明】 (産業」二の利用分野) 本発明は、放射線画像処理装置、さらに詳し7くは、放
射線画像データに基づいて、照射野の認識、先読み画像
データに裁づく本読みの画像読取条件の決定、画像処理
条件の決定、異常陰影の検出等のデータ処理を、ニュー
ラルネットワークを用いて行なう放射線画像処理装置に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION (Field of Application in Industry) The present invention relates to a radiation image processing device, and more specifically, to a radiation image processing device, and more particularly, to a radiation image processing device, which uses radiation image data to recognize an irradiation field, and to judge a book reading based on pre-read image data. The present invention relates to a radiation image processing apparatus that uses a neural network to perform data processing such as determining image reading conditions, determining image processing conditions, and detecting abnormal shadows.

(従来の技術) 記録された放射線画像を読み取って画像信号を得、この
画像信号に適切な画像処理を施した後、画像を再生記録
することは種々の分野で行なわれている。たとえば、後
の画像処理に適合するように設計されたガンマ値の低い
X線フィルムを用いてX線画像を記録し、このX線画像
が記録されたフィルムからX線画像を読み取って電気信
号に変換し、この電気信号(画像信号)に画像処理を施
した後コピー写真等に可視像として再生することにより
、コントラスト,シャープネス,粒状性等の画質性能の
良好な再生画像を得ることが行なわ5 6 れている(特公昭BI.−5193号公報参照)。
(Prior Art) It is practiced in various fields to read a recorded radiation image to obtain an image signal, perform appropriate image processing on the image signal, and then reproduce and record the image. For example, an X-ray image is recorded using an X-ray film with a low gamma value designed to be compatible with later image processing, and the X-ray image is read from the film on which it is recorded and converted into an electrical signal. By performing image processing on this electrical signal (image signal) and then reproducing it as a visible image in a photocopy, etc., it is possible to obtain a reproduced image with good image quality performance such as contrast, sharpness, and graininess. 5 6 (see Japanese Patent Publication No. Sho BI.-5193).

また本願出願人により、放射線(X線,α線,β線,γ
線,電子線,紫外線等)を照剃するとこの放射線エネル
ギーの一部が蓄積され、その後可視光等の励起光を照則
すると蓄積されたエネルギーに応じて輝尽発光を示す蓄
積性蛍光体(輝尽性蛍光体)を利川して、人体等の被写
体の放射線画像情報を一旦シート状の蓄積性蛍光体に記
録し、この蓄積性蛍光体ンートをレーザー光等の励起光
で走査して輝尽発光光を生ぜしめ、得られた輝尽発光光
を九電的に読み取って画像信号を得、この画像データに
基づき被写体の放射線画像を写真感光材料等の記録材料
、CRT等に可視像として出力させる放射線画像記録再
生システムがすでに提案されている(特開昭55−1.
2429号,同5B−11395号同55−16347
2号,同58−1041345号,同55− 11H4
0号等)。
In addition, the applicant has proposed radiation (X-rays, α-rays, β-rays, γ-rays, etc.)
When exposed to a ray, electron beam, ultraviolet ray, etc., a part of this radiation energy is accumulated, and then when exposed to excitation light such as visible light, a stimulable phosphor that exhibits stimulated luminescence according to the accumulated energy ( Radiation image information of a subject such as a human body is recorded on a sheet of stimulable phosphor, and this stimulable phosphor sheet is scanned with excitation light such as a laser beam to make it shine. The resulting stimulated luminescence is read electronically to obtain an image signal, and based on this image data, a radiation image of the subject is recorded as a visible image on a recording material such as a photographic light-sensitive material, a CRT, etc. A radiation image recording and reproducing system has already been proposed (Japanese Unexamined Patent Publication No. 55-1.
No. 2429, No. 5B-11395 No. 55-16347
No. 2, No. 58-1041345, No. 55-11H4
0 etc.).

このシステムは、従来の銀塩写真を用いる放a・t線写
真システムと比較して極めて広い放射線露出域にわたっ
て画像を記録しうるという夷用的な利点を有している。
This system has the practical advantage of being able to record images over a much wider range of radiation exposure than conventional silver halide radiography systems.

すなわち、蓄積性蛍光体においては、放射線露光量に対
して蓄私後に励起によって輝尽発光する発光光の光量か
他めて広い範囲にわたって比例することが認められてお
り、従って種々の撮影条件により放射線露光量がかなり
大幅に変動しても、蓄積性蛍光体シートより放射される
輝尽発光光の光量を読取ゲインを適当な値に設定して光
電変換手段により読み取って電気信号に変換し、この電
気信号を用いて写真感光祠料等の記録祠料、CRT等の
表示装置に放射線画像を可視像として出力させることに
よって、族剃線露光量の変動に影響されない放則線画像
を得ることができる。
In other words, in stimulable phosphors, it is recognized that the amount of emitted light that is stimulated and emitted by excitation after storage is proportional to the amount of radiation exposure over a wide range. Even if the amount of radiation exposure varies considerably, the amount of stimulated luminescence light emitted from the stimulable phosphor sheet is read by a photoelectric conversion means by setting the reading gain to an appropriate value and converted into an electrical signal. By using this electrical signal to output the radiation image as a visible image to a recording material such as a photographic abrasive or a display device such as a CRT, a radial image that is not affected by fluctuations in the radiation exposure amount can be obtained. be able to.

上記システムにおいて、蓄積性蛍光体シートに照射され
た放射線の線量等に応じて最適な読取条件で読み取って
画像信号を得る前に、予め低レベルの光ビームにより蓄
積性蛍光体シーI・を走査してこのシートに記録された
放則線画像の概略を読み取る先読みを行ない、この先読
みにより得られた先読画像信号を分析し、その後上記シ
ートに高7 8 レベルの光ビームを照射して走査し、この放射線画像に
最適な読取条件で読み取って画像信号を得る本読みを行
なうように構成されたシステムもある。
In the above system, the stimulable phosphor sheet I is scanned in advance with a low-level light beam before reading it under optimal reading conditions depending on the dose of radiation applied to the stimulable phosphor sheet and obtaining an image signal. Then, pre-reading is performed to read the outline of the radial image recorded on this sheet, the pre-reading image signal obtained by this pre-reading is analyzed, and then the sheet is irradiated with a high 78 level light beam and scanned. However, there is also a system configured to perform actual reading in which an image signal is obtained by reading the radiation image under optimal reading conditions.

ここで読取条件とは、読取りにおける輝尽発光光の光量
と読取装置の出力との関係に影饗を与える各種の条件を
総称するものであり、例えば人出力の関係を定める読取
ゲイン,スケールファクタあるいは、読取りにおける励
起光のパワー等を意味するものである。
Here, reading conditions are a general term for various conditions that affect the relationship between the amount of stimulated luminescence light and the output of the reading device during reading, such as reading gain and scale factor that determine the relationship between human output. Alternatively, it refers to the power of excitation light during reading.

また、光ビームの高レベル/低レベルとは、それぞれ、
上記シートの単位面積当りに照射される光ビームのエネ
ルギーの大/小、もしくは上記シトから発せられる輝尽
発光光のエネルギーが上記光ビームの波長に依存する(
波長感度分布を有する)場合は、上記シートの単位面積
当りに照射される光ビームのエネルギーを上記波長感度
で重みづけした後の重みづけエネルギーの大〆小をいい
、光ビームのレベルを変える方法としては、異なる波長
の光ビームを用いる方法、レーザ光源等から発せられる
光ビームの強度そのものを変える方法、光ビームの光路
」二にNDフィルター等を挿入,除去することにより光
ビームの強度を変える方法、光ビームのビーム径を変え
て走査密度を変える方法、走査速度を変える方法等、公
知の種々の方法を用いることができる。
Also, the high level and low level of the light beam are, respectively.
The energy of the light beam irradiated per unit area of the sheet or the energy of stimulated luminescence light emitted from the sheet depends on the wavelength of the light beam (
(has a wavelength sensitivity distribution), the energy of the light beam irradiated per unit area of the sheet is weighted by the wavelength sensitivity, and then the weighted energy is large or small, and the level of the light beam is changed. Methods include methods of using light beams of different wavelengths, methods of changing the intensity of the light beam itself emitted from a laser light source, etc., and methods of changing the intensity of the light beam by inserting or removing an ND filter, etc. in the optical path of the light beam. Various known methods can be used, such as a method of changing the scanning density by changing the beam diameter of the light beam, and a method of changing the scanning speed.

また、この先読みを行なうシステムか先読みを行なわな
いシステムかによらず、得られた画像信号(先読画像信
号を含む)を分析し、画像信号に画像処理を施す際の最
適な画像処理条件を決定するようにしたシステムもある
。ここで画像処理条件とは、画像信号に基づく再生画像
の階調や感度等に影響を及ほす処理を該画像信号に施す
際の各種の条件を総称するものである。この画像信号に
基づいて最適な画像処理条件を決定する方法は、蓄積性
蛍光体シートを用いるシステムに限られず、たとえば従
来のX線フィルム等の記録シートに記録された放射線画
像から画像信号を得るシステムにも適用されている。
In addition, regardless of whether the system performs this pre-reading or the system that does not, the obtained image signal (including the pre-read image signal) is analyzed and the optimal image processing conditions are determined when applying image processing to the image signal. Some systems let you decide. The term "image processing conditions" as used herein is a general term for various conditions when performing processing on an image signal that affects the gradation, sensitivity, etc. of a reproduced image based on the image signal. The method of determining the optimal image processing conditions based on this image signal is not limited to systems using stimulable phosphor sheets, and for example, image signals are obtained from radiation images recorded on recording sheets such as conventional X-ray films. It is also applied to the system.

上記画像信号(先読画像信号を含む)に基づい9 10 て読取条件及び/又は画像処理条件(以下、読取条件等
と呼ぶ。)を求める演算は、あらかじめ多数の放射線画
像を統計的に処理した結果からそのアルゴリズムが定め
られている(たとえば、特開昭60−185944号公
報,特開昭61.−280163号公報参照)。
The calculation for determining reading conditions and/or image processing conditions (hereinafter referred to as reading conditions, etc.) based on the above image signals (including pre-read image signals) is performed by statistically processing a large number of radiographic images in advance. The algorithm has been determined based on the results (see, for example, Japanese Patent Laid-Open No. 60-185944 and Japanese Patent Laid-Open No. 61-280163).

この従来採用されているアルゴリズムは、一般的には画
像信号のヒストグラムを求め、ヒストグラム上における
画像信号の最大値、最小値、画像信号の出現頻度が最大
となる点の画像信号の値等の種々の特徴点を求め、この
特徴点に基づいて読取条件等を求めるものである。
This conventionally used algorithm generally calculates a histogram of an image signal, and calculates various values such as the maximum value, minimum value, and value of the image signal at the point where the frequency of appearance of the image signal is maximum on the histogram. The feature points are determined, and the reading conditions, etc. are determined based on the feature points.

ところが、近年、上記のようなアルゴリズムとは全く異
なるニューラルネットワークなる考え方が出現し、種々
の分野に適用されつつある。
However, in recent years, a concept called neural networks, which is completely different from the above-mentioned algorithms, has emerged and is being applied to various fields.

このニューラルネットワークは、ある入力信号を与えた
ときに出力された出力信号が正しい信号であるか誤った
信号であるかという情報(教師信号)を入力することに
より、ニューラルネットワーク内部の各ユニット間の結
合の重み(シナプス結合のウェイト)を修正するという
誤差逆伝幡学習(パックプロバゲーンヨン)機能を備え
たものであり、繰り返し゛学習′ させることにより、
新たな信号が入力されたときに正解を出力する確率を高
めることができるものである。(例えば、rD.E.R
umelhart.G.E.Hinton and R
j.WilliaTls:Learning repr
esentati.ons by back−prop
aga.tf.ngerrors.Nature,82
3−9,533−356.1986aJ ,  r麻生
英樹二バックブ口バゲーションComputrol N
0.24 53−60J,  r合原一幸著 ニューラ
ルコンピュータ東京電機大学出版局」参照)。
This neural network can communicate between each unit within the neural network by inputting information (teacher signal) on whether the output signal output when a certain input signal is given is a correct signal or an incorrect signal. It is equipped with an error back propagation learning function that corrects connection weights (synaptic connection weights), and by repeatedly ``learning'',
This can increase the probability of outputting a correct answer when a new signal is input. (For example, rD.E.R.
umelhart. G. E. Hinton and R.
j. William Tls: Learning repr.
esentati. ons by back-prop
aga. tf. ngerrors. Nature, 82
3-9, 533-356.1986aJ, r Hideki Aso 2-back baggation Computrol N
0.24 53-60J, r Kazuyuki Aihara, Neural Computer Tokyo Denki University Press).

このニューラルネットワークを読取条件等の決定にも適
用することが可能であり、画像信号等をニューラルネッ
トワークに入力することにより読取条件等を出力させる
ことができる。
This neural network can also be applied to determining reading conditions, etc., and reading conditions, etc. can be output by inputting an image signal etc. to the neural network.

また、上記X線フイルムや蓄積性蛍光体ンート等を用い
たシステム、特に人体の医療診断用として構成されたシ
ステムにおいて、近年、単に観察(診断)に適した良好
な画質性能を備えた再生画像を得ることに加えて、画像
の自動認識が行なわ11 12 れてきている(たとえば特開昭62−125481号公
報参照)。
In addition, in recent years, in systems using the above-mentioned X-ray film, stimulable phosphor, etc., especially in systems configured for medical diagnosis of the human body, reproduced images with good image quality suitable for simple observation (diagnosis) have been developed. In addition to image recognition, automatic image recognition has been carried out (for example, see Japanese Patent Laid-Open No. 125481/1981).

ここで画像の自動認識とは、画像データに種々の処理を
施すことにより、複雑な放射線画像から目的とするパタ
ーンを抽出する操作をいい、たとえば人体の胸部X線画
像のような種々の線状,円形状のパターンの入り混じっ
た非常に複雑な画像から、たとえば腫瘍に対応する陰影
を抽出する操作等をいう。
Automatic image recognition here refers to the operation of extracting a desired pattern from a complex radiographic image by performing various processes on the image data. , an operation to extract, for example, a shadow corresponding to a tumor from a very complex image containing a mixture of circular patterns.

このように複雑な放射線画像(たとえば人体の胸部X線
画像)において目的とするパターン(たとえば腫瘍影)
を抽出し、その抽出したパターンを明示した可視画像を
再生表示することにより、観察者の観察の補助(たとえ
ば医師の診断の補助)を行なわせることができる。
A target pattern (for example, a tumor shadow) in such a complex radiographic image (for example, a chest X-ray image of a human body)
By extracting the pattern and reproducing and displaying a visible image clearly showing the extracted pattern, it is possible to assist the observer in observation (for example, assist the doctor in diagnosis).

(発明が解決しようとする課題) 読取条件等決定に上記ニューラルネットワークを用いる
と、あらかじめ繰り返し ゜学習“ させることにより
次第に正しい読取条件等を求めることができるようにな
るが、このニューラルネットワークとして万能のもの、
例えば人体の肩を被写体としたX線画像を取扱うシステ
ムにおいて、種々の変動、例えば右肩と左肩(画像の反
転)、拡大された画像と縮小された画像、正立と横向き
と倒立、位置ずれが生じている画像等があっても正しい
読取条件等を求めることができるニューラルネットワー
クを構築しようとすると、非常に多数のユニットを備え
たニューラルネットワークを用いる必要があり、各ユニ
ッ1・間の結合の重みを記憶しておく記憶装置の記憶容
量も厖大なものが必要となり、また゜学習′を行なわせ
る際極めて多数回学習を繰り返す必要が生じるという問
題がある。
(Problem to be solved by the invention) When the above neural network is used to determine reading conditions, etc., it becomes possible to gradually determine correct reading conditions, etc. by repeating ゜learning'' in advance. thing,
For example, in a system that handles X-ray images of human shoulders, various variations such as right shoulder and left shoulder (image inversion), enlarged and reduced images, upright and sideways and inverted positions, and positional deviations are detected. In order to construct a neural network that can determine the correct reading conditions even if there is an image in which The storage capacity of the storage device for storing the weights of is also required to be enormous, and there is also the problem that learning must be repeated an extremely large number of times when performing ゜learning'.

そこで、本件出願人は、上記問題に鑑み、入力される画
像が種々に変動しても比較的少数のユニットを備えたニ
ューラルネットワークを用いて正しい読取条件等を求め
ることのできる放射線画像読取条件及び/又は画像処理
条件決定装置を提案した。(特願平2−102015号
) これは、ひとつには、蓄積性蛍光体シートを用い、いわ
ゆる先読みを行なうシステムに適用され13 14 るもので、放射線画像が記録された蓄積性蛍光体シート
に励起光を照財し該蓄積性蛍光体シートから発せられた
輝尽発光光を読み取って得られた前記放射線画像を表わ
す第一の画像信号に基づいて、前記蓄積性蛍光体シート
に再度励起光を照射し該蓄積性蛍光体シートから発せら
れた輝尽発光光を読み取って前記放射線画像を表わす第
二の画像信号を得る際の読取条件及び/又は得られた前
記第二の画像信号に画像処理を施す際の画像処理条件を
求める放射線画像読取条件及び/又は画像処理条件決定
装置において、 放射線画像の標準的なパターンを記憶しておく記憶手段
と、 前記第一の画像信号が担持する前記放射線画像を前記標
準的なパターンに変換して、該変換された放射線画像を
担持する変換画像信号を求める信号変換手段と、 前記変換画像信号を入力とし前記読取条件及び/又は前
記画像処理条件を出力とするニューラルネットワークか
らなる条件決定手段とを備えたことを特徴とするもので
ある。
Therefore, in view of the above-mentioned problems, the present applicant has developed a system for radiographic image reading conditions that can determine correct reading conditions using a neural network equipped with a relatively small number of units even when input images vary. /Or proposed an image processing condition determination device. (Patent Application No. 102015/1999) This is applied to a system that uses a stimulable phosphor sheet and performs so-called pre-reading13 14 . The excitation light is applied to the stimulable phosphor sheet again based on the first image signal representing the radiation image obtained by applying the excitation light and reading the stimulated luminescence light emitted from the stimulable phosphor sheet. The reading conditions for obtaining a second image signal representing the radiation image by irradiating the stimulable phosphor sheet and reading the stimulated luminescence light emitted from the stimulable phosphor sheet and/or the image A radiographic image reading condition and/or image processing condition determination device for determining image processing conditions for performing processing includes: a storage means for storing a standard pattern of a radiographic image; a signal conversion means for converting a radiographic image into the standard pattern and obtaining a converted image signal carrying the converted radiographic image; The present invention is characterized in that it includes a condition determining means consisting of a neural network as an output.

また、もうひとつには、蓄積性蛍光体シートには限定さ
れるものではなく、また画像処理条件を求めるもので、
放射線画像を表わす画像信号に基づいて、該画像信号に
画像処理を施す際の画像処理条件を求める放射線画像処
理条件決定装置において、 放射線画像の標準的なパターンを記憶しておく記憶手段
と、 前記画像信号が担持する放射線画像を前記標準的なパタ
ーンに変換して、該変換された放射線画像を担持する変
換画像信号を求める信号変換手段と、 前記変換画像信号を入力とし前記画像処理条件を出力と
するニューラルネットワークからなる条件決定手段とを
備えたことを特徴とするものである。
Another reason is that it is not limited to stimulable phosphor sheets and requires image processing conditions.
A radiation image processing condition determination device that determines image processing conditions for performing image processing on an image signal based on an image signal representing a radiation image, comprising: a storage means for storing a standard pattern of a radiation image; a signal converting means for converting a radiographic image carried by an image signal into the standard pattern and obtaining a converted image signal carrying the converted radiographic image; and a signal converting means that receives the converted image signal and outputs the image processing conditions. The invention is characterized by comprising a condition determining means comprising a neural network.

しかし、例えば人体の放射線画像は非常に複雑であり、
特に診断に供するものの場合は、前述のようにニューラ
ルネットによりあらかじめ学習し15 1 6 て得たデータ処理能力により決定された読取条件や画像
処理条件であっても、専門の医師等のユーザがさらにこ
れを訂正したい場合がある。このような場合は、前記ニ
ューラルネットを装置に実装した後であっても、病院等
において、これに再学習させることが望まれる。
However, for example, radiological images of the human body are extremely complex;
In particular, in the case of diagnostic equipment, even if the reading conditions and image processing conditions are determined by the data processing capacity learned in advance by a neural network as described above, users such as specialized doctors may You may want to correct this. In such a case, even after the neural network has been installed in the device, it is desirable to have the neural network re-learn at a hospital or the like.

また、前記異常陰影検出装置に関しては、特開昭62−
125481号公報に、たとえば人体の胸部X線画像上
を、この画像上の位置により変化しない特定のフィルタ
を用いて走査し、円形パターンと線形パターンを抽出し
、この円形パターンを腫瘍候補、線形パターンを血管の
陰影として表示する装置が記載されている。
Regarding the abnormal shadow detection device, Japanese Patent Application Laid-open No. 62-
125481, for example, a chest X-ray image of a human body is scanned using a specific filter that does not change depending on the position on the image, a circular pattern and a linear pattern are extracted, and this circular pattern is used as a tumor candidate or a linear pattern. A device is described that displays blood vessels as shadows of blood vessels.

しかし人体の放射線画像は非11(に複雑であり、たと
えば胸部X線画像において腫瘍の陰影が肋骨のすぐ脇に
現われる場合と、肋骨と肋骨の中間部に現われる場合と
ではそのパターンが異なっている等、上記のように単純
な構成の装置では認識洩れや腫瘍でもないパターンを腫
瘍として認識してしまうことが多いという問題点がある
。たとえば医療用システムにおいて画像の自動認識が行
なわれると、医師が再生画像を観察して診断を行なう際
、その自動認識されたパターンに目を奪われがちとなり
、自動認識に洩れがあるとそのまま医師が見逃がしてし
まう可能性が高く重大な問題となる。
However, radiological images of the human body are extremely complex; for example, in a chest X-ray image, when a tumor shadow appears just beside the ribs, the pattern differs when it appears between the ribs. As mentioned above, devices with simple configurations often fail to recognize patterns that are not tumors, or recognize them as tumors.For example, when automatic image recognition is performed in a medical system, doctors When a doctor observes a reproduced image and makes a diagnosis, his or her attention tends to be drawn to the automatically recognized patterns, and if there is an omission in the automatic recognition, there is a high possibility that the doctor will miss it, which poses a serious problem.

これを避けるためには放射線画像上を走査するフィルタ
等を工夫して少しでも腫瘍等の候補と考えられるパター
ンを洩れなく抽出することが考えられる。しかし、この
ように少しでも腫瘍の候補と考えられるパターンを洩れ
なく抽出すると、腫瘍ではないパターン(ノイズ)も多
く抽出されることになる。これでも洩れがあるよりはよ
いが、あまりにもノイズが多いと自動認識システムの信
頼性が低下し、また診断する医師がかえって疲労してし
まうことにもなる。
In order to avoid this, it is conceivable to devise a filter that scans the radiation image to extract all patterns that are considered to be candidates for tumors or the like. However, if all patterns considered to be tumor candidates are extracted in this way, many patterns (noise) that are not tumors will also be extracted. Although this is better than missing something, too much noise reduces the reliability of the automatic recognition system and can even make the diagnosing doctor fatigued.

また、これまで自動認識のない、たεえばX線フイルム
に記録された胸部X線画像を観察(診断)する医師は、
それまでの知識,経験に基づいて、腫瘍が画像上のどの
位置にあってもそのパターン17 18 が多少変形していてもかなり適確に腫瘍を抽出している
という事実がある。
In addition, for example, doctors who observe (diagnose) chest X-ray images recorded on X-ray film, which have not been automatically recognized until now,
Based on previous knowledge and experience, it is a fact that no matter where the tumor is located on the image, the tumor can be extracted quite accurately even if the pattern 17 18 is slightly deformed.

一方、互いに同様な画像形成観察システムであっても、
そのシステムが設置される施設等により画像の平均的な
性質が異なる場合があり、画像を観察する観察者によっ
ても微妙に判断が異なる場合がある。たとえば、胸部X
線画像撮影診断システムにおいて、そのシステムが設置
された病院により撮影時のX線のエネルギーや照射量が
多少異なり、平均的に多少異なった胸部X線画像が形成
されることや、再生された胸部X線画像を観察する医師
により、たとえば正常と判断するか再検査が必要と判断
するかという微妙な食い違いが生じることも考えられる
On the other hand, even if the image forming observation systems are similar to each other,
The average properties of images may vary depending on the facility where the system is installed, and judgments may vary slightly depending on the observer observing the image. For example, chest
In X-ray imaging diagnostic systems, the energy and irradiation amount of X-rays at the time of imaging differs depending on the hospital where the system is installed, and the average chest X-ray image is slightly different. Depending on the doctor who observes the X-ray image, subtle discrepancies may occur, for example, in determining whether the X-ray image is normal or whether re-examination is necessary.

したがって画像の自動認識においてら、洩れのないよう
に抽出した腫瘍等の候補から、単純なフィルタリング処
理では行なうことのできない過去の知見等に基づく高度
な処理を施して極力ノイズを低減させることが望ましく
、また、この画像の自動認識システムが設置された施設
や観察者に応じてさらに知見を積み重ねその施設や観察
者等のユーザにより適合するように再学習をさせられ、
自らを変えていくシステムであることが望ましい。
Therefore, in automatic image recognition, it is desirable to reduce noise as much as possible by performing advanced processing based on past knowledge that cannot be performed with simple filtering processing from candidates such as tumors extracted without omission. In addition, this automatic image recognition system accumulates further knowledge depending on the facility where it is installed and the observer, and is forced to re-learn to be more suitable for the facility, observer, and other users.
It is desirable to have a system that changes itself.

本発明は、このような要望に鑑み、ニューラルネッI・
を装置に実装した後であっても、病院等において、ニュ
ーラルネットのあらかじめ学習して得た処理能力により
決定された読取条件や画像処理条件、あるいは検出され
た異常陰影等を、ユーザが不適切と判断した場合には修
正して再学習させることができるようし、これにより、
使用中に精度をさらに向」ニさせていくことのできる放
射線画像処理装置を提供することを目的とするものであ
る。
In view of these demands, the present invention provides neural network I.
Even after the system is implemented in a device, in hospitals, etc., users may inappropriately change the reading conditions, image processing conditions, or detected abnormal shadows determined by the processing capacity obtained through pre-learning of the neural network. If it is determined that this is the case, it can be corrected and re-trained, and as a result,
It is an object of the present invention to provide a radiation image processing device whose accuracy can be further improved during use.

(課題を解決するための手段) 本発明による放射線画像処理装置は、放射線画像データ
に基づいて、照射野の認識、先読み画像データに基づく
本読みの画像読取条件の決定、画像処理条件の決定、異
常陰影の検出等のデータ処理を、ニューラルネットワー
クを用いて行なう放射線画像処理装置において、 19 20 学習済の前記ニューラルネットワークを装置に実装後、
ユーザが前記ニューラルネットワークによるデータ処理
が不適切である場合に、これを修正し再学習させること
ができるように、実装後もユーザが修正情報を前記ニュ
ーラルネットワークに入力することができるように入力
手段を設けたことを特徴とするものである。
(Means for Solving the Problems) A radiation image processing apparatus according to the present invention recognizes an irradiation field, determines image reading conditions for main reading based on pre-read image data, determines image processing conditions, and detects abnormalities based on radiation image data. In a radiation image processing device that performs data processing such as shadow detection using a neural network, 19 20 After implementing the trained neural network in the device,
An input means is provided so that the user can input corrective information to the neural network even after implementation so that the user can correct the data processing by the neural network and have it re-learn if the data processing by the neural network is inappropriate. It is characterized by having the following.

さらに具体的には、放射線画像が記録された蓄積性蛍光
体シートに励起光を照則し該蓄積性蛍光体シートから発
せられた輝尽発光光を読み取って得られた前記放射線画
像を表わす第一の画像信号に基づいて、前記蓄積性蛍光
体シートに再度励起光を照射し該蓄積性蛍光体シートか
ら発せられた輝尽発光光を読み取って前記放射線画像を
表わす第二の画像信号を得る際の読取条件及び/又は得
られた前記第二の画像信号に画像処理を施す際の画像処
理条件を求める放射線画像読取条件及び/又は画像処理
条件決定装置において、 放射線画像の標準的なパターンを記憶しておく記憶手段
と、 前記第一の画像信号が担持する前記放射線画像を前記標
準的なパターンに変換して、該変換された放射線画像を
担持する変換画像信号を求める信号変換手段と、 前記変換画像信号を入力とし前記読取条件及び/又は前
記画像処理条件を出力とするニューラルネットワークか
らなる条件決定手段と、前記条件決定手段により出力さ
れた前記読取条件及び/又は前記画像処理条件に基づい
て読取及び/又は画像処理された放射線画像を可視画像
として表示する表示手段と、 前記表示手段により表示された可視画像を、より適正な
可視画像に変換するための補正情報を前記条件決定手段
に入力する入力手段とからなり、前記条件決定手段が、
前記入力手段から入力された前記補正情報に基づいて、
前記変換画像信号を入力とし、読取条件及び/又は前記
画像処理条件を出力とするニューラルネットワークの演
算を変更する学習機能を倫えたことを特徴とする放則線
画像読取条件及び/又は画像処理条件決定装置21 22 を提供するものである。
More specifically, a radiation image representing the radiation image obtained by shining excitation light onto a stimulable phosphor sheet on which a radiation image is recorded and reading stimulated luminescence light emitted from the stimulable phosphor sheet. Based on the first image signal, the stimulable phosphor sheet is irradiated with excitation light again and the stimulated luminescent light emitted from the stimulable phosphor sheet is read to obtain a second image signal representing the radiation image. In a radiation image reading condition and/or image processing condition determination device for determining reading conditions for the actual reading and/or image processing conditions for performing image processing on the obtained second image signal, a standard pattern of the radiation image is determined. a storage means for storing; a signal conversion means for converting the radiation image carried by the first image signal into the standard pattern to obtain a converted image signal carrying the converted radiation image; condition determining means comprising a neural network that receives the converted image signal as input and outputs the reading condition and/or the image processing condition; and based on the reading condition and/or the image processing condition output by the condition determining means. a display means for displaying a radiation image read and/or image-processed by the display means as a visible image; and a display means for displaying correction information for converting the visible image displayed by the display means into a more appropriate visible image to the condition determining means. and an input means for inputting, and the condition determining means includes:
Based on the correction information input from the input means,
Parallel image reading conditions and/or image processing conditions, characterized in that they have a learning function that changes the calculation of a neural network that uses the converted image signal as an input and outputs the reading conditions and/or the image processing conditions. A determining device 21 22 is provided.

また、放射線画像を表わす画像信号に基づいて、該画像
信号に画像処理を施す際の画像処理条件を求める放射線
画像処理条件決定装置において、放射線画像の標準的な
パターンを記憶しておく記憶手段と、 前記画像信号が担持する放射線画像を前記標準的なパタ
ーンに変換して、該変換された放射線画像を担持する変
換画像信号を求める信号変換手段と、 前記変換画像信号を入力とし前記画像処理条件を出力と
するニューラルネットワークからなる条件決定手段と、 前記条件決定手段により出力された前記読取条件及び/
又は前記画像処理条件に基づいて読取及び/又は画像処
理された放射線画像を可視画像として表示する表示手段
と、 前記表示手段により表示された可視画像を、より適正な
可視画像に変換するための補正情報を前記条件決定手段
に入力する入力手段とからなり、前記条件決定手段が、
前記入力手段から入力ざれた前記補正情報に基づいて、
前記変換画像信号を入力とし、読取条件及び/又は前記
画像処理条件を出力とするニューラルネットワークの演
算を変更する学習機能を備えたことを特徴とする放射線
画像処理装置を提供するちのである。
Further, in a radiation image processing condition determination device for determining image processing conditions for performing image processing on an image signal based on an image signal representing a radiation image, a storage means for storing a standard pattern of a radiation image is provided. , a signal converting means for converting a radiographic image carried by the image signal into the standard pattern and obtaining a converted image signal carrying the converted radiographic image; and using the converted image signal as input and the image processing conditions. a condition determining means comprising a neural network whose output is the reading condition and/or the reading condition outputted by the condition determining means;
or display means for displaying a radiation image read and/or image-processed based on the image processing conditions as a visible image; and correction for converting the visible image displayed by the display means into a more appropriate visible image. an input means for inputting information into the condition determining means, the condition determining means comprising:
Based on the correction information input from the input means,
The present invention provides a radiation image processing apparatus characterized by having a learning function for changing the calculation of a neural network that receives the converted image signal as an input and outputs the reading conditions and/or the image processing conditions.

さらに、被写体の放則線画像を表わす画像データに基づ
いて前記放躬線画像上の異常陰影を検出する異常陰影検
出装置において、 前記画像データに基づいて、前記異常陰影の候補を抽出
する第一の候補抽出手段、 前記第一の候補抽出手段により抽出された前記候補の近
傍の前記画像データに基づいて、該各候補毎に複数の特
徴量を求める特徴量演算手段、前記特徴量演算手段によ
り求められた前記複数の特徴量に基づいて、前記候補の
うち前記異常陰影である蓋然性の高い候補を抽出する第
二の候補抽出手段、 前記画像データと、前記蓋然性の高い候補を表わすデー
タとに基づいて、該候補を明示した可視23 24 画像を表示する表示手段、及び 前記可視画像に明示された前記候補が前記異常陰影であ
るか否かの情報を入カする入カ手段からなり、 前記第二の候補抽出手段が、前記入力手段から入力され
た前記情報に基づいて、前記第一の候補抽出手段で抽出
された前記候補から前記蓋然性の高い候補を抽出する演
算を変更する学習機能を備えたことを特徴とする異常陰
影検出装置を提供するものである。
Furthermore, in the abnormal shadow detection device that detects an abnormal shadow on the radiation image based on image data representing a radiation image of a subject, a first method that extracts candidates for the abnormal shadow based on the image data is provided. candidate extracting means; feature amount calculating means for calculating a plurality of feature amounts for each candidate based on the image data in the vicinity of the candidate extracted by the first candidate extracting means; a second candidate extraction means for extracting a candidate with a high probability of being the abnormal shadow from among the candidates based on the plurality of obtained feature quantities; a display means for displaying a visible 23 24 image clearly showing the candidate based on the image; and an input means for inputting information as to whether the candidate clearly shown in the visible image is the abnormal shadow; The second candidate extracting means has a learning function for changing the calculation for extracting the highly probable candidate from the candidates extracted by the first candidate extracting means, based on the information input from the input means. An object of the present invention is to provide an abnormal shadow detection device characterized by the following features.

ここで、前記第二の候補抽出手段は、前記情報を教師信
号とする誤差逆伝播学習機能を有するニュートラルネッ
トワークを備えたものとしてもよい。
Here, the second candidate extracting means may include a neutral network having an error backpropagation learning function using the information as a teacher signal.

なお、ここで前記「放射線画像の標準的なパターン」に
関し、どのようなパターンを標準的なパターンとするか
は、本発明においては特定のパターンに限られるもので
はなく、設計思想等に基づいて任意に定めることができ
る車項である。
Regarding the above-mentioned "standard pattern of radiographic images," the standard pattern is not limited to a specific pattern in the present invention, but may be determined based on the design philosophy, etc. This is a vehicle clause that can be determined arbitrarily.

また、本発明において、「前記標準的なバターンに変換
する」とは、特定の操作に限られるものではないが、例
えば前記第一の画像信号が担持する放射線画像の反転、
回転、位置調整、拡大、縮小等をいう。
Furthermore, in the present invention, "converting to the standard pattern" is not limited to a specific operation, but includes, for example, inversion of the radiation image carried by the first image signal,
Refers to rotation, position adjustment, enlargement, reduction, etc.

(作用および効果) 本発明は、上記のようなニューラルネッ1・ワクを用い
た放射線画像処理装置において、学習済の前記ニューラ
ルネットワークを装置に実装後、ユーザが修正情報を前
記ニューラルネットワークに入力することができるよう
に入力手段を設けたものであるから、ユーザが前記ニュ
ーラルネットワークによるデータ処理か不適切である場
合に、これを修正し再学習させることができ、これによ
り、使用中に精度をさらに向上させていくことができる
(Operations and Effects) The present invention provides a radiographic image processing device using a neural network as described above, in which a user inputs correction information into the neural network after the learned neural network is installed in the device. Since the input means is provided so that the neural network is not properly processed, the user can correct it and re-learn it, thereby improving accuracy during use. It can be improved further.

(実 施 例) 以下、図面により本発明の構戊を説明する。(Example) Hereinafter, the structure of the present invention will be explained with reference to the drawings.

第1図は本発明の基本的構成を説明するためのブロック
図である。
FIG. 1 is a block diagram for explaining the basic configuration of the present invention.

入力部により放射線画像処理装置に入力された25 26 放射線画像データは、この装置内の演算部に送られる。25 inputted into the radiation image processing device by the input unit 26 The radiation image data is sent to a calculation section within this device.

この演算部には学習済のニューラルネットワークが実装
されており、ここでは、入力された画像データに基づい
て照射野の認識、先読み画像データに基づく本読みの画
像読取条件の決定、画像処理条件の決定、異常陰影の検
出等のデータ処理が、前記ニューラルネットワークを用
いて行なわれる。ここで演算されて得られた照射野、画
像読取条件、画像処理条件、異常陰影等のデータによっ
て処理された最終的な画像が、出力部に出力され、可視
画像として表示される。
This calculation unit is equipped with a trained neural network, which recognizes the irradiation field based on the input image data, determines the image reading conditions for main reading based on the pre-read image data, and determines the image processing conditions. , data processing such as abnormal shadow detection is performed using the neural network. A final image processed using data such as the irradiation field, image reading conditions, image processing conditions, and abnormal shadows calculated here is output to the output unit and displayed as a visible image.

この放射線画像処理装置を利用する医師等のユザは、そ
の表示装置に表示された画像を見て、それが適正なもの
の場合は何もしない。もし、その表示画像が不適正の場
合は、それを適正にするため、前記ニューラルネットワ
ークによるデータ処理を修正し再学習させるための修正
情報を修正入力手段により前記ニューラルネッI・ワー
クに入力する。
A user such as a doctor who uses this radiation image processing device looks at the image displayed on the display device and does nothing if the image is appropriate. If the displayed image is inappropriate, correction information for correcting and relearning the data processing by the neural network is input into the neural network I network by the correction input means in order to make it appropriate.

このようにして、ニューラルネットワークの実装後、ユ
ーザは前記ニューラルネットワークによるデータ処理が
不適切である場合に、これを修正し再学習させることが
でき、これにより、使用中に精度をさらに向」ニさせて
いくことができる次に、本発明の実施例について図面を
参照して詳細に説明する。なお、ここでは前述した蓄積
性蛍光体シートを用い、人体の肩部のX線画像を取扱う
例について説明する。
In this way, after implementing a neural network, the user can correct and retrain the data processing by said neural network if it is inappropriate, thereby further improving accuracy during use. Next, embodiments of the present invention will be described in detail with reference to the drawings. Here, an example will be described in which an X-ray image of the shoulder of a human body is handled using the above-mentioned stimulable phosphor sheet.

第5図は、X線撮影装置の一例の概略図である。FIG. 5 is a schematic diagram of an example of an X-ray imaging apparatus.

このX線撮影装置1のX線源2からX線3が人体4の肩
部4aに向けて照射され、人体4を透過したX線3aが
蓄積性蛍光体シ一ト11に照射されることにより、人体
の肩部4aの透過X線画像が蓄積性蛍光体シ一ト11に
蓄積記録される。
X-rays 3 are irradiated from the X-ray source 2 of this X-ray imaging device 1 toward the shoulder 4a of the human body 4, and the X-rays 3a that have passed through the human body 4 are irradiated onto the stimulable phosphor sheet 11. As a result, a transmitted X-ray image of the shoulder 4a of the human body is accumulated and recorded on the stimulable phosphor sheet 11.

第2A図,第2B図は、蓄積性蛍光体シート」二に蓄積
記録された肩部X線画像の一例を模式的に表わした図で
ある。
2A and 2B are diagrams schematically showing an example of a shoulder X-ray image stored and recorded on a stimulable phosphor sheet.

第2A図,第2B図はそれぞれ右肩,左肩のX線画像を
表わし、それぞれ人体の陰影が記録された被写体部5の
ほか、被写体に照11されないX線27 28 が直接蓄積性蛍光体シート1工に照射された直接X線部
6が形成されている。
Figures 2A and 2B show X-ray images of the right shoulder and left shoulder, respectively, and in addition to the subject area 5 where the shadow of the human body is recorded, the X-rays 27 28 that are not illuminated by the subject 11 are directly exposed to the stimulable phosphor sheet A direct X-ray section 6 is formed that irradiates one area.

第6図は、X線画像読取装置の一例、および本発明の一
例を内包したコンピュータシステムの一例を示した斜視
図である。このシステムは前述した蓄積性蛍光体シート
を用い、先読みを行なうシステムである。
FIG. 6 is a perspective view showing an example of an X-ray image reading device and an example of a computer system incorporating an example of the present invention. This system uses the aforementioned stimulable phosphor sheet and performs pre-reading.

X線画像が記録された蓄積性蛍光体シ一トllは、まず
弱い光ビームで走査してこの蓄積性蛍光体シト1]に蓄
積された放躬線エネルギーの一部のみを放出させて先読
みを行なう先読手段100の所定位置にセットされる。
The stimulable phosphor sheet 1 on which the X-ray image has been recorded is first scanned with a weak light beam to emit only a portion of the radioactive ray energy accumulated in the stimulable phosphor sheet 1 and read it in advance. It is set at a predetermined position in the pre-reading means 100 that performs.

この所定位置にセットされた蓄積性蛍光体シ一ト11は
、モータl2により駆動されるエンドレスベルト等のシ
ート搬送手段13により、矢印Y方向に搬送(副走査)
される。一方、レーザー光源14から発せられた弱い光
ビームエ5はモータ23により駆動され矢印方向に高速
回転ずる回転多面鏡16によって反射偏向され、fθレ
ンズ等の集束レンズ17を通過した後、ミラーl8によ
り光路を変えて前記蓄積性蛍光体シ一ト1lに入射し副
走査の方向(矢印Y方向)と略垂直な矢印X方向に主走
査する。蓄積性蛍光体シ一ト11の、この光ビームl5
が照射された箇所からは、蓄積記録されている放射線画
像情報に応じた光量の輝尽発光光19が発散され、この
輝尽発光光19は光ガイド20によって導かれ、フォ1
・マルチプライヤ(光電子増倍管)2王によって光電的
に検出される。上記光ガイド20はアクリル板等の導光
性祠料を成形して作られたものであり、直線状をなす入
射端面2Daが蓄積性蛍光体シ一ト11上の主走査線に
沿って延びるように配され、円環状に形成された射出端
面20bに上記フォトマルチプライヤ21の受光面が結
合されている。上記人I11端面20aから光ガイド2
0内に入射した輝尽発光光土9は、該光ガイド20の内
部を全反射を繰り返して進み、射出端面20bから射出
してフォI・マルチプライヤ21に受光され、放射線画
像を表わす輝尽発光光19の光量がフォトマルチブライ
ヤ21によって電気信号に変換される。
The stimulable phosphor sheet 11 set at a predetermined position is conveyed (sub-scanning) in the direction of arrow Y by a sheet conveying means 13 such as an endless belt driven by a motor l2.
be done. On the other hand, a weak light beam E5 emitted from a laser light source 14 is driven by a motor 23 and is reflected and deflected by a rotating polygon mirror 16 that rotates at high speed in the direction of the arrow. The light is incident on the stimulable phosphor sheet 1l and main-scanned in the direction of arrow X, which is substantially perpendicular to the direction of sub-scanning (direction of arrow Y). This light beam l5 of the stimulable phosphor sheet 11
From the irradiated area, stimulated luminescence light 19 is emitted with an amount of light according to the radiographic image information stored and recorded, and this stimulated luminescence light 19 is guided by a light guide 20 and directed to the photo 1
・Detected photoelectrically by multiplier (photomultiplier tube) 2. The light guide 20 is made by molding a light-guiding abrasive material such as an acrylic plate, and has a linear entrance end face 2Da that extends along the main scanning line on the stimulable phosphor sheet 11. The light-receiving surface of the photomultiplier 21 is coupled to the annularly formed exit end surface 20b. The light guide 2 from the end face 20a of the person I11
The photostimulated luminescent light source 9 that has entered the interior of the light guide 20 travels through the interior of the light guide 20 through repeated total reflection, exits from the exit end face 20b, and is received by the foI multiplier 21, where the photostimulated luminescent material 9 represents a radiation image. The amount of emitted light 19 is converted into an electrical signal by a photomultiplier 21.

フォトマルチプライヤ21から出力されたアナログ出力
信号Sは対数増幅器2Bで対数的に増幅され、29 30 A/D変換器27でディジタル化され、先読画像信号S
pが得られる。この先読画像信号Spの信号レベルは、
シート↓1の各画素から発せられた輝尽発光光の光量の
対数と比例している。
The analog output signal S output from the photomultiplier 21 is logarithmically amplified by the logarithmic amplifier 2B, digitized by the 29 30 A/D converter 27, and converted into a pre-read image signal S.
p is obtained. The signal level of this pre-read image signal Sp is
It is proportional to the logarithm of the amount of stimulated luminescence light emitted from each pixel on sheet ↓1.

上記先読みにおいては、蓄積性蛍光体シ一ト11に蓄積
された放射線エネルギーの広い領域にわたって読み取る
ことができるように、読取条件即ちフォトマルチプライ
ヤ2工に印加する電圧値や対数増幅器26の増幅率等が
定められている。
In the above-mentioned pre-reading, reading conditions such as the voltage value applied to the photomultiplier 2 and the amplification factor of the logarithmic amplifier 26 are set so that the radiation energy accumulated in the stimulable phosphor sheet 11 can be read over a wide range. etc. are stipulated.

得られた先読画像信号Spは、コンピュータシステム4
0に入力される。このコンピュータシステム40は、本
発明の一例を内包するものであり、CPUおよび内部メ
モリが内蔵された本体部41,補助メモリとしてのフロ
ッピィディスクが押入されドライブされるドライブ部4
2,オペレータがこのコンピュータシステム40に必要
な指示等を入力するためのキーボード43および必要な
情報を表示するためのCRTディスプレイ44から構成
されている。
The obtained pre-read image signal Sp is sent to the computer system 4
It is input to 0. This computer system 40 includes an example of the present invention, and includes a main body part 41 in which a CPU and an internal memory are built-in, and a drive part 4 into which a floppy disk as an auxiliary memory is inserted and driven.
2. It consists of a keyboard 43 for an operator to input necessary instructions to the computer system 40, and a CRT display 44 for displaying necessary information.

このコンピュータシステム40内では、後述するように
して本読みの際の読取条件、即ち本読みの際の感度およ
びコントラス1・が求められ、この感度,ラチュードに
従ってたとえばフォトマルチプライヤ21′ に印加す
る電圧値や対数増幅器26′の増幅率等が制御される。
In this computer system 40, the reading conditions for main reading, that is, the sensitivity and contrast 1. for main reading, are determined as described later, and the voltage value to be applied to the photomultiplier 21', for example, is determined according to the sensitivity and latitude. The amplification factor etc. of the logarithmic amplifier 26' are controlled.

ここでコントラストとは、本読みの際に画像信号に変換
される最も微弱な輝尽発光光に幻する最も強大な輝尽発
光光の光量比に対応するものであり、感度とは所定の光
量の輝尽発光光をどのレベルの画像信号とするかを定め
る光電変換率をいう。
Contrast here corresponds to the light intensity ratio of the most intense stimulated luminescence light to the weakest stimulated luminescence light that is converted into an image signal during actual reading, and sensitivity is the ratio of the amount of stimulated luminescence light to the weakest stimulated luminescence light that is converted into an image signal during actual reading. This refers to the photoelectric conversion rate that determines the level of image signal generated from stimulated luminescence light.

先読みの終了した蓄積性蛍光体シーhlL’ は、本読
手段100′の所定位置にセットされ、上記先読みに使
用した光ビームより強い光ビーム15′ によりシート
11′が走査され、先読画像信号Spに基づいて求めら
れた読取条件により画像信号が得られるが、本読手段1
00′の構成は上記先読手段100の構成と略同一であ
るため、先読手段100の各構成要素と対応する構戊要
素には先読手段100で用いた番号にダッシュを付して
示し、説明は省略する。
The stimulable phosphor sheet hlL' for which pre-reading has been completed is set at a predetermined position in the main reading means 100', and the sheet 11' is scanned by a light beam 15' that is stronger than the light beam used for the above-mentioned pre-reading, and the pre-read image signal is read. An image signal is obtained under the reading conditions determined based on Sp, but the actual reading means 1
Since the configuration of 00' is substantially the same as the configuration of the pre-reading means 100, the components corresponding to the respective components of the pre-reading means 100 are indicated by adding a dash to the number used in the pre-reading means 100. , the explanation is omitted.

31 32 A/D変換器27′でディジタル化されることにより得
られた画像信号SQは、再度コンピュータシステム40
に入力される。コンピュータシステム40内では画像信
号SQに適切な画像処理が施され、この画像処理の施さ
れた画像信号は図示しない再生装置に送られ、再生装置
においてこの画像信号に基づくX線画像が再生表示され
る。
31 32 The image signal SQ obtained by being digitized by the A/D converter 27' is sent to the computer system 40 again.
is input. Appropriate image processing is performed on the image signal SQ within the computer system 40, and the image signal subjected to this image processing is sent to a reproduction device (not shown), and an X-ray image based on this image signal is reproduced and displayed in the reproduction device. Ru.

次に、コンピュータシステム40内で先読画像信号Sp
に基づいて本読みの際の読取条件を求める方法について
説明する。
Next, in the computer system 40, the pre-read image signal Sp
A method for determining reading conditions for main reading based on the following will be explained.

ここでは肩部のX線を取り扱っているため、第2A図,
第2B図に示すように略左右反転した画像が得られるこ
とがある。そこで以下のようにして右肩の画像(第2A
図)であるか左肩の画像(第2B図)であるかが判定さ
れる。尚本実施例では右肩の画像(第2A図)が本発明
にいう標準的なパターンと観念される。
Since we are dealing with shoulder X-rays here, Figure 2A,
As shown in FIG. 2B, an image that is approximately left and right reversed may be obtained. Therefore, the image of the right shoulder (2nd A) is
) or the left shoulder image (FIG. 2B). In this embodiment, the image of the right shoulder (FIG. 2A) is considered to be the standard pattern according to the present invention.

第3A図,第3B図は、コンピュータシステム40内に
あらかじめ記憶された、それぞれ標準パターンおよび反
転パターンを表わした図である。
3A and 3B are diagrams representing a standard pattern and an inverted pattern, respectively, stored in advance in computer system 40. FIG.

これらの標準パターン,反転パターンは、第2A図,第
2B図に示すX線画像の被写体部5に対応する先読画像
信号Spの平均的な値を有する第一の領域7と、第2A
図,第2B図に示すX線画像の直接X線部6から読み取
った先読画像信号Spの平均的な値を有する第二の領域
8とから構成されている。
These standard patterns and inverted patterns are divided into a first region 7 having an average value of the pre-read image signal Sp corresponding to the object part 5 of the X-ray image shown in FIGS. 2A and 2B, and a second region
and a second region 8 having an average value of the pre-read image signal Sp read from the direct X-ray unit 6 of the X-ray image shown in FIGS.

先読画像信号Spがコンピュータシステム40内に入力
されると、画像信号上でこの先読画像信号Spと、第3
A図に示す標準パターンおよび第3B図に示す反転パタ
ーンのそれぞれとのパターンマッチングがとられ、入力
された先読画像信号Spが右肩のX線画像を表わす信号
であるか左肩のX線画像を表わす信号であるかが判定さ
れる。
When the pre-read image signal Sp is input into the computer system 40, this pre-read image signal Sp and the third
Pattern matching is performed with each of the standard pattern shown in Figure A and the inverted pattern shown in Figure 3B, and whether the input pre-read image signal Sp is a signal representing the X-ray image of the right shoulder or the X-ray image of the left shoulder is determined. It is determined whether the signal represents.

ここでは、このパターンマッチングは、標準パターン,
反転パターン(第3A図,第3B図)を担持する信号を
それぞれSs.SRとしたとき、互いに対応する各画素
毎に先読画像信号Spとの差分の二乗値(Ss  Sp
) 2.  (SR  Sl)) zが求められ、これ
を画像全面にわたって加算した33 34 量QS.QRが QS =Σ (Ss   3p)2         
=−(1)QR 一Σ (SR   Slll ) 2
         ・・・(2)が求められ、先読画像
信号spが担持するX線画像はこれらのffiQs,Q
Rのいずれか値の小さい方に対応した画像であると判断
される。
Here, this pattern matching is the standard pattern,
The signals carrying the inverted patterns (FIGS. 3A and 3B) are respectively Ss. When SR, the square value of the difference with the pre-read image signal Sp (Ss Sp
) 2. (SR Sl)) z is calculated and added over the entire image to create the 33 34 quantity QS. QR is QS = Σ (Ss 3p)2
=-(1) QR 1Σ (SR Sll) 2
...(2) is obtained, and the X-ray image carried by the pre-read image signal sp is calculated using these ffiQs,Q
It is determined that the image corresponds to the smaller value of R.

このようにして判断された、先読画像信号Spが担持す
る画像が左肩のX線画像(第2B図)であった場合、先
読画像信号Sp上でX線画像を裏返す(反転させる)操
作を行う。これにより以下に示すニューラルネットワー
クには常に第2A図の右肩の画像、もしくはこれとほほ
同様なパターンである反転された左肩の画像が入力され
る。
If the image carried by the pre-read image signal Sp determined in this way is an X-ray image of the left shoulder (FIG. 2B), the operation of flipping (inverting) the X-ray image on the pre-read image signal Sp I do. As a result, the neural network shown below always receives the image of the right shoulder in FIG. 2A, or the inverted image of the left shoulder with a pattern almost similar to this image.

このように入力される画像のパターンをあらかじめ定め
られた標準的なパターン(ここでは右肩のパターン)に
調整した上でニューラルネットワクに入力することによ
り、ニューラルネットワークを構成するユニットの数を
減らすことができ、各ユニット間の結合の度合を示す重
み係数を記憶しておく容量も少なくて済み、さらに学習
を比較的短時間で行なわせることができる。
By adjusting the input image pattern to a predetermined standard pattern (in this case, the right shoulder pattern) and inputting it to the neural network, the number of units that make up the neural network can be reduced. , the storage capacity for weighting coefficients indicating the degree of connection between units can be reduced, and learning can be performed in a relatively short time.

第4図は誤差逆伝播学習(パックブロパゲーション)機
能を備えたニューラルネットワークの一例を表わした図
である。誤差逆伝播学習(バックプロパゲーション)と
は、前述したように、ニューラルネットワークの出力を
正解(教師信号)と比べることにより、出力側から入力
側に向かって順次結合の重み(シナプス結合のウエイ1
・)を修正するという″学習”アルゴリズムをいう。
FIG. 4 is a diagram showing an example of a neural network equipped with an error backpropagation learning (pack propagation) function. As mentioned above, error backpropagation learning (backpropagation) is, by comparing the output of the neural network with the correct answer (teacher signal), sequentially calculates connection weights (synaptic connection way 1) from the output side to the input side.
・) is a “learning” algorithm that corrects

図に示すように、このニューラルネツ1・ワークの第1
層(入力層),拍2層(中間層),第3層(出力層)は
それぞれn1個,n2個,2個のユニットから構成され
る。第1層(入力層)に入力される各信号Fl,F2,
・・・・・+FnlはX線画像(左肩の場合は反転され
た画像をいう)の各画素に対応する先読画像信号Spで
あり、第3層(出力層)からの2つの出力y? r  
!/2は本読みの際のそれそれ感度およびコン1・ラス
1・に対応した信号である。第1(層のi番I」のユニ
ッ1・を35 ui、該ユニットuklへの各入力をXkl、各出力を
3’7、u:から 7”1への結合の重みをWkli+
1とし、各ユニット 7は同一の特性関数1 を有するものとする。このとき、各ユニ・ントu:の入
力x:、出力y:は、 X:一ΣW;−17,y7−”    ・・・(4)V
7 =f (X7) ・・(5) となる。ただし入力層を構成する各ユニットu1(+=
1.2,−=,  ns ) ヘの各入力F1 +  
F2 + ”’F.,1は重みづけされずにそのまま各
ユニットu: (]=1,2+・・・,n1〉に入力さ
れる。入力されたn1個の信号F1 ,  F2 , 
・−,  Fn+は、各結合36 の重みw k k + l  によって重み付けられな
がら最終的な出力y?,y2にまで伝達され、これによ
り本読みの際の読取条件(感度とコントラスト)か求め
られる。
As shown in the figure, the first part of this neural network 1 work
The layer (input layer), beat 2 layer (intermediate layer), and third layer (output layer) are each composed of n1 units, n2 units, and 2 units. Each signal Fl, F2, input to the first layer (input layer)
...+Fnl is the pre-read image signal Sp corresponding to each pixel of the X-ray image (in the case of the left shoulder, it is an inverted image), and the two outputs y? from the third layer (output layer). r
! /2 is a signal corresponding to each sensitivity and contrast 1 and contrast 1 during main reading. The unit 1 of the first (layer i number I) is 35 ui, each input to the unit ukl is Xkl, each output is 3'7, the weight of the connection from u: to 7''1 is Wkli+
1, and each unit 7 has the same characteristic function 1. At this time, the input x: and output y: of each unit u: are:
7 = f (X7) (5). However, each unit u1 (+=
1.2, -=, ns ) Each input F1 +
F2 + "'F., 1 is inputted as it is to each unit u: (]=1,2+...,n1> without weighting. The n1 input signals F1, F2,
-, Fn+ is the final output y? while being weighted by the weight w k k + l of each connection 36 . , y2, and thereby the reading conditions (sensitivity and contrast) for actual reading are determined.

ここで、上記各結合の重みWkTI  の決定方法につ
いて説明する。先ず乱数により各結合の重みWk k 
+ l  の初期値が与えられる。このとき、入力F 
1 ”’− F n 1が赦大に褒動しても、出力Y”
+rY!rが所定範囲内の値またはこれに近い値となる
ように、その乱数の範囲を制限しておくことか好ましい
Here, a method for determining the weight WkTI of each of the above-mentioned connections will be explained. First, the weight Wk k of each connection is determined by random numbers.
An initial value of +l is given. At this time, input F
1 ”'- F n Even if 1 rewards generously, output Y”
+rY! It is preferable to limit the range of the random number so that r is a value within a predetermined range or a value close to this.

最適な読取条件が既知の多数の右肩のX線画像もしくは
左肩のX線画像か記録された蓄積性蛍光体シートを前述
したようにして読み取って先読画像信号Spを得、さら
に左肩のX線画像の場合は得られた先読画像信号Spが
反転され、これにより上記n1個の入力F1+FZ+ 
・・+Fnlか求められる。この01個の入力F1,.
F2,・・・+Fnlが第4図に示すニューラルネット
ワークに入力さ37 38 ?、各ユニッl■ u〒の出力y〒かモニタされる。
A number of X-ray images of the right shoulder or X-ray images of the left shoulder for which the optimal reading conditions are known are read as described above, and a stimulable phosphor sheet containing the recorded stimulable phosphor sheets is obtained to obtain a pre-read image signal Sp. In the case of a line image, the obtained pre-read image signal Sp is inverted, so that the n1 inputs F1+FZ+
...+Fnl is calculated. These 01 inputs F1, .
F2,...+Fnl are input to the neural network shown in FIG. 437 38 ? , the output y〒 of each unit l■u〒 is monitored.

各出力yiが求められると、最終的な出力であるyi’
,yzと、この画像に関し正しい読取条件べ としての教師信号(感度y,およびコントラストバ)と
の二乗誤差 のように各結合の重みW:7”か修疋される。ここでη
は学習係数と]l;J:ばれる係数である。
Once each output yi is determined, the final output yi'
, yz and the teacher signal (sensitivity y and contrast bar) based on the correct reading conditions for this image.
is a learning coefficient and]l;J: a coefficient to be learned.

ここで、 2 が求められる。これらの二乗誤差E1,E2がそれぞれ
最小となるように、以下のようにして各結合の重みW’
+’+”が修正される。尚、以下y,の出力に関して述
べ、y:についてはyiと同様であるため、ここでは省
略する。
Here, 2 is required. In order to minimize these square errors E1 and E2, the weight W' of each connection is determined as follows.
+'+'' is corrected.The output of y will be described below, and y: is omitted here because it is the same as yi.

二乗誤差E1を最小にするには、このE1はであり、(
4,)式より Xl” 一ΣW1,゛  ・y であるから、(9)式は、 となる。
To minimize the squared error E1, this E1 is and (
4.) From the formula, Xl'' - ΣW1,゛ ·y, so the formula (9) becomes as follows.

ここで、(6)式より、 ・・(4+’ w:: +1の関数であるから 3つ 40 (5)式を用いてこの(1i)式を変形すると、となる
。この(16)式に従って、W ? ? ( i. −
 1− . 2 .nx)の各結合の重みが修正される
Here, from equation (6), it is a function of (4+' w:: +1, so there are three 40) If we transform equation (1i) using equation (5), we get this equation (16). According to W?? (i.
1-. 2. nx) are modified.

ここで、(3)式より、 f’ (x) −f  (x)  (1−f  (x)
 )であるから、 ・・・(13) であるから、 この(工7)式に(4) , (5)式を代入して、 f’ (X? ) =YI’ ・ (1となる。
Here, from equation (3), f' (x) −f (x) (1−f (x)
), ...(13) Therefore, by substituting equations (4) and (5) into equation (7), f' (X?) = YI' · (1).

(10)式にいてk=2と置き、 (10)式に代入すると、 y+) (12) (工4〉 (】4) 式を ここで(13)式より、 f’ (X:) 一Y’+  ” (1  ’!l’4
 )   ・−(19)であるから、この(工9)式と
、(1.2), (14)式を(18)式に代入して、 ・・・(15) この(工5)式を(8)式に代入して、Wl l =W
+ ? η・ (Vll’ d)・y? (1  y?) ・y′ ・・・(16) 41 42 (10〉式におイテl(−1と置き、(2o)式を(1
o)式に代入すると、 一(y1一冫)・yj・(1−バ) ・y』 ・(1−y丁)・C ? * y”・・・(2
1) この(2{)式を(8)式に代入すると、k − 1と
置いて、W}〒=W{〒−η・(yi’  y?)・y
?・(1  y:)・パ・(I  Y?)・y}゜W』
 1                   ・・・〈
22〉となり、(16)式で修正されたw? ? (i
−1.2.・・・n1)がこの(22)式に代入され、
W}丁(i−1.2,・・・,  nl  ;j−1.
2.・コ nz)が修正される。
Putting k=2 in equation (10) and substituting it into equation (10), we get y+) (12) (Work 4〉 (]4) Now, from equation (13), f' (X:) 1 Y'+ ” (1 '!l'4
) ・-(19) Therefore, by substituting this equation (Eng. 9), equations (1.2), and (14) into equation (18), ...(15) This equation (Eng. 5) Substituting into equation (8), Wl l =W
+? η・(Vll' d)・y? (1 y?) ・y′ ...(16) 41 42 (Place itel(-1 in the equation 10) and change the equation (2o) to (1
o) Substituting into the formula, 1(y1一冫)・yj・(1−ba)・y”・(1−y锫)・C? *y”...(2
1) Substituting this equation (2{) into equation (8), replacing k − 1, we get W}〒=W{〒−η・(yi' y?)・y
?・(1 y:)・Pa・(I Y?)・y}゜W''
1...〈
22〉, and w? was corrected by equation (16). ? (i
-1.2. ...n1) is substituted into this equation (22),
W}ding(i-1.2,..., nl;j-1.
2.・Conz) will be corrected.

尚、理論的には(16)式, (22)式を用い、学習
係数ηを十分小さくとって学習回数を十分に多くするこ
とにより、各結合の重みw k k + lを所定の値
に集束させ得るが、学習係数ηをあまり小さくすること
は学習の進みを遅くするため現実的ではない。一方学習
係数ηを大きくとると学習か振動してしまう(上記結合
の重みが所定の値に収束しない)ことがある。そこで実
際には、結合の重みの修正量に次式のような慣性項を加
えて振動を抑え、学習係数ηはある程度大きな値に設定
される。
Theoretically, by using equations (16) and (22) and setting the learning coefficient η sufficiently small and increasing the number of learnings sufficiently, the weight w k k + l of each connection can be set to a predetermined value. Although it is possible to focus, it is not realistic to make the learning coefficient η too small because it slows down the progress of learning. On the other hand, if the learning coefficient η is set to a large value, the learning may oscillate (the weights of the connections described above may not converge to a predetermined value). Therefore, in practice, an inertia term as shown in the following equation is added to the connection weight correction amount to suppress vibration, and the learning coefficient η is set to a somewhat large value.

(例えば、D.E.Rumelhart,Gi.E.H
tnton and R.J.Williams:Le
arning internal represent
ationsby error prol)agati
on In Parallel Distribute
dProcessing,Volume  1.J.L
.McClell  and.  D.E.Rumel
ha.rt and The PDP Researc
h Group.MITPress,1986b J参
照) ΔW口 (t+1)一α・Δw7 ’;+1(B +た
だしΔWii” (1)は、t回目の学習における、修
正後の結合重みWii”1から修正前の該結合の重みW
 7 7 ” lを引いた修正量を表わす。ま43 44 た、αは、慣性項と呼ばれる係数である。
(For example, D.E. Rumelhart, Gi.E.H.
tnton and R. J. Williams:Le
earning internal representative
errors by error prol)agati
on In Parallel Distribution
dProcessing, Volume 1. J. L
.. McClell and. D. E. Rumel
ha. rt and The PDP Research
hGroup. MITPress, 1986b J) ΔW (t+1) - α・Δw7';+1(B +where ΔWii" (1) is the connection weight Wii"1 after modification in the t-th learning to the connection weight before modification. Weight W
7 7 ” represents the amount of correction after subtracting 43 44 α is a coefficient called an inertia term.

慣性項α、学習係数ηとしてたとえばα−0,9η−0
.25を用いて各結合の重みW〒1゛1の修正(学習)
をたとえば20万回行ない、その後は、各結合の重みw
 k k + lは最終の値に固定される。この学習の
終了時には、2つの出力!/;’+3’2は本読みの際
のそれぞれ感度、コントラストを正しく表わす信号とな
る。
For example, α-0, 9η-0 as the inertia term α and the learning coefficient η.
.. Modification (learning) of the weight W〒1゛1 of each connection using 25
For example, 200,000 times, and then the weight of each connection w
k k + l is fixed at the final value. At the end of this study you will have two outputs! /;'+3'2 is a signal that correctly represents the sensitivity and contrast during actual reading.

そこで学習が終了した後は、今度は本読みの際の読取条
件がX線画像を表わす先読画像信号Spが求められ、こ
れが第4図に示すニューラルネットワークに入力され、
それにより得られた出力)’?+!/:  がそのX線
画像に対する本読みの読取条件(感度とコントラスト)
を表わす信号となる。この信号は、上記のようにして学
習を行なった後のものであるため、本読みの際の読取条
件を精度良く表わしている。
After the learning is completed, a pre-read image signal Sp representing an X-ray image is determined as the reading condition for main reading, and this is input to the neural network shown in FIG.
The resulting output)'? +! /: is the reading condition (sensitivity and contrast) for the actual reading of the X-ray image.
It becomes a signal representing. Since this signal is obtained after learning as described above, it accurately represents the reading conditions for actual reading.

尚、上記ニューラルネットワークは3層構造のものに限
られるものではなく、さらに多層にしてもよいことはも
ちろんである。また各層のユニットの数も、入力される
先読画像信号Spの画素の数、必要とする読取条件の精
度等に応じた任意の数のユニットで各層を構或し得るこ
とももちろんである。
It should be noted that the neural network described above is not limited to a three-layer structure, and it goes without saying that it may have even more layers. Furthermore, it goes without saying that each layer can be configured with an arbitrary number of units depending on the number of pixels of the input pre-read image signal Sp, the accuracy of the required reading conditions, etc.

上記のようにしてニューラルネットワークにより求めら
れた読取条件に従って本読手段100′のフォトマルチ
プライヤ21’ に印加する電圧や増幅器2B’ の増
幅率等が制御され、この制御された条件に従って本読み
が行なわれる。
The voltage applied to the photomultiplier 21' of the main reading means 100', the amplification factor of the amplifier 2B', etc. are controlled according to the reading conditions determined by the neural network as described above, and the main reading is performed according to the controlled conditions. It will be done.

このようにして読取条件を求めることができるようにな
ったニューラルネットワークは、前記X線画像読取装置
に実装され、上述のように読取条件を決定する機能を有
する。
The neural network that can determine the reading conditions in this way is installed in the X-ray image reading device and has the function of determining the reading conditions as described above.

このX線画像読取装置は、上記のように決定された読取
条件に基づいて本読みして得られた画像信号を、前述の
ように前記図示しない再生装置に送るとともに、前記コ
ンピュータシステムに再度入力し、ここで前記CRTデ
ィスプレイ44に本読みにより得られた画像を表示する
。したがって、ユーザは、この本読みにより得られた画
像を見て、45 46 前記キーボード43を使って、この装置内の二=−ラル
ネットワークに再び誤差逆伝播学習をさせることができ
る。
This X-ray image reading device sends the image signal obtained by reading based on the reading conditions determined above to the playback device (not shown) as described above, and inputs it again to the computer system. , Here, the image obtained by the main reading is displayed on the CRT display 44. Therefore, the user can use the keyboard 43 to cause the bi=-ral network in this device to perform error backpropagation learning again by looking at the image obtained from this book reading.

これにより、実装後も、現場の医師等によってニューラ
ルネットワークにさらに学習をさせて、読取り条件決定
の精度を向」ニさせることができる。
As a result, even after implementation, the neural network can be further trained by doctors in the field to improve the accuracy of reading condition determination.

なお、上記実施例では肩部のX線画像について、ニュー
ラルネットワークに入力するに先立って第3A図.第3
B図に示したようなパターンとパターンマッチングをと
ることによって標準画像(右肩の画像)であるか反転画
像(左肩の画像)であるかを判断し、反転画像(左肩の
画像)の場合に標準画像(右肩の画像)に合わせるべく
画像を反転する操作を行なったが、本発明は左右の反転
を取扱う場合であっても肩部の画像のみに限られるもの
ではなく、例えば、左右の手足の画像、右向き/左向き
の頭部,腹部等の画像等を取扱うシステムにも適用でき
るものである。
In the above embodiment, the X-ray image of the shoulder is processed as shown in FIG. 3A before being input to the neural network. Third
By performing pattern matching with the pattern shown in Figure B, it is determined whether the image is a standard image (image of the right shoulder) or an inverted image (image of the left shoulder), and in the case of an inverted image (image of the left shoulder) Although the image was reversed to match the standard image (image of the right shoulder), the present invention is not limited to only shoulder images even when dealing with horizontal reversal; It can also be applied to systems that handle images of limbs, heads facing right/left, images of abdomens, etc.

また本発明は左右反転にのみ拘泥されるものではなく、
例えば撮影に際し蓄積性蛍光体ンートを斜めにセットし
てしまいその結果傾いた画像を担持する画像信号が得ら
れた場合や、読取の際の蓄積性蛍光体ンートのセッi・
の方向が異なり、横に傾いた画像、もしくは倒立した画
像を表わす画像信号や得られた場合にこれを正常な向き
に直すための回転を行なう場合であってもよく、また直
接X線撮影と間接X線撮影等拡大率(縮小率)の異なる
画像を補正する場合であってもよく、また所望とする被
写体が画像の端に記録された場合に該被写体が画像の中
央に配置されるように位置調整を行なう場合であっても
よい。またこれらを組合わせた複数について調整するよ
うにしてもよい。
Furthermore, the present invention is not limited to left-right reversal;
For example, if the stimulable phosphor cartridge is set diagonally during photography and an image signal carrying a tilted image is obtained as a result, or if the stimulable phosphor cartridge is set diagonally during reading,
The direction of the image may be different, and the image signal may represent a sideways or inverted image, and if the image signal is obtained, it may be rotated to correct the image to its normal orientation. This may be used when correcting images with different enlargement ratios (reduction ratios) such as indirect X-ray photography, or when a desired subject is recorded at the edge of the image, it may be necessary to place the subject in the center of the image. The position may also be adjusted. Further, adjustments may be made for a plurality of combinations of these.

また、上記実施例では、先読手段100と本読手段10
0′ とが別々に構成されているが、前述したように先
読手段1.0 0と本読手段1.00’の構成は略同一
であるため、先読手段100と本読手段100 ’とを
一体にして兼用してもよい。この場合、先読みを行なっ
た後、蓄積性蛍光体シ一ト11を一回バックさせ、再度
走査して本読みを行なうようにすればよい。
Further, in the above embodiment, the pre-reading means 100 and the main reading means 10
0' are configured separately, but as mentioned above, the configurations of the pre-reading means 1.00 and the main reading means 1.00' are substantially the same, so the pre-reading means 100 and the main reading means 100' They may also be used together. In this case, after pre-reading, the stimulable phosphor sheet 11 may be moved back once and scanned again to perform main reading.

47 48 先読手段と本読手段とを兼用した場合、先読みの場合と
本読みの場合とで光ビームの強度を切替える必要がある
が、この切替えの方法としては、前述したように、レー
ザー光源からの光強度そのものを切替える方法等、抽々
の方法を使用することができる。
47 48 When the pre-reading means and the main reading means are used, it is necessary to switch the intensity of the light beam between the pre-reading and the main reading. Any arbitrary method can be used, such as a method of switching the light intensity itself.

また、上記実施例では、コンピュータシステム40で本
読みの際の読取条件を求める装置について説明したが、
本読みの際は、先読画像信号Spにかかわらず所定の読
取条件で読取ることとし、コンピュータシステム40で
は、先読画像信号Spに基づいて、画像信号SOに画像
処理を施す際の画像処理条件を求めるようにしてもよく
、また、コンピュータシステム40で上記読取条件と画
像処理条件の双方を求めるようにしてもよい。
Further, in the above embodiment, a device for determining reading conditions for reading a book using the computer system 40 was explained.
During the actual reading, reading is performed under predetermined reading conditions regardless of the pre-read image signal Sp, and the computer system 40 sets the image processing conditions when performing image processing on the image signal SO based on the pre-read image signal Sp. Alternatively, the computer system 40 may obtain both the reading conditions and the image processing conditions.

さらに、上記実施例は、先読みを行なう放射線画像読取
装置について説明したが、本発明は先読みを行なわず、
最初から上記本読みに相当する読取りを行なう放射線画
像読取装置にも適用することができる。この場合、読取
りの際は所定の読取条件で読み取られて画像信号が得ら
れ、この画像信号に基づいて、コンピュータシステム4
0内で画像処理条件が求められ、この求められた画像処
理条件に従って画像信号に画像処理が施される。
Furthermore, although the above embodiment describes a radiation image reading device that performs pre-reading, the present invention does not perform pre-reading.
It can also be applied to a radiation image reading device that performs reading equivalent to the above-mentioned main reading from the beginning. In this case, when reading, an image signal is obtained by reading under predetermined reading conditions, and based on this image signal, the computer system 4
Image processing conditions are determined within 0, and image processing is performed on the image signal according to the determined image processing conditions.

また、同様の思想を照則野認識やコンピュータ診断(異
常陰影検出)に適用することもできる。
Furthermore, similar ideas can be applied to field recognition and computer diagnosis (abnormal shadow detection).

すなわち、被写体の観察に必要の無い部分に放射線を照
射しないようにするため、放射線が被写体の必要な部分
および記録シー1・の一部にのみ照射されるように放射
線の凪射域を制限する照射野絞りを使用して撮影を行な
うことがあるが、このような場合には画像データを分析
して読取条件画像処理条件を求める前に、その照射野を
認識し、照射野内の画像データに基づいて読取条件,画
像処理条件を求める必要がある。本発明の方法は、この
照射野の認識や、以下に詳述する異常陰影の検出にニュ
ーラルネットを使用したシステムにも適用することがで
きる。
In other words, in order to avoid irradiating radiation to parts that are not necessary for observation of the subject, the radiation range is limited so that the radiation is irradiated only to the necessary parts of the subject and a part of the recording sheet 1. Photography may be performed using an irradiation field aperture, but in such cases, before analyzing the image data to determine reading conditions and image processing conditions, the irradiation field must be recognized and the image data within the irradiation field must be adjusted. Based on this, it is necessary to determine reading conditions and image processing conditions. The method of the present invention can also be applied to a system that uses a neural network to recognize this irradiation field and detect abnormal shadows, which will be described in detail below.

次に、本発明を異常陰影検出装置に適用した実施例を詳
細に説明する。
Next, an embodiment in which the present invention is applied to an abnormal shadow detection device will be described in detail.

4つ 50 第7図は、本実施例の異′1:リ陰影検出装置の構或を
明示したブロック図である。
4 50 FIG. 7 is a block diagram clearly showing the structure of the shadow detection apparatus according to the first embodiment.

被写体の放射線画像を表わす画像データS1が、第一の
候補抽出手段101に入力される。
Image data S1 representing a radiation image of a subject is input to first candidate extraction means 101.

第一の候補抽出手段101では、入力された画像データ
S1−に、たどえば実空間フィルタリング処理等の比較
的簡単な処理が施され、上記放射線画像中の異常陰影の
候補Cが抽出される。
In the first candidate extraction means 101, the input image data S1- is subjected to relatively simple processing such as real space filtering processing, and a candidate C of an abnormal shadow in the radiographic image is extracted. .

ここで「異常陰影」とは、標準的陰影には見られない、
たとえば胸部X線画像における腫瘍,石灰化1胸膜の肥
厚 気胸等の陰影をいうが、この第一の候補抽出手段1
01 はこれらの異常陰影の全てを抽出するものである
必要はなく、たとえばII!l瘍影のみを異常陰影とし
て抽出するものであってもよい。
Here, "abnormal shadows" are those that are not seen in standard shadows.
For example, this refers to shadows such as tumors, calcifications, pleural thickening, pneumothorax, etc. in chest X-ray images, and this first candidate extraction means 1
01 does not need to extract all of these abnormal shadows; for example, II! Only the tumor shadow may be extracted as an abnormal shadow.

この第一の候袖抽出手段101で累常陰影の候補が抽出
されずに洩れてしまうと最後まで洩れたままとなってし
まうため、この第一の候補抽出手段101で用いられる
抽出方法としては、多少のノイズ(対象とする異常陰影
(たとえば腫瘍影)でないものを叉常陰影候補どして抽
出l7てしまうこと、またはそのようにして抽出された
実際には異常陰影ではない叉常陰影候補をいう)か混入
しても実際の叉常陰影を洩れなく抽出することのできる
方法を用いることが望ましい。
If the first candidate extraction means 101 fails to extract candidates for cumulative shadows, they will remain until the end. Therefore, the extraction method used by the first candidate extraction means 101 is as follows. , some noise (extracting something that is not the target abnormal shadow (for example, a tumor shadow) as a common shadow candidate, or a common shadow candidate that is not actually an abnormal shadow extracted in this way) It is desirable to use a method that can extract all the actual chiasm shadows even if they are mixed in.

第一の候補抽出手段101で求められた’A 7i’;
陰影の候補Cは、画像データS1とともに特徴量演算千
段102に入力される。特徴量演算手段]02では、こ
の候補Cの近傍の画像データS1に基づいて各候補C毎
に複数の特徴量Fi t  F2 r  ・・・・,4
nが求められる。
'A 7i' obtained by the first candidate extracting means 101;
The shadow candidate C is input to the feature calculation stage 102 together with the image data S1. Feature amount calculation means]02 calculates a plurality of feature amounts Fi t F2 r . . . , 4 for each candidate C based on the image data S1 in the vicinity of this candidate C.
n is found.

ここで「特徴量」とは、各候補Cの異常陰影としての確
からしぎを反映する種々の量の総称をいい、たとえば各
候補Cの面積,形状の不整度、各候補C内の画像データ
の平均値、画像データの分散値、各候補C内の画像デー
タの平均値とその周辺の画像データの平均値との比率(
コントラスト)等をいう。この特徴量演算手段102で
どのような特徴量を求めるか、いくつの特徴量を求める
かは特に限定されるものではなく、抽出すべき異常陰5
1 52 影の種類、抽出すべき精度、演算時間等を考慮して定め
られるものである。
Here, "feature quantity" is a general term for various quantities that reflect the certainty of each candidate C as an abnormal shadow, such as the area of each candidate C, the irregularity of the shape, and the image data within each candidate C. the average value of the image data, the variance value of the image data, the ratio of the average value of the image data in each candidate C to the average value of the surrounding image data (
contrast) etc. There are no particular limitations on what kind of feature quantity to obtain with this feature quantity calculation means 102 or how many feature quantities to obtain.
1 52 It is determined by considering the type of shadow, the accuracy to be extracted, the calculation time, etc.

特徴量演算手段102において求められた複数の特徴量
F1r  F2 ,・・・・・・,Fnは、第二の候補
抽出手段103入力される。第二の候補抽出手段103
では、入力された複数の特徴fiFx .  F2 .
・・・・・Fnに基づいて、第一の候補抽出手段101
で抽出された異常陰影の候補Cから異常陰影である蓋然
性の高い候補T(以下、この候補Tを異常陰影Tと呼ぶ
ことがある。)が抽出される。この異常陰影Tの抽出方
法としては、本実施例においては特定の方法に限定され
るものではないが、たとえば、上記複数の特徴JTtF
1 .  FZ ,・・・・・・,Fnを入力とし、上
記候補Cが異常陰影である蓋然性の程度を表わすffi
Eを出力とするニューラルネットワークを備えて各候袖
Cの上記蓋然性の程度を表わす量Eが求められ、この量
Eに基づいて候補Cが異堂陰影Tであるか否かの判定が
行なわれる。
The plurality of feature quantities F1r F2 , . Second candidate extraction means 103
Now, the input features fiFx. F2.
...Based on Fn, first candidate extraction means 101
A candidate T with a high probability of being an abnormal shadow (hereinafter, this candidate T may be referred to as an abnormal shadow T) is extracted from the abnormal shadow candidate C extracted in step. Although the method for extracting this abnormal shadow T is not limited to a specific method in this embodiment, for example, the above-mentioned plurality of features JTtF
1. FZ, ..., Fn are input, and ffi represents the degree of probability that the above candidate C is an abnormal shadow.
A neural network whose output is E is provided to obtain a quantity E representing the degree of the above-mentioned probability of each candidate sleeve C, and based on this quantity E, it is determined whether or not candidate C is a different hall shadow T. .

なお上記複数の特徴ffiFx+Fz+ ・・・・・・
 171は、ニューラルネットワークの入力として用い
ることに限定されるものではなく、NN法(neare
stneighbor)法、単純にしきい値と各特徴量
FIF2,・・・・・・,Fnとを比較する方法、これ
ら複数の方法の絹合ぜ等種々の方法を用いることができ
る。
In addition, the above multiple features ffiFx+Fz+ ・・・・・・
171 is not limited to being used as an input to a neural network, but can also be used as an NN method (near
Various methods can be used, such as a method of simply comparing a threshold value with each feature amount FIF2, . . . , Fn, and a combination of these methods.

以上のようにして求められた異常陰影Tを表わすデータ
は画像データS1とともに表示手段104に入力される
。表示手段104では叉常陰影Tが明示された可視画像
が表示される。なお、異常陰影Tの明示の方法は特定の
方法に限られるものでなく、たとえば可視画像上に矢印
で表示する方法、異常陰影Tを色や濃度を変えて表示す
る方法、可視画像の端に、どの位置に異常陰影Tがある
かを文字,記号等で表示する方法等のいずれでもよい。
The data representing the abnormal shadow T obtained as described above is input to the display means 104 together with the image data S1. The display means 104 displays a visible image in which the common shadow T is clearly shown. Note that the method of displaying the abnormal shadow T is not limited to a specific method; for example, a method of displaying the abnormal shadow T with an arrow on the visible image, a method of displaying the abnormal shadow T by changing the color or density, a method of displaying the abnormal shadow T at the edge of the visible image, etc. , a method of displaying the location of the abnormal shadow T using letters, symbols, etc. may be used.

また、本実施例の異常陰影検出装置には入力手段105
が備えられている。この入力手段105は、表示手段1
04に表示された可視画像を観察者が観察した絖果、そ
の可視画像に明示された異帝陰影Tか真に異常陰影であ
ったか否かの情報■を観察者か入力するものである。
Further, the abnormal shadow detection apparatus of this embodiment includes an input means 105.
is provided. This input means 105 includes display means 1
The observer inputs the result observed by the observer in the visible image displayed in step 04, and information (2) as to whether or not the abnormal shadow T clearly shown in the visible image was truly an abnormal shadow.

53 54 この情報工は、第二の候補抽出手段103に入力される
。この第2の候補抽出手段103は、入力された情報I
に基づいて、候補Cから異常陰影Tを抽出する演算を変
更する学習機能を備えている。
53 54 This information is input to the second candidate extraction means 103. This second candidate extracting means 103 extracts the input information I
It has a learning function that changes the calculation for extracting the abnormal shadow T from the candidate C based on the following.

この学習機能は、本実施例において特定のものに限定さ
れるものではないが、たとえば第二の候補抽出手段{0
3が上記情報Tを教師信号とする誤差逆伝播学習(パッ
クプロパゲーンヨン)機能を有するニューラルネットワ
ークを備えており、上記情報Tが入力されることにより
、結合の重み(シナプス結合のウェイト)を修正すると
いう“学習”が行なわれる(例えば、rD.E.Rum
elhart,G.E.}1inton and R.
J.Willial1s:Learning repr
esenta−tfons by back−prop
agating errors,Nature.323
−9,583−356.1986a J ,  r麻生
英樹二バックプロパゲーションComputrol N
0.24 53−60J ,  r合原一幸著 ニュー
ラルコンピュータ 東京電機大学出版局」参照)。
This learning function is not limited to a specific one in this embodiment, but for example, the second candidate extraction means {0
3 is equipped with a neural network having an error backpropagation learning function using the above information T as a teacher signal, and by inputting the above information T, connection weights (synaptic connection weights) are calculated. "Learning" to correct is performed (for example, rD.E.Rum
Elhart, G. E. }1inton and R.
J. Willial1s: Learning repr
esenta-tfons by back-prop
agating errors, Nature. 323
-9,583-356.1986a J, r Hideki Aso Two Back Propagation Computrol N
0.24 53-60J, r Kazuyuki Aihara, Neural Computer Tokyo Denki University Press).

なお、本実施例の異常陰影検出装置の各機能は、第7図
に示した各ブロック101〜105の機能毎に峻別され
る必要はなく、大質的に第7図に示した各ブロック10
1〜105の機能を有していれば本尖施例に含まれるも
のであり、たとえば異常陰影の候補Cを抽出ずるための
丈空間フィルタリング処理を施しながら(第一の候補抽
出手段101の機能)、同時に異常陰影候補Cの面積、
形状等の特徴量Fl,F2,・・・・・・,Fnを求め
る(特徴量演算手段103の機能)こと等も本実施例の
異常陰影検出装置に内包されるものである。
It should be noted that each function of the abnormal shadow detection apparatus of this embodiment does not need to be clearly distinguished for each function of each block 101 to 105 shown in FIG.
If it has the functions 1 to 105, it is included in the main embodiment, and for example, while performing height space filtering processing to extract the abnormal shadow candidate C (the function of the first candidate extraction means 101 ), and at the same time the area of abnormal shadow candidate C,
The abnormal shadow detection apparatus of this embodiment also includes the calculation of feature quantities Fl, F2, .

また、本実施例の一態様として、第7図に示す各ブロッ
ク101〜105の機能に加えて、披写体の解剖学的情
報を求めて第二の候袖抽出手段103に入力し、候補C
から異常陰影Tを求める際に、たとえば、この解剖学的
情報を」二記複数の特徴EtF1+  F2+ ・・・
・・・,Fnとともにニューラルネットワークの入力と
すること、ニューラルネットワークの出力(候補Cが異
常陰影である蓋然性を表わすffiE)をしきい値処理
して該候補Cが”A 7i’;陰影Tであるかどうかを
判定する際の該しきい値を上記解ハIJ学的情報に乱づ
いて定めること等、解剖学55 56 的情報を上記複数の特徴量F1 +  F2 ,・・・
・・,Fnとともに考慮してもよい。
Further, as an aspect of the present embodiment, in addition to the functions of each block 101 to 105 shown in FIG. C
When calculating the abnormal shadow T from, for example, this anatomical information is used as the plurality of features EtF1+ F2+...
..., Fn is input to the neural network, and the output of the neural network (ffiE representing the probability that candidate C is an abnormal shadow) is subjected to threshold processing to determine that candidate C is "A 7i"; shadow T. The anatomical information is used to determine the threshold value for determining whether or not the above-described feature values F1 + F2, . . .
..., may be considered together with Fn.

ここで「解剖学的情報」とは放射線画像上に表われた、
被写体の措遣物に関する情報をいい、具体的には、たと
えば胸部X線画像における、肺野部, Ililjl”
1部,肋骨,心臓,横隔膜等の位置情報等をいう。
Here, "anatomical information" refers to information that appears on radiographic images.
Refers to information regarding the behavior of the subject, specifically, for example, the lung field in a chest X-ray image.
Part 1 refers to location information such as ribs, heart, diaphragm, etc.

本実施例の異常陰影検出装置は、上記構成を備えている
ため、ノイズが混入することはあっても洩れのないよう
に異常陰影候補Cを抽出し、複数の特徴量に基づいてこ
の抽出された候補から異常陰影Tを抽出することにより
、洩れの少ない異常陰影抽出を行なうことができ、しか
も異常陰影ではないパターンが異常陰影として抽出され
ることも少ない。即ち具常陰影を精度良く検出すること
ができる。
Since the abnormal shadow detection device of this embodiment has the above-mentioned configuration, it extracts the abnormal shadow candidate C without omission even though noise may be mixed in, and extracts the abnormal shadow candidate C based on a plurality of feature amounts. By extracting the abnormal shadow T from the candidates, abnormal shadow extraction can be performed with less omission, and patterns that are not abnormal shadows are rarely extracted as abnormal shadows. That is, concrete shadows can be detected with high accuracy.

また、これは上記表示手段104および上記入力手段1
05を備えており、さらに上記第二の候補抽出手段10
3が候補Cから累常陰影Tを抽出する演算を変更する学
習機能を備えているため、たとえばこの異常陰影検出装
置か設置された施設やこの装置の表示手段104に表示
された可視画像を観察する観察者等に応じてさらに高精
度の検出が行なわれるようになる。
Moreover, this means that the display means 104 and the input means 1
05, and further includes the second candidate extraction means 10.
3 has a learning function that changes the calculation for extracting the cumulative shadow T from the candidate C. Therefore, for example, this abnormal shadow detection device can be observed at the facility where it is installed or the visible image displayed on the display means 104 of this device. Detection can be performed with even higher precision depending on the observer or the like.

本実施例においては、上記学習機能として特定の学習機
能に限定されるものではないか、上記第二の候補抽出手
段103が、入力手段105から入力された情報Tを教
師信号とする誤差逆伝播学習機能を有するニューラルネ
ットワークを備えている場合は、このニューラルネット
ワークの優れた学習機能により異常陰影の検出精度をい
っそう向上させることができる。
In this embodiment, the learning function is not limited to a specific learning function. If a neural network with a learning function is provided, the accuracy of detecting abnormal shadows can be further improved due to the excellent learning function of this neural network.

以下、上記実施例について、図面を参照してさらに詳細
に説明する。なお、ここでは前述した蓄積性蛍光体シー
トを用い、人体の胸部のX線画像の肚瘍影を抽出する例
について説明する。
Hereinafter, the above embodiment will be described in more detail with reference to the drawings. Here, an example will be described in which the stimulable phosphor sheet described above is used to extract an ulcer shadow from an X-ray image of the chest of a human body.

第8図は、蓄積性蛍光体シート上に蓄積記録された胸部
X線画像の一例を模式的に表わした図である。
FIG. 8 is a diagram schematically showing an example of a chest X-ray image accumulated and recorded on a stimulable phosphor sheet.

中央に肺のX線画像I]5(以下胛部115と呼ぶ。In the center is an X-ray image of the lungs I] 5 (hereinafter referred to as the ligament 115).

57 58 以下同様)、その両側に皮膚部1工6、さらにその両側
にX線が、被写体を透過せずに、直接シ一トH4に照射
された直接X線部117が形成されている。
57, 58, and so on), a skin part 1 part 6 is formed on both sides thereof, and a direct X-ray part 117 is formed on both sides thereof, in which the X-rays are directly irradiated onto the sheet H4 without passing through the subject.

第9図は、X線画像読取装置の一例と、本発明の異常陰
影検出装置の一実施例であるコンピュータシステムとを
表わした斜視図である。
FIG. 9 is a perspective view showing an example of an X-ray image reading device and a computer system which is an example of the abnormal shadow detecting device of the present invention.

第8図に示すようなX線画像が記録された蓄積性蛍光体
シートlL4がX線画像読取装置120の所定位置にセ
ットされる。この所定位置にセットされた蓄積性蛍光体
シ一ト114は、モータ121により駆動されるエンド
レスベルト等のシート搬送手段122により、矢印Y方
向に搬送(副走査)される。一方、レーザー光源123
から発せられた光ビム{24はモータ125により駆動
され矢印方向に高速回転する回転多面鏡126によって
反射偏向され、fθレンズ等の集束Iノンズ127を通
過した後、ミラー12gにより光路を変えて前記シート
】14に入射し副走査の方向(矢印Y方向)と略垂直な
矢印X方向に主走査する。シ一ト114の励起光124
が照射された箇所からは、蓄積記録されているX線画像
情報に応じた光量の輝尽発光光129が発散され、この
輝尽発光光129は光ガイド130によって導かれ、フ
ォトマルチプライヤ(光電子増倍管)181によって光
電的に検出される。上記光ガイド130はアクリル板等
の導光性利料を戊形して作られたものであり、直線状を
なす入則端面】30aが蓄積性蛍光体シー目14上の主
走査線に沿って延びるように配され、円環状に形成され
た射出端面130bにフォトマルチブライヤ131の受
光面が粘合されている。入射端面130aから光ガイド
130内に入射した輝尽発光光129は、該光ガイド1
30の内部を全反射を繰り返して進み、射出端面130
bから射出してフォトマルチプライヤ13{に受光され
、X線画像を表わす輝尽発光光129かフォトマルチブ
ライヤ131によって電気信号に変換される。
A stimulable phosphor sheet LL4 having an X-ray image recorded thereon as shown in FIG. 8 is set at a predetermined position of the X-ray image reading device 120. The stimulable phosphor sheet 114 set at a predetermined position is conveyed (sub-scanned) in the direction of arrow Y by a sheet conveying means 122 such as an endless belt driven by a motor 121. On the other hand, the laser light source 123
The light beam {24 emitted from sheet] 14 and is main-scanned in the direction of arrow X, which is substantially perpendicular to the sub-scanning direction (direction of arrow Y). Excitation light 124 of sheet 114
From the irradiated area, stimulated luminescence light 129 is emitted in an amount corresponding to the accumulated and recorded X-ray image information, and this stimulated luminescence light 129 is guided by a light guide 130 and is passed through a photomultiplier (photoelectron). It is photoelectrically detected by a multiplier tube) 181. The light guide 130 is made by cutting a light-guiding material such as an acrylic plate into a rectangular shape, and the linear input end surface 30a extends along the main scanning line on the stimulable phosphor seam 14. The light-receiving surface of the photomultiplier 131 is bonded to the annularly formed exit end surface 130b. The stimulated luminescent light 129 that has entered the light guide 130 from the incident end surface 130a is transmitted through the light guide 1
30 through repeated total reflection, and the exit end surface 130
The light is emitted from the photomultiplier 13{ and is received by the photomultiplier 13{, and is converted into an electrical signal by the photomultiplier 131 or stimulated luminescence light 129 representing an X-ray image.

フォトマルチプライヤ131から出力されたアナログ出
力信号SOは対数増幅器132て対数的に増幅され、A
/D変換器133てディジタル化され、電気信号として
の画像データS1が得られる。
The analog output signal SO output from the photomultiplier 131 is logarithmically amplified by the logarithmic amplifier 132, and
The image data S1 is digitized by a /D converter 133, and image data S1 as an electrical signal is obtained.

59 60 得られた画像信号S1は、コンビュータンステム140
に入力される。このコンピュータシステム140は、本
発明の異常陰影検出装置の一例を構或するものであり、
CPUおよび内部メモリが内蔵された本体部14l,補
助メモリとしてのフロッピィディスクが挿入されドライ
ブされるドライブ部142,オペレータがこのコンピュ
ータシステム140に必要な指示等を入力するためのキ
ーボード143および必要な情報を表示するためのCR
Tディスプレイ144から構成されている。
59 60 The obtained image signal S1 is transmitted through the commutan stem 140
is input. This computer system 140 constitutes an example of the abnormal shadow detection device of the present invention,
A main unit 14l with a built-in CPU and internal memory, a drive unit 142 into which a floppy disk as an auxiliary memory is inserted and driven, a keyboard 143 for an operator to input instructions, etc. necessary for this computer system 140, and necessary information. CR to display
It consists of a T display 144.

コンピュータシステム140に入力された画像データS
1に基づいて、X線画像上の異常陰影の検出が行なわれ
る。コンピュータシステム140では、その機能上、第
7図に示す各ブロック101〜103に対応する演算が
行なわれる。以下、第7図に示すブロック101〜10
3をコンピュータシステムl40の機能を表わすブロッ
クと考える。また、コンピュータシステム140のCR
Tディスプレイ144およびキーボード143が、本発
明のそれぞれ表示手段104および入力手段105の一
例である。
Image data S input into the computer system 140
1, abnormal shadows on X-ray images are detected. Functionally, the computer system 140 performs calculations corresponding to the blocks 101 to 103 shown in FIG. 7. Below, blocks 101 to 10 shown in FIG.
3 is considered to be a block representing the functions of the computer system 140. In addition, the CR of the computer system 140
T-display 144 and keyboard 143 are examples of display means 104 and input means 105, respectively, of the present invention.

第8図に示すようなX線画像を表わすディジタルの電気
信号としての画像データS1が、第7図に示す第一の候
補抽出手段J−01 に入力される。
Image data S1 as a digital electrical signal representing an X-ray image as shown in FIG. 8 is input to the first candidate extracting means J-01 shown in FIG.

ここでは、人体の肺内に典型的には略球形として生じる
腫瘍の陰影を異常陰影として検出する例について説明す
る。この腫瘍は画像データS1に基づく可視画像上では
周囲と比べ白っぽい(a度が低い)略円形のパターンと
して現われる。
Here, an example will be described in which a tumor shadow, which typically occurs in the lungs of a human body in a substantially spherical shape, is detected as an abnormal shadow. On the visible image based on the image data S1, this tumor appears as a whitish (low a degree) approximately circular pattern compared to the surrounding area.

第一の候補抽出手段 第lO図は、第一の候補抽出手段101で用いられる、
上記腫瘍影を抽出する大空間フィルタの例を説明するた
めに、X線画像上の所定の画素Poを中心に該画像上に
仮想的に描いた図である。該所定の画素Poが上記腫瘍
影内の画素であるか否かが判定される。ここで示すよう
なフィルタを用いてX線画像上を走査することにより、
X線画像上の腫瘍影が抽出される。
First candidate extraction means FIG. 10 shows the first candidate extraction means 101 used in
In order to explain an example of the large space filter for extracting the tumor shadow, it is a diagram virtually drawn on an X-ray image, centering on a predetermined pixel Po on the image. It is determined whether the predetermined pixel Po is a pixel within the tumor shadow. By scanning an X-ray image using a filter like the one shown here,
A tumor shadow on the X-ray image is extracted.

第11図は、上記所定の画素P。を中心とした、第lO
図の線分L1 とL5の延びる方向(X方向)のX線画
像のプロファイルの一例を示した図てあ6] 62 ?。ここでは所定の画素Poは、肋骨影{06の極く 近傍にある肚瘍影]07のほほ中央にあるものとする。
FIG. 11 shows the above-mentioned predetermined pixel P. The 1st O, centered on
Figure 6 shows an example of the profile of an X-ray image in the direction in which line segments L1 and L5 extend (X direction). . Here, it is assumed that the predetermined pixel Po is located at the center of the cheek of the rib shadow {the ulcer shadow located very close to 06] 07.

腫瘍影107は典型的にほほは左右対称のプロファイル
として現われるが、この例のように腫瘍影107が肋骨
影106の極く近傍にある場合等には、左右対称とはな
らない場合もある。このような場合にもこの腫瘍影J0
7を抽出できることが重要である。なお第11図の破線
10gは腫瘍がない場合のプロファイルの一例である。
The tumor shadow 107 typically appears as a laterally symmetrical cheek profile, but it may not be symmetrical in some cases, such as when the tumor shadow 107 is located very close to the rib shadow 106 as in this example. In such cases, this tumor shadow J0
It is important to be able to extract 7. Note that the broken line 10g in FIG. 11 is an example of a profile when there is no tumor.

第lO図に示すように、X線画像内の所定の画素Poか
ら該X線画像の周囲に延びる複数(ここでは8本)の線
分L1(1 =1..2.・・・・・・,8)を想定し
、さらに所定の画素Poを中心とした、それぞれ半径r
l+  r2+  r3の円R+  (j =I.,2
.3 )を想定する。所定の画素P。の画像データをf
。とじ、各線分L1と各円R,との各交点に位置する各
画素P+1(第5図にはPII+ p,■+ P 13
+ P 51+P 52+  P 53について記号を
示してある。)の画像データをfl,とする。
As shown in FIG. 10, a plurality of (eight lines in this case) line segments L1 (1 = 1..2... .
Circle R+ of l+ r2+ r3 (j = I., 2
.. Assume 3). Predetermined pixel P. The image data of f
. Each pixel P+1 located at each intersection of each line segment L1 and each circle R (FIG. 5 shows PII+ p, ■+ P 13
Symbols are shown for +P 51+P 52+P 53. ) is assumed to be fl,.

?こで、所定の画素Poの画像データfoと各画素PI
,の画像データf.との差分Δ1が、下記(24)式に
従って求められる。
? Here, image data fo of a predetermined pixel Po and each pixel PI
, image data f. The difference Δ1 from

Δl,− f l,一f。     ・・(24)(f
 −1.2,・・・・・.8;j =1,2.3 >次
に各線分LI毎に、(24)式で求められた差分Δ1の
最大値が求められる。即ち、線分L1,L5について例
を示すと、線分L1については、画素PI1+  ” 
+2+  P13に対応ずる各差分ΔII”’fl■一
fo Δ12””fl2  fQ Δ+:+=f+3 fo のうちの最大値が求められる。この例では、ffill
図に示すようにΔ,3<Δ1■〈Δ,,く0であり、し
たがってΔ1,が最大値となる。また線分L5について
は画素P 51+  P 52+  P53に対応する
各差分Δ51−f51  fo Δ52=f52  fo Δ53−f53  fO のうちの最大値Δ,3が求められる。
Δl,−f l,1f. ...(24)(f
-1.2,... 8; j = 1, 2.3>Next, for each line segment LI, the maximum value of the difference Δ1 determined by equation (24) is determined. That is, to give an example regarding line segments L1 and L5, for line segment L1, pixel PI1+''
+2+ The maximum value of each difference ΔII"'fl■-fo Δ12""fl2 fQ Δ+:+=f+3fo corresponding to P13 is found. In this example, ffill
As shown in the figure, Δ,3<Δ1■<Δ,,ku0, and therefore Δ1 is the maximum value. Further, for the line segment L5, the maximum value Δ,3 of the differences Δ51−f51 fo Δ52=f52 fo Δ53−f53 fO corresponding to the pixels P 51 + P 52 + P53 is determined.

63 このように所定の画素P。と、各線分L,毎に複数の画
素との差分の最大値を求めるようにすることにより、種
々のサイズの腫瘍影に対処することができる。
63 In this way, the predetermined pixel P. By calculating the maximum value of the difference between each line segment L and a plurality of pixels, it is possible to deal with tumor shadows of various sizes.

次に、所定の画素Poから互いに反対方向に延びる2本
の線分をひと組として即ち線分L1と線分L5、線分L
2と線分L6、線分L3と線分L’rsおよび線分L4
と線分LBのそれぞれをひと組として、各組毎に2つの
最大値の平均値(それぞれhL5. M26. M37
. M48)が求められる。
Next, two line segments extending in opposite directions from a predetermined pixel Po are set as a set, that is, line segment L1, line segment L5, line segment L
2 and line segment L6, line segment L3, line segment L'rs, and line segment L4
and line segment LB as one set, and the average value of the two maximum values for each set (respectively hL5. M26. M37
.. M48) is required.

線分L1と線 分L5との組については、その平均値M,,は、2 として求められる。Line segment L1 and line For the pair with minute L5, the average value M,, is 2 It is required as.

このように所定の画素Poから互いに反対方向に延びる
2本の線分をひと組として取り扱うことにより、第11
図に示すように腫瘍影107がたとえば肋骨影106の
近傍にあってその画像データの分64 ?が非対称となっていてもIlili瘍影を確実に検出
することができる。
In this way, by treating two line segments extending in opposite directions from a predetermined pixel Po as a set, the 11th
As shown in the figure, the tumor shadow 107 is located near the rib shadow 106, for example, and the image data of the tumor shadow 107 is 64? It is possible to reliably detect Ilili tumor shadows even if the images are asymmetric.

上記のようにして平均値M15, M26, M37,
M4Bが求められると、これらの平均値M,,, M2
6,M 37, M4Bに基づいて、以下のようにして
、所定の画素P。が腫瘍影内の画素であるか否かの判定
に用いる特性値C工が求められる。
As above, the average values M15, M26, M37,
Once M4B is determined, these average values M, , M2
6, M37, M4B, a predetermined pixel P is determined as follows. A characteristic value C used for determining whether or not a pixel is within a tumor shadow is determined.

第12図は、この特性値Clの求め方を説明するための
図である。横軸は上記のようにして求めた平均値M ,
5 , M 2 6 , M 3 7 , M 4 8
、縦軸はこれらの平均値に対応する各評価値CI I+
  C 26、C3■C48である。
FIG. 12 is a diagram for explaining how to obtain this characteristic value Cl. The horizontal axis is the average value M obtained as above,
5, M26, M37, M48
, the vertical axis is each evaluation value CI I+ corresponding to these average values.
C26, C3■C48.

平均値M 1 5 , M 2 6 , M 3 7 
, M 4 Bがある値M1より小さい場合評価値は零
、ある値M2より大きい場合評価値は10 、Ml〜M
2の中間では、その値の大きさに応して0,0〜1.0
の間の値が評価値となる。このようにして、各平均値M
,,, M26M 3 7 , M 4 Bにそれぞれ
対応する評価値CI5i  C26C37+  C 4
Bが求められ、これらの評価値CI5C 26+  C
 31+  C4Bの和65 66 C 1  = C I,+ C 26+ C 37+ 
C 48   ・・(26)が特性値C1とされる。即
ち、この特性値C1は最小値0、0と最大値4.0との
間のいずれかの値を有する。
Average value M 1 5 , M 2 6 , M 3 7
, M 4 If B is smaller than a certain value M1, the evaluation value is zero; if it is larger than a certain value M2, the evaluation value is 10, Ml ~ M
Between 2 and 0.0 to 1.0 depending on the size of the value.
The value between is the evaluation value. In this way, each average value M
,,, Evaluation value CI5i C26C37+C4 corresponding to M26M 3 7 and M 4 B, respectively
B is calculated, and these evaluation values CI5C 26+ C
31+ Sum of C4B 65 66 C 1 = C I, + C 26+ C 37+
C 48 (26) is taken as the characteristic value C1. That is, this characteristic value C1 has a minimum value of 0, or any value between 0 and a maximum value of 4.0.

この特性値01が所定のしきい値Thlと比較され、C
1≧Thlであるか、Cl<TI11であるかにより、
所定の画素P。がそれぞれ腫瘍影内の画素であるか否か
が判定される。
This characteristic value 01 is compared with a predetermined threshold Thl, and C
Depending on whether 1≧Thl or Cl<TI11,
Predetermined pixel P. It is determined whether each pixel is within the tumor shadow.

上記実空間フィルタを用いてX線画像上を走査すること
により、即ちX線画像上の各画素を上記所定の画素P。
By scanning the X-ray image using the real space filter, that is, each pixel on the X-ray image is converted to the predetermined pixel P.

として該各画素が腫瘍影内の画素であるか否かを判定す
ることにより、X線画像上の腫瘍影が抽出される。なお
、上記フィルタの走査においては、腫瘍影と類似した腫
瘍影以外のものも抽出される可能性があり、したがって
ここでは、上記走査により抽出されたパターンを腫瘍影
の候補と呼ぶ。
The tumor shadow on the X-ray image is extracted by determining whether each pixel is a pixel within the tumor shadow. Note that in the above-described scanning of the filter, there is a possibility that objects other than tumor shadows similar to the tumor shadow are also extracted, and therefore, herein, the patterns extracted by the above-mentioned scanning are referred to as tumor shadow candidates.

第一の候補抽出手段1[11  (第12図参照)にお
いて腫瘍影の候補を抽出するフィルタは、上記フィルタ
に限定されるものではない。以下に、第一の候補抽出手
段101で用い得るフィルタの他の例について説明する
The filter for extracting tumor shadow candidates in the first candidate extraction means 1 [11 (see FIG. 12) is not limited to the above filter. Other examples of filters that can be used by the first candidate extraction means 101 will be described below.

第10図の各画素P++ (i =1.2.・・・,8
.j=12,3)の画像データf1のグラジェントfl
,が求められる。
Each pixel P++ (i = 1.2..., 8
.. gradient fl of image data f1 of j=12,3)
, is required.

ここでグラジェン1・とは、X線画像上のある画素Pの
xy座標を(m,n) 、該画素PとX方向,y方向に
隣接する画素P’,P’の座標をそれそれ(m+i,n
) ,  (m,n+1)とし、それらの画素P,P’
P′の画像データをそれぞれf (m,n) , 4 
(n++1n) ,  f (m,n+1)としたとき
、f (m,n) = ( f (m+1..n) −
 f (m.n)f  (m,n+1)  −  f 
 (m,n)  )  −(27)で表わされるベクト
ルをいう。
Here, gradient 1 is the xy coordinates of a certain pixel P on an X-ray image (m, n), and the coordinates of pixels P' and P' adjacent to the pixel P in the X and y directions ( m+i,n
) , (m, n+1), and their pixels P, P'
The image data of P′ are respectively f (m, n) and 4
(n++1n) , f (m, n+1), then f (m, n) = ( f (m+1..n) −
f (m.n)f (m, n+1) − f
(m, n) ) − (27).

第13図は、上記グラジェン1・および以下に示す演算
方法を示す図である。
FIG. 13 is a diagram showing the gradient 1 and the calculation method described below.

グラジェントf1が求められた後、これらのグラジエン
トf1のベクトルの長さが王,0に揃えられる。即ち、
グラジェントVf++の大きさをVf+11としたとき
、規格化グラジェント67 68 ?f++/lf++lが求められる。
After the gradient f1 is determined, the lengths of these gradient f1 vectors are aligned to zero. That is,
When the magnitude of gradient Vf++ is Vf+11, normalized gradient 67 68 ? f++/lf++l is determined.

次に、この規格化グラジェントr1/1f,1の、線分
L1の方向の戒分が求められる。即ち、各画素P.から
所定の画素P。に向かう単位ベクトルを01としたとき
、f++/lf1■*e.(ただし*は内積を表わす)
が求められる。
Next, the precept of this normalized gradient r1/1f,1 in the direction of the line segment L1 is determined. That is, each pixel P. from a predetermined pixel P. When the unit vector toward is 01, f++/lf1■*e. (However, * represents the inner product)
is required.

その後、該成分について内向き(所定の画素Poの方向
)を正、外向きを負としたとき、各線分L+  (i−
1,2.・・・・,8)毎に各最大値{Vf./lf1
1l*e1)v (i一↓,2,・・・・・・,8) が求められ、さらにこれら各最大値 {Vf+1/l Vf+11 *e+ )Mを加算した
加算値 Σ {f ++/ l V f ++ l *e+  
)  Mが求められる。この加算値 Σ {f1+/lVf *e11  y を特徴RC2として、この特徴In C 2が所定のし
きい値Th2と比較され、C2≧Th2であるか、C2
<Th2であるかにより、所定の画素Poかそれぞれ腫
瘍影内の画素であるか否かが判定される。
After that, each line segment L+ (i-
1, 2. ..., 8), each maximum value {Vf. /lf1
1l*e1)v (i-↓,2,...,8) is calculated, and the sum value Σ {f ++/l is obtained by adding each of these maximum values {Vf+1/l Vf+11 *e+ )M V f ++ l *e+
) M is required. This added value Σ {f1+/lVf *e11 y is set as a feature RC2, and this feature In C 2 is compared with a predetermined threshold Th2 to determine whether C2≧Th2 or not.
<Th2, it is determined whether the predetermined pixel Po is a pixel within the tumor shadow.

このフィルタは、グラジェントf1の大きさf.1を規
格化し、その方向(線分L1との方向の相違の程度)の
みに注目することにより、周囲とのコントラストによら
ず形状が円形であることにより大きな値をもつ特徴量C
2が求められ、これにより肚瘍影が大きな確度をもって
抽出される。
This filter has a gradient f1 of magnitude f. By normalizing 1 and focusing only on its direction (the degree of difference in direction from line segment L1), we can obtain a feature C that has a large value due to its circular shape, regardless of the contrast with the surroundings.
2 is obtained, and thereby the ulcer shadow can be extracted with high accuracy.

次に、第一の候補抽出手段101(第12図参照)で用
い得るフィルタのさらに異なる例について説明する。
Next, further different examples of filters that can be used in the first candidate extracting means 101 (see FIG. 12) will be explained.

第10図に示すQoおよびQ口(1 =1.2,・・・
・・,8j =1.2.3 )  (ただし第10図に
は、明示的にはQoおよびQ++・Q12・Q+3・ 
Q51・Q52・Q53のみ示してある)は、それぞれ
画素P。を含む中央領域および各画素P B (i =
],2,・・・・・・,8;j=1.,2.3 )を含
む各周辺領域を表わしている。
Qo and Q mouth (1 = 1.2,...
..., 8j = 1.2.3) (However, in Figure 10, Qo and Q++・Q12・Q+3・
Only Q51, Q52, and Q53 are shown) are pixels P, respectively. and each pixel P B (i =
], 2, ..., 8; j=1. , 2.3).

6つ 70 この各領域Q。およびQ+1 (] =1,2,・・・
・・,8;j −1.2.3 ’I毎に、該各領域Q。
6 70 Each area Q. and Q+1 (] =1,2,...
. . , 8; j −1.2.3 'I for each region Q.

,Q++内の多数の各画素に対応する多数の各画像デー
タの平均値Qo ,  Q .(i =1,2s・−・
,8 ; j =].2.3 )が求められる。なお、
ここでは簡単のため、各領域Qo , Q ++ (f
 =1.2s・・−,8 ; j =1,2.3 )を
指す記号と該各領域内の画像データの平均値を指す記号
とで同一の記号を用いている。
, Q++, the average value Qo, Q . (i = 1,2s・-・
, 8; j =]. 2.3) is required. In addition,
Here, for simplicity, each region Qo, Q ++ (f
=1.2s...-,8; j =1,2.3) and the same symbol is used for the average value of the image data in each area.

次に中央領域の平均値Qoと各周辺領域の平均値Q.の
それぞれとの各差分Δ1) (i =1.2,・・・・
・,8 . j=1.2.3 )が Δ1+=Q++  Q。    ・・・(28)として
求められ、さらに各線分L,毎に、差分Δ11の最大値
Δ1が求められる。即ち、線分LIL5について例を示
すと、線分L1についてはΔ1、 Δ12,Δ,3のう
ちの最大値Δ1、線分L!についてはΔ,1,Δ,2,
Δ,3のうちの最大値Δ5が求められる。
Next, the average value Qo of the central area and the average value Qo of each peripheral area. each difference Δ1) (i = 1.2,...
・,8. j=1.2.3) is Δ1+=Q++ Q. ...(28), and the maximum value Δ1 of the difference Δ11 is determined for each line segment L. That is, to give an example regarding the line segment LIL5, for the line segment L1, the maximum value Δ1 among Δ1, Δ12, Δ, and 3, and the line segment L! For Δ,1,Δ,2,
The maximum value Δ5 of Δ, 3 is determined.

次に、最大値Δ+  (.i =1〜8)を代表する第
一の特性値Uと最大値Δ+(1=l〜8)のばらつきを
表わす第二の特性値■とが求められる。このために、ま
ず以下の演算式に従って各特性値U1〜U4,V1〜V
4が求められる。
Next, a first characteristic value U representing the maximum value Δ+ (.i=1 to 8) and a second characteristic value ■ representing the variation in the maximum value Δ+ (1=1 to 8) are determined. For this purpose, first, each characteristic value U1~U4, V1~V
4 is required.

U1−(Δ1+Δ2+Δ5+Δ6)/4 ・・(29)
U2=(Δ2+Δ3+Δ6+Δ丁)/4 ・・・(30
)U3−(Δ3+Δ4+ΔT十Δ8)/4 ・・(3l
)U4−(Δ4+Δ5+ΔB+Δ工)/4 ・・(32
)v1=U./U3            ・・・(
33)Vz −Uz / Ua           
 ・=(34)V3 =U3 /Ul        
    ・・・(35)Va=Ua/U2      
      ・・・(36)ここで、たとえば〈29)
式に従って特性値U1を求める場合について説明すると
、隣接する2つの領域(Δ1とΔ2、またはΔ5とΔ6
)について加算することは平滑化を意味し、画素Poを
挾んだ互いに反対側の領域(Δ1+Δ2とΔ5+Δ6)
について加算することは前述した最初のフィルタと同様
に、第11図に示すように画像データが非対称であって
も胛瘍影を検出することができるようにするためてある
U1-(Δ1+Δ2+Δ5+Δ6)/4...(29)
U2=(Δ2+Δ3+Δ6+Δt)/4...(30
)U3-(Δ3+Δ4+ΔT+Δ8)/4...(3l
)U4-(Δ4+Δ5+ΔB+Δwork)/4...(32
)v1=U. /U3...(
33) Vz −Uz / Ua
・=(34)V3=U3/Ul
...(35) Va=Ua/U2
...(36) Here, for example, <29)
To explain the case of calculating the characteristic value U1 according to the formula, two adjacent areas (Δ1 and Δ2, or Δ5 and Δ6
) means smoothing, and the areas on opposite sides of the pixel Po (Δ1+Δ2 and Δ5+Δ6)
Similar to the first filter described above, the purpose of adding the sums is to enable the detection of ulcer shadows even if the image data is asymmetrical as shown in FIG.

7] また、たとえば(33)式に従って特性値V,を求める
場合について説明すると、特性値U1と特性値U3とは
互いに直交する方向について求めた特性値であり、した
がって第11図に示す腫瘍影107が円形であればV1
+1.0となり、円形から外れる場合、即ち画素P。が
肋骨影のように直線状の陰影内にある場合はVlは1,
0から外れることになる。
7] For example, to explain the case where the characteristic value V is determined according to equation (33), the characteristic value U1 and the characteristic value U3 are characteristic values determined in directions orthogonal to each other, and therefore the tumor shadow shown in FIG. If 107 is circular, V1
+1.0 and deviates from the circle, that is, pixel P. If it is in a linear shadow like a rib shadow, Vl is 1,
It will deviate from 0.

上記差分の最大値Δ1 (i=1〜8)を代表する第一
の特性値Uとしては、U1〜U4の最大値U−MAX 
 (Ui . U2 . U3 , U4 )  ・=
(37)が採用され、上記差分の最大値Δ+(1=1〜
8)のばらつきを表わす第二の特性値Vとしては、■1
〜V4の最大値 V=MAX  (V1,vz ,v3,v,)  ・・
・(38)が採用される。このようにして第一および第
二の特性値U, Vが求められると、所定の画素P。が
腫瘍影内の画素であるか否かを判定するための特性値C
3として、これら第一および第二の特性値の比率 72 U C3 = ・(39) ■ が採用され、この特性値03が所定のしきい値T1】3
と比較され、C3≧Th3であるか、C3〈Th3であ
るかにより、画素Poがそれそれ腫瘍影内の画素である
か否かが判定される。
The first characteristic value U representing the maximum value Δ1 (i=1 to 8) of the above difference is the maximum value U-MAX of U1 to U4.
(Ui.U2.U3,U4) ・=
(37) is adopted, and the maximum value of the above difference Δ+(1=1~
The second characteristic value V representing the variation in 8) is 1
~ Maximum value of V4 V = MAX (V1, vz , v3, v,) ・・
・(38) is adopted. When the first and second characteristic values U and V are obtained in this way, a predetermined pixel P is determined. Characteristic value C for determining whether or not is a pixel within the tumor shadow
3, the ratio 72 U C3 = ・(39) ■ of these first and second characteristic values is adopted, and this characteristic value 03 is the predetermined threshold value T1]3
It is determined whether each pixel Po is a pixel within the tumor shadow, depending on whether C3≧Th3 or C3<Th3.

以上、例を示したように、第9図に示すコンピュータシ
ステム40の第一の候補抽出手段101では実空間フィ
ルタを用いてX線画像上を走査することにより、腫瘍影
と考えられる円形パターンの抽出が行なわれる。
As shown in the example above, the first candidate extraction means 101 of the computer system 40 shown in FIG. Extraction takes place.

なお、上記各フィルタ例においては、第{0図に示すよ
うに8本の線分L1〜L8上の画素P目や平均値Q.等
を用いたが、この線分は8本である必要はなく、たとえ
ば16本等であってもよいことはもちろんである。また
、所定の画素Poからの距離についてもr1,r2+ 
 r3の3つの距離について演算を行なったが、これに
ついても3つの73 74 距離に限るものでもなく、抽出すべき腫瘍影の大きさが
ほぼ一定している場合は距離は1つでもよく、また、種
々の大きさの腫瘍影をさらに精度よく抽出するために、
距離をr1からr3まで連続的に変えて演算を行なって
もよい。また、第一の候補抽出手段101では上記各フ
ィルタに限らず、さらに異なるフィルタを用いてもよい
ものである。
In each of the above filter examples, as shown in FIG. However, it is needless to say that the number of line segments does not have to be eight, and may be, for example, 16. Also, regarding the distance from the predetermined pixel Po, r1, r2+
Although calculations were performed for three distances of r3, this is not limited to three distances; if the size of the tumor shadow to be extracted is approximately constant, one distance may be used, or In order to more accurately extract tumor shadows of various sizes,
The calculation may be performed by continuously changing the distance from r1 to r3. Furthermore, the first candidate extracting means 101 is not limited to the above-mentioned filters, and may use other filters.

ただし、ここでは確実に腫瘍影であると考えられるパタ
ーンだけを抽出するのではなく、多少のノイズ(fFf
i瘍影でないパターンを腫瘍影として抽出することまた
は抽出された腫瘍影でないパターン)が含まれていても
腫瘍影を洩らさずに抽出することが好ましく、したがっ
てこの第一の候補抽出手段101で用いるフィルタは、
その目的に沿ったものであることが好ましい。
However, here we do not extract only patterns that are definitely considered to be tumor shadows, but rather extract some noise (fFf
It is preferable to extract patterns that are not tumor shadows as tumor shadows, or to extract patterns that are not tumor shadows without leaking tumor shadows even if patterns that are not tumor shadows are included. Therefore, this first candidate extraction means 101 The filter used in
It is preferable that it is in line with that purpose.

なお、上記の各フィルタを用いてX線画像上を走査した
際、血管が密集した領域等、線状陰影の交叉部を腫瘍影
候補として抽出してしまうことがある。そこで本実施例
における第一の候補抽出手段101では、腫瘍影候補を
抽出した後、抽出された腫瘍影候補のうち腫瘍影ではな
い血管等の密集した領域を以下のようにして腫瘍影候補
から除外している。
Note that when an X-ray image is scanned using each of the above-mentioned filters, intersections of linear shadows, such as areas with dense blood vessels, may be extracted as tumor shadow candidates. Therefore, in the first candidate extracting means 101 in this embodiment, after extracting tumor shadow candidates, areas with dense blood vessels etc. that are not tumor shadows among the extracted tumor shadow candidates are extracted from the tumor shadow candidates as follows. Excluded.

第14A図,第1.4B図は、一旦腫瘍影候補として抽
出された、それぞれ真正の腫瘍影および血管等の密集し
た領域のX線画像を示す図である。各図において破線1
09に囲まれた領域が一旦腫瘍影候補として抽出された
領域Aであり、各グラフは各領域A内のX方向,y方向
のプロファイル(画像データS1をプロットしたもの)
である。
FIGS. 14A and 1.4B are diagrams showing X-ray images of a true tumor shadow and a region densely populated with blood vessels, respectively, once extracted as tumor shadow candidates. Dashed line 1 in each figure
The area surrounded by 09 is the area A once extracted as a tumor shadow candidate, and each graph is a profile in the X direction and y direction within each area A (plotted from image data S1)
It is.

腫瘍影(第14.A図)は、X方向,y方向とも中央付
近に谷を有する比較的平坦なプロファイルを有し、血管
等が密集した領域(第14B図)では、ほとんどの場合
、一方向(第14A図ではX方向)に細かな変動を有す
るプロファイルとなり他の方向(y方向)は比較的平坦
なプロファイルとなる。
The tumor shadow (Fig. 14.A) has a relatively flat profile with a valley near the center in both the The profile has fine fluctuations in one direction (the X direction in FIG. 14A) and is relatively flat in the other direction (the y direction).

そこで、ここでは、このプロファイルの相違を利用して
、一旦腫瘍影候補として抽出された血管等が密集した領
域を腫瘍影候補から除外する。即ち、X方向に並ぶ画素
をm  (m =1.2,・・・・・・)、y方向75 76 に並ぶ画素をn  (n−1.2.・・・・・・)で表
わし、(m , n)で表わされる画素の画像データを
f (m.n)とする。このとき、次式に示すように、
領域A内の画像データの一次差分値の二乗の平均値が算
出される。
Therefore, here, by utilizing this difference in profiles, regions where blood vessels and the like are densely extracted once as tumor shadow candidates are excluded from tumor shadow candidates. That is, the pixels lined up in the X direction are expressed as m (m = 1.2,...), and the pixels lined up in the y direction are expressed as n (n-1.2...), Let f (m.n) be the image data of the pixel represented by (m, n). At this time, as shown in the following equation,
The average value of the squares of the primary difference values of the image data in the area A is calculated.

Zx 一ΣΣ ( f (m+1.n)  − f (
m,n) )  2/ N(ffi.n)ら^    
           ・・・(4o)Z,−ΣΣ {
f (IN,n+1)  − f (m,n) ]  
2/N(m.n)j;^              
 −(41)(ただしΣ Σは領域A内で一次差分値の
(lI.I1)ら^ 加算を行なうことを表わし、Nは領域A内の画素数を表
わす) 次に、腫瘍影候袖として存続させるか腫瘍影候補から除
外するかを判定するための特徴fflctとして、上記
z8とZyのうち値の小さい方をmin(2.,2,)
、値の大きな方をmax(1,Z,)としたとき、 max  (ZX IZy ) が算出され、この特徴量C4を所定のしきい値Th4と
比較し、C4≧Th4のとき肚瘍影候補として存続させ
、Ca<Th4のとき肚瘍影候補から除外する。
Zx one ΣΣ ( f (m+1.n) − f (
m, n) ) 2/ N(ffi.n) et al.
...(4o)Z, -ΣΣ {
f (IN, n+1) − f (m, n) ]
2/N(m.n)j;^
−(41) (where Σ Σ represents the addition of (lI.I1) et al.^ of the first-order difference value within region A, and N represents the number of pixels within region A) Next, as a tumor shadow sleeve, As the feature fflct for determining whether to keep it alive or exclude it from tumor shadow candidates, the smaller value of the above z8 and Zy is set as min(2., 2,)
, the larger value is set as max (1, Z,), max (ZX IZy) is calculated, this feature amount C4 is compared with a predetermined threshold Th4, and when C4≧Th4, it is selected as an ulcer shadow candidate. It is kept alive and excluded from the ulcer shadow candidates when Ca<Th4.

なお、上記特徴量C4としては(42)式で算出され るものに限られず、たとえば Cz−l Z x   Z y  l        
 ・・・(44)等であってもよい。また上記例ではx
,  yの2方向の一次差分f (In+l,n) −
 f (m.n) ,  f (m,n+1)− f 
(m,n)を求めたが、たとえば斜め方向(X方向1 
y方向のいずれとも直交しない方向)の差分を求めても
よい。
Note that the feature amount C4 is not limited to that calculated by equation (42), and for example, Cz-l Z x Z y l
...(44) etc. may be used. Also, in the above example x
, the first-order difference f (In+l, n) − in two directions of y
f (m.n), f (m, n+1) - f
(m, n), but for example in the diagonal direction (X direction 1
It is also possible to calculate the difference in a direction (direction that is not orthogonal to any of the y-directions).

77 78 第9図のコンピュータシステム40内の第一の候補抽出
手段101では、以上のようにして実空間フィルタを用
いたX線画像の走査により腫瘍影候補の抽出が行なわれ
、(42)式の特徴量C4により腫瘍影候補として存続
させるか否かの判定が行なわれ、これによりさらに存続
している腫瘍影候補の領域内の各画素に1、それ以外の
領域の各画素に0を対応させた二値画像データが求めら
れる。以後(42)式の特徴ffi C aを用いて判
定が行なわれた後の腫瘍影候補を第一の候補抽出手段1
01て抽出された腫瘍影候補Cと称する。
77 78 In the first candidate extracting means 101 in the computer system 40 of FIG. 9, tumor shadow candidates are extracted by scanning the X-ray image using the real space filter as described above, and the expression (42) is It is determined whether or not to continue as a tumor shadow candidate based on the feature amount C4 of The resulting binary image data is obtained. Thereafter, the tumor shadow candidates that have been determined using the feature ffi C a of equation (42) are extracted by the first candidate extracting means 1.
01 is referred to as the extracted tumor shadow candidate C.

特徴量演算手段 前述した媚一の候補抽出手段101で抽出された腫瘍影
候補Cはコンピュータシステム40の特徴量演算手段1
02に入力される。この特徴量演算手段102では、腫
瘍影候補Cの近傍の画像データS1に基づいて、各候補
C毎に複数の特徴量F1,F2,・・・・・,Fns即
ち、本実施例においては、以下のようにして求められる
各腫瘍影候補Cの面積Fl1各腫瘍影候補Cの形状F2
および各腫瘍影候補CのコントラストF3の3つの特徴
量F1〜F3が求められる。
Feature amount calculation means The tumor shadow candidate C extracted by the above-mentioned amorous candidate extraction means 101 is processed by the feature amount calculation means 1 of the computer system 40.
02 is input. The feature amount calculating means 102 calculates a plurality of feature amounts F1, F2, ..., Fns for each candidate C based on the image data S1 in the vicinity of the tumor shadow candidate C, that is, in this embodiment, Area Fl1 of each tumor shadow candidate C obtained as follows Shape F2 of each tumor shadow candidate C
And three feature quantities F1 to F3 of the contrast F3 of each tumor shadow candidate C are determined.

第15図は、第一の候補抽出手段101で抽出された腫
瘍影候補Cの一例を表わした図である。中央の領域7が
腫瘍影候補Cとして抽出された領域である。
FIG. 15 is a diagram showing an example of tumor shadow candidates C extracted by the first candidate extraction means 101. The central region 7 is the region extracted as the tumor shadow candidate C.

第一の候補抽出手段101で抽出された腫瘍影候補Cの
うち、面積が小さい(たとえば25mm2以下)の場合
は、血管のタンジェント(X線画像(第8図参照)に垂
直な方向(X線の照射方向)に延びる血管影)である可
能性が高く、特に後述するコントラストF3が高い場合
はその疑いが強い。また、通常見られる腫瘍影の大きさ
は、その直径が10m〜40腑程度であり、この範囲を
越えた余りに大きい腫瘍影候補Cも腫瘍影でない場合が
多い。
Among the tumor shadow candidates C extracted by the first candidate extraction means 101, if the area is small (for example, 25 mm2 or less), the tangent of the blood vessel (in the direction perpendicular to the X-ray image (see Figure 8) There is a high possibility that the shadow is a blood vessel shadow extending in the irradiation direction), and there is a strong suspicion that this is the case, especially if contrast F3, which will be described later, is high. Further, the size of a tumor shadow that is normally seen is approximately 10 m to 40 mm in diameter, and a tumor shadow candidate C that is too large beyond this range is often not a tumor shadow.

そこで本実施例ではまず領域7Aの面積F1が求められ
、その腫瘍影候補CのIIiR m影としての確からし
さを反映する複数の特徴量のひとつとして該面積F1が
採用される。
Therefore, in this embodiment, the area F1 of the region 7A is first determined, and the area F1 is adopted as one of a plurality of feature quantities that reflect the probability that the tumor shadow candidate C is a IIiRm shadow.

また、本実施例ではX線画像上に典型的には円79 80 形として現われる腫瘍影を抽出するものであり、したが
ってこの円形の程度(形状)を表わす量が特徴量の他の
ひとつとして採用される。ここでは、領域7Aに1、そ
の周囲にOの値が割り当てられた二値画像データに基づ
いて、領域A7の重心Oが求められ、該重心Oから周囲
に延びる多数の線分(第15図ではJlx〜f!8の8
本)が仮想されて各線分j! 1(1=L2,・・・・
・・,8)に沿って重心0から領域7Aの周縁7aまで
の各距離d + (1=1,2,・・・・・・,8)が
求められ、次式 に従って分散F2が求められ、この分散F2が腫瘍影候
補Cの円形の程度(形状)を表わす特徴量として採用さ
れる。
In addition, in this example, a tumor shadow that typically appears as a circle on an X-ray image is extracted, and therefore, a quantity representing the extent (shape) of this circle is adopted as another feature quantity. be done. Here, the center of gravity O of the area A7 is determined based on binary image data in which a value of 1 is assigned to the area 7A and a value of O is assigned to the surrounding area, and a large number of line segments extending from the center of gravity O to the periphery (see FIG. So Jlx~f!8 of 8
book) is imagined and each line segment j! 1 (1=L2,...
..., 8), each distance d + (1 = 1, 2, ..., 8) from the center of gravity 0 to the periphery 7a of the area 7A is found, and the dispersion F2 is found according to the following formula. , this variance F2 is employed as a feature amount representing the circularity (shape) of the tumor shadow candidate C.

さらに、腫瘍影候補Cの領域7A内の画像データS1の
平均値Aylと領域7Aの周囲の一定幅の帯状の領域7
A’の画像データS1の平均Ay2とが求められ、次式 81 F3  −Av+  AV2       −(40)
に従ってコントラストF3が求められ、このコントラス
トF3がさらに異なる特徴量として採用される。腫瘍影
は、肺内の略球形状の腫瘍の投影像としてX線画像上に
現われるものであるから、そのコントラストF3はある
所定値に近い場合が多く、その値から外れてコントラス
1・の低すぎる腫瘍影候補あるいはコントラストの高す
ぎる腫瘍影候補は腫瘍影ではない場合が多いため、この
コントラストF3を特徴量として採用し得るものである
Furthermore, the average value Ayl of the image data S1 in the region 7A of the tumor shadow candidate C and the band-shaped region 7 of a constant width around the region 7A
The average Ay2 of the image data S1 of A' is calculated using the following formula 81 F3 −Av+ AV2 −(40)
Accordingly, the contrast F3 is determined, and this contrast F3 is further employed as a different feature quantity. Since a tumor shadow appears on an X-ray image as a projected image of a roughly spherical tumor within the lung, its contrast F3 is often close to a certain predetermined value, and if it deviates from that value and becomes a low contrast of 1. Since a tumor shadow candidate with too high contrast or a tumor shadow candidate with too high contrast is often not a tumor shadow, this contrast F3 can be employed as a feature amount.

なお本実施例では」二記3つの特徴ffiFx〜F3が
求められるが、抽出対象とする異常陰影の種類、抽出の
精度等に応じて上記特徴ffi F 1〜F3とともに
、または上記特徴量F1〜F3に代えてさらに異なる種
々の特徴量を採用してもよいことはもちろんである。
In this embodiment, two or three features ffiFx to F3 are obtained, but depending on the type of abnormal shadow to be extracted, the accuracy of extraction, etc. Of course, in place of F3, various other feature quantities may be employed.

第二の候補抽出手段 以上のようにして求められた3つの特徴ffiFx〜F
3は、第9図のコンピュータシステム40内の82 第二の抽出抽出手段103に入力される。本実施例にお
ける第二の候補抽出手段103ては、以下に述べるニュ
ーラルネットワークを採用して、特徴量抽出手段2によ
り求められた上記3つの特徴量、F1,F2,F3に基
づいて、第一の候補抽出手段1で抽出された腫瘍影候補
Cのうち腫瘍影である蓋然性の高い候補F(これを腫瘍
影Fと呼ぶことがある。)が抽出される。
Second candidate extraction means Three features ffiFx~F obtained as above
82 in the computer system 40 of FIG. 9 is input to the second extracting means 103. The second candidate extracting means 103 in this embodiment employs a neural network described below to extract the first Among the tumor shadow candidates C extracted by the candidate extracting means 1, a candidate F with a high probability of being a tumor shadow (this may be referred to as a tumor shadow F) is extracted.

第l6図は第二の候補抽出手段103で採用される、誤
差逆伝播学習(パックプロパゲーション)機能を備えた
ニューラルネットワークの一例を表わした図である。誤
差逆伝播学習(パックプロパゲーション)とは、前述し
たようにニューラルネットワークの出力を正解(教師信
号)と比べることにより、出力側から入力側に向かって
順次結合の重み(シナプス結合のウェイト)を修正する
という“学習″アルゴリズムをいう。
FIG. 16 is a diagram showing an example of a neural network equipped with an error backpropagation learning (pack propagation) function employed by the second candidate extraction means 103. Error backpropagation learning (pack propagation) is, as mentioned above, by comparing the output of the neural network with the correct answer (teacher signal), and sequentially adjusting the connection weights (synaptic connection weights) from the output side to the input side. It refers to a “learning” algorithm that makes corrections.

図に示すように、このニューラルネットワークの第1層
(入力層),第2層(隠れ層).第3層(出力層)はそ
れぞれ3個,3個,1個のユニットから構成される。第
k層の1番目のユニットをu7、該ユニット 7への全
入力をX?%全出力を”/ 7 s u〒から 7”1
への粘合の重みをW7 ’H”hL、各ユニッ1・u:
は同一の特性関数の第1層(入力層),第2層(隠れ層
),第3層(出力層)はそれぞれ3個,3個,1個のユ
ニットから構成される。第k層のi番1」のユニットを
LI7、該ユニット 7への全入力をX7、全出力をy
↑、LJ7から k+lへの結合の重みをWi1”1と
し、各ユニットh,は同一の特性関数1 を有するものとする。このとき、各ユニット 7の入力
X7,出力Y7は、 Xi一ΣWi−′:  ・ 7−1    ・・・(4
8)83 84 y7 =f (X:)        ・・・(49)
となる。ただし入力層を構成する各ユニットu}(1−
1.2.3)への各入力F1 +  F2 +  F3
は重みづけされずにそのまま各ユニットu : (i=
1,2,3)l:入力される。入力された3つの特徴i
F.,F2F3は、各結合の重みW77”  によって
重み付けられながら最終的な出力y?にまで伝達される
As shown in the figure, the first layer (input layer) and second layer (hidden layer) of this neural network. The third layer (output layer) is composed of three units, three units, and one unit, respectively. The first unit of the k-th layer is u7, and all inputs to unit 7 are X? % full power”/7 s u〒from 7”1
The weight of viscosity to W7 'H''hL, each unit 1・u:
The first layer (input layer), second layer (hidden layer), and third layer (output layer) of the same characteristic function are composed of three units, three units, and one unit, respectively. The unit “i number 1 of the kth layer” is LI7, all inputs to this unit 7 are X7, and all outputs are y
↑, the weight of the connection from LJ7 to k+l is Wi1"1, and each unit h, has the same characteristic function 1. At this time, the input X7 and output Y7 of each unit 7 are expressed as Xi-ΣWi- ': ・ 7-1 ... (4
8) 83 84 y7 = f (X:) ... (49)
becomes. However, each unit u}(1−
1.2.3) each input F1 + F2 + F3
is not weighted and remains as it is for each unit u: (i=
1, 2, 3) l: Input. Three input features i
F. , F2F3 are transmitted to the final output y? while being weighted by the weight W77'' of each connection.

ここで、上記各結合の重みw::”  の決定方法につ
いて説明する。先ず乱数により各結合の重みw k k
 + l  の初期値が与えられる。このとき、入ヵF
1〜F3が最大に変動しても、出カy?が0〜1の範囲
内の値またはこれに近い値となるように、その乱数の範
囲を制限しておくことが好ましい。
Here, we will explain how to determine the weight w::'' of each connection above. First, the weight w k k of each connection is determined by a random number.
An initial value of +l is given. At this time, the entrance F
Even if 1 to F3 fluctuate to the maximum, will the output be y? It is preferable to limit the range of the random number so that the value is within the range of 0 to 1 or a value close to this.

次に、IMI瘍影の有無およびIhli瘍影が存在する
場合のその位置が既知の多数のX線画像が用意され、前
述のようにして腫瘍影候補Cの抽出が行なわれ、さらに
各腫瘍影候補Cについて上記の3つの特徴量F1,F2
,F3が求められる。この3つの特徴1tF1 ,F2
 ,F3が第18図に示すニューラルネットワークに入
力され、各ユニットuiの出力y,がモニタされる。
Next, a large number of X-ray images are prepared in which the presence or absence of IMI tumor shadows and the location of Ihli tumor shadows, if any, are known. Tumor shadow candidates C are extracted as described above, and each tumor shadow Regarding candidate C, the above three feature quantities F1 and F2
, F3 are obtained. These three characteristics 1tF1, F2
, F3 are input to the neural network shown in FIG. 18, and the output y of each unit ui is monitored.

各出力yiが求められると、最終的な出力である3/I
’と入力された特徴ffiF1 ,F2 .F3に対応
する腫瘍影候補C(上記のように、この腫瘍影候補Cが
腫瘍影であるか否かは既知である。)が腫瘍影である場
合に1、腫瘍影でない場合に0の値を有する教師信号d
との二乗誤差 か求められる。この二乗誤差Eが最小となるように、以
下のようにして各結合の重みW 7 7”1 が修正さ
れる。
Once each output yi is determined, the final output 3/I
'The input features ffiF1, F2 . A value of 1 if the tumor shadow candidate C corresponding to F3 (as described above, it is known whether or not this tumor shadow candidate C is a tumor shadow) is a tumor shadow, and a value of 0 if it is not a tumor shadow. The teacher signal d with
The squared error between In order to minimize this squared error E, the weight W 7 7''1 of each connection is modified as follows.

二乗誤差Eを最小にするには、このEはW 7 : ”
 1の関数であるから 85 86 のように各結合の重みW〒1+1が修正される。こここ
こで、 (47)式より、 でηは学習係数と呼ばれる係数である。
To minimize the squared error E, this E should be W 7 : ”
Since it is a function of 1, the weight W〒1+1 of each connection is modified as 85 86 . Here, from equation (47), η is a coefficient called a learning coefficient.

f′ (x)=f (x) (1−f (x) ) ・・(56〉 ここで、 であるから、 f’(X:) モ y (コ− y+) (57) となる。f′ (x)=f (x) (1-f (x) ) ...(56) here, Because it is, f'(X:) Mo y (Co- y+) (57) becomes.

(53)式にいてl(−2と置き、 (55) (57) 式を であり、 (48)式より (53)式に代入すると、 一ΣW1   ◆ y ・・・(4g)’ であるから、 (52)式は、 一(y1 d)・y1 (1 y1 ) 0 y ・・・(58) この(58)式を(51)式に代入して、となる。In equation (53), put l(-2, (55) (57) the expression and From equation (48) Substituting into equation (53), we get 1ΣW1 ◆y ...(4g)' Because it is, Equation (52) is One (y1 d)・y1 (1 y1) 0y ...(58) Substituting this equation (58) into equation (51) yields.

ここで、 (50)式より、 ?1 ■ −W+  , η・ (y? d)・y1 (1 y+)  0y ・・・(59) となる。here, From formula (50), ? 1 ■ -W+ , η・(y? d)・y1 (1 y+) 0y ...(59) becomes.

この(59)式に従って、Wテ{ (i−L2,3) (49)式を用いてこの(54)式を変形すると、の各
結合の重みが修正される。
According to this equation (59), when this equation (54) is transformed using equation (49), the weight of each connection is corrected.

次に、 87 88 であるから、 この(圓〉式に(48) (49〉式を代入し =(y: d) ・y1 (1 yy+) て、 ・y丁 ・ (1−y,)・W, 0 y ・・(64〉 この(64)式を(51)式に代入すると、k=1と置
い て、 w:.i−W,?−η・ (yマーd)・y1ここで(
5B)式より、 f’(x丁)一パ (1 y+) ・・・(62) (1 y+)  ●y, ◆ (1   y+)  ◆yであ
るから、 この(62)式と、 (55) (57)式を(61) *  W,, ・・(65) 式に代入して、 となり、 (59)式で修正されたWで1 (i−1 2,3) か この(65)式に代入され、W1 (1,j−1.2.3) が修 正される。
Next, since 87 88, substitute the formula (48) (49) into this (en) formula = (y: d) ・y1 (1 yy+), and get ・ydō ・(1−y,)・W, 0 y...(64>) Substituting this equation (64) into equation (51), setting k=1, w:.i-W,?-η・(ymard)・y1Here, (
From formula 5B), f' (x d) ippa (1 y+) ... (62) (1 y+) ●y, ◆ (1 y+) ◆y, so this formula (62) and (55 ) By substituting equation (57) into equation (61) * W,, ... (65), we get 1 (i-1 2, 3) or (65) with W corrected in equation (59). W1 (1,j-1.2.3) is modified.

◆y, ● (I   Y+)  ●W,1・・・(6
3〉 (53)式においてk−1と置き、 (63)式を(53)式 ΔWI1+(t+1)一α・ΔW+ ,+1 (t) 
+に代入すると、 89 90 ただしΔw k k + l  (t)は、t回l」の
学習における、修正後の結合重みw k k ’− 1
から修正前の該結合の重みWkk+1を引いた修正量を
表わす。また、αは、慣性項と呼ばれる係数である。
◆y, ● (I Y+) ●W, 1... (6
3> Place k-1 in equation (53) and replace equation (63) with equation (53) ΔWI1+(t+1)-α・ΔW+ ,+1 (t)
+, 89 90 However, Δw k k + l (t) is the modified connection weight w k k '- 1 in learning t times l'
represents the amount of correction obtained by subtracting the weight Wkk+1 of the connection before correction from Wkk+1. Further, α is a coefficient called an inertia term.

慣性項α、学習係数ηとしてたとえばα−0,9η−0
.25を用いて各結合の重みWkk+1の修正(学習)
をたとえば20万回行ない、その後は、各結合の重みW
 7 7 ” lは最終の値に固定される。この学習の
終了時には、腫瘍影候補Cのうち腫瘍影については1に
近い値、腫瘍影候補Cのうち腫瘍影でないものについて
は0に近い値が出力y?として出力されるようになる。
For example, α-0, 9η-0 as the inertia term α and the learning coefficient η.
.. Modification (learning) of the weight Wkk+1 of each connection using 25
For example, 200,000 times, and then the weight of each connection W
7 7 ” l is fixed to the final value. At the end of this learning, the value close to 1 for tumor shadows among tumor shadow candidates C, and the value close to 0 for tumor shadow candidates C that are not tumor shadows. is now output as the output y?.

そこで学習が終了した後は、今度は腫瘍影であるか否か
が未知の腫瘍影候補Cが抽出され特性値F1 +  F
2 ,  F3が求められて、第18図に示すニューラ
ルネットワークに入力され、それにより得られた出力y
?がその腫瘍影候袖Cが1114瘍影である蓋然性の程
度を表わす信号となる。この信号は、上記のようにして
学習を行なった後のものであるため、腫瘍影候補が腫瘍
影である蓋然性を精度良く表わしている。
After the learning is completed, a tumor shadow candidate C, which is unknown whether it is a tumor shadow or not, is extracted and has a characteristic value F1 + F.
2, F3 is determined and input to the neural network shown in Figure 18, and the output y obtained thereby is
? is a signal indicating the degree of probability that the tumor shadow C is a 1114 tumor shadow. Since this signal is obtained after learning as described above, it accurately represents the probability that the tumor shadow candidate is a tumor shadow.

なお、上記ニューラルネットワークは3層措造のものに
限られるものではなく、さらに多層にしてもよいことば
ももちろんである。また各層のユニットの数も、上記実
施例における数に限定されるものではなく、入力される
特性値の数、肚瘍影である蓋然性を表わす信号の必要と
する精度等に応じた任意の数のユニットで各層を構成し
得ることももちろんである。
Note that the neural network described above is not limited to a three-layer structure, and may of course have even more layers. Furthermore, the number of units in each layer is not limited to the number in the above embodiment, but may be any number depending on the number of input characteristic values, the required accuracy of the signal representing the probability of being an ulcer shadow, etc. Of course, each layer can be constructed from units.

上記のようにして信号(出力y1)が求められると、こ
の信号(出力y1)か所定のしきい値91 92 Th5(たとえば0.5)と比較され、yi≧Th5で
あるか、’/:  <Th5であるかに応じて、ニュー
ラルネットワークに入力された特徴量F1,F2,F3
に対応する腫瘍影候補がそれぞれ腫瘍影である、または
腫瘍影ではないとの判定か行なわれる。
When the signal (output y1) is obtained as described above, this signal (output y1) is compared with a predetermined threshold value 91 92 Th5 (for example, 0.5) to determine whether yi≧Th5?'/: <Th5, the feature amounts F1, F2, F3 input to the neural network
It is determined whether the tumor shadow candidates corresponding to the respective tumor shadows are tumor shadows or not tumor shadows.

ここで、上記しきい値Th5は固定されたものであって
もよいが、固定されたものである必要はなく、たとえば
X線画像の被写体の解剖学的情報に弘づいて、その値を
変えてもよい。以下に解剖学的情報の求め方の例を述べ
る。
Here, the threshold value Th5 may be fixed, but it does not need to be fixed; for example, the value can be changed depending on the anatomical information of the subject in the X-ray image. You can. An example of how to obtain anatomical information is described below.

11i1iのllrf瘍影は、第8図に示す中央付近の
II,li門部115aよりもその両側にある斜線を施
した肺野部1l5bに出やずいという性質がある。そこ
で、ここでは、以下のようにして1姉部115か姉門部
115aと肺野部1.5bとに区分され、その情報は上
記出力V?としきい値Th5との比較の際にしきい値T
115の値を定めるために用いられる。
The llrf tumor shadow of 11i1i has the property that it appears more in the hatched lung field 115b on both sides than in the II, li hilum 115a near the center shown in FIG. Therefore, here, the first sister part 115 or the first sister part 115a and the lung field part 1.5b are divided as follows, and the information thereof is outputted from the output V? When comparing the threshold value Th5 with the threshold value Th5, the threshold value T
Used to determine the value of 115.

第17図に示すX線画像から得られた画像データS1の
ヒストグラムを表わした図である。横軸は画像データS
1の値を表わし、縦軸はその値を有する画像データS]
の出現頻度を表わしている。
18 is a diagram showing a histogram of image data S1 obtained from the X-ray image shown in FIG. 17. FIG. The horizontal axis is image data S
Image data S representing a value of 1 and the vertical axis having that value]
represents the frequency of appearance.

このヒストグラムの右側の山1{7は、第8図に示す直
接X線部{17に対応する。中央の山115は第8図に
示す肺部115に対応し、左側の山116は第8図に示
す皮膚部11Bに対応ずる。なおここでは簡単のため、
互いに対応する第8図の各部と第17図の各山とで同一
の番号を用いている。
The peak 1{7 on the right side of this histogram corresponds to the direct X-ray section {17 shown in FIG. The center peak 115 corresponds to the lung part 115 shown in FIG. 8, and the left peak 116 corresponds to the skin part 11B shown in FIG. For simplicity, here
The same numbers are used for each part in FIG. 8 and each mountain in FIG. 17 that correspond to each other.

ここで肺部115の面積に対する肺野部115bの面積
は略一定であるという経験則に基づき山115の全面積
の所定の割合(たとえば50%)を高濃度側から求め(
沁17図の斜線を施した領域)、この領域内の画像デー
タに対応する画素の集合が肺野部115bとされる。
Here, based on the empirical rule that the area of the lung field 115b relative to the area of the lung 115 is approximately constant, a predetermined ratio (for example, 50%) of the total area of the mountain 115 is determined from the high concentration side (
17), a set of pixels corresponding to image data within this area is defined as a lung field 115b.

このようにして肺四部115aと肺野部115bとが区
分され、肺野部115bにある腫瘍影候補について腫瘍
影であるか否かを判定する際には上記しきい値Th5が
低め(たとえば0,4)に設定され、肺門部115aに
ある腫瘍影候補の判定の際には高め(たとえば0.6)
に設定される。
In this way, the four lung parts 115a and the lung field part 115b are divided, and when determining whether or not a tumor shadow candidate in the lung field part 115b is a tumor shadow, the threshold value Th5 is set to be low (for example, 0 , 4), and a high value (for example, 0.6) is set when determining a tumor shadow candidate in the hilum 115a.
is set to

93 94 また、ここでは、肋′f’l− iの抽出も行なわれる
93 94 In addition, rib 'f'l-i is also extracted here.

第18図は、第8図に示す胸部X線画像のうちの肋骨影
(第8図には図示せず)の一部を拡大して示した図であ
る。なお、該第13図には、第10図に示したフィルタ
の図も同時に示されているが、これについては後述する
FIG. 18 is an enlarged view of a part of the rib shadow (not shown in FIG. 8) in the chest X-ray image shown in FIG. 8. Note that FIG. 13 also shows a diagram of the filter shown in FIG. 10, which will be described later.

胸部X線画像には第18図に示すように2本の肋骨影1
15cの交叉した領域115dが現われ、この交叉領域
115dが腫瘍影候補として抽出されることがある。し
かもこの交叉領域1.15d内の画像データはほぼ平坦
であり、血管影の集合した領域が腫瘍影候補として抽出
された場合と異なり、前述した(42〉式による特徴量
C4の算出およびその判定によっては腫瘍影候補から除
外されない。そこで、肋骨影を抽出し、腫瘍影候補から
腫瘍影を求める際に腫瘍影候補が肋骨影の交叉領域11
5dと一致するときはその候補は腫瘍影から除外される
The chest X-ray image shows two rib shadows 1 as shown in Figure 18.
15c appears, and this crossed area 115d may be extracted as a tumor shadow candidate. Moreover, the image data within this intersection region 1.15d is almost flat, and unlike the case where a region where blood vessel shadows are gathered is extracted as a tumor shadow candidate, the image data within this intersection region 1.15d is Therefore, when extracting the rib shadow and calculating the tumor shadow from the tumor shadow candidate, the tumor shadow candidate is not excluded from the intersection area 11 of the rib shadow.
5d, the candidate is excluded from the tumor shadow.

肋骨影115Cの抽出方法としては、一例として、「間
接撮影胸部X線写真における肋骨像の識別」(社団法人
電子通信学会 l972年{0月26日画像工95 学研究会資料 資料番号IT72−24  (19γ2
−10))に記載された方法か採用される。この方法で
は、線に敏感なフィルタを用いて胸部X線画像が走査さ
れて線図形が抽出され、その線図形のX線画像上の位置
、線図の延びる方向等から肋・+1影に刻応する線が抽
出され、さらに肋骨境界線を二次関数近似することによ
り肋骨影が抽出される。
An example of a method for extracting the rib shadow 115C is "Identification of Rib Images in Indirect Chest X-ray Photographs" (Institute of Electronics and Communication Engineers, 1972 {October 26, 1972, Imaging Engineering 95 Academic Research Group Material, Material No. IT72-24). (19γ2
-10)) is adopted. In this method, a chest X-ray image is scanned using a filter that is sensitive to lines, line figures are extracted, and the ribs and +1 shadows are carved based on the position of the line figure on the X-ray image, the direction in which the line figure extends, etc. A corresponding line is extracted, and a rib shadow is extracted by approximating the rib boundary line with a quadratic function.

なお、上記しきい値Th5は固定しておいて、肺野部1
15bであるか肺門部115aであるかの情報を特徴f
fiF..F2,  ・,Fnのひとつとして前述した
ニューラルネットワークに入力するようにしてもよい。
Note that the threshold value Th5 is fixed and the lung field 1
15b or hilum 115a as a feature f
fiF. .. F2, . . . , Fn may be input to the neural network described above.

また、上記解剖学的情報は、異常陰影候補を抽出する際
に用いてもよい。
Further, the above anatomical information may be used when extracting abnormal shadow candidates.

たとえば第9図を用いて前述した、所定の画素Poが腫
瘍影内の画素であるか否かの判定を行なう際、肋骨の位
置情報を用いて、たとえば第12図に示す画素Poが腫
瘍影内の画素であるか否かの判定にあたっては、L.,
L3,L5,L7についてはr1 とr2の情報を用い
、L2とL6にっ96 いてはr1〜『3の情報を用い、L4とL8については
r1の情報のみを用いることによりこの肋骨影がこの判
定に影響を及ばずことが回避される。
For example, when determining whether a predetermined pixel Po is a pixel within a tumor shadow as described above using FIG. In determining whether the pixel is within the L. ,
For L3, L5, and L7, we use the information of r1 and r2, for L2 and L6, we use the information of r1 to 3, and for L4 and L8, we use only the information of r1, so that this rib shadow can be This can be avoided without affecting the judgment.

以上のようにして、コンピュータシステム14(1(第
9図参照)の第二の候補抽出手段103において、特徴
量演算手段102で求められた複数の特徴ffiF1,
F2,・・・・・・,Fnをニューラルネットワーク(
第16図参照)に入力して第一の候補抽出手段1(11
で抽出された腫瘍影候補Cが腫瘍影である蓋然性を表 わす信号バを得、この信号バをしきい値処理して候補C
が腫瘍影Tであると判定された後、腫瘍影Tを表わすデ
ータ(たとえば腫瘍影Tの位置情報、形状に関する情報
等)が画像データs1とともに本発明の表示手段101
の一例であるCRTディスプレイ144(第9図参照)
に送られ、該CRTディスプレイ144の画面に画像デ
ータs1に基づく可視画像が表示され、その画像上に腫
瘍影Tがたとえば矢印により明示される。
As described above, in the second candidate extraction means 103 of the computer system 14 (1 (see FIG. 9)), the plurality of features ffiF1,
F2,...,Fn are connected to neural network (
(see FIG. 16) and first candidate extraction means 1 (see FIG. 16).
A signal bar representing the probability that the tumor shadow candidate C extracted in is a tumor shadow is obtained, and this signal bar is subjected to threshold processing to determine the candidate C.
After it is determined that the tumor shadow T is a tumor shadow T, data representing the tumor shadow T (for example, information on the position and shape of the tumor shadow T, etc.) is displayed in the display means 101 of the present invention together with the image data s1.
A CRT display 144 (see FIG. 9) is an example of
A visible image based on the image data s1 is displayed on the screen of the CRT display 144, and the tumor shadow T is clearly indicated on the image by, for example, an arrow.

その可視画像を観察した観察者は、その腫瘍影Tが真の
腫瘍影であるかまたは実際には腫瘍影ではないものが腫
瘍影であるとして表示されたものかを区別する情報Tを
本発明の入力手段1f)5一例であるキーボード143
から入力する。この情報Tはコンピュータシステム14
0内の第二の候補抽出手段103に入力される。第二の
候補抽出手段103ではこの情報Tを受けて、この情報
Tが真の肚瘍影である旨の情報であった場合は教師信号
d( (50)式参照)をd=1とし、腫瘍影ではない
旨の情報であった場合はd − ’Oとして、前述した
ニューラルネットワークの誤差逆伝播学習を行ない、次
回にはさらに正確な判断を行なうようにこれにより結合
の重み W 7 7 + 1が変化する。
An observer who observes the visible image can obtain information T that distinguishes whether the tumor shadow T is a true tumor shadow or whether something that is not actually a tumor shadow is displayed as a tumor shadow. A keyboard 143 is an example of the input means 1f)5.
Enter from. This information T is stored in the computer system 14
0 is input to the second candidate extraction means 103. The second candidate extracting means 103 receives this information T, and if this information T is information indicating that it is a true ulcer shadow, the teacher signal d (see formula (50)) is set to d=1, and the tumor If the information is that it is not a shadow, the error backpropagation learning of the neural network described above is performed as d − 'O, and the connection weight W 7 7 + 1 is set so that a more accurate judgment will be made next time. changes.

このように本発明によれば、本発明のSコ常陰影検出装
置を実際に用いながら、この装置が設置された施設や観
察者により適合するようにさらに知見が積み重ねられる
As described above, according to the present invention, while actually using the S-copy shadow detection device of the present invention, further knowledge is accumulated so that the device is more suitable for the facility where the device is installed and the observer.

97 98 なお、」二記実施例では第二の候補抽出手段1.03と
してニューラルネットワークが用いられているが、本発
明の第二の候補抽出手段103はニューラルネットワー
クを備えたものに限られるものではなく、ニューラルネ
ットワークに代えてまたはこれとともにたとえば以下に
述べるNN (nearestneighbor法)を
用いて複数の特徴ffiF1.F2,F3に基づく判断
を行なってもよい。
97 98 Note that in the second embodiment, a neural network is used as the second candidate extraction means 1.03, but the second candidate extraction means 103 of the present invention is limited to one equipped with a neural network. Rather, instead of or in conjunction with a neural network, a plurality of features ffiF1. A determination may be made based on F2 and F3.

上記ニューラルネットワークを用いる場合と同様に、腫
瘍影の有無および腫瘍影が存在する場合のその位置が既
知の多数のX線画像が用意され、腫瘍影候補Cの抽出が
行なわれ、さらに各腫瘍影候補Cについて前述した3つ
の特徴faFz+Fz,F3が求められる。これらの特
徴ffiF1.F2,F3の組と、これら特徴員F1,
F2,F3に対応する肚瘍影候補Cが腫瘍影であるか否
かどいう情報とがデータベースとして第二の候袖抽出手
段103に蓄積される。
As in the case of using the neural network described above, a large number of X-ray images in which the presence or absence of tumor shadows and the position of tumor shadows are known are prepared, tumor shadow candidates C are extracted, and each tumor shadow is The three features faFz+Fz and F3 described above for candidate C are found. These features ffiF1. The set of F2, F3 and these feature members F1,
Information as to whether or not the ulcer shadow candidate C corresponding to F2 and F3 is a tumor shadow is stored in the second candidate sleeve extraction means 103 as a database.

次にIMf瘍影であるか否かが未知の種瘍影候補Cから
抽出された特性値F1” ,F; ,F;と、既にデー
タベースとして入力されている多数の特性値F1 , 
 F2 ,  F3 (1−1.2, −−−, n)
とを用いて、距離 a,が、 a{−(F,  F:)2+(Fz  F2)2十(F
3  F;)2        ・・・(64)の演算
式に従って求められる。これらの距離a(1−1.,2
.・・・・・・+ n)のうちの最小の跪離a.に対応
する特性値FT +  F ”; ,F 3を有する肚
瘍影候補Cが腫瘍影であるか否か、およびその距離a。
Next, the characteristic values F1'', F;, F; extracted from the tumor shadow candidate C, which is unknown whether or not it is an IMf tumor shadow, and the many characteristic values F1, F1, which have already been input as a database.
F2, F3 (1-1.2, ---, n)
Using, the distance a, is a{-(F, F:)2+(Fz F2)20(F
3F;)2...It is determined according to the equation (64). These distances a(1-1.,2
.. ... + n) minimum kneeling a. Whether or not the tumor shadow candidate C having the characteristic value FT + F''; , F 3 corresponding to is a tumor shadow, and its distance a.

の大きさ等により入力された特性値F1 +  F2 
+F二を有する肚瘍影候補Cが肚瘍影である蓋然性の程
度が求められる。
Characteristic value F1 + F2 input based on the size, etc.
The degree of probability that the ulcer shadow candidate C having +F2 is an ulcer shadow is determined.

このNN法を用いた場合、第二の候仙抽出手段103で
は、キーボード143から入力された真の腫瘍影であっ
たか否かという悄報Tl.:^(づいて、こ99 100 ?腫瘍影候補Cに関して求めた複数の特徴量FIF2,
・・・・・・,Fnと上記情報Tとがデータベースに加
えられ、これが第二の候補抽出手段103の学習機能と
観念される。
When this NN method is used, the second candidate extracting means 103 receives the information Tl., which indicates whether or not it is a true tumor shadow inputted from the keyboard 143. :^(Next, this99 100? Multiple feature values FIF2 obtained for tumor shadow candidate C,
..., Fn and the above information T are added to the database, and this is considered to be the learning function of the second candidate extracting means 103.

また、上記実施例と同様に腫瘍影の有無および腫瘍影が
存在する場合のその位置が既知の多数のX線画像が用意
され、腫瘍影候補Cの抽出が行なわれ、各腫瘍影候補C
について前述した3つの特徴ffiFx ,Fz ! 
 F3が求められた後、これら特徴量F■,F2,F3
の組と、これらの特徴量F.,F2,F3に対応するl
lj瘍影候補Cが肚瘍影であるか否かという情報とに基
づいて、各特徴量F1 +  F2 +  F3につい
て腫瘍影であるか否かを区分するしきい値を求めて第二
の候補抽出手段103に記憶しておき、腫瘍影であるか
否かが未知の腫瘍影候補Cが抽出され特徴ffiFt 
,  Fz ,  F3が求められて、第二の候補抽出
手段103に入力された際に、これらの特徴量をしきい
値処理して対応する肚瘍影候補Cが1旺瘍影であるか否
かを判定しもよい。
Further, as in the above embodiment, a large number of X-ray images in which the presence or absence of a tumor shadow and the position of the tumor shadow are known are prepared, tumor shadow candidates C are extracted, and each tumor shadow candidate C
The three features described above for ffiFx , Fz !
After F3 is obtained, these feature quantities F■, F2, F3
and these feature quantities F. , F2, l corresponding to F3
Based on the information as to whether or not the tumor shadow candidate C is a tumor shadow, a threshold value for classifying whether or not it is a tumor shadow is determined for each feature value F1 + F2 + F3 to extract a second candidate. A tumor shadow candidate C, which is unknown whether or not it is a tumor shadow, is stored in the means 103 and the feature ffiFt is extracted.
. may also be determined.

第二の候補抽出手段103がこのような単純なしきい値
処理を行なうものである場合、キーボード43から入力
された真の腫瘍影であったか否かという情報Tは、この
しきい値を定めるための統計処理の基礎として使用され
、これが第二の候袖抽出手段103の学習機能と観念さ
れる。
When the second candidate extraction means 103 performs such a simple threshold processing, the information T inputted from the keyboard 43 regarding whether or not it is a true tumor shadow is used to determine this threshold value. This is used as the basis for statistical processing, and is considered to be the learning function of the second candidate extraction means 103.

このように、第二の候補抽出手段103ては上記各方法
およびさらに異なる公知の種々の方法のいずれか、さら
にそれらの方法の種々の組合せにより、複数の特徴ff
iFt.Fz,・・・・・,Fnに基づく、腫瘍影候f
+D Cが肚瘍影であるか否かという判断が行なわれる
In this way, the second candidate extracting means 103 extracts a plurality of features ff by any one of the above-mentioned methods, various different known methods, and various combinations of these methods.
iFt. Tumor shadow f based on Fz,...,Fn
A judgment is made as to whether +DC is an ulcer shadow or not.

なお、以上の実施例は、典型的に円形として現われる腫
瘍影を抽出する例であるが、これは円形の腫瘍影の抽出
に限られるものではなく、また胸部X線画像に限られる
ものでもなく、さらに蓄積性蛍光体を用いるシステムに
限られるものでもなく、被写体の放射線画像を表わす画
像データに基づいて該放射線画像上の異常陰影を検出す
る際に広く用い得るものである。
Note that although the above embodiment is an example of extracting a tumor shadow that typically appears as a circle, this is not limited to extraction of a circular tumor shadow, nor is it limited to chest X-ray images. Furthermore, the present invention is not limited to systems using stimulable phosphors, and can be widely used when detecting abnormal shadows on radiographic images based on image data representing radiographic images of a subject.

101 102101 102

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の.!I(本的摺成を説叩するためのブ
ロック図、 第2A図.第2B図はそれぞれ右肩,左肩のX線画像を
表わした図、 第3A図,第3B図は、それぞれ標準パターンおよび反
転パターンを表わした図、 第4図は、ニューラルネットワークの一例を表わした図
、 第5図は、X線撮影装置の一例の概略図、第6図は、X
線画像読取装置の一例、および本発明の一例を内包した
コンピュータシステムの一例を示した斜視図、 第7図は、本発明の異常陰影検出装置の構成を明示した
ブロック図、 第8図は、蓄積性蛍光体シート上に蓄積記録された胸部
X線画像の一例を模式的に表わした図、箪9図は、X線
画像読取装置の一例と、本発明の異常陰影検出装置の一
実施例であるコンピューターシステムとを衣わした斜視
図、 第10図は、第一の候補抽出手段1て用いられる、11
11 1m影を抽出する空間フィルタの例を説明するた
めに、X線画像上の所定の画素poを中心に該画像上に
仮想的に描いた図、 第H図は、上記所定の画素P。を中心とした、第10図
の線分LlとL5の延びる方向(X方向)のX線画像の
プロファイルの一例を示した図、第l2図は、所定の画
素P○が腫瘍影内の画素であるか否かの判定に用いる特
性値の求め方を説明するための図、 第13図は、画像データr1のグラジエントf1等のベ
クトルを示す図、 第14A図、第14B図は、一旦III瘍影の候補とし
て抽出された、それそれ真正の肚瘍影および血管等の密
集した領域のX線画像とそのX方向,y方向のプロファ
イルを表わした図、 第15図は、候袖抽出手段で抽出された腫瘍影候補の一
例を表わした図、 第16図は、異常陰影抽出手段で採用される、誤差逆伝
播学習機能を備えたニューラルネットワ10B 104 クの一例を表わした図、 第17図は、第3図に示すX線両像から得られた画像デ
ータのヒストグラムを表わした図、第18図は、第3図
に示す胸部X線画像のうちの肋月影(第3図には図示せ
ず)の一部を拡大して示した図である。 1・・X線撮影装置   2・・・X線源5・・・被写
体部     6・・・直接X線部11. 11’・・
・蓄積性蛍光体シート19. 19’・・・輝尽発光光 21, 2]’ ・・・フォI・マルチプライヤ26.
 26’・・・対数増幅器 27  27’・・・A/D変換器 40・・・コンピュータシステム 100・・・先読手段     100′・・・本読手
段101・・・第一の候袖抽出手段 102・・・特徴瓜演算手段 103・・・第二の候補演算手段 104・・・表示手段   105・・・入力手段10
6・・・肋佃影    107・・肚瘍影1 1 5 
−= Illli部     1 1 5a − 11
+li門部1 15 b・・・肺野部   116・・
・皮膚部117・・・直接x1i1部  12[1・・
・X線画像読取装置123・・・レーザ光源  {2B
・・・回転多面鏡129・・・輝尽発光光  130・
・光ガイド131・フォトマルチプライヤ 140・・・コンピュータシステム 105 ] 06 第2A図 第3A図 ■ 法 歌・峡
Figure 1 shows the structure of the present invention. ! I (Block diagram for explaining the basic printing process, Figure 2A. Figure 2B is a diagram showing the X-ray images of the right shoulder and left shoulder, respectively. Figures 3A and 3B are the standard pattern and Figure 4 is a diagram showing an example of a neural network, Figure 5 is a schematic diagram of an example of an X-ray imaging device, and Figure 6 is a diagram showing an example of an X-ray imaging device.
A perspective view showing an example of a line image reading device and an example of a computer system including an example of the present invention; FIG. 7 is a block diagram clearly showing the configuration of the abnormal shadow detection device of the present invention; FIG. 8 is a Figure 9, which schematically represents an example of a chest X-ray image stored and recorded on a stimulable phosphor sheet, shows an example of an X-ray image reading device and an embodiment of the abnormal shadow detection device of the present invention. FIG. 10 is a perspective view of the computer system used in the first candidate extraction means 1.
11 In order to explain an example of a spatial filter for extracting a 1m shadow, FIG. A diagram showing an example of the profile of an X-ray image in the extending direction (X direction) of line segments Ll and L5 in FIG. FIG. 13 is a diagram showing vectors such as gradient f1 of image data r1. FIGS. 14A and 14B are Figure 15 is a diagram showing the X-ray images of areas with dense areas such as true ulcer shadows and blood vessels extracted as candidates for tumor shadows, and their profiles in the X and y directions. FIG. 16 is a diagram showing an example of an extracted tumor shadow candidate. FIG. 18 is a diagram showing the histogram of the image data obtained from both the X-ray images shown in Figure 3, and Figure 18 is a diagram showing the costolunar shadow in the chest X-ray image shown in Figure 3. FIG. 1... X-ray imaging device 2... X-ray source 5... Subject part 6... Direct X-ray part 11. 11'...
・Stormable phosphor sheet 19. 19'... Stimulated luminescent light 21, 2]'... FoI multiplier 26.
26'... Logarithmic amplifier 27 27'... A/D converter 40... Computer system 100... Pre-reading means 100'... Main reading means 101... First candidate extracting means 102...Feature melon calculation means 103...Second candidate calculation means 104...Display means 105...Input means 10
6... Rib Tsukuda shadow 107... Ulcer shadow 1 1 5
-= Illi part 1 1 5a - 11
+li hilum 1 15 b... lung field 116...
・Skin part 117...Direct x1i1 part 12[1...
・X-ray image reading device 123...Laser light source {2B
... Rotating polygon mirror 129 ... Stimulated luminescence light 130.
・Light guide 131 ・Photo multiplier 140 ... computer system 105] 06 Figure 2A Figure 3A■ Houka Gorge

Claims (5)

【特許請求の範囲】[Claims] (1)放射線画像データに基づいて、照射野の認識、先
読み画像データに基づく本読みの画像読取条件の決定、
画像処理条件の決定、異常陰影の検出等のデータ処理を
、ニューラルネットワークを用いて行なう放射線画像処
理装置において、 学習済の前記ニューラルネットワークを装置に実装後、
前記ニューラルネットワークによるデータ処理を修正し
再学習させるための修正情報を前記ニューラルネットワ
ークに入力する入力手段を設けたことを特徴とする放射
線画像処理装置。
(1) Recognizing the irradiation field based on radiation image data, determining image reading conditions for main reading based on pre-read image data,
In a radiation image processing device that uses a neural network to perform data processing such as determining image processing conditions and detecting abnormal shadows, after implementing the trained neural network in the device,
A radiation image processing apparatus comprising: input means for inputting correction information to the neural network for correcting and relearning data processing by the neural network.
(2)放射線画像が記録された蓄積性蛍光体シートに励
起光を照射し該蓄積性蛍光体シートから発せられた輝尽
発光光を読み取って得られた前記放射線画像を表わす第
一の画像信号に基づいて、前記蓄積性蛍光体シートに再
度励起光を照射し該蓄積性蛍光体シートから発せられた
輝尽発光光を読み取って前記放射線画像を表わす第二の
画像信号を得る際の読取条件及び/又は得られた前記第
二の画像信号に画像処理を施す際の画像処理条件を求め
る放射線画像読取条件及び/又は画像処理条件決定装置
において、 放射線画像の標準的なパターンを記憶しておく記憶手段
と、 前記第一の画像信号が担持する前記放射線画像を前記標
準的なパターンに変換して、該変換された放射線画像を
担持する変換画像信号を求める信号変換手段と、 前記変換画像信号を入力とし前記読取条件及び/又は前
記画像処理条件を出力とするニューラルネットワークか
らなる条件決定手段、 前記条件決定手段により出力された前記読取条件及び/
又は前記画像処理条件に基づいて読取及び/又は画像処
理された放射線画像を可視画像として表示する表示手段
、及び 前記表示手段により表示された可視画像を、より適正な
可視画像に変換するための補正情報を前記条件決定手段
に入力する入力手段とからなり、前記条件決定手段が、
前記入力手段から入力された前記補正情報に基づいて、
前記変換画像信号を入力とし、読取条件及び/又は前記
画像処理条件を出力とするニューラルネットワークの演
算を変更する学習機能を備えたことを特徴とする放射線
画像読取条件及び/又は画像処理条件決定装置。
(2) A first image signal representing the radiation image obtained by irradiating the stimulable phosphor sheet on which the radiation image is recorded with excitation light and reading the stimulated luminescence light emitted from the stimulable phosphor sheet. based on the reading conditions for obtaining a second image signal representing the radiation image by irradiating the stimulable phosphor sheet with excitation light again and reading the stimulated luminescence light emitted from the stimulable phosphor sheet. and/or in a radiation image reading condition and/or image processing condition determination device for determining image processing conditions for performing image processing on the obtained second image signal, storing a standard pattern of a radiation image; storage means; signal conversion means for converting the radiographic image carried by the first image signal into the standard pattern and obtaining a converted image signal carrying the converted radiographic image; and the converted image signal. condition determining means comprising a neural network that receives as input the reading condition and/or the image processing condition as output;
or display means for displaying a radiation image read and/or image-processed based on the image processing conditions as a visible image, and correction for converting the visible image displayed by the display means into a more appropriate visible image. an input means for inputting information into the condition determining means, the condition determining means comprising:
Based on the correction information input from the input means,
A radiographic image reading condition and/or image processing condition determining device characterized by having a learning function that changes the calculation of a neural network that receives the converted image signal as input and outputs the reading condition and/or the image processing condition. .
(3)放射線画像を表わす画像信号に基づいて、該画像
信号に画像処理を施す際の画像処理条件を求める放射線
画像処理条件決定装置において、 放射線画像の標準的なパターンを記憶しておく記憶手段
と、 前記画像信号が担持する放射線画像を前記標準的なパタ
ーンに変換して、該変換された放射線画像を担持する変
換画像信号を求める信号変換手段と、 前記変換画像信号を入力とし前記画像処理条件を出力と
するニューラルネットワークからなる条件決定手段 前記条件決定手段により出力された前記読取条件及び/
又は前記画像処理条件に基づいて読取及び/又は画像処
理された放射線画像を可視画像として表示する表示手段
、及び 前記表示手段により表示された可視画像を、より適正な
可視画像に変換するための補正情報を前記条件決定手段
に入力する入力手段とからなり、前記条件決定手段が、
前記入力手段から入力された前記補正情報に基づいて、
前記変換画像信号を入力とし、読取条件及び/又は前記
画像処理条件を出力とするニューラルネットワークの演
算を変更する学習機能を備えたことを特徴とする放射線
画像処理装置。
(3) In a radiation image processing condition determination device for determining image processing conditions for performing image processing on an image signal based on an image signal representing a radiation image, a storage means for storing a standard pattern of a radiation image. and a signal conversion means for converting the radiographic image carried by the image signal into the standard pattern to obtain a converted image signal carrying the converted radiographic image, and the image processing using the converted image signal as input. Condition determining means comprising a neural network outputting conditions; and/or the reading conditions outputted by the condition determining means;
or display means for displaying a radiation image read and/or image-processed based on the image processing conditions as a visible image, and correction for converting the visible image displayed by the display means into a more appropriate visible image. an input means for inputting information into the condition determining means, the condition determining means comprising:
Based on the correction information input from the input means,
A radiation image processing apparatus comprising a learning function for changing calculations of a neural network that receives the converted image signal as an input and outputs the reading conditions and/or the image processing conditions.
(4)被写体の放射線画像を表わす画像データに基づい
て前記放射線画像上の異常陰影を検出する異常陰影検出
装置において、 前記画像データに基づいて、前記異常陰影の候補を抽出
する第一の候補抽出手段、 前記第一の候補抽出手段により抽出された前記候補の近
傍の前記画像データに基づいて、該各候補毎に複数の特
徴量を求める特徴量演算手段、前記特徴量演算手段によ
り求められた前記複数の特徴量に基づいて、前記候補の
うち前記異常陰影である蓋然性の高い候補を抽出する第
二の候補抽出手段、 前記画像データと、前記蓋然性の高い候補を表わすデー
タとに基づいて、該候補を明示した可視画像を表示する
表示手段、及び 前記可視画像に明示された前記候補が前記異常陰影であ
るか否かの情報を入力する入力手段とからなり、 前記第二の候補抽出手段が、前記入力手段から入力され
た前記情報に基づいて、前記第一の候補抽出手段で抽出
された前記候補から前記蓋然性の高い候補を抽出する演
算を変更する学習機能を備えたことを特徴とする異常陰
影検出装置。
(4) In an abnormal shadow detection device that detects an abnormal shadow on the radiation image based on image data representing a radiation image of a subject, a first candidate extraction that extracts candidates for the abnormal shadow based on the image data. means, feature amount calculation means for calculating a plurality of feature amounts for each candidate based on the image data in the vicinity of the candidate extracted by the first candidate extraction means; a second candidate extraction means for extracting a candidate with a high probability of being the abnormal shadow from among the candidates based on the plurality of feature amounts; based on the image data and data representing the candidate with a high probability; The second candidate extracting means comprises a display means for displaying a visible image showing the candidate, and an input means for inputting information as to whether the candidate shown in the visible image is the abnormal shadow. is characterized by comprising a learning function for changing the calculation for extracting the highly probable candidate from the candidates extracted by the first candidate extracting means, based on the information input from the input means. Abnormal shadow detection device.
(5)前記第二の候補抽出手段が、前記情報を教師信号
とする誤差逆伝播学習機能を有するニュートラルネット
ワークを備えたことを特徴とする請求項4記載の異常陰
影検出装置。
(5) The abnormal shadow detection apparatus according to claim 4, wherein the second candidate extracting means includes a neutral network having an error backpropagation learning function using the information as a teacher signal.
JP2167514A 1989-06-26 1990-06-26 Radial image processing device Pending JPH03102477A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US07/712,214 US5157733A (en) 1990-06-08 1991-06-07 Radiation image processing apparatus, determination apparatus, and radiation image read-out apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP16290389 1989-06-26
JP1-162903 1989-06-26

Publications (1)

Publication Number Publication Date
JPH03102477A true JPH03102477A (en) 1991-04-26

Family

ID=15763425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2167514A Pending JPH03102477A (en) 1989-06-26 1990-06-26 Radial image processing device

Country Status (1)

Country Link
JP (1) JPH03102477A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5727131A (en) * 1992-10-23 1998-03-10 Nippondenso Co., Ltd. Neural network learning device
JP2001094829A (en) * 1999-09-17 2001-04-06 Canon Inc Image processor, system and method for processing image and storage medium
JP2005253685A (en) * 2004-03-11 2005-09-22 Konica Minolta Medical & Graphic Inc Diagnostic imaging support device and program
JP2010086537A (en) * 2008-09-30 2010-04-15 General Electric Co <Ge> Active electronic medical record based support system using learning machine
JP2010531155A (en) * 2007-03-19 2010-09-24 ユニバーシティー オブ サセックス Method, apparatus and computer program for analyzing medical image data
JP2013012222A (en) * 2012-08-27 2013-01-17 Canon Inc Image processor, system and method for processing image and storage medium
JP2015191642A (en) * 2014-03-31 2015-11-02 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing device and program
CN107374657A (en) * 2017-06-30 2017-11-24 上海联影医疗科技有限公司 The method and CT scan system being corrected to CT scan data
WO2020255290A1 (en) * 2019-06-19 2020-12-24 株式会社島津製作所 Organ image analysis method and learning method
US10977843B2 (en) 2017-06-28 2021-04-13 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for determining parameters for medical image processing
WO2021199967A1 (en) * 2020-03-30 2021-10-07 テルモ株式会社 Program, information processing method, learning model generation method, learning model relearning method, and information processing system
US11288550B2 (en) 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5727131A (en) * 1992-10-23 1998-03-10 Nippondenso Co., Ltd. Neural network learning device
JP2001094829A (en) * 1999-09-17 2001-04-06 Canon Inc Image processor, system and method for processing image and storage medium
JP2005253685A (en) * 2004-03-11 2005-09-22 Konica Minolta Medical & Graphic Inc Diagnostic imaging support device and program
JP2010531155A (en) * 2007-03-19 2010-09-24 ユニバーシティー オブ サセックス Method, apparatus and computer program for analyzing medical image data
JP2010086537A (en) * 2008-09-30 2010-04-15 General Electric Co <Ge> Active electronic medical record based support system using learning machine
JP2013012222A (en) * 2012-08-27 2013-01-17 Canon Inc Image processor, system and method for processing image and storage medium
JP2015191642A (en) * 2014-03-31 2015-11-02 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing device and program
US10977843B2 (en) 2017-06-28 2021-04-13 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for determining parameters for medical image processing
US11908046B2 (en) 2017-06-28 2024-02-20 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for determining processing parameter for medical image processing
CN107374657A (en) * 2017-06-30 2017-11-24 上海联影医疗科技有限公司 The method and CT scan system being corrected to CT scan data
US11288550B2 (en) 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
WO2020255290A1 (en) * 2019-06-19 2020-12-24 株式会社島津製作所 Organ image analysis method and learning method
WO2021199967A1 (en) * 2020-03-30 2021-10-07 テルモ株式会社 Program, information processing method, learning model generation method, learning model relearning method, and information processing system

Similar Documents

Publication Publication Date Title
US5850465A (en) Abnormnal pattern detecting or judging apparatus, circular pattern judging apparatus, and image finding apparatus
JP3326070B2 (en) Image processing method for image diagnosis support apparatus
US8873826B2 (en) Method for brightness level calculation of the digital x-ray image for medical applications
US5123054A (en) Abnormal pattern detecting apparatus
JPH03102477A (en) Radial image processing device
US5557687A (en) Abnormal pattern detecting apparatus
JPH05168615A (en) Method and system for determining radiation image reading condition and/or image processing condition, and method and system for analyzing radiation image
EP0405457B1 (en) Method and apparatus for classifying picture elements in radiation images
EP0707277B1 (en) Abnormal pattern detecting apparatus
JP2987634B2 (en) Abnormal shadow judgment device
Agafonova et al. Meningioma detection in MR images using convolutional neural network and computer vision methods
JP2727257B2 (en) Radiation image processing method using neural network
JP2987633B2 (en) Abnormal shadow detector
JPH04261649A (en) Method and apparatus for analyzing radiation image
JP2582667B2 (en) Linear pattern width calculator
Dewaele et al. Trainable rule-based network for irradiation field recognition in Agfa's ADC system
JPH0538334A (en) Method of recognizing field of view of collimation of radiation
JP2867036B2 (en) Abnormal shadow detector
JPH04156828A (en) Pattern recognizing device
JP2582666B2 (en) Abnormal shadow detector
Takeo et al. Improved automatic adjustment of density and contrast in FCR system using neural network
JP2952422B2 (en) Radiation image analyzer
JP2582660B2 (en) Abnormal shadow detector
JPH04144546A (en) Method for photographing and deciding radiation image
JPH04317263A (en) Irradiation field recognition pre-processing method utilizing neural network